NOMN

← ツール

RESERVOIR: エコーステートコンポーザー

よくある質問
What platforms does RESERVOIR run on?
macOS (Apple Silicon, with support for Intel) as VST3, AU, and Standalone. Windows is coming soon. Please report bugs if you encounter anything strange with any DAW host.
Is RESERVOIR an "AI music" tool?
No — at least not in the sense people usually mean. When people talk about "AI music" today, they usually mean tools like Suno or Udio: systems that take a text prompt ("lo-fi hip hop with a sad violin and hindustani vocal") and hand back a finished audio file, vocals and all. Since it's confusing let's define what these systems do and don't do: these aren't stitching together scraped samples the way older concatenative synthesis did; they're generative neural models, most likely latent diffusion architectures. The trick is counterintuitive: during training, the model learns by watching real (published, likely unlicensable) audio get progressively buried in noise, and it gets very good at predicting what noise was added at each step. At generation time it runs that process in reverse — starting from pure static and repeatedly subtracting what it predicts doesn't belong, carving the noise away until a coherent track emerges. Nothing is assembled from fragments; there's no splice to point at. The training corpus (again, much of it scraped and largely unlicensed, though that's changing as labels embrace AI Music by licensing their catalogs and creating their own engines) lives on only as a diffuse statistical imprint across billions of weights.

What comes out is pseudodiverse — surface variety drawn from a narrow statistical basin, a thousand tracks can be generated that all feel sculpted from the same block.

And there's a deeper issue, one the book *Figures in Air* (2015, Inventory Press) has been pressing on for a decade: audio and music are not the same object. A diffusion model outputs audio — the photograph of a bed. Music is the bed you can actually sleep in: a temporal, embodied, culturally situated pattern language that listeners and players inhabit. The photograph can be stunning, but you still can't sleep in it. This was already true before AI was generating audio representations of the recorded history of music making.

RESERVOIR works in the opposite direction. It doesn't generate audio at all — it generates MIDI: symbolic instructions about when notes happen, which pitches, how loud, with what articulation. And it arrives at those decisions through cross-pollinating historical algorithms you can see and tune: Schillinger's rhythmic interference patterns, Euclidean distributions, Markov chains, cellular automata, an Echo State Network whose memory of recent output feeds back into what comes next.

Because the output is symbolic and transparent, RESERVOIR can function as several things at once — a learning tool for studying how pattern logics produce musical behavior, a composition sketchbook for notated scores and performance parts, or, routed to the right instruments, a generator of its own range of (potentially also pseudodiverse) audio textures if that's what you're after. You can see the rules, change them, and carry the patterns out of the tool into a score, an ensemble, a room.

AI Music tools are geared towards giving you an answer. RESERVOIR gives you a reservoir to compose from. We aren't fundamentalists about what current and future technology will change about music making, but at this particular moment, gathering this alternative set of music/computation resources seems important to put in the world as an alternative path.
Does it support MPE?
Yes. RESERVOIR supports MPE and generates it on the fly. The manual has details on pitch bend range, per-note expression, and controller compatibility.
Is there a free trial?
Yes. Once you've registered an account at NOMN.JP, you can get a trial code. You start a trial or license by clicking the "Unlicensed" message within the application itself.
What are these example tracks all about? How are they made?
All examples are unedited outputs from one or more instances of RESERVOIR into vanilla VSTis. These are not finished pieces or polished mixes — they are intended to show what kind of range is possible with the software. They are intentionally not impressive compositions; they are examples of nearly raw output across different use cases.
Any tips to get started?
RESERVOIR is an immense platform and it will take time to develop a relationship to what it can do — but it's easy to get started. The single most useful pointer: the CODEX button at the bottom of the window replaces the visualization with context-specific descriptions for whatever you're selecting. Use it liberally while you're learning the interface.

The interface itself is organized as a flow through cards:

- Start by generating rhythmic events using one of the many generators, then filter these through "perforation," which further de-regularizes them and adds an additional logic of punctuation (through silence).
- Use the pitch card to assign a pitch logic to these events.
- Use the final card to tweak phrasing, microtiming, and expression.
Can you automate all of these variables in a DAW?
Yes, and you should! You can also drive the parameters live as you record midi.
Why aren't there any presets?
There is a robust user preset system for you to carve out your own area of the reservoir for yourself. We've left the factory bank empty on purpose — presets tend to calcify into defaults, and RESERVOIR is designed to be explored rather than paged through.
How do I actually set RESERVOIR up in my DAW?
RESERVOIR does not make any sound — it only generates MIDI. Our suggestion is to put RESERVOIR on its own track and use a MIDI send to route its output into whatever VSTi you'd like to use. This way both tracks have their full automation lanes open for your creative injection.
Can I make beats with this thing?
Yes. Two rhythm engines in particular — Beat Grid (Markov-chain beat grids) and Style Grid (genre-seeded pattern wander drawn from the drum corpus) — are geared toward more conventional rhythmic patterns versus the more abstract constructions of the other modes. They output MIDI in the range of most VSTi drum machines, though some use cases will require you to remap your drum machine to catch the right notes.
Once again- is Reservoir like "AI MUSIC"? Is it using AI to make music for me like SUNO or UDIO?
See the longer answer above under *"Is RESERVOIR an 'AI music' tool?"* for the full version. Short version: no. RESERVOIR doesn't have samples or a training corpus of music to make tracks for you. It leverages many methods, most of which were worked out decades before AI music generators existed — many with pen and paper. The Echo State Network is a type of neural network, but its job is to push parameters around behind the scenes so that the pattern logic you build with RESERVOIR drifts in a musically interesting way. The purpose of this is to address one of the major issues with computer-based producing: it tends to be too rigid and deterministic and draws you into loops, because doing otherwise is extremely time consuming. Human music making is full of small inconsistencies and variations that are perfect in a very non-computery way.
Is using RESERVOIR cheating somehow?
No — we imagine this as a tool to quickly explore types of pattern and pattern evolution. Our bearing is toward the more experimental uses, but we've also made an effort to make it capable of exploring quite normal areas of production and composition. Our goal is for it to be a resource, a "reservoir" of possible material that can be developed, cropped, collaged, and edited much more than used as-is.

音楽はパターン言語である。

新しいパターン、新しい感覚。新しいルール、新しいパターン。新しいパターン、新しい文化。新しい文化、新しい音楽。

特定の文化やサブカルチャーの音楽体系はルールベースのパターン言語である。これは良いことでも悪いことでもない——人間の可能性の表現的な収穫である。

方眼紙と数学を使ってこれらの収穫をアルゴリズムとして見ることは、音楽制作の仕組みから遠ざかることではなく、より深く入り込むことであった。それは、ほとんどの人間がMaryanne AmacherがIntelligent Lifeに書いたように「他人の音符を並べ替えてきた」ことを理解することに近い。Anthony Braxtonが「リストラクチュラリズム」に対して「スタイリズム」と呼ぶものの実践者。

RESERVOIRは音楽パターンを探求するためのプラットフォームである——音符とその数学的関係が文化を生み出し、消す方法について考える手段。

**

アルゴリズミック・コンポジションには深い歴史があり、音楽制作と「作曲」がどのようなものであり得るかについての高度に創造的で示唆に富む思考の連続体の一部である。1960年代にミニマリズムとポップが支配的になる以前、文化的遺産と疑問視されていない規範を、より抽象的な理解で解体することが可能性の再構築を許すという計算的楽観主義があった。

セリアリズムとその多くの分岐はこの会話の初期の一部に過ぎず——起源ですらなかった。すぐ隣にはJoseph Schillingerがいた。ロシアの理論家で、その弟子Lawrence BerkがSchillinger House——後のBerklee——を設立し、その弟子や後継者はGershwinやGil EvansからEarle Brownまで美学的に多様であった。Schillingerの基本的なアイデアは周期性の干渉であった:複雑な音楽的時間は、孤立した単一のパターンからではなく、重なり合う時間的サイクルの相互作用から現れるという原理。彼はリズムをハーモニーやメロディーに先行する、すべての音楽の主要な組織原理として扱った。

Schillingerは無調性にコミットしていたわけではない。彼は数学、自然、芸術を20世紀初頭の神秘主義的な方法で橋渡しすることにコミットしていた。他の者たちが独自のアプローチで続いた——Xenakisもその中にいた——そしてコンピュータが学術環境で利用可能になると、「コンピュータ音楽」はそれ自体が研究分野となり、抽象数学、ニューラルネットワーク、そして現在ではトレーニングデータに基づいて単に「音楽を解く」transformerや拡散モデルの実装が行われている。

RESERVOIRは音楽制作のパターンロジックを探求するためのリソースであり、ソルバーではない——リザーバー(貯水池)であり、答えではない。リザーバーは蓄積する。起源が多様で相互作用が進行中の素材を保持する。出て来るものは、入ったすべてのものと保持そのもののダイナミクスによって形作られる。

RESERVOIRはこの系譜をリアルタイムDAW統合型パターンエンジンに持ち込む——あなたのために作曲するのではなく、広大でチューナブルなランドスケープとして。12の同時MIDIボイスを数学的に根拠のあるアルゴリズムのパイプラインを通じて生成、穿孔、成形するポリフォニックテクスチャーオーケストレーター。各アルゴリズムは特定の伝統に根ざし、機械学習レイヤーによって強化される:Echo State Network。その循環ニューロンはシステム自身の出力の減衰するエコーを保持し、Schillingerが90年前に形式化したのと同じ種類の時間的干渉を通じて新しいパターンを生成する。それは自分自身に耳を傾け、継続的に進化する。ステップシーケンサーではないが、シーケンスは作れる。ランダムノートジェネレーターではないが、準ランダムなマイクロタイムドクラウドを生成できる。その内部ロジックは、時間とピッチを厳密さと驚きを同時に持って組織する方法についての一世紀の思考に基づくシステムである。将来のアップデートでさらに多くのロジックが追加されるが、現状でも素材を見つけたりテクスチャーや楽曲全体の新しいフレームワークを作成するための100,000以上のユニークなシナリオがある。

出力は標準MIDI、非常に精密なタイミング、マイクロトーナリティ対応。任意の楽器にルーティング可能。録音し、編集し、その上に構築できる。

RESERVOIRが生み出すのは原素材ではない。パターン化された素材——いかなる個人の著作権主張にも先行し、それを超える伝統と数学的ロジックから引き出されたパターンである。作曲は常に継承された構造との交渉であった。RESERVOIRはこの交渉を明示的、ナビゲート可能、そして生産的にする。

--
## 仕組み

すべてのノートは4つのステージを通過する:

生成。 17のリズム技法がノートの発生タイミングを決定する。Schillingerのリズム語彙の完全な第一巻——合成リズム、グルーピング公式、マルチジェネレーター干渉、楽器的時間リズム、持続群の調整、持続と休止の順列、同質連続性、分配べき乗、成長系列、加速曲線——に加え、確率的クラウド、ユークリッド分布、L-systemフラクタル、倍音列パルスストリーム、Markovチェーンビートグリッド、764,000のMIDIドラムファイルから引き出されたジャンルシードパターンワンダー。

穿孔。 7つの方法がどのノートが除去されるかを決定する——沈黙がどこに落ち、どのようなロジックで。素数篩、Fibonacciベースフィルタリング、黄金比準周期格子、セルラーオートマタ、モジュラー合同フィルタリング、オープンソースMIDIファイルのコーパスから学習した密度曲線。

ピッチ。 12のアルゴリズムが何の音を演奏するかを決定する。セリアル消尽、スペクトル干渉、Markovチェーン、組み合わせ順列、対称反転、コーパス学習された遷移、アルペジエーターパターンから引き出す。ハーモニックコンダクターシステムではユーザー定義のコードボキャブラリーと自動ボイスリーディングが可能。西洋のモード、日本の琴の調律、インドのラーガ、Yusef Lateefの合成的形成、マイクロトーナルシステムにわたる112+のスケール。

エクスプレッション。 ベロシティシェイピング、5つのアーティキュレーションスタイル、6グループ(ダイナミクス、ティンバー、ビブラート、アーティキュレーション、エフェクト、ペダル)にわたるフレーズ反応エンベロープ付き連続CCコントローラー、4つのマイクロタイミングモード:メトロノミック、NOMNエクスプレッシブタイミング、ライブMIDIパフォーマンスからキャプチャしたユーザーグルーブプロファイル、ドラムコーパスから抽出されたジャンル特有のマイクロタイミング。ランダムジッターではない。密度、フレーズポジション、スタイリスティックな伝統に応答するコンテキスチュアルグルーブ。

--
## エンジン

12の独立レイヤー、それぞれが独自のリズムジェネレーター、穿孔フィルター、ピッチパターンを実行。すべてストリーミング、すべてリアルタイム、すべてDAWトランスポートに同期。PPQベースのタイミング。

レイヤーは5つのインタラクションモードで調整:同期呼吸、相補的ホケット(レイヤーが互いのギャップを埋める)、カスケーディングカノン的エントリー、モノフォニック単一ボイスプライオリティ、完全独立。複合密度モデルがすべてのエンジン組み合わせにわたって出力を正規化し、アルゴリズム切替時に知覚密度が維持される——テクスチャーが変わるが重さは変わらない。レイヤーインタラクションモードが同じアルゴリズム設定を劇的に異なるテクスチャーに変換する。

Echo State Networkがメタジェネレイティブレイヤーとしてエンジンの上に位置する。RESERVOIR自身の出力から音楽特徴——密度、規則性、音程サイズ、音域、シンコペーション、スウィング、ポリフォニー、輪郭——を読み取り、ピッチ、リズム、テクスチャー次元にわたってモジュレーションバイアスを出力する。リザーバーは音楽の最近の過去の時間的エコーを保持する。新しいモジュレーションはこれらの減衰する痕跡の非線形干渉から現れる——Schillingerが周期性の相互作用として記述したのと同じ原理が、ノートレベルのリズムではなく作曲の進化のレベルで作動する。単一のEvolution Rateノブがネットワークの応答速度を制御する。ゼロではほぼ凍結、フルでは自由にドリフトし、ランダムモジュレーションではなく音楽自体から現れるモメンタム、クロマティックプル、ティンブラルシフト、リズミックテンションを導入する。

ハーモニックコンダクターモードでは、最大32のコードボキャブラリーを定義でき、RESERVOIRがESNテンションクロッシングに駆動され、フレーズ境界にクオンタイズされた自動ボイスリーディングでそれらを遷移する。単一のDriftノブがハーモニーの自由度を制御する。

ステートシーケンサーがマクロレベルのフォームを提供:2–8セクション、設定可能なクロスフェード、アーク形状(黄金分割、アーチ、ウェッジ)、オプションのコーパス由来の形式的プロポーション。10分間走らせて、パラメータに触れることなく構築、解放、進化する楽曲を録音可能。

MIRキャプチャシステムがライブMIDI入力を分析——ピッチ輪郭、リズムプロファイル、スウィング、フレーズ境界、アーティキュレーションスタイルを抽出——し、結果のパフォーマンスフィンガープリントを生成エンジンにフィードバックする。フレーズを弾き入れる。RESERVOIRがそのキャラクターを吸収し、そこから生成する。

パラメータバリエーションやスケール選択前に133,000以上のユニークなアルゴリズム組み合わせ。

--
## パラメータ

Rhythm Engine
- Density Min/Max:拍あたりのアタック数(0.1-10)。複合モデル:スライダー値=全レイヤーの合計イベント/拍。
- Note Length Min/Max:インターバルの比率としてのデュレーション(0.1-2.0)。
- Rhythm Pattern:Stochastic、Resultant、Grouping、Density Field、Euclidean、Harmonic Series、Multi-Generator、Instrumental、Coordination、Permutation、Continuity、Power Group、Growth Series、Acceleration、L-System、Beat Grid、Style Grid。
- エンジン固有のコントロール:17のリズムエンジンそれぞれが固有のパラメータセットを公開。

Perforation Engine
- Perforation Amount:ギャップ密度(0.0-1.0)。
- Perforation Method:Euclidean、Prime Sieve、Fibonacci、Modular、Golden Lattice、Cellular Automata、Corpus Density。

Pitch Logic
- Pitch Selection:Serial、Spiral、Fibonacci、Registry、Markov、Golden、Interference、Symmetric Inversion、Permutation、Corpus Markov、Arpeggiator、Harmonic Conductor。
- Harmonic Conductor:最大32コード、17のコードクオリティ、Driftノブ、オクターブ転置。
- Pitch Pattern Shape:アルゴリズム固有のコントロール(0.0-1.0)。
- Scale:内蔵ライブラリの112+スケール。
- Root Pitch Class:CからB。
- Octave Span:1-10オクターブ。

Expression
- Velocity Min/Max:MIDIベロシティ範囲。
- Articulation:Full Length、Legato、Staccato、Tenuto、Varying。
- Groove Feel:Metronomic、NOMN expressive timing、User Groove、Genre Groove。
- Phrase Elasticity:密度応答のノート短縮。
- 6つのCCグループ:Dynamics、Timbre、Vibrato、Articulation、Effects、Pedal。

Echo State Network
- Enabled:オン/オフトグル。
- Evolution Rate:ドリフト速度を制御するリーク率(0.0-1.0)。
- ピッチ、リズム、テクスチャーグループにわたる16のデプススライダーで次元ごとのモジュレーション制御。
- リアルタイム偏差ビジュアライゼーション。

State Machine
- Sections:2-8の作曲セクション。
- Section Length:セクションあたり15-180秒。
- Section Crossfade:0-100%のグラデュアルトランジション。
- Arc Form:Random、Golden Section、Arch、Wedge、Corpus。
- Auto-Evolve:自動ステート進行。
- Arc Position:手動ポジションオーバーライド(オートメーション可能)。

Layer System
- Active Layers:1-12同時ボイス。
- Layer Interaction:Independent、Inverse、Complementary、Synchronized、Monophonic。

MIR Capture
- ライブMIDI入力分析:ピッチ、リズム、グルーブ、アーティキュレーション、ポリフォニー。
- パフォーマンスフィンガープリントが全生成エンジンにシーディング。
- フィンガープリントとアルゴリズム出力のブレンドのためのMorphコントロール。

Visualization
- 8つのカラーモード:Greyscale、Chromatic、Register、Interval、Tension、Schillingerian、Scriabin、Rimsky-Korsakov。
- ジャンルシードエンジンのためのStyle Gridパターントレイル可視化。
- スコアビューとラジアルゲシュタルトビュー。
- ピッチクラスグリッドとマクロアークプレビュー。

Presets
- Preset Morph:任意の2つのプリセット間のクロスフェード(0.0-1.0、オートメーション可能)。
- MIDI Program Change:外部プリセット切替。
- DAW統合のための128スロットプリセットバンク。

--
## フィーチャー&フォーマット

主な特徴:
- 12レイヤーポリフォニック生成:レイヤーごとに独立したリズム、穿孔、ピッチ。5つの調整モードと複合密度正規化。
- Echo State Network:自己参照的音楽特徴を読み取り連続モジュレーションバイアスを出力する循環ネットワーク。自身の出力から作曲を進化させる機械学習レイヤー。
- 17のSchillinger完全リズムエンジン:Schillingerの第一巻リズム語彙(第2-14章)の完全実装に加え、確率的、ユークリッド、L-system、Markovグリッド、ジャンルシードコーパスパターン。
- 12のピッチアルゴリズム:ユーザー定義のコードボキャブラリー、自動ボイスリーディング、ESN駆動の和声遷移を備えたハーモニックコンダクターを含む。
- MIRキャプチャシステム:リアルタイムMIDIパフォーマンス分析。フレーズを弾き入れる。RESERVOIRがそのキャラクターを吸収する。
- ジャンルシードパターンワンダー:764,000のMIDIドラムファイルをジャンル特有のプロトタイプパターンに処理。Style Gridエンジンが制御可能なワンダーレートでこれらのパターンを歩く。
- ジャンルグルーブマイクロタイミング:スタイリスティックに本物のヒューマナイゼーションのためにドラムコーパスから抽出されたジャンルごとのタイミング偏差。
- GPU加速ビジュアライゼーション:Scriabin、Schillinger、Rimsky-Korsakovの色彩理論に根ざした8つのカラー分析モードによる全レイヤーのリアルタイムラジアルディスプレイ。
- 112+スケールライブラリ:西洋モード、日本の琴の調律、インドのラーガ、Yusef Lateefの音階と旋律パターンのリポジトリ、合成的形成、カスタムピッチセット。
- ステートシーケンサー:クロスフェードセクションと5つのアーク形式によるマクロレベルの作曲アーク。
- プリセットモーフィング:スムーズなティンブラルトランジションのための任意の2プリセット間のオートメーション可能なクロスフェード。
- オーディオゲーティング:外部信号のリズミックスカルプティングのためのライブオーディオ入力への穿孔パターン適用。
- 内蔵GMシンセ:スタンドアロン試聴のためのApple DLSベースGeneral MIDIシンセサイザー——外部依存ゼロ。
- MIDIエクスポート:レイヤーごとのポリフォニック構造を保持するマルチトラック出力。
- DAWトランスポート同期:完璧なテンポ同期、トランスポートジャンプ、ループハンドリングのためのPPQベースタイミング。

互換性:
フォーマット:VST3、Audio Unit (AU)、Standalone。
OS:macOS(Apple Silicon + Intel)。