月別: 2025年2月

 

Rumble of Ancient Times (RoAT) / NTS-1 mk2

8-Bit Noise Synthesizer とされる、SOMA Laboratory の Rumble of Ancient Times (RoAT) 。これのNTS-1 mk2カスタムオシレータ実装を試してみました。

https://github.com/tweeeeeak/nts/blob/master/ROAT/ROAT.md

まずネーミングがかっこいいですね。

SOMAのデモ動画からも昔のゲーム機の音をイメージしているように見受けられますが、実際はローファイというよりもプリセット波形のデジタル変調(XORなどの演算)によるノイズで、どちらかとえいばリッチなノイズを生成します。(NTS-1ではFMはなし)
昔のゲーム機の効果音といえば容量の関係でサンプリング波形は使えなかったため、急激にピッチを変えたり、ノイズジェネレータを使って工夫して作っていました。

このシンセの操作は多数のパラメータをページ切り替えして設定するため、ただですら難解なのですが、つまみが少ないNTS-1に移植されているため、さらに難解になっています。NTS-1とNTS-1 mk2の両方バイナリーが配布されており、mk2の方を使用しました。mk2はページが数字表示のところが文字列に変更されており、パラメータ選択をドキュメントを見なくてもできるようになっています。パラメータの設定結果がどの値を指しているかは、つまみの位置で判断しなければならないので、ドキュメントは必要です。


(上記サイトより引用)

これが気に入ったのは、4OSC、4LFOのミックス具合で音が変調されるので、ボタンによるミュートで音が変化することです。(ON/OFFが反転する)
カスタムシーケンサを使ったとき、外部の機器と同期ができないこと、アルペジオレータなどのピッチ情報を無視することが、ちょっと残念でした。外部シーケンサを使えうという手もありますが、ちょっと処理が重く感じました。

デモをするにあたりどのパラメータを操作するか悩みましたが、次のようなプランを考えましました。以下メモ。

4OSCの同時再生を一つずつホールドでやるのが変化の面白みがなさそうなので(実機なら同時の押せるが・・)、シーケンサでリズムを作る。
かなりノイジーになるので、Summing Algorithmはおとなしめのものを選択。中くらいのバードさ。(Subtraction 2/Diagram 2) これを途中で変化させるには、パラメータが深すぎ。
SHPEにはFrequency、ALTにはWaveformをアサイン。
対象の切り替えをダイヤルでやるのは困難なので、どちらもLast Pressを操作対象とする。
各OSCのピッチを下げて消音の代わりに音を小さくした。
Last Pressが操作対象になるので、それが選択されているか、音を聴きながら確認して操作。(ピッチと波形変更)
(EGはOpen)

できるだけ多彩な音色が出るようにプレイしました。
いろいろと制約はありますが、音はかなりいいです!リバーブは HALLを薄くかけています。
まだまだ使いこなすには時間がかかりそうです。

ダイヤルは二つしかないのですが、このようなことを実現できてしまうことに、NTS-1のポテンシャルの高さを実感しました。(NTS-1の通常の使い方と異なる)移植した人のスキルもかなり高い!

以前簡易FMのオシレータを作りましたが、演算による変調はNTS-1では比較的簡単に実装できるので、またカスタムオシレータを作るモチベーションが湧いてきました!
mk2, NTS-3 で、LOGUE SDKをまた使いたいと思います。

KAOSSILATOR & NTS-1 (Logue SDK) Demo

参考

https://fukusan.com/products/soma_laboratory/roat/
https://somasynths.com/roat_demo/
https://fukusan.com/products/soma_laboratory/roat/
https://somasynths.com/roat_specs/

Music AI

このブログの大きなテーマはAI時代の音楽の役割を考えることですが、ついにここまできたかと、SUNO という音楽生成AIについての話題です。

下記みのミュージックさんの動画がとてもわかりやすく解説されています。

歌詞も作るし歌も歌う。ペルソナ機能でボーカリストの個性を引き継いで楽曲制作できる。
みのミュージックさんは、音楽の知見が豊富でよく動画を見ていますが、彼のプロンプトエンジニア力がすごい。AIもすごいですが、使う人の力量が大きく左右するものだとあたらめて実感しまたした。
一番驚いたのは、ボーカルの音のクォリティの高さです。(このまま使える)

ポップスミュージックの新曲と言っても90パーセント以上は同じ音楽的要素でできています。逆にこれだけ同じなので、安心して聴けるのかもしれません。(先を予測できる)過去のデータからバリエーションを作るのが得意のA Iには、曲作りはうってつけなのでしょう。

この先は、楽曲データとして、スコアなりを出力し、人間が演奏すれば、AIを作ったとは誰もわかりません。AIが作曲サポートをすることは当たり前になりつつあります。しかし音楽制作がAIにとって代わられるようになっても、生で演奏する需要は無くならないでしょう。
(音楽における歌い手や演奏家の役割は代わらない、DJのパフォーマンスなども同様)

さらに進んで演奏家と区別がつかないロボットが出現したらどうでしょうか・・
これは音楽に限らないですが、そこには有機体の優位性がある、と思っています。
今でも精度を求められる研磨などの作業は、機械ではできません。エネルギー効率も優れています。( DeepLearningの消費エネルギーは膨大)

さらにさらに進んで、ロボットでなくクローン人間のような有機体だとしたら・・

そこは、美学、哲学、伝統、宗教といった価値観を持てる優位性がある、と思っています。

逆にこれらに根ざさない思想、信条はAIに凌駕されやすいかもしれません。

ちょっと飛躍しましたが、人類は簡単にAIには負けない、人間を含めたこの世界を設計した存在が作ったあらゆるものを、人間が真似をしているだけなので、オリジナルを超えることは不可能と考えています。
(ゲームを自由に作れるゲームを作ったクリエータをプレイヤーは超えられない)

過去の記事でも書きましたが、音楽はこれまでも時代の先を見通す鏡となることが多くありました。
音楽を表現するということは、さまざまなことに気づかせてくれると思っています。

音楽を表現したい欲求、これは楽しいことなのでAIなんかに誰もやらせないでしょう。面倒なことや人手がないことをAIにやらせればいいですね。
お気に入りの曲の伴奏を作ってもらい、歌を歌うとかソロ楽器を弾くとか・・