投稿者: Kei

 

PC Keyboard Layout

まず前回動画での操作説明ですが、VSCodeからSonicPiを起動する仕組みは下記を使いました。

“LIVE CODING BY VSCODE”
https://decode.red/blog/202211051504/

またVSCodeにVimの拡張機能を入れました。

これらにより、SonicPiについてはCtl-s/Ctl-e で演奏のStart(Save)/Stop、エディタの機能としては、Ctl-a/Ctl-x で数値のインクリメント/ディクリメント、gbでマルチカーソルが使えるようになります。基本的な操作はviエディタの操作がそのまま使えます。

ここから専門的なつまらない話になりますが、経緯の記録として残しておきます。(蘊蓄だらけですが ^^;)
なぜVSCodeのような高機能エディタを使っているのに、viのような古典的なエディタの操作を使うのか(すべてのケースではない)、ですが、これはキーボードのチョイス、キーボードレイアウトのチョイス、諸々から影響を受けた結果によるものです。さらにさかのぼってCUI時代の利便性がGUI時代でも生き続けている証拠でもあります。

まずはキーボードのチョイスについてです。カスタム配列、分離型などの高級キーボードに憧れ、情報収集はしたもののキーボード沼にははまる手前で踏みとどまっているところです。

踏み留まる理由
1) カスタムに慣れてしまうと他のキーボードに対応できなくなる。
2) 数万円という高価である。Mac,Linux,Windowsそれぞれ複数台あるためキーボードも必ず複数台欲しくなる。

そこで販売されているものの中でできるだけ安価で好みに近いものにするため、下記カスタマイズ自由度(①から⑤)に注目して選ぶことにしています。

キーボードレイアウトについては、日本語配列よりUS配列のものの方が品数が豊富です。※①
またプログラマにはUS配列の方が記号キーが合理的であることがあります。

まだワープロがパソコンのアプリよりも使いやすかった時代から始めたせいもあり、日本語はかなキー入力からはじめました。50音それぞれキーがあるので母音・子音の組み合わせでタイピングするローマ字日本語入力より速いというメリットがあります。デメリットはキーが右側に多くなり、センターが左よりになりEnterキーまでが遠くなります。USレイアウトにするため、かな入力をやめました。とはいっても日本で発売されているPCはほとんど日本語レイアウトなので別売のUSキーボードを使用します。

最近ようやく自分が理想とする配列をもつキーボードに出会いました。これが前回動画で使用したものです。

ファンクションキー、テンキーがないもので、バッククォート、チルダが単独キーのものです。特にこの二つのキャラクタはシェルコマンドでとても重要です。ファンクションキーがないものはESCキーと兼用になることが多く、これは避けたいところです。しかしながらESCキーはこの位置が好みです。これはPC-9801の時代にvzエディタを使っていたことが起因するのですが、ESCキーを多用するところはviも共通しています。MS-DOSからWindowsに移行したとき(DOS/V仕様ESCキーがファンクションキーの左になるIBM互換機にも移行したため)、次のエディタがなかなか見つからなかった記憶があります。

あとWindowsの場合PowerToysで、Macの場合Karabiner-Elementsで、下記のようにキーアサインします。これらのツールによりキーボード本体に保存機能がある機種を選ばなくてもよくなります。※②

  CapsLk -> Ctl
  Alt w -> ↑
  Alt s -> ↓
  Alt d -> →
  Alt a -> ←
  Alt q -> Home
  Alt e -> End
  Alt r -> BS
  Alt f -> Enter
  Alt x -> DEL

すべて左手側にこのようなキーをもってくるのは、ホームポジションから離れないようにという利点以上に、右手がマウス操作でふさがっているときも使用できるからこのようにしています。
手がホームポジションかははなれることを嫌うカーソルキー専用キーを使わない文化は、viエディタからあります。コマンドモードによるキー操作が可能であるため、j,k,l,mでカーソル操作をします。(カスタマイズは、できるだけデフォルトからはなれないように、いろんなプラットホームでつかえるように、を心がけています。※③)
viエディタは、Unixマシンを使うときこれしかなかったから使い出したのがきっかけですが、その合理性は今の時代にも生きています。。
とくに最近マークアップ言語のおかげでHTMLに変換する文章を書く際に利用しています。

https://decode.red/blog/202401061739/

ブログを書くのに、コンソールだけで、マウスを使わず作業を完結することも可能です。キーアサインのカスタマイズや拡張キーボードで利便性を追求する流れもありますが、
viの機能で補うことで実現ができる部分も多いと感じています。※④(動画編集やドロー系のアプリなどはまた別ですが)

メカニカルキーボードはキーキャップが変えられるので自分好みに近づけられます。※⑤
好みは赤軸ですが、レイアウトを優先しているため今のところ青軸のものを使っています。
(打鍵音は青軸が好きです。上記動画の音)

音楽キーボードの関係ですが、シーケンサなどのキーボードとして横一列を白鍵とみたて斜め上を黒鍵とした使い方がありますが、私はあまりこれが好きではなく、A,B,C,D,E,F,G が左にあることを利用した使い方をしたアプリを作ったことがあります。。

http://iphone-old.iiv.jp/sound/index/L0035


最近はクロマチックキーボードに興味を持ちこれを模したキーボードをキーキャップを変えて作りました。

このようにできるだけ好みに近づける工夫をして利用しています。
(この先沼にはまるかもしれませんが・・)

ここまでに登場したキーボードはE-YOOSOというメーカーのもので、気にいっています。Z-11,Z-686それぞれ色違いもあわせて計四台となります。(上記動画でない方↓ キーキャップをとりかえてます)

できれば理想とする配列のキーボードのもっとダーク色のもので赤軸が欲しいところですが、いまのところ満足しています。

ライブコーディング、カスタムキーボード、viエディタ、マークダウン これら表現する道具として、近い関係と感じているこのごろです。

Glitchy Style / Live Coding

Lenny “The Ox” Reece というドラマーの名前を下記で少しふれましたが、今回は彼のプレイからいろいろ話を膨らませてみました。

Domino Line / Casiopea

まず彼に関する動画の引用から。

最初、動画のタイムラインをいじっているのかなと思ったくらい不自然に見えました。しかしその機械的というか独特なノリに新しさを感じました。


彼のプレイを譜面に起こしたものですが、とてもチャレンジングです。

https://drumsmagazine.jp/notes/next-generations-5/
さすがにドラムマガジンのサイトでも解析がされていました。

https://pearldrum.com/ja/artist/lenny-ox-reece
https://seelectronics.com/artists/lenny-the-ox/
こちらにプロフィールがあります。

ここにある”glitchy” style という表現がよくそのプレイを表していると思いました。
変拍子とはちがうちょっとバグった感じに聴こえるからです。

SonicPiでそのような雰囲気をまねてみました。


10/16拍子ですが、ずっと聴いていると違和感なく聴こえてきます。5,7のような奇数連符にしても整然とならべてしまうと同じ結果でした。また参考までに前回の動画のものは以下です。

きれいな変拍子ともいうべきか、すぐなじんできます。

バグっている感覚というのは、フレーズサンプリングのループがテンポにあっていないときの感覚に近いのではということで、それをまねてみました。


音的なニュアンスはちがいますが、自分の感覚的にはこれが近いです。
どんな音素材でも繰り返すことによってリズムを感じますが、ただしその繰り返す素材の長さは一定である必要があります。(素材の中身は一定である必要はなし。。工場のコンプレッサー、モータ音などや、むかしのパチンコ屋のネオン管の眺めているとそれだけでリズムを感じた感覚)
過去の動画でも工場風のノイズを楽しんだものがあります。(こういうの大好物)

最後にSonicPiにもどって、フレーズサンプリングがループサイズに足りていない様子をライブコーディングしてみました。

lenは、ループさせるフレーズサンプルの割合(1.0 = 100%) rstはそのうちの無音部分。
このしくみについては、次回とりあげたいと思います。

Volca Sample2 Jam w/ Slicer+LoopStation

Volcaシリーズの久しぶり動画です。DJミキサーとか使っていると、最終段の音を操作するダイナミズムに勝てるものがないとう感覚が増してきました。しかしDJのスクラッチやエフェクトは録音済の音源が対象なので、これをリアルタイムにできないかということで、スライサーとルーパーを使って遊んでみました。

肝はスライサーのテンポ同期です。DJエフェクトでも検出したテンポが影響するものがありますが、それに相当します。テンポマスターはKeyStep37で、Volcaシーケンサも同期させています。
ルーパーはリバース再生のために使い、シーケンサの拍子は5/8にしました。(変拍子なのはスライサーのフレーズとのズレを調べたかったのもありますが、次に予定している投稿に変拍子を扱うためです。)

今回はできることメモみたいになってしまいましたが、課題は、スライサーでもっとおいしいフレーズをつくれるようになることと、ルーパーのさらなる活用です。
コンパクトエフェクトは外部スイッチを充実させないと操作に限界があるため、MIDIコントロールをプログラミングしないとと思っています。(MIDIがついていてよかった)

Hermonic-Percussive Source Seperation

日本語で調波打楽器音分離というようですが、前回につづき年末ライブの練習の過程で実用的につかってみました。
HPSSを使うと、ドラムパートとそれ以外を分離することができるため(ドラマー向けカラオケになる)、ドラムの練習に最適なのです。

実は、3年ほど前に下記で試したことがあります。

「LIBROSA SOUND EDIT」
https://decode.red/blog/202008111185/

今回、上記でテストしたPythonプログラムをつかって、カシオペアの楽曲「TAKE ME」の練習用トラックを作ってみました。(モノラルトラック)

マージンなし
Hermonic音

Percussive音

マージン=3.0
Hermonic音

Percussive音

アタックの強い部分とそうでない部分が見事に分離されています。これによりアタックの強いドラムの音が分離されるわけですが、
ドラム以外でもスラップベースのアタック音なども打楽器側として分離されます。
マージンの数値にとって分離度を変えられますが、この値を大きくすると調波側のアタックがなくなりすぎて、合わせてドラムを叩くのが困難になるためマージンはなしのものを採用しました。
(ちなみに、Hermonic音とPercussive音を合成すると元の音にもどります。)

曲によって分離後のクオリティが違いますが、「TAKE ME」はスローな曲ということもありとてもいい感じに分離できたと思っています。
Hermonic音にあわせてV-Drumsを叩いてみました。

※著作権で保護されている楽曲を使用する場合はご注意ください。私のYouTubeチャンネルは14年ほど前からブログの動画置き場という目的で使用しており収益を目的しているものではありません。下記動画についてはYouTubeからの注意メールがありましたが、収益目的化していない動画はそのままでよい旨を確認しております。(2023/11/19)

©Sony Music Entertainment (Japan) Inc.

あらためてこの曲、いい曲ですね。叩きながらしみじみと感動しました。
しかしながらドラマーにとって難しいテンポです。私はテンポ100BPMあたりに境界があると思っているのですが、ハイハットの16分音符を片手で叩くか両手で叩くか迷うからです。クローズドリムショットが4分音符の部分は片手で叩くことを強制されますが、それ以外の部分でも多彩なパターンも持った曲で、このテンポでは音数を増やすにしても減らすにしても間が難しく、とても練習になる曲です。(まだまだ本番までにフレーズを練らないと・・)

V-Drumsメモ
・クローズドリムショットのボリュームを上げたため、オープンリムショットを叩かないようにした。(音が大きくなりすぎるため)
・前回の「DOMINO LINE」でもあったが、オープンハイハットのフットコントローラーの反応が遅れる。調整が必要。
・スネアの音が詰まったような音がでるときがある。センサーの劣化か? 打点をもっと正確にコントロールする必要あり。
・ライドシンバルのセンサーが劣化してきている。

Domino Line / Casiopea

年末ライブハウスであのカシオペアの楽曲をむちゃくちゃ久しぶりにやることになり、その練習を兼ねてその中のDomino Lineという曲のドラムソロを動画にしてみました。1982発売の 「Mint Jams」というアルバムに収録されているバージョンで、過去に部分的に耳コピした記憶がありますがほとんど忘れてしまいました。(最後にとりあげる六連フレーズ以外。途中ドラムセットを叩いていないブランクが20年以上あるので・・)
譜面がなんとYouTubeにあったので、それをできるかぎり再現しました。

譜面付:Casiopea-Domino Line Drum Solo/カシオペア-ドミノライン-ドラムソロ

ソロなのにアドリブでいけないのか、このまま再現する意味があるのか、という思いもありましたが、ベースソロからドラムソロに流れる部分は、もうこれが曲そのものになっているので、これでないと、Domino Lineでなくなってしまうように感じたので、そのままやることにしました。

オリジナルと違う部分やまだできていないところ、自分なりに変えたところもありますが、とりあえず今の段階はこんなところです。(スネアの強弱をもっとメリハリ)年末までにもっとがんばらないと。。
ライブハウスにあるドラムセットがどのようなものかわからないので、それによっては雰囲気が変わってしまいそうですが、まあこれは仕方ないですね。
カウベルとホルダは持参します。

YouTube にこのドラムソロをそのままやる人の動画が結構あったのは驚きました。40年以上前の楽曲なのに根強い人気があることを実感しました。本当にYouTubeは探せばなんでのも出てくるものですね。
この流れで神保さんの近況も見つけました。

【神保彰】フルアルバム『燦燦』全曲インタビューをお送りします!

最新アルバムを早速購入しました。最近はダウンロードばかりなので、もしかしたら最後に買ったCDになるかも。それはそれで記念すべきがこのアルバムで嬉しいです。上記動画のインタビューも見ると創作過程が見えて興味深いです。同じレコード会社(アルファミュージック)だったYMOについてのエピソードがまさか聞けると思ってもいませんでした。(ちなみに私のゲーム音楽CDもココ)このようなクォリティの楽曲を軽々と作っているように思えるのですが、相変わらずさすがです。ドラムの方は私もYouTubeで注目していた、Lenny ‘The Ox’ Reeceがよく使う5連符、7連符のフレーズを全編に渡って散りばめています。下手すると、ズッコケたように聴こえますので、かなりのハイテクニックが必要です。
変拍子とはまた違い、また新しい可能性を感じます。ご本人曰く「研究発表」ということですが、音楽への向き合い方の一つの側面を感じます。これについては長くなるので、別の機会にまた記事にする予定です。

さらに過去動画がいろいろとヒットした中に、下記のような動画がありました。
Dave Weckl – Zildjian Day Tokyo 1996 with Akira Jimbo and Kozo Suganuma

こんなものが存在するとは知りませんでした。(レコメンドさまさま)すごい熱量のプレイをしています。実はこのお三方とも生音を至近距離で聴いたことがあります。
神保さんは、ドラムクリニックで、デイブと孝三氏は、YAMAHA BIG DRUMMER’S CAMP 1991(合歓の郷)のことです。
神保さんは予想していた音量より大きくハードロックドラマ並みとそのとき思いました。デイブはもう一人のゲスト講師のトミー・アルドリッジも一緒にプレイしたこともあり繊細に感じました。孝三氏については少し思い出話を。氏をこのキャンプの時初めて知ったのですが、自身のドラム教室の生徒さんもたくさん参加していたこともあり、なんか他の講師とは違って友達のような雰囲気で皆に接していました。講師の人からも人気で、通りかかると、「何かやってよ」と言われて、ドラムソロを叩いてくれました。私がたまたま近くにいたので、スティックを手渡すと「ジェブポーカロモデルか・・」と言って、叩き始めました。右手のスティックでバスドラと叩いたり、曲芸的なこともやり、みんなを大いに盛り上げました。ドラムで笑いを取るとは、すごいと当時衝撃を受けました。その後、氏の活動を多くのメディアで見ることになるのですが、いつも親しみを持って見ていました。

Drummer’s Camp は多くの講師が、普通に一緒の空間にいるので、気軽に接することができて、とても貴重な経験でした。デイブと一緒に写真を撮ったり、Tシャツを着たまま背中にサインをしてもらったりと、今考えるとすごい機会だったなと思います。デイブのドラムセットを叩くこともできました。
神保さんのクリニックでは、サイン入りポスターが結構参加者が多い中で抽選で当たって嬉しかったことも思い出しました。

想い出がドミノ倒しのように蘇りますが(うまく言ったつもり)、最初に戻って、ドミノラインのソロについて当時考えたことを書いて見たいと思います。

フラムアクセントやパラディドルのルーディメントが多用されていますが、これは明らかにスティーブガッドの影響によるものでしょう。神保さんが当時よく盛り上げるときによく使う6連符ですが、これに相当するフレーズがスティーブにもあります。

神保さんの頭のクラッシュはスティーブのハイハットクラッシュオープンでは弱いと判断しクラッシュにアレンジしたと勝手にみています。結果今のようなフレーズになっていますが、第一印象は違っていたのでは、という予想ですが、本当はコピーミスと思いたいです。当時は動画がないので音だけで判断しますので、ハイハットクラッシュオープンがクラッシュに聴こえたり、フロアタムがバスドラに聴こえたりしました。タムが6音中2つなっていますが、タムをダブルスストロークするためには、それなりのヘッドにテンションがあって、いい音でなってくれないと、クリアに聴こえないことから、神保さんのフレーズの場合は使うシチュエーションが限られます。ピッチの高いタムがあればなおさら良いです。(ライブハウスにあるような、大抵ロック用ドラムセットの場合ピッチは低めのタムなので、ニュアンスが変わります。)

スティーブの場合は、頭を抜くため手が一つあまり、タムを二つシングルストロークで叩くことができます。トレードオフとしてアタックが弱くなりますが、大抵のドラムセットで同じニュアンスになります。(この前のコンテスト動画の最後で叩く)
先ほどコピーミスと思いたい、と書きましたが、これにぱポジティブな意味があります。動画や譜面がなくコピーしようとすると、たぶんオリジナル通りにならないため、その差異が自分のオリジナリティになるからです。神保さんのドラムは、手が三本あるのではないかと思わせるようなフレーズがありました。(当時随分悩んだ)パーカッショニストがいないのに、なぜここでカウベルが鳴っているのだろうとか。どちらの手でどういうタイミングで叩いているのか、ハイハットを叩くのではなくクローズハイハットで鳴らしているのか、などなど試行錯誤することが、自分が新たなフレーズを作るときなどの参考になりました。

ドミノラインのネタから、随分話がふくらみました。
最近のことはよく忘れるのですが、昔のことはよく覚えているものです。

Two Click Flare Scratch

タイトルは、DJのスクラッチプレイでとてもよくつかわれる技の名前です。
以前の記事で、今から10年以上前に購入したDJ Mixerでスクラッチにトライしたことがありましたが、このときの誤解がとけたため、改めてスクラッチをやってみることにしました。
(もともとDJ MixerはイベントなどでノンストップのBGM再生をするのが目的で、テンポの違う曲をデジタルならではピッチそのままのテンポチェンジをしながらつなぐのに快感を感じて使っていました。)

Kollaboration w/ TAP


その誤解というのは、フェーダカーブをソフトウェアで設定できることを知らなかったことです。(ハードウェアについているものだけと思っていた。)

Serato DJのミキサー設定で、クロスフェーダカーブを一番速くすると、フェーダを少し動かしただけで、すぐにボリュームがMAXになります。
冒頭の図でその違いを表現しました。ONの位置が違うと音の立ち上がりのタイミングが変わるため、リズムが違ってきます。新しいDJ Mixerを買わないとできないと思っていたところ今のものでも十分できるとわかってから、またやる気になりました。あとこの図は、今回2-click flareをやるにあたってまとめたものです。前回なにもわからず、見よう見まねでやったため、今回はきちんとリズムがつくられるタイミングを整理して挑戦しました。
その前に私が思うスクラッチの魅力ですが、ターンテーブルで再生速度を、フェーダで音量をコントールできることから、サンプリング波形再生としては、リアルタイムでなんでもできるということです。本来の波形がなんであれ音を刻んでリズムをつくることはもちろんのこと、上級者になるとピッチすらつくりメロディを奏でたりします。この奥深さに探求心がかきたてられます。
今回はフェーダに焦点を当てていますが、ターンテーブルの操作が難しく、左右の手を動かすタイミングが僅かにづれるだけで、まったく違ったリズムになったり、音がでなくなったりします。感覚的にはバイオリンのような難しさを感じます。
また以前スネアドラムのブラシ奏法を掘り下げたとき、スクラッチのことも頭にありましたが、難易度が高いためスルーしていました。

The Shape of Rhythm

さて本題ですが、スクラッチの動画はYouTubeにたくさんあります。とても参考になるのですが、トリガーのタイミングが理解できなかったため(なぜフェーダのONでもOFFでも音がなるの?などなど)、フェーダの移動を細かく調べました。フェーダに指(爪)がタッチする音や端に当たった音が、実際のリズムと違いますし、位置往復(OFF->ON->OFF)で一音鳴るため、倍のリズムを刻んでいるよう聴こえます。そのため図のような性質を頭に入れながらプレイすると(32分音符/1Grid)、わかりやすく感じました。(神経質すぎ?)
結果、音の出るタイミングというのは、フェーダがONのとき、ONの状態でテーブルのForward->BackおよびBack->Forwardの切り替わりの瞬間ということになります。
2-Click Flareは16分音符分短くして一拍半フレーズにしてつかわれることがよくあります。(<->を削除)
上段の1-Click,2-Click,3-Clickのリズムは

です。
また16分音符分をひとつ分後ろにずらして、頭ふたつ分を通常再生(言葉が正しくなさそう・・手で擦るFowardでないという意味)したものが下段です。(手で擦って普通に再生させようとするとかなり困難なのがわかります)リズムは

です。2-Clickは一拍半が通常だと思うので、そうしました。
頭ふたつは、8分となりたっぷり元の音源をならすことができます。Forword<->Backの切り替えしがなくなるので、1音減るためです。
ここまで、調査結果でした。
これができるかどうかは別ですが、2-Click Flareを挑戦した動画を一応とってみました。

曲は最近カッコいいと思った下記です。

ちょっとテンポがはやすぎた^^;
上達したらまた動画をとるつもりです。

DJのお気に入り動画
「DJ SARA ★ Freestyle Scratch with djay Pro and Reloop Beatpad 2」

彼女の歌うようなスクラッチがとても好きです。

The Distance Between 0 and 1

今回はちょっと長文になります。前回のAIの流れから、マシンと人間と音楽の話です。

この動画は、私が好きなドラマーのJoJo Mayer氏が、電子音楽から新たに派生したジャングルやドラムンベースというジャンルから、ドラマーとしての人生を変える衝撃的な出会いがあったことを、あのプレゼンテーションで有名なTEDで語ったものです。(クール!)
ドラムマシンにプログラムされた人間の能力を超える演奏を彼曰くリバースエンジニアリングし、これを模倣して即興演奏することで、新しいスタイルが確立したことについてデモ演奏を交えて、知的に語られています。本来ドラムマシンは人間の演奏をシミュレートする存在ですが、ドラムマシンの演奏を人間が模倣するということから、リバースエンジニアリングという言葉を使っていると思います。

ドラムンベースは元々好きなジャンルで、彼のバンドNerveでこれをアコースティックドラムでプレイしているのを初めて動画で見た時は、これやりたかったやつだ、と思い一気にファンになりました。

最近、上記動画でドラムンベースをフィンガードラムで懐かしんでプレイしたり、ある本を読んだり、YMO ユキヒロ氏の逝去でマシンフレーズを模倣した動画を作成したことから、いろいろなスイッチが入り、TEDプレゼン動画を題材にブログを書いてみました。

TED動画から引用
「ドラムマシンにプログラムされた作り込まれた演奏と、即興演奏との創造的プロセスにある違いに答えが隠されている。」
「即興演奏では、意思決定が速ければ速いほど楽しく、力がみなぎるように感じる。」
「意思決定プロセスが意識的に処理できないレベル ゾーンに入る。」

ジャングルはプログラミングによるものや、フレーズサンプリングしたものを倍速で再生するものがあり、テンポが非常に速いです。マシンサウンドなので当然ですが、演奏できることを考えていません。
このテンポの曲で、即興性を取り入れてプレイするということは、かなり難易度が高いことはわかります。これがまさにここで言っている意識的に処理できないレベル「ゾーンに入る」ということでしょう。

下記の動画では、マシンフィールを意識したまま、ドラムソロを叩くというすごいプレイがあります。(動画最終部分)

人間的なドラムソロをやる部分もありすが、機械っぽいフレーズを多用しています。後者の方がきっと難しい、というかきついと思います。

TED動画から引用
「デジタル文化のリバースエンジニアリングを続けた結果、「0」と「1」の間の違いや距離に注目するようになりました。おかげで口では説明できない自らの創造性の源と人間の存在の理解に限りなく近づくことができました。ここまでにお話ししたことの意味が皆さんにも伝わるように、今から短い即興演奏をお見せします。」

このように語って最後の演奏に入っていきます。
言葉では十分説明できないから、演奏で説明するぜみたいな、なんともカッコいい・・

実は、JoJo 氏、ユキヒロ氏と幾つか似ている点があると思っています。
マシンフィール以外にも、テクニックについての考え方です。「曲に必要なテクニック」であることです。どちらもドラマーというより、アーティストです。トラディショナルな音楽をベースに置きつつも、新しい音に敏感にであり、それを使った音楽を大胆に実現します。ドラムセットのスタイルがある一時ですが似ていると感じた部分があります。JoJo 氏は、上記動画ではTomがBDの上にセットされる伝統的なスタイルをとっていますが、TomをおかずClosedHHなどの金物をおくスタイルのNerveの動画もたくさん見かけました。またユキヒロ氏も、初期YMOの時代、フロントエンドは全てシンセドラムパッドという構成をとっていたことがあります。BDの上にTomがないセットというのは、ドラマーとしてすごく制約を感じるものです。(ビートマシン化する)逆に言えば、Tomなしセットは、スタイルをがらっと変えられるとも言えます。
あとドラム音色のこだわりが両氏ともすごいです。ユキヒロ氏は電子音やエフェクト音について、クールな音をたくさん作り出しました。JoJo氏のすごいところは、それをアコースティック楽器で実現するところです。サイドSDにリング状のシンバルを重ねたりなど、ほとんどオリジナル楽器です。
BD4分打ちリズムのクラブサウンドではスネアを使い分け、グルーブをだしたりしています。
通常Roland TR-909 BD系の4分ダンスビート曲は、その音色自体が重要なのでアコースティックが入る余地はないのですが、太いアナログベースのNerveの楽曲に、JoJo氏の研究されたプレイが乗ると十分アコースティックでもいけています。これもリバースエンジニアリングの結果として個人的に衝撃的な出来事と感じました。

動画に戻りますが、タイトルの”between 0 and 1″と言っている部分、デジタルかアナログか、と言っていないことが気になりました。先に、意識的に処理できないレベル、について少し触れましたが、処理速度に関して言っているのなら、量子コンピュータを連想させます。ただ単に分解能のことかもしれませんが、それだとゾーンに入る、などという深い意味にならないような気がしたからです。(余談ですがKorgのVolca Drumではフレーズを確率で変化させることができあます。これだけでも即興に近い印象を感じます。ちなみに関係ないですが量子コンピューターは確率を使って計算をします。)

最近ジョージ・ダイソン氏の「アナロジア」という本を読みました。奇しくも帯には「0と1に寄らない計算は人類に何をもたらすか?」「ポストAI時代の予言書」とあります。著者のインタビュー動画がありますので最後に引用しておきます。
私がこれを読んで感じたのは、自然とか人間にもう一度目を向けることの重要性です。技術的にはデジタルよりも高性能なアナログコンピュータについて書かれていますが、(といってもほとんどは自然界の話)これはナチュラルコンピュータと言われるものと同義だと思っています。量子コンピュータもその一種ですが、自然界が行なっている計算の方が人間が作るコンピュータよりはるかに速いということです。(デジタルコンピュータはシリアライズという特徴を持つため)

量子の自然現象としての演算について、下記動画は私の理解を深めてくれました。

【誰でも量子コンピュータ!量子機械学習編】Quantum Computing for You【第3回・9/22実施】
イジングモデルと組合せ最適化問題の対応

過去関連記事)
「量子コンピュータプログラミング」
https://decode.red/ed/archives/1421
「Qiskit」
https://decode.red/blog/202301151549/
「Quantum Computer」
https://decode.red/blog/202301031525/
「Artificial Life」
https://decode.red/net/archives/560
「Cellular Automaton」
https://decode.red/net/archives/547

「アナロジア」から引用
「人間の言語は、独立したジェスチャーの連続から進化したもの、あるいはそれと共進化したもので、ノイズの多い低周波帯域での貧弱な伝送に耐えるように最適化されている。このようは制約を受けない知性の間では、まったく異なる言語が生まれるかもしれない。クジラがコミュニケーションをとっていることは間違いない。しかし彼らはわれわれが言語で考えを伝える時のように、知能を不連続の記号の連なり変換する必要はない。われわれが音楽を演奏するとき、クジラは「やっとわれわれと同じようにコミュニケーションしようとする兆しが見えた!」と思っているかもしれない。」

自然界はもっと高度はコミュニケーション(あえて通信と言った方がテクニカルに感じやすいかも)をしているのでしょう。音楽によるコミュニケーションは即興演奏などで体験できます。言葉より具体的な意思の伝達には不自由かもしれませんが、先にJoJo氏が言ったように言葉では説明できないことも伝えることができます。これは本当に興味深いことです。
むしろ言葉には誤解がつきもののことを考えると、言葉より優れているのかもしれません。音楽や絵画などのアートによる非言語の伝達手段というものを人間がさらに身につけることができれば、相互理解能力が高まり、その結果さまざまな誤解を減らすことができるかもしれませんね。

即興演奏によるコミュニケーションの速度は、現在のデジタルコンピュータでいかにプログラミングしようとも(何台もネットワーク化しても)、人間にはかなわないだろうという感覚があります。コンピュータはバッファリングによる遅延というハンデがあったり、人間の先読みする能力までシミュレーションする必要があります。(ニューラルネットワークアナログチップのようなものが必要)
人間の能力が奏でる音楽を機械で模倣し、またその音楽を人間が模倣して新しい音楽が生み出されました。身体性が音楽に影響を与えてるでしょうし、音楽が身体性にも影響を与えます。(ドラムンベースで先の「曲に必要なテクニック」といわれるものを考えたとき、Push-Pull奏法というものが使われています。コツをつかむのが難しいのですが、片手で高速に連打できます。これをJoJo氏は足でもやっている。)将棋AIが棋士に変化をもたらすように、テクノロジーが進むとともに人間の感性も変化していくことでしょう。そして次の音楽は・・また別のレイヤーでの人間からマシンに対するアプローチだと思っています。つまり行ったりきたりするわけですね。

最後になりますが、おまけとして追記します。
マシンフィールのプレイの難しさを実感した、動画についてです。

マシンビートを模倣したことで新しい奏法に挑戦しました。珍しくコメントをたくさんいただき恐縮です。
今回の話題にもつながるので、この動画に込めた意味も少しお話しします。

動画と撮ろうと思った動機は、もちろん多大な影響を受けたミュージシャンのユキヒロ氏の逝去で、このタイミングに何か爪痕を残したいと思ったからです。選曲したU.Tは、とても興味深い位置付けの曲なので選びました。この曲はライブでは演奏されたことがない曲です。ドラムはもともと8ビートのパターンを、16分音符分ディレイをかけているため、音数が倍になり16ビートのリズムになっています。元が8ビートなのでテンポの速く、ドラムセットで再現するには、かなり悩むパターンです。最終的に、手で16ビートをシングルストロークで叩くのは、きついのでダブルストロークを混ぜました。そうするとBDのシングルストロークに合わせるのが辛くなりますが、この方法にしました。(テクノは修行)
次はイントロですが、ここではマーチングドラムのエッセンスが入っています。JoJo氏がジャングルやドラムンベースを即興でドラムプレイしたいと思うのと同様、このエッセンスをドラムセットでプレイしたい、という思いが長年ありました。(奇しくもJoJo氏のプレイの中にもマーチングフィールがよく見られます。ハイピッチSD上のスティックショットなど)このセットは通常のツインペダルで叩くBDの他に、その左右にBDペダルを置いて音程感のあるBDの演奏ができるセットになっています。YMOの楽曲には、Roland TR-808のBDやTomを使った音程感のあるシーケンスフレーズがよくあります。UTのイントロも同様で、この音はマーチングの音程感のあるBDの音とよく似ているのです。そこで今回これの一部を使ってイントロを再現しました。あとMC部分のクロススティキングですが、これもテナードラム(クイント、クォード)でよく使われる奏法です(太鼓が三つ横に並ぶと使える)。ルックス的にもフロントの4パッドはYMO初期のシンセパッドのオマージュです。シモンズの音は初期にはありませんでしたが、この製品があればきっと使われていたことでしょう。初期の楽曲にもマッチする不可欠の音と思っています。

長くなってしまいましたが、あのとき何を考えていたっけ、というとき思い出せるように、というつもりで書きました。
本来のブログ(Web Log)の役割とはこういうものだと、言い聞かせて。。

【ChatGPTの次はアナログ社会が来る】科学史家ジョージ・ダイソン氏の不思議なポストAIの予言/AIが自然のように成長する/人類の運命とは/難解で不思議な『アナロジア』を刊行した意義

【ChatGPTのペット化】世界的科学史家のジョージ・ダイソン氏/AIは野生化し、アナログの時代が始まる/ChatGPTの出現の希望と課題とは【後編】

Attention Is All You Need

“AI時代の生き方に、音楽は様々なヒントを与えてくれるかもしれない”

このBlogの副題ですが、それゆえAI を取り巻く話題についてこれまでも取り上げてきました。

Generative Adversarial Networks

Prompt Engineering

ChatGPTをはじめとする生成AIについて、今回はその仕組みについて掘り下げてみました。
(仕組みをわかりやすく説明するものでなく、私が学習した備忘録のようになっています。)
タイトルは下記論文のものです。

https://arxiv.org/pdf/1706.03762.pdf

まずは用語の説明です。

GPT:Generative Pre-trained Transformer
Chat GPT :OpenAIが開発した、大規模言語モデル(LLM:Large Language Model)であるGPTを使ったチャットサービス
Transformer :従来から使用されてきたCNN やRNN と違い Attensionと呼ばれる仕組みに基づいたエンコーダデコーダモデル
CNN:Convolutional neural network 畳み込みニューラルネットワークといい画像や動画認識に広く使われているモデル
RNN;Recurrent Neural Network 再帰型ニューラルネットワークといい時系列データ(株価や気温の推移等)の扱いに最適

参考動画
【Transformerの基礎】Multi-Head Attentionの仕組み
https://www.youtube.com/watch?v=XOekdMBhMxU&t=166s

もともとは言語翻訳の分野で研究され、学習するときにどこに注目するか(どのデータに注意するか)といった情報が付加されることによって従来のLSTMなどによる方法より高い性能を上げられるようになりました。
これがTransformerというモデルです。ChatGPTはPre-trained(学習済み)ですので、デコーダのみを使います。

構造について論文から引用

LSTM :(Long Short-Term Memory: 長・短期記憶) ネットワークは、RNN(再帰型 ニューラル ネットワーク) の一種

LSTM の強みは、時系列データの学習や予測(回帰・分類)にあります。
一般的な応用分野としては感情分析、言語モデリング、音声認識、動画解析などがあります。 (https://jp.mathworks.com/discovery/lstm.html より)

Scaled Dot-Product Attention、Multi-Head Attention、QKV
構造について論文から引用

マルチヘッドアテンションについて
https://cvml-expertguide.net/terms/dl/seq2seq-translation/transformer
“Transformerの設計は,マルチヘッドアテンションを主要ブロックとして採用したのが,最大の特徴である.マルチヘッドアテンションは「系列内自己アテンション or 系列間相互アテンション」アテンションの役割を担当する”

参考動画
https://www.youtube.com/watch?v=g5DSLeJozdw&list=PLfZJp4OG6U1Evr74E_k7P8zqb6MX9KKUZ
画像のセルフ(自己)アテンションを例にわかりやすく説明されている。

Query ,Key,Valueの違いについて
https://www.youtube.com/watch?v=50XvMaWhiTY&list=PLfZJp4OG6U1Evr74E_k7P8zqb6MX9KKUZ

V=K=Q=入力X だが これに行列をかけて回してあげる、Q ,Kそれぞれ回転させてから内積をとる、Vも回して出力調整
様々な角度からXの横ベクトルを比較して、どこに注目するかを制御して出力を決定するのが、Multi-Head Attension.

ChatGPTの仕組み
参考動画
https://www.youtube.com/watch?v=om-PZpvnCBM&list=PLfZJp4OG6U1Evr74E_k7P8zqb6MX9KKUZ&index=13&t=132s

仕組みについて理解するのは難しいですが、誤解を恐れずに言うならば、従来のLSTMでなく、TransformerのモデルがたまたまうまくいったためChatGPTのようなものが生まれた、と言えるかもしれません。(必要なのはアテンションだけ。構造に能力が宿るのだろうか・・これがすごく気になります)
ニューラルネットワーク自体、人間の脳の仕組みを模倣したものをコンピュータ上に実装しています。これを使うと画像認識など、データから答えを求めることができてしまいますが、なぜその答えが出たのか、そのプロセスの説明は困難です。Transformerも同じように考えられます。この先、意識は? 感情は? といったもの(モデル?)についても研究が進むのでしょう。 (偶然、感情に適したモデル(構造)ができちゃった、なんてことがあるかも・・)

さて、ここからが本題ですが、楽器などを練習していて思うのが、これってリアルディープラーニングかも、と思うことがあります。(もちろん人間が本家なのでおかしな言い方ですが)
同じフレーズを繰り返し演奏して、少しずつ上達する様子が、AI による学習に似ていると思うことありませんか?(音楽は時系列なのでRNNか)

特に、上記のセルフアテンションの仕組みを知った時、これはドラムプレイに当てはまっているのでは、と思いました。
ドラムセットをプレイするのを見て、よく手足がバラバラに動いていると思われる方は多いです。しかし実際には右手と右足、左手と左足は連動して動いていたりすることがあり、右足に注目して、右手の動きをする場合や、左足をタイムキープの軸にしたるすることがあります。
つまりどこかに注目(アテンション)するわけですが、これを変えると全く別の体の動きとなり、また新たに違うパターンとして練習をし直す必要があることがあるます。
ドラマーにしかわからないかもしれませんが、簡単な8ビートのパターンを叩いている時に、左足を4分で軽く踏んでいるとします。このとき左足を4分の裏で踏むように変えると、一気に叩けているはずの右手、右足、左手がぎこちない動きになります。(Positinal Encodingが影響するか)
筋肉の動きには問題がなくても、神経の働きが学習されていないせいなのではと思っています。

下記投稿の動画のイントロ部分もそうなのですが、Swingということで左足を裏拍で踏んだら一気に難しくなってしまいました。

Swing Vibes

まあ飛躍的な考え方と思われかもしれませんが、脳が手足にどのように指示を出しているのか(先読み、条件反射、・・)、個人的にはとても興味深いテーマです。
AI研究が進む中、音楽が果たす役割は大きいと思います。
先ほどの、意識、感情、に続いて、創造力にもモデルがあるのだろうか。

Swing Vibes

今年も、ドラムマガジン2023誌上ドラム・コンテスト曲にトライしてみました。(Roland TD-17)

https://drumsmagazine.jp/special/contest2023/

今回は好きなタイプの楽曲ということで盛り上がってしまい、欲張っていろいろなことにトライし(てしまい)ました。

一つは、以前からやりたかったチューニングタムです。アコースティックドラムでは古くはペダルがついたチューニングフロアタムなるものがありましたが、普通(?)は片方のスティックや指で、ヘッドを押さえつけたりしながら叩き、ピッチが変化した音をプレイします。今回IoTでよく使うデバイスM5StickCを使い、ピッチを変化させることを試みました。最初はTD-17にダイレクトでBLE接続を試みましたが、つながらずWindows PC 経由でコントールすることにしました。(右手首の角度でハイタムのピッチがかわります)そのため、少しレスポスが遅れるのと解像度が粗いところがあります。また発音中の音が変化しないのはちょっと残念でした。(いい感じに変化させるのは結構難しい・・Rolandさん一緒に開発しませんか?なんちゃって)
もう一つは、愛用のMicrofreakのファームウェアがversion 5になって、サンプルのリバース再生ができるようになったので使ってみました。偶然にも課題曲のイントロを聴いたとき、これしかない、という音が見つかりました。

あとはタイトルがSwing~ということもあり、久しぶりにレギュラー(トラディショナル)グリップで叩いています。レギュラーグリップでたたいてみて一つ発見がありました。エレドラの音が違うのです。メッシュヘッドの瞬発力を今までマッチドグリップが押さえつけていたのがわかります。スティックが弾みやすいため音切れが良い感触がします。(軽やか)また左手のハイタムへの移動がスムースなので最後はスティーブガッドの頭抜き6連符の連打でエキサイトしてしまいました。グリップはプレイスタイルに大いに影響を与えます。しかしこのグリップの弊害もありました。ついついスティックを回したくなりプレイにリスクが増えてしまいました。おまけでマーチングスネアでよくやヘッドを押さえつけるプレイもやりたくなり、エレドラでトライしています。(ダブルストロークの2打目、しかし効果はあまりなし)

以上、考えることがありすぎて、頭の中が大混乱しながら叩くことになりました。(最初は左手にもM5StickCをつけてスネアドラムのピッチも変化させていましたが、レスポンスが遅れることでコントロールが難しいことから断念)

しかしながら、いろいろやりながら、まだまだエレドラの面白い使い方があることがわかりました。これからどんどん追及していきたいと思っています。

Kit59 でハイタムのピッチを変化させる、MIDIメッセージデータ
[0xf0, 0x41, 0x10, 0x00, 0x00, 0x00, 0x4b, 0x12, 0x03,0x75, 0x03, 0x01, 0x00, 0x00, int(pitch/16), pitch%16, chksum, 0xf7]
ToDo ピッチダウンができなかった。

参考)
TD-17 MIDI インプリメンテーション (Version: 2.00) [PDF]
https://www.roland.com/jp/support/by_product/td-17/owners_manuals/7f9e7c7c-f6f1-4b42-8057-c721b104100f/

M5Stickについて
https://decode.red/net/archives/746

Generative Adversarial Networks

生成AIについて下記でも扱いましたが、今回はもっと掘り下げてドラムトラックの生成をやってみました。

Prompt Engineering

メカニズムについてはGenerative Adversarial Networks(GAN:敵対的生成ネットワーク)というものですが、下記でプログラミンコードを走らせていいます。

https://decode.red/ed/archives/1384

上記では、jupyter notebookをつかって一つずつ作成しましたが、このサイトのもとになっている下記サイトでは、大量に生成できるスクリプトが用意されていますのでこれを実行してみました。(Macの場合cudaは使えませんが、Apple Siliconでmps:Metal Performance Shaders指定するとcpuの倍くらいの速度で生成できます)

https://github.com/allenhung1025/LoopTest

デモサイトで音を聴くこともできます。

https://loopgen.github.io/

下記はJupyter notebook(OSCサーバ)とMAX/MSPを使ったリアルタイムクロスフェード再生のデモ動画です。
https://github.com/naotokui/LoopGAN

私も動かしてみようとしたのですが、MaxとJupyter nodebookは両方ともMacで走らす必要があるため環境面で断念しました。
(私のMaxがつかえるMacが古い。Maxパッチを変更してリモートでWindowsとOSC通信まで動きましたが、ファイル共有もする必要があり、また機会があったらトライします)
ということで波形編集ソフトクロスフェードして雰囲気を味わいました。

通常のドラムトラックのクロスフェードとちがって、元のドラムトラックがGANで生成されていると学習したドラムトラックのバリエーションで生成されるので、クロスフェードのつながりがよいように感じます。
モーフィングのようなイメージか。

下記は、実際のパフォーマンス、とてもクール!
“A performance of “Emergent Rhythm” — a realtime generative DJ set performed by Nao Tokui”
https://www.freethink.com/robots-ai/nao-tokui-and-dadabots-want-to-create-new-music