スズキユウリさんは、ロンドンを拠点に世界中で作品を発表するほか、文化庁メディア芸術祭では『The Global Synthesizer Project』が第20回文化庁メディア芸術祭アート部門審査委員会推薦作品に選出されるなど、国内外で活躍されています。今期から新しく始まった団体への制作支援として採択された本企画 「エレクトロニウムプロジェクト」(仮)は、米国の作曲家レイモンド・スコット氏(1908-1994)が手掛けていた未完成の自動作曲装置「エレクトロニウム」をソフトウェア上で再現し、多くの人が人工知能との対話などを楽しめるプラットフォームを構築するものです。

アドバイザーを担当するのは、アーティスト/多摩美術大学教授の久保田晃弘氏と、ソニー株式会社コーポレートテクノロジー戦略部門テクノロジーアライアンス部コンテンツ開発課の戸村朝子氏です。

―中間面談はロンドンからSkypeを介して行われました。初回面談後から本面談までは、メールなどでも情報を共有しながら作業を進めてきました。

機能を取捨選択してレイアウトに落とし込む

スズキユウリ(以下、スズキ):当初、自動作曲装置「エレクトロニウム」のウェブ上での展開を考えていましたが、開発スケジュールの都合もあり、今回は、Ableton Live(エイブルトン・ライブ)などの既存の音楽制作ソフトを使い開発を進めています。最初につくったインターフェイスのデザインがこちらです。

―画面にインターフェイス案を示しながら説明していきました。

スズキ:多様な人が操作することを想定し、不必要な機能は省くというプロセスを経ています。どの機能を残すべきか、レイモンド・スコット氏のドキュメントを読み込みながら検証しました。
このプロジェクトでは「カウンターポイント」(*1)という音楽理論が鍵になります。スピードなどの異なるメロディが挿入される方法論で、レイモンド・スコット氏の音楽に多用されていました。「カウンターポイント」を担うボタンを配置し、AIや自動生成機能を組み込みます。
今回、普通の電子楽器と異なる点として、自動生成機能がポイントとなっています。ランダムにメロディが挿入されるほか、どの部分を機械に任せるかをコントロールできるようにしたいと思っています。そのほか、主旋律が挿入されるバランスをコントロールできる方が、触ってくれる人にとって面白いものになるかなと思っています。
技術面では、優秀なソフトウェアエンジニアの方が協力してくれることになりました。仕事が早く、すでにシーケンサーは完成しています。まだ音は出ませんが、途中までつくったものをお見せします。

―開発途中のソフトウェアでのデモンストレーションを見ながら話が進みました。

スズキ:今、どうやってメロディを自動生成したり、曲として発展させたりするかを詰めているところで、まずは既存のソフトウェア音源でもととなる音源を再現しようと思っています。
加えて、最終的なアウトプットを考えているところです。例えば、タッチパネルを3枚使ってコントロールできるようにしたい、そうすることで、展示としても実際に体験してもらえるようなインスタレーションにできたらと思います。1月中旬までには最終形へ近づける予定です。

久保田晃弘(以下、久保田):全体像が見えてきて、随分進んできたと感じました。

スズキ:「エレクトロニウム」の機能を探るのに時間がかかったり、プログラマーの選定が大変だったりしたのですが、ひとまず進められています。プログラマーはGoogleの「Magenta(マゼンタ)」(人工知能によって美術や音楽をつくるプロジェクト)に関わったこともあり、AIや音楽に詳しい方です。

久保田:プログラマーのスキルの個人差は大きいので、そういう人が協力してくれるのは朗報ですね。

*1 カウンターポイント……対位法。複数の全く異なる旋律とそれらが作る和音の調和を重視した作曲技法。

展開の広がりを視野に入れて

久保田:最終的に、インターフェイス部分と音源部分のソフトウェアは分けるのでしょうか?

スズキ:分ける予定ですが、今回、C言語を使ってゼロからプログラムを組むのは予算と時間の都合上難しいので、できる限り既存のソフトウェアを利用したいです。体験する人にとって大きな違いもないので。インターフェイス部分にはGoogle Magentaが最近公開した、Ableton Live用のプラグインを使うといいかなと思っています。先の話になりますが、将来的に、システムのモジュール化も視野に入れることができそうです。

久保田:個人的には、そうやって分ける方が発展性が生まれていいと思います。例えばインターフェイス部分だけを使って、音源は別のものをつないでライブパフォーマンスをすることや、部分的にバージョンアップすることも考えられますし、技術的な余地をいろいろ広げておくのがいいですね。

スズキ:はい。将来的には、物理的なボタンを使ったインターフェイスも考えているので、その際もデータを流用できるのではないかと思います。今回の企画では、タッチパネルが最善策だろうと思います。

久保田:タッチパネルだとイベントなどへも持ち運びやすいですね。

戸村朝子(以下、戸村):最近、プロジェクターで投影できるタッチパネルがあるんですよね。小型で、どこにでも持っていけますし、「エレクトロニウム」のオリジナルから“変化していく”というメッセージも込められるかと思います。

スズキ:「Xperia Touch(エクスペリア・タッチ)」ですよね? 実際に触ったことがあります。確かに、直感的に操作できる点も理想に近いです。

久保田:ここからは「『エレクトロニウム』とは何か」ということが重要になりますね。つまりアルゴリズムなのか、コンセプトなのか、あるいはインターフェイスなのか。著作権の問題も関わってくると思います。
デジタル以前の、アナログ時代の“プレ”デジタル・メディアを、デジタル化することで、一体何が生まれ、何が可能になるのかというところに興味を持ちました。シンポジウムなど議論の場をぜひ設けたいですね。

スズキ:著作権に関していえば、アメリカでの登録はありません。秘密主義だったようで、レイモンド・スコット氏のメモ以外、残っていないんです。

久保田:そもそもずっと前から、「作者の死」ということが言われてきました。これをきっかけに、インターフェイスの著作権にまつわる問題について、さまざまな分野からの議論が深まればいいなと思います。

スズキ:はい。例えば、作者が死んで一定期間が過ぎると著作権がなくなりますが、作者の考え方を学習したAIが新しい著作物を創作した場合、誰に著作権があるのかなどの問題提起ができると思います。

プロセスも含めたプレゼンテーション

戸村:今回、プロセスそのものが作品の一部になりえますよね。どういう思考を重ねて作品として昇華させたかを、選択しなかったアイデアも含めて提示できるといいかなと思います。メモや映像などもプレゼンテーションに加えてよいのではないでしょうか。

スズキ:そうですね。リサーチ時のメモなど、資料の蓄積があるので、成果プレゼンテーションまでに発表できるよう仕上げていきたいです。できれば映像化もしたいところです。
客観性を出すためにも、プロセス自体はやはり重要だと考えています。「エレクトロニウム」から出てくる音は、音楽としてはあまり面白いものではない分、「エレクトロニウム」にまつわる歴史をひもといて、そこからどのように再現したかを説明できたら、と思います。

久保田:当時の電子音楽がどういうものと見られていたか。また、レイモンド・スコット氏自身がどういう可能性のもとで「エレクトロニウム」をつくりたかったのかという、歴史の考証が大事になってくると思います。
そもそもAI、特に機械学習は、新しいものを生み出すよりも、過去を考証するのに向いています。当時のサウンドメイキングの特徴を抽出し、データ化するのには有効な方法だと思います。
「エレクトロニウム」は、「カウンターポイント」という作曲技法と、インターフェイスの設計とが深く結びついているという点に僕自身も興味を持っています。インターフェイス設計が、新たな作曲の手法となる中で、「エレクトロニウム」が、そうした現代的な作曲のあり方の直接の“アンセスター(=先祖)”だという見方ができるかもしれません。今回のレポートを拝見して、そのことを強く感じました。その辺は、また改めて議論できればと思います。

スズキ:はい。「エレクトロニウム」は、エンジニアではなく音楽家がつくったインターフェイスだという点がユニークだなと思っています。

久保田:そうした意義を提示することで、「エレクトロニウム」がほかの電子楽器とは違う、それ固有の特徴や意味が示せるのではないでしょうか。

―最終面談に向けて、アウトプットの再検討を行い、プログラマーとともに開発作業を進めていく予定です。