日本の電子音楽

第二章のインタビューのところだけ。
本の後半は電子音楽年代記と主要ディスク紹介になってます。

日本の電子音楽

日本の電子音楽

「ヴォイセス・カミング」は

テープをさんざん編集して作曲したわけですが、テープ音楽としてはそれほど声を変形していないんです。(略)
それはなぜかっていうと、それまで十五年以上ミュジーク・コンクレート電子音楽をやってきて、原材料の音をどのぐらい変化させると、たとえば四オクターブ落としてどういう周波数をカットしたらどういう音になる、とかいうことはもうわかっているわけですね。
それはもちろんおもしろい現実ばなれした音になるのですが、音自体の存在感は変化させればさせるほど抽象化されていって、音響が最初に持っている音響自体の生命みたいなもの、つまり存在感がどんどん希薄になっていくんです。
それで、変化させていくことに飽きてきて、音そのものの存在感の魅力にもう一回戻ったっていう感じがあるんですね、それであまり変化させずにつくったわけです。
それから、意味のない言葉っていうのが現実の音声のコミュニケーションのうえでは必要なものなんですね。コンピュータ・コミュニケーションだと論理的なものだけで余計なものはいらないんですけど、たとえば接続詞にしても「しかし」、「だが」とか、英語だって「however」、「but」とか似たようなのものが、とくに日本語にはいっぱいありますね。それはひとによってつかいわけられているわけですし。
それを一律化してぜんぶ「but」にしてしまうのは、人間の音声的なコミュニケーションにおいて非常に不自然なわけです。(略)
僕はいま「あの……」と言ってしばらく黙っていましたけれど、音楽的に係留されている時間というものがあるわけですよね。そういうサステインしている力があってそこからなにかが解決する、というのは音楽的な時間だと思うんですね。それが擬声語だったりつぶやきだったり論理的には意味をなしえない言葉だけれども、まったく意味がないんじゃなくてそれ自体に音楽的なコミュニケーションがあるっていう考えはずっと続いていますね。

ライブ・エレクトロニック音楽について(1961年)

はやりましたね。僕は批判的だったんです。一柳がやるのはいいし、デイヴィッド・テュードアがやるのもそれはそれでいいと思っていましたけれど、日本はすごく変なところがあって、これからはライブ・エレクトロニクスの世界だ、テープに固定されたような電子音楽はもう古い、なんてことにすぐなってしまうんですね。(略)
カールハインツ・シュトックハウゼンが「イコン」 の前に「テレムジーク」をNHKで五チャンネルでつくったんですが、それを初演するときにNHKの第一スタジオに行ったら、シュトックハウゼンは偉そうな顔して五チャンネルのアッテネーターを動かしているだけなんですね。
一つの音は一つのチャンネルにしか行かないんです。それを、音量を上げたり下げたりして、全体の音量をコントロールしているだけなんですね。
五チャンネルあるのにステレオフオニックなファンクションさえないじゃないか。これだけの設備をつかってただ音量を上げたり下げたりしているだけじゃばかみたいだと思って(笑)、それで全体に動くものをつくろうと思って、それで次の年に「イコン」をつくったわけです。

ドンカマ名称由来新説。お釜でいいみたい。

あるときNHK電子音楽スタジオにリズム・ボックスという機械が持ちこまれてきたんです。いちばん最初につくったものはドラム缶ぐらいのサイズの箱の上に、無指向性の円形スピーカーをとりつけたもので、なんだこのドンカンドンカンいうお釜をひっくり返したみたいな機械は、と言ったひとがいたんです(笑)。
それじゃドンのカマだなということでドンカマと言いだしたんです。その機械が真空管式からトランジスタ式になっていっても、ドンカマという名前だけがそのまま残ってしまった(笑)。
だから、ドンカマの由来はNHK効果音部のスタッフのちょとした冗談がもとになっているんです。
こうやったらリズム形成機ができますよとその機械をメーカーのひとに教えてあげたら、そのうちドンカマチックなんていう名前で発売されるようになってしまって

エクスパンダー

小杉武久さんの「Catch Wave '71」のときいちばん難しかったのは、バイオリンを弾いたときの、あたまの立ちあがりの音を削ってくれという依頼だったんです。
台風みたいに波頭が立っていればべつだけれど、そうでないときは波の音にもアタックはないはずだ、そういう音をつくってくれと言うので、アタックをどうやって取りのぞくかいろいろと試行錯誤しました。
けっきょく、そのときはエクスパンダーをつくったんです。演奏しはじめても音が出てこない。ある程度の音が出てきても、ゆっくりと立ちあがる。そういうエクスパンダーをつくって、波の音を表現しました。
それがエクスパンダーをつかいはじめた最初の作品じゃないかな。そのあとは、エクスパンダーはあたまの立ちあがりの音を消せるということで、ノイズ・ゲートにつかいだしたんです。

「具体音楽」、ライブ・エレクトロニクス

電子音楽の譜面というか、設計図みたいなものが嫌いでね。固定化された図面で音を構築していく、そういうのには僕はアンチの立場だったんです。(略)
けっきょくヨーロッパの伝統的なコンポジションのコンセプトは、音を固定してそこに留めておこうってことでしょ。そういうコンセプトを持ったコンポジションの概念がやっぱりそぐわないっていうかな。ミュジーク・コンクレートを聴いたときはおもしろいと思っていましたが、ミュジーク・コンクレートもテープに音を固定することによってそこで留められてしまいますよね。(略)
だから、現実音を録音すると具体性はそこで消えちゃうんだな。ミュジーク・コンクレートの「具体的」音楽っていうコンセプトは、テープ化されたミュジーク・コンクレートではあらわされないといえるかもしれないね。
具体っていうのは非常に重要な要素なんだ。ジョン・ケージやデイヴィッド・テュードアなんかもそういう問題でライブ・エレクトロニクスのほうに行ったと僕は思うんだけど。(略)
もとの音はおもしろかったんだけど、再生して聴いた音は現実の空間を持ったものとはちがって、次元がひとつ欠けているんです。
テープは空間それ自身のシミュレーションはできないし、写真で撮ったみたいな音になってしまう。それはつまらない。

電子音楽をこえる

その当時のNHKはエレクトロニックといっても音に限定されていたから、あまり興味がなかったんです。
僕は音をはずれていく部分に興味があったからね。(略)
エレクトロニクスの世界っていうのはオーディオ・ウェーブだけじゃなくて、ものをひとつの状態から次の状態へ変換させること、音じゃない波動が音になるとか、そういう現象がいろいろあるわけだから、エレクトロニクスということをトータルに考えたときに電子音楽を飛びこえてしまうわけです。
NHKの電子音楽は、ヨーロッパの伝統的な音楽の流れのなかでの電子音楽ですよね。(略)
音を扱っていて電子回路に行く。電子回路を見ると音以外の部分がいっぱい入っている。それは音楽にも利用できるし、そうじゃないほうにも行ける。コンバージョンとかトランスフォーメーションとか、電子回路が持っている構造からくるサジェスチョンが創造性のほうに入ってくるわけです。それが創造のコンセプトに影響を与えている部分があると思うんです。これは電子回路を扱っているメリットですね。(略)
だから、僕にとってエレクトロニクスは本質的なものです。ラジオの持っているおもしろみ。つまり空間を伝わりながら情報が入ってくるという原理を、電子回路を通して実際に観てみると、これはおもしろいというアート的な芽生えが出てくるんですね。

  • 水野修孝

なぜジャズに

[芸大生のころ小杉武久と一日ジャズ喫茶でまったり]
ジャズを聴いているうちに、家に帰ってブラームスなんかを聴くとものすごく遅く感じるようになって、ビートを持った音楽について関心を持ちだしたんです。(略)
ジャズはビート感覚やハーモニーにおいて現代音楽を越えたものを持っていて、合理的な機能性のうえにいい具合にテンションがあるということが魅力で、現代音楽作品ではたくさんの音をつかってもたいして効果的な音が出ないのに、ジャズは協和音のなかにワサビになる音、テンションをわずか一音加えただけで痺れる響きになる。
むだなく効果的な響きを出せるという点で、ジャズというのは発達していたと思います。ヨーロッパのひとたちのつくりだした教科書的なハーモニーというのは、どうやって不協和音を解決して協和音に持っていくかということに尽きるんです。
ところがジャズの場合は不協和音とは言わない。協和音のうえにある音をのせたときにそれがワサビとなっていい刺激を与えるから、それを不協和音とは言わず積極的な意味でテンションと言っているんです。

  • 藤本由紀夫

なぜオルゴール

コンピュータをつかって、音源はあくまでもレディメイドで、出力はスピーカーでっていうものをステージでやってなんの意味があるのかって思うわけです。
けっきょくはさっき言ったファンクションなんです。機能はなんだっていうときに、僕にとっては機能でいったらオルゴールもコンピュータであって、コンピュータがないからオルゴールでやったわけじゃなくて、どちらが優れているかといったら僕にとってはオルゴールのほうが優れているんですね。

解体。いつまでブースの周りで盆ダンスなのかと。

コンピュータ・ミュージックとかっていうけど、アーティストはハードをつくっているひと、プログラムをつくっているひとだと思うんです。
アーティストっていう価値観も変わってきていて、最終的に音を出しているひとが表現者だっていう考えがおかしい。たまたまそのプログラムをつかって出した音は、音を出したひとの作品になるのかどうか。そういうところまで解体していかなければおかしいと思うんですよ。
昔ながらのモーツァルトと一緒のシステムで、ラップトップを持ってステージで平気で演奏していて、なんでコンピュータなのにわざわざステージにいなければいけないのか。
ライブで、ステージがあって、お客さんがいて、っていう構造を変えようとしないのか。音響的にはステージにいようがいまいが関係ないわけで、そういうものは必要ないと思うんですね。

[関連記事]
kingfish.hatenablog.com
kingfish.hatenablog.com
kingfish.hatenablog.com

kingfish.hatenablog.com