コンピュータ音楽とは、
コンピュータ技術を
音楽の
作曲や
演奏に応用した
音楽ジャンルです。この分野では、
作曲家が新しい
楽曲を制作する際に
コンピュータを補助ツールとして活用したり、
コンピュータ自身が
作曲アルゴ
リズムに基づいて
楽曲を生成したりします。
演奏への応用においては、
電子[[音楽]]との境界線が曖昧になることもあります。
コンピュータ音楽は、既存のソフトウェア技術だけでなく、新たなソフトウェア技術の理論と応用も包含します。
音響生成、
デジタル信号処理、
サウンドデザイン、
音の拡散、
音響学、
電気工学、
音響心理学など、
音楽に関わる様々な分野が
コンピュータ音楽に深く関わっています。
歴史
コンピュータ音楽のルーツは、
電子[[音楽]]の起源、すなわち20世紀初頭の電子楽器による
音楽の実践にまで遡ることができます。
音楽と数学の関係は、古代ギリシャ人が『宇宙の諧調』を著した時代から研究されており、
コンピュータ音楽はその延長線上にあると言えるでしょう。
コンピュータによる最初の
音楽
演奏は、1950年に
オーストラリアのデジタル
コンピュータCSIR Mark 1によって行われました。アメリカや
イギリスでも同様の試みがあったとする報道がありましたが、証拠がないため否定されています。当初、
コンピュータがノイズを発生させることから
音楽
演奏のアイデアが生まれたという説がありますが、それを裏付ける証拠はありません。
数学者のジェフ・ヒルは、1950年代初頭にCSIR Mark 1を用いてポピュラー
音楽を
演奏させるプログラムを開発しました。1950年の最初の
演奏は録
音されていませんでしたが、後にプログラムが復元されています。1951年には、行進曲『
ボギー大佐』が公開
演奏されましたが、こちらも録
音は残っていません。
イギリスでは、1951年末にクリストファー・ストレイチーがFerranti Mark 1を使って
イギリス国歌を
演奏しました。この
演奏はBBCの国外向け放送で録
音され、現存する最古の
コンピュータ音楽の録
音とされています。2016年には、カンタベリー大学の研究者がこの録
音のノイズを除去し復元しました。
1950年代の進展
1950年代には、
コンピュータによるデジタル
音響生成と
作曲アルゴ
リズムの研究が大きく進展しました。1957年、
ベル研究所のマックス・マシューズが
音響合成ソフトウェアMUSIC-Iを開発し、後にMUSIC-Nシリーズへと発展させました。マシューズは1963年に
コンピュータ音楽に関する記事を発表し、その普及に貢献しました。また、レジャリン・ヒラーとレオナルド・アイザックソンは、1956年から1959年にかけてアルゴ
リズム作曲を行い、1957年に弦楽四重奏曲『ILLIAC組曲』を初演しました。
日本では、
慶應義塾大学の関根智明と
東芝の林大雅がTOSBACを使って実験を行い、『TOSBAC組曲』を
作曲しました。大阪万博では、江崎健次郎の作品が発表され、武田明倫は1974年に『パノラミック・ソノール』を発表しました。
1970年代以降、日本の
コンピュータ音楽研究はポピュラー
音楽における商業利用が中心となり、フェアライトなどの大型
コンピュータを用いた
音楽制作も行われるようになりました。
リアルタイム性の進化
初期の
コンピュータ音楽プログラムは、リアルタイムでの動作が困難でしたが、CSIR Mark 1やFerranti Mark 1による初期の実験ではリアルタイム
演奏が可能でした。1950年代後半には、わずかな
音楽を生成するのに高価な
コンピュータを長
時間稼働させる必要がありました。その後、プログラムは洗練され、アナログ
シンセサイザーをデジタル制御する「ハイブリッドシステム」が登場しました。1969年には、マックス・マシューズのGROOVEシステムやピーター・ジノビエフのMUSYSなどが開発されました。
1970年代後半には、これらのシステムが市販されるようになり、
ローランド MC-8マイクロコンポーザなどのマイクロプロセッサで動作するシステムが登場しました。また、ジョン・チャウニングが研究したFM合成技術により、効率的なデジタル
音響合成が可能になりました。1983年には、世界初のフルデジタル
シンセサイザーである
ヤマハDX7が発売され、安価なデジタルチップやマイクロ
コンピュータの登場により、
コンピュータ音楽のリアルタイム生成が可能となりました。
1980年代には、日本のパーソナル
コンピュータに
FM[[音源]]チップが搭載され、ゲーム
音楽(
チップチューン)の制作に利用されました。
コンピュータ音楽の分野では、
コンピュータによる
音響合成、
作曲、
演奏に関する研究が盛んに行われています。国際
コンピュータ音楽協会(ICMA)、C4DM (Centre for Digital Music)、IRCAMなどの研究機関が、この分野の研究を推進しています。
ゴットフリート・ミヒャエル・ケーニヒやヤニス・クセナキスのような
作曲家は、楽譜だけでなく
音響も
コンピュータで生成するようになりました。ケーニヒは、セリエル
音楽に基づくアルゴ
リズム作曲プログラムを開発し、
コンピュータが直接
音を生成できるようにしました。また、
2000年代には、アンドラニク・タンジアンがカノンや
フーガの構造に基づいた
楽曲を生成するアルゴ
リズムを開発しました。
コンピュータを用いて、過去の偉大な
作曲家の作風を模倣する試みも行われています。デイヴィッド・コープは、他の
作曲家の作品を分析し、その作風を模倣した新しい
楽曲を制作するプログラムを開発しました。また、スペインのマラガ大学の研究プロジェクトMelomicsは、イアムス(Iamus)と呼ばれる
コンピュータ・クラスターを用いて、複雑な
楽曲の
作曲を行っています。
機械即興
演奏は、
コンピュータのアルゴ
リズムを用いて既存の
音楽素材から即興
演奏を行う技術です。この技術は、パターンマッチングや機械学習アルゴ
リズムを用いて
音楽素材を分析し、新しい
楽曲を生成します。これは、既存の
楽曲の分析を行わずに、アルゴ
リズムによって
楽曲を生成する従来の
コンピュータ音楽とは異なります。
統計的スタイルモデリング
スタイルモデリングは、
音楽データのスタイル的特徴を捉えた計算可能なモデルを構築することです。統計的な手法を用いてパターンを抽出し、新たな
音楽データを生成します。この手法は、ヒラーとアイザックソンの『ILLIAC組曲』やクセナキスの
マルコフ連鎖を用いた
楽曲に起源を持ち、現在では
可逆圧縮インクリメンタル・パーシングなどの手法も用いられています。また、異なる
音楽スタイルのモデルを混合することで、スタイルミキシングも可能です。
実装
統計的スタイルモデリングの実装として、Open MusicのLZify法や、ソニーCSLのフランスワ・パチェが開発したリアルタイム・スタイルモデリングの実装などが挙げられます。
ライブコーディング
ライブコーディングは、パフォーマンス中にリアルタイムで
コンピュータ音楽のプログラムを作成する手法です。
デスクトップミュージックと比較して、ライブでの
演奏にカリスマ性や華やかさを求めるミュージシャンによって採用されています。
まとめ
コンピュータ音楽は、
音楽の
創造と
演奏に
コンピュータ技術を応用した分野であり、その歴史は20世紀初頭にまで遡ります。初期の
コンピュータ音楽は、主に研究目的で始まりましたが、デジタル技術の進化とともに、現在では
音楽制作に欠かせない存在となりました。また、
コンピュータによる
作曲、
演奏、即興
演奏、スタイルモデリングなど、様々な研究分野が発展しており、
音楽の未来を切り開く可能性を秘めています。