インタラクティブサウンドの研究目的は,人間とシステムのインタラクション(相互作用)を軸に,従来の音楽のように完成されたものではなく,人間の予想を超える複雑さと多様性をもつサウンドを実現することである.ここにカオス理論を用いることで人間の感性に影響を与える斬新なサウンドを生成することが期待できる.筆者らは,カオス要素を多数並べて結合し,平均を通すことで全体を相互作用させることにより状態を遷移させていく大域結合写像(GCM)を用いてサウンド生成システムを開発してきた.GCMによりカオス的非同期性や全体の同期性の制御が可能となり多様なサウンドが生成できる.これに音楽要素の一部を加えることで,人間に不快感を与えないサウンド生成が可能であるが,操作者がコントロールするパラメータが増えると人間への負担が増大するという問題もある.そこで本研究では,人間の感性に対応した方向へ進化を誘導させることができる対話型遺伝的アルゴリズム(IGA)を導入し,サウンド生成を容易にすることが可能な手法の構築を目指す.IGAは,人間の評価と遺伝的アルゴリズム(GA)の最適化能力を結合した最適化手法である.ICASは同期性と非同期性の2つのパラメータのみで,出力されるサウンドの複雑さを制御することができるため,比較的容易にIGAの適用が可能である.筆者らはGCMのパラメータのみを自動調整するICAS-IGA1と音楽的要素のパラメータを含めたICAS-IGA2のシミュレータを構築し,サウンド生成実験を行なった.その結果,ICAS-IGA1,ICAS-IGA2ともに生成されたサウンドが人間の感性に概ね合致することが分かった.さらに,従来手法によるシステム(ICAS)と提案手法によるシステム(ICAS-IGA1)との性能および操作性の比較実験を行ない,本システムの有効性を検証した.