第10回 関東「音楽と脳勉強会」のご案内
日時 平成27年2月27日(金) 19:00~20:00
会場 電気通信大学 西10号館2F 大会議室 (地図はこちら)
寺澤 洋子(筑波大学)
「 データ可聴化と聴覚情景」
「複数の音がどのようにパターンを構成しているか」を認知するのが聴覚情景分析の機能です。逆に「パターンが認識されるような音表現をするには,どのように複数の音を用いれば良いか」という課題は、聴覚情景分析のリバースエンジニアリングであると言えます。今回の発表では,データ可聴化において,データに存在するパターンをどのように音で表現するのか,音デザインと認知の関係性についてお話しします。
可聴化(sonification)とは、データにおける関係を音響信号において知覚される関係に変換すること。データの直感的な理解には可視化(visualization)が広く使われているが、複数の音が群化して聞こえたり聞こえなかったりする仕組み(つまり聴覚情景分析の仕組み)をうまく用いることで、視覚などよりもむしろ雑多な情報をうまく直感的に理解できる可能性がある。このことを寺澤氏は「聴覚情景分析のリバースエンジニアリング」と呼ぶ。この考え方に従って、寺澤氏は多チャンネル(例えば50チャンネル以上)の脳波を可聴化する方法について研究し、様々な実験を行っている。たとえば、特定のチャンネルを目立たせるために、そのチャンネルの波形にモジュレーションをかけて他のチャンネルと群化されにくくするなど、聴覚情景分析の知見をうまく使った可聴化方法を提案しており、音のサンプルを交えつつ報告があった。特に、16チャンネルの脳波を可聴化したものを聴かせると、チャンネル間の相関が高い脳活動の音はまとまって聞こえ、相関が低い脳活動の音はまとまっていないように聞こえるという結果は印象的であった。(北原鉄朗)