鳥の鳴き声で訓練したAIがクジラの声も聞き分ける、Googleの転移学習モデル


鳥の声AIがクジラの声も解析、Googleの生物音響モデルがドメイン超える

Google DeepMindが発表した生物音響基礎モデル「Perch 2.0」は、鳥類など陸上動物の鳴き声のみで訓練されている。しかし、訓練データに含まれないクジラの鳴き声の分類でも優れた性能を示し、異なるドメイン間での転移学習の有効性を実証した。これは単なる音声認識モデルの精度向上以上の、AIの「汎化能力」の可能性を示す一歩と言える。一方で、この技術が生態学の現場で実際に使われるまでには、専門家との協働や、さらなる検証が必要だろう。

陸上の音で海の生物を識別する「Perch 2.0」

Google DeepMindとGoogle Researchが2025年8月にリリースした生物音響基礎モデル「Perch 2.0」は、従来のAIモデルとは異なるアプローチで注目を集めている。Googleの研究ブログによれば、このモデルは鳥類を中心に、哺乳類や両生類など陸上動物の鳴き声データで訓練されている。前バージョンと比較して約2倍のデータ量で学習しており、陸上生物の音響識別能力は大幅に向上している。

しかし、今回の最大の驚きは、その応用先にある。公式ブログによると、Perch 2.0の訓練データには、水中の音声は一切含まれていない。それにもかかわらず、このモデルは海洋生物、特にクジラの鳴き声の分類タスクにおいて、優れた性能を発揮したという。これは、AIが「陸上生物の音」という一つのドメインで学習した知識を、「海中生物の音」という全く異なるドメインに転移(Transfer)させ、有用な特徴を抽出できたことを意味する。

転移学習の可能性を実証した具体的な成果

では、具体的にPerch 2.0を使うと何ができるのか。一例として、研究者が海中の録音データをこのモデルに入力する場面を想定できる。モデルは自身が学習したことのないクジラの鳴き声を「聞き」、その音響パターンに基づいて、異なる種のクジラを区別したり、個体を識別したりする手がかりを提供することが期待される。

この能力は、生物音響学の研究、特に生態調査の効率化に大きなインパクトを与える可能性がある。従来、海中生物のモニタリングは、専門家が長時間の録音を耳で聞き分ける必要があったり、特定の種に特化した専用のAIモデルを一から作成したりと、非常に労力を要する作業だった。Perch 2.0のような基礎モデルがドメインを超えた汎用的な音響理解能力を獲得すれば、新たな生物種の調査や、広範囲の生態系モニタリングを、より迅速に開始できる道筋ができる。

Googleの発表資料によれば、この研究成果は、NeurIPS 2025の「AI for Non-Human Animal Communications」ワークショップで発表された。これは、AIコミュニティにおいても、非人類の生物間コミュニケーションへのAI応用が、一つの重要な研究分野として認知されつつあることを示している。

なぜ「鳥のAI」が「クジラ」を理解できるのか

この現象を可能にした背景には、大規模なデータで訓練された現代の基盤モデル(Foundation Model)の特性がある。Perch 2.0は、膨大な陸上生物の音から、生物の鳴き声に共通する「音響的プリミティブ(原始的特徴)」——例えば、リズム、周波数変調、ハーモニック構造、時間的なパターンなど——を抽出する方法を深く学習したと考えられる。

これらのプリミティブは、発声器官や環境が異なる生物間でも、何らかの形で共通している可能性がある。鳥のさえずりの複雑なパターン認識能力が、クジラの歌の長大で繰り返される構造を理解するための基盤となったのかもしれない。つまり、モデルは「特定の鳥の声」を覚えたのではなく、「生物が発するコミュニケーション音声の本質的な構造」を学んだ結果、未経験の音に対しても適応力を発揮したと言える。これは、言語や画像など他の分野で観察される大規模基盤モデルの「創発的能力」が、生物音響の分野でも現れ始めた一例と解釈できる。

技術的意義と今後の展望

Perch 2.0の成果は、転移学習、特に「ドメイン間転移」の有効性を強く示唆する実証例となった。AI開発において、対象とする全ての領域で大量の教師データを用意することは、コストや時間の面で現実的でない場合が多い。今回のケースは、比較的データが収集しやすいドメイン(陸上生物音響)で高度なモデルを構築すれば、データ収集が困難なドメイン(海中生物音響)にも応用できる可能性を拓いた点で意義が大きい。

今後の展開としては、まずこの転移学習能力の限界とメカニズムをさらに詳細に検証することが求められる。どのような音響特徴が転移しやすく、どのような場合に失敗するのか。また、この技術を実際の保全活動に統合するためには、生態学者や海洋生物学者との緊密な連携が不可欠である。モデルの出力をどのように解釈し、フィールド調査と結びつけるかという実践的な課題が残っている。

最終的には、音響に限らず、様々なセンサーデータ(カメラトラップ映像、環境DNAなど)を統合したマルチモーダルな生態モニタリング基盤モデルへと発展していく可能性もある。Perch 2.0は、AIが人類を超えた「地球の声」を理解するための、最初の興味深い一歩を踏み出したと言えるだろう。

出典・参考情報

cloud9 Written by:

Be First to Comment

    コメントを残す

    メールアドレスが公開されることはありません。 が付いている欄は必須項目です