Apple Neural Engineのリバースエンジニアリング成功、推論専用チップで学習を実現
Apple SiliconのコアとなるAIアクセラレータ「Neural Engine(ANE)」は、公式には推論(既存モデルの実行)専用とされてきた。しかし、開発者がこの制限をリバースエンジニアリングによって打破し、M4チップのANE上でニューラルネットワークの学習(トレーニング)処理を実行することに成功した。これはオンデバイスAIの可能性を大きく広げる技術的ブレークスルーだが、現状は実験的プロジェクトであり、すぐに実用アプリケーションが登場する段階ではない。
非公開APIを解析、CoreMLをバイパスして直接操作
開発者Manjeet Singh氏によるこのプロジェクトは、Appleが公開していないプライベートAPIを解析し、公式フレームワークであるCoreMLを経由せずにNeural Engineを直接操作することを可能にした。公式情報によれば、CoreMLを通じて提供されるANEの機能は推論に限定されており、学習処理の実行やハードウェアへの低レベルな直接アクセスは許可されていない。今回の手法はこの公式の制限を根本的に回避するものだ。
具体的には、ANEのハードウェアコマンドを発行する非公開のシステムフレームワークをリバースエンジニアリングし、その上に独自のソフトウェアスタックを構築した。これにより、ニューラルネットワーク学習の根幹である「バックプロパゲーション(誤差逆伝播法)」をANE上で実行する基盤が整えられた。
学習処理の実証と驚異的な効率性
プロジェクトの実証結果によれば、M4チップのNeural Engine上で、単一のTransformerレイヤーの学習を1ステップあたり9.3ミリ秒で実行できたという。この時のANEの利用率は11.2%で、実測された演算性能は1.78 TFLOPS(1秒あたり1.78兆回の浮動小数点演算)に達した。
さらに興味深いのは、ANEのハードウェアプリミティブ(基本演算)が「畳み込み」に最適化されているという洞察だ。Singh氏は、学習に必要な行列乗算を「1×1の畳み込み」として実装し直すことで、約3倍のスループット向上を達成したと説明している。また、CoreMLを経由する場合と比較して、直接ANEを呼び出すこの手法では2倍から4倍の性能向上が確認されたという。
プロジェクトの解説によると、M4のNeural Engineの理論上のピーク性能は約15.8 TFLOPSと推定されている。これはAppleが公称する「38 TOPS」という数値とは測定基準や定義が異なる可能性があり、TOPS(整数演算)とFLOPS(浮動小数点演算)の違いも影響していると考えられる。
なぜこれが重要なのか:オンデバイス学習の未来
この成果の最大の意義は、エネルギー効率に優れたモバイルチップ上で、データを端末から外に出さずにAIモデルを継続的に改善する「オンデバイス学習」の実現可能性を示した点にある。プロジェクトのREADMEでは、M4 ANEの効率が6.6 TFLOPS/Wであるのに対し、データセンター向けGPUであるNVIDIA A100は0.08 TFLOPS/Wと推定されており、80倍以上のエネルギー効率の差があると指摘されている。用途と規模が全く異なるハードウェアの直接比較には注意が必要だが、エッジデバイスにおける効率の高さは圧倒的だ。
ユーザーが使うとどうなるかという具体例を挙げれば、将来的には、ユーザーの写真スタイルに完全に特化した画像生成モデルをiPhone内で安全に学習させたり、キーボードの予測変換が個人の癖をその場で学習して精度を上げ続けたりするような、真にパーソナル化されたAI体験が、バッテリー消費を大幅に抑えながら実現できる可能性が開ける。
実験的プロジェクトとしての現状と今後
現在、このプロジェクト「ane-training」はGitHub上でMITライセンスの下、オープンソースとして公開されている。公開からわずか5日間でスター(ブックマーク)が約2,800も集まるなど、開発者コミュニティから大きな関心を集めている。
しかし、これはあくまで技術実証の段階だ。現状では単一のニューラルネットワーク層の学習が可能になったに過ぎず、大規模なモデルをゼロから学習させるためのソフトウェアスタックやメモリ管理、開発者向けの高レベルAPIは整備されていない。また、非公開APIに依存しているため、今後のmacOSやiOSのアップデートによって動作しなくなるリスクも常にはらんでいる。
代替ツールとの比較で言えば、汎用GPU(NVIDIA CUDA)や他のアクセラレータ(Google TPU)を用いた学習環境は、ソフトウェアスタックの成熟度、ライブラリの豊富さ、大規模分散学習のサポートにおいて圧倒的に優位にある。今回のプロジェクトは、それらの「巨人」に対抗するものではなく、極めて特定の環境(Apple Silicon搭載端末)において、効率性とプライバシーの観点から新しい道筋を提示したと言える。
まとめ:誰がこの技術を注視すべきか
Apple Siliconの内部アーキテクチャと極限の最適化に情熱を燃やす上級開発者や、エッジAI、オンデバイス学習の未来を真剣に探求する研究者にとって、このプロジェクトは貴重な一石となる。それは、公式に開かれていない扉の向こう側を覗き、その可能性を実際のコードで示したからだ。
一方で、安定した開発環境を求める一般アプリ開発者や、すぐに使えるAIツールを期待する一般ユーザーが、現時点でこの技術を直接利用する場面はない。このリバースエンジニアリングの成果は、すぐに花開く製品ではなく、未来のオンデバイスAIという大きな木の、強固な「根」の一部となりうるものだ。その成長を見守り、場合によっては自ら培養土を提供する(コードを貢献する)のは、テックコミュニティの役割と言えるだろう。
Be First to Comment