ETH Zurichの研究チームが、人間型ロボットハンド「ORCA Hand」の設計をオープンソース化した。約22万円の材料費と8時間未満の組み立て時間で、研究用の高機能ロボットハンドを自作可能。IEEE IROS 2025で発表された本設計は、MIT/CCライセンスで公開されている。
カテゴリー: AIモデル・研究
中国UBTechのヒューマノイドロボット「Walker S2」が、AIと全身運動制御を用いたテニスラリーのライブデモを実施。研究プロジェクト「LATENT」は、不完全な人間のモーションデータから動的なアスリートスキルを学習する技術を開発し、コードを公開している。
Zhipu AIが開発した大規模言語モデル「GLM-5」が、オープンソースLLMのリーダーボードでトップまたは上位の評価を獲得している。744BパラメータのMoE(Mixture of Experts)アーキテクチャを採用。一方、Twitterで話題となった「GLM-OCR」モデルに関する性能主張は現時点で公式確認が取れていない。
AnthropicがClaude Opus 4.6を発表し、100万トークンのコンテキストウィンドウに対応した。3年前の9Kトークンから約111倍の進化で、新書5-6冊分相当の情報を一度に処理可能。ただし、100万トークン利用にはベータ設定が必要で、超過時は追加料金が発生する。
Z.AIが新フラグシップモデル「GLM-5」を発表。最大744Bパラメータと拡張データで学習。新たな「Agent Mode」はタスクを理解・計画・実行・自己チェックする自律的なツール呼び出しを可能にし、複雑なワークフローに対応。Hugging Faceで公開中。
NVIDIAが公式文書で、今後5年間で約4兆円(260億ドル)をオープンウェイトAIモデルの開発に投資する計画を明らかにした。Wiredが最初に報じ、同社は新モデル「Nemotron 3 Super」も公開している。これはオープンウェイトモデル開発における大規模な資源投入を示す動きだ。
NVIDIAが公開したオープンな大規模MoE(Mixture of Experts)モデル「Nemotron 3 Super」が、モデル実行環境「Ollama」で利用可能になった。120Bパラメータのうち12BがアクティブなハイブリッドMamba-Transformerアーキテクチャで、ローカルデバイス上での実行もサポートする。
Microsoftが発表した「BitNet」は、1.58ビット量子化技術により、100億パラメータ規模の大規模AIモデルをCPU上で実行可能にする。従来の推論方法と比較して最大82.2%のエネルギー消費削減を実現し、x86 CPUでは最大6倍以上の速度向上も確認されている。
OpenClawがXで「Hunter & Healer Alpha」の提供を発表。OpenRouter経由で最大100万コンテキストのモデルを無料で利用可能としている。GPT 5.4の思考中断問題の改善、Gemini Embedding 2のメモリ機能、OpenCodeのGo言語サポート、セキュリティ強化スプリントも含まれる。