
The Informationの報道によると、OpenAIは、音声操作を前提としたAIデバイスの開発を進めており、その基盤となる新たな音声AIモデルを2026年初頭に投入する計画です。

The Informationの報道によると、OpenAIはここ数か月、音声AIモデルの性能向上を最優先課題として、エンジニアリングや研究、プロダクトの各チームを横断的に再編しているようです。現在のChatGPTでも音声対話は可能ですが、音声用モデルはテキスト用モデルと比べて応答の正確性や速度で課題があると社内で認識されていたと伝えています。
開発中の新音声モデルは、より自然で感情表現のある話し方に加え、ユーザーと同時に発話したり、会話の途中で割り込まれても対応できる点が特徴とのこと。こうした改善は、音声を主なインターフェースとするAIデバイスの実用化に不可欠とみられています。The Informationによると、この新音声モデルは2026年初頭の投入が計画されているということです。
OpenAIが構想するデバイスは、画面操作を前提とせず、話しかけることで利用する「音声中心」の設計になる見通しです。発話による対話は人にとって自然であり、画面を持たないことで依存性を抑えられる可能性があるという考え方も背景にあるとのこと。ハードウェア開発には、元Appleのデザイン責任者であるジョニー・アイブ氏が関与しており、過去の消費者向けデバイスの反省を踏まえた設計思想が重視されているとされています。
OpenAIは単一製品ではなく、複数のデバイスを段階的に展開する構想を持っており、眼鏡型デバイスやディスプレイを備えないスマートスピーカーなども検討対象に含まれているようです。
