
Appleは近年、AirPodsを単なるワイヤレスイヤホンではなく、ウェルネス機能を強化したデバイスとして進化させています。
2024年末には、AirPods Pro 2に大音量の抑制機能や聴覚テストシステム、補聴器機能が追加されました。
そして2025年、新たにリアルタイム翻訳機能の導入が検討されているとBloombergが報じています。
Appleは対面での会話の言語障壁を取り除くことを目的としており、この機能はiOS 19のソフトウェアアップデートの一環として提供される可能性があります。
リアルタイム翻訳の展望
このシステムでは、iPhoneが翻訳の中心となります。
- iPhoneが言語Aを言語Bに翻訳し、AirPodsを装着したユーザーに音声として届ける。
- 同時に、言語Bを言語Aに翻訳し、iPhoneのスピーカーを通じて相手に伝える。
現時点で、Appleがどの翻訳エンジンを採用するのか、AI支援があるのか、対応言語数はどの程度かなどの詳細は不明です。
しかし、この機能が実装されれば、AirPodsの利便性は大きく向上します。
市場の動向とAppleの遅れ
Appleはこの分野で先駆者とは言えません。
GoogleのPixel BudsはすでにGoogle翻訳を活用したリアルタイム翻訳機能を提供しており、約40言語に対応しています。
ユーザーは「会話モード」で直接対話するか、「書き起こしモード」で翻訳された内容を視認できます。
さらに、Earfun AirPro 4+はAIによるリアルタイム翻訳を搭載し、Mymanu ClickやMars earbudsは2017年から翻訳機能を提供しています。
また、Timekettle X1のように、企業向けの翻訳イヤホン市場も形成されています。
GoogleのGeminiなどのAIチャットボットも翻訳機能を提供しており、競争は激化しています。
Appleのアプローチ
Appleは、既存の技術を活用するか独自技術を開発するかの選択を迫られています。
OpenAIとの提携により、Siriの補完機能としてChatGPTを活用する可能性もあります。
一方、ニューラル機械翻訳技術は急速に進化しており、Metaが2022年に約200言語をサポートするAI翻訳ツールをオープンソース化するなど、いくつかの選択肢が存在します。
Appleはプライバシー保護を重視する企業であるため、クラウド依存型ではなく、デバイス上で動作する翻訳エンジンを採用する可能性が高いと考えられ、高速で安全な翻訳が実現し、ユーザー体験の向上が期待されます。