2023年1月に米国・ラスベガスで開催された「CES2024」では、ホンダが新たに発表したEVの新シリーズ「0シリーズ」や、ソニーホンダモビリティ「アフィーラ」のプロトタイプが大きな注目を集めました。しかし、それは日本向けの話であって、グローバル的に話題を呼んでいたのは“生成AIであるChatGPTを車載に活用した技術”についてでした。

急速に浸透し始めた生成AI技術で車内インターフェースは一変!

 2024年1月に米国・ラスベガスで開催された「CES2024」。毎年開催される「世界最大のエレクトロニック見本市」ですが、最近では自動車業界の出展も数多くあり、賑わっています。

 そんななか、ホンダ「0シリーズ」やソニーホンダ「アフィーラ」が注目を浴びていましたが、グローバル的に話題を呼んでいたのは“生成AIであるChatGPTを車載に活用した技術”についてでした。

 ChatGPT(チャットGPT)は、米国のOpenAIが開発したAIアシスタントで、大規模言語モデル(LLM/Large language model)として、学習を繰り返すことで人と同じような言葉で自然に対話できる技術です。

 最大の特徴は人間の質問を理解する能力を備えることで、複雑な内容にまで踏み込んで応答してくれることにあります。

 これまでのAIアシスタントの代表格といえば、iPhoneの「Siri」や、Android向けの「Googleアシスタント」、Amazonの「Alexa」が知られていますが、それらはひとつの問いかけに対してひとつを回答するのみでした。しかもまれに日本語が不自然だったりすることもあります。

 しかし、ChatGPTにはそれを感じることはほとんどなく、しかも複雑な質問に対してもそれを理解して回答を提示します。

  たとえば目的地を設定する際、複数の候補があっても、従来のAIアシスタントではその候補を挙げてくれるのがせいぜいで、その目的地がどんな場所なのかまでは教えてくれません。そのため、回答を得たとしても、利用者はそのひとつひとつを自分で調べ直す必要が出てきてしまいます。

 それに対してOpenAIのChatGPTなら、LLMという新しいAIのエンジンを活用し、質問の内容を理解してWebサイトから該当する記事を探し出します。

 なので、探してきたWebサイトに間違いがあればそれまでですが、その検索を行い、内容を整理した上でわかりやすく回答される便利さは、一度体験したら手放せなくなることは間違いありません。

VWはチャットGPTを車載音声アシスタントの「IDA(アイーダ)」に統合

 そんなChatGPTを、自社の車載音声アシスタントの「IDA(アイーダ)」に統合して搭載することを、CES2024で発表したのがフォルクスワーゲン(VW)です。

 バッテリーEVである「ID.7」、「ID.5」、「ID.4」、「ID.3」に加え、内燃機関モデルの新型「ティグアン」、新型「パサート」、新型「ゴルフ」にも提供され、まずは2024年第2四半期中に欧州と北米で展開していくそうです。

フォルクスワーゲンは自社の車載音声アシスタントの「IDA(アイーダ)」にChatGPTを組み込むことを発表した

 一般的にChatGPTは、コマンドを文字入力してサービスの提供を受けますが、クルマの場合は走行中に使うことが前提となるため、そのやり取りは音声認識で行うのが基本となります。

 VWはこの音声認識技術に、その分野でのトップメーカーであるセレンスの技術「Cerence Chat Pro」を採用し、自然に語りかけるだけでChatGPTからのサービスを受けられるようにしたのです。

 これにより、ユーザーは車載インフォテインメントシステムに関する機能だけでなく、ナビゲーションに会話する中で目的地を設定するよう指示したりできるようになります。操作は単に「Hello IDA(ハロー、アイーダ)」と話しかけるか、ハンドルのボタンを押すだけ。これでIDAとの会話が可能となります。

 発表会場では、その一例が動画で紹介されました。

 その内容は、ID.7に乗り込んだ男性がアイーダに「レッドカーペットを歩くようなイベントで、キルトは十分にフォーマルな服装になるかな?」と問いかけます。これにアイーダは「ChatGPTによれば、人々はキルトをフォーマルな行事に適した高級なドレスと思っています」と回答。男性は「それなら最寄りのキルトショップを探して」と言うとIDAは「OK」と返してそのままナビに道順を設定。さらに男性は「スコットランドの音楽を再生して」というと、アイーダはスコットランドの音楽を再生し始めるという具合です。

 もともとアイーダで採用したCerence Chat Proは、温度設定や室内照明のON/OFFの操作には音声で行える機能を装備していました。ここにChatGPTを加える形でシステムは構成されています。

 流れとしては、音声でリクエストがあるとそれをCerence Chat Proが解析し、組み込まれたシステム内で対応すべきか、あるいは外部のクラウドへ投げるか、さらにはChatGPTに訊ねるかを判断します。基本的にはChatGPTは従量課金されるため、なるべくエッジ側を優先して処理するようになっているとのことでした。

ただ、ここで採用されたChatGPTのバージョンは「3.5」。どうして最新の「4.0」ではないかと現場スタッフに訊ねると「コスト的に見合わないから」との回答でした。

パイオニアはChatGPTをカーナビ用アプリで展開することを想定

 一方で、最新のChatGPT「4.0」を使って、プロトタイプを披露したのがパイオニアです。

パイオニアは、カーナビ用アプリなどのUX向上を目指し、マイクロソフトの生成AIサービス「Azure OpenAI」を活用した技術検証を披露した

 パイオニアは2023年12月13日、同年4月よりマイクロソフトの生成AIサービス「Azure OpenAI Service」を自社で展開中のスマートフォン用アプリなどに活用するための技術検証を行っていることを発表しました。

 CES2024への出展では、この検証を踏まえ、今後のモビリティ領域での生成AIの実装、およびAPIサービスとしての可能性を探ることを目的に披露したものとなります。

 この生成AIを披露したのは、日本ですでにサービスが展開されているナビゲーション用アプリ「COCCHi(コッチ)」と、現在β版として提供されている音声による自然な対話を通して最適化されたバイク用アプリ「MOTTO GO」の2つです。

 とくに「COCCHi」は、有料アプリとして後発ながら、すでに10万ダウンロードを突破したということで、その人気は着実に上がって来ています。

 とはいえ、泣き所は目的地の検索能力にあり、少し複雑な内容になるとGoogleマップとの連携に頼れざるを得ないのが現状でした。

 パイオニアは、「Piomatix」と呼ばれる、ドライバーに最適かつ必要な情報を判断して提供するモビリティAIプラットフォームを構築していますが、その能力を十分活かして切れていない印象があったのです。

 そこでChatGPTを組み合わせることで、ユーザーの問いかけに対して関連情報を交えた幅広い情報を提案し、より充実した目的地設定を実現しようというのがこの技術検証です。

 ただ、「4.0」の能力は極めて高く、単にコマンドを与えるだけだと、必要もない広範な情報が回答されてしまいかねません。そこでChatGPTに与えるコマンドの中にGPSによる位置情報も含めることで、現在地付近に関連づけられた情報だけに絞り込んで提供されるようにアレンジ。

 さらにChatGPTからの回答も、ドライバーが音声で認識しやすくするために、ひとつのフレーズを100文字〜200文字程度に収まるよう工夫したそうです。

 パイオニアによれば、会話の中で遅延が発生するなど改善すべき点は残ってはいるものの、うまくいけば今春にもサービス提供が日本で行える可能性があるとのことでした。

※ ※ ※

 CES2024では、フォルクスワーゲンやパイオニア以外にもこのChatGPTなど生成AIを活用する出展が数多く見られました。

 すでに運送業界もこの導入に向けて動き始めているとの話もあります。

 もはや生成AIによって車載システムの音声認識機能の概念が一変する日は、もう間近に迫っていると言えるでしょう。