Appleは、音声アシスタント「Siri」の強化に対する強い圧力に直面しており、ビジネス上の最大の競合であるGoogleに支援を求めた。
AppleとGoogleは米国時間1月12日に発表された共同声明で、複数年にわたる提携を明らかにした。この提携に伴い、Googleの「Gemini」とクラウド技術が「Apple Intelligence」の機能を支えることとなる。これは、2026年春にリリースを予定している、より高度でパーソナライズされた次世代Siriの基盤となるものだ。
Appleは声明で、GoogleのAIを「Apple Foundation Models」にとって最も優れたプラットフォームと位置付けている。これにより、デバイスから大規模言語モデル(LLM)に直接アクセスし、実行することが可能になる。
「次世代のApple Foundation Modelsは、GoogleのGeminiモデルとクラウド技術がベースになる」とAppleは述べる。この構想では、バックエンドでGeminiの高度なAI能力を活用する一方で、会話の安全性と保護をデバイス上で確保するため、Apple独自のローカルモデルとプライベートクラウドコンピューティングサービスを併用する仕組みだ。
Siriがより自然で流暢な会話を実現するためには、膨大なデータで訓練され、人間らしい応答を学習したGoogleの高度なLLMが不可欠となる。AI分野への参入が遅れたAppleは、自社で高度なAIやLLMを開発し、運用することに苦戦しており、これまではOpenAIの「ChatGPT」をはじめとする他社ツールに依存せざるを得ない状況が続いていた。
バックエンドにGeminiを導入することで、Siriは高度なチャットボットのように動作する見込みだ。具体的な新機能としては、「App Intents」によりApple自社アプリやサードパーティー製アプリとの連携が可能になるほか、「パーソナルコンテキスト知識」によってデバイス上のデータやユーザーの好みを認識した上でのタスク実行が実現する。
さらに「画面認識」機能では、ユーザーの要求に応じて画面上の内容を把握し、それに基づいた動作を行う。また「World Knowledge Answers」により、Siriが検索エンジンのようにウェブを調査し、広範な質問やリクエストに応答できるようになる。
「LLM Siri」と呼ばれる新型アシスタントに関する報道は、2024年末に初めて浮上した。当時、Appleの動向に詳しいBloombergのMark Gurman氏は、この次期バージョンが既に「iPhone」「iPad」「Mac」上でスタンドアロンアプリとして内部テストされていると報じていた。
Appleの目標は2026年春頃のリリースであり、現時点ではスケジュールは順調に進んでいる模様だ。最新の報道によれば、新しいSiriは「iOS 26.4」と共に3月中にデビューする見込みである。
Siriの機能強化リストに並ぶ新機能はいずれも実用的で興味深いものだが、核心となる疑問は、Geminiとの統合によってエラーの多いAppleのアシスタントが過去の不名誉から脱却できるかどうかにある。
残念ながら、これまでのSiriはユーザーの期待に応えられない場面が多発していた。要求への応答不可や言葉の誤解、誤った回答の提供といった問題である。特に運転中のルート案内で誤情報が繰り返される際などは、その不便さが顕著に表れる。
長年Siriを利用してきたユーザーが望んでいるのは、シンプルに「正しく機能する」チャットボットだ。Appleは過去にも同様の約束をしながら実現できずにきた。バックエンドにGeminiを導入したことで、Siriがようやく待望の進化を遂げるのか、その真価が問われることになる。
提供:Elyse Betters Picaro / ZDNET
この記事は海外Ziff Davis発の記事を4Xが日本向けに編集したものです。