GoogleはGeminiにPixel 10およびGalaxy S26からAndroidアプリの管理と購入を担当させました。
GoogleはPixel 10とSamsung Galaxy S26でGeminiの自動化を開始
Googleは、AIモデルGeminiに対して新しい「エージェント」機能を発表しました。これにより、Pixel 10とSamsung Galaxy S26のスマートフォン上で直接動作します。このシステムでは、AIがアプリケーションを自律的に開き、店舗で注文を行い、通常はユーザーの介入が必要だったその他の操作も実行できます。
仕組み
1. ニューラルネットワークが具体的な手順を実行
単なる情報検索とは異なり、Geminiは外部アプリと対話できます。たとえばタクシーを呼んでほしいと頼むと、AIはUberやDoorDashを別ウィンドウで開き、注文プロセスを開始します。
2. ユーザーの監視と制御
ユーザーはエージェントがメニュー項目を移動する様子を見ることができます。いつでも操作を中断したりウィンドウを閉じたりすると、処理はバックグラウンドで継続します。
3. 最終決定の確認
最終的な注文と支払いはユーザーに残ります。Geminiは詳細を確認し支払いを承認するよう促す通知を送信します。何か問題があれば(商品在庫切れ、別仕様が必要など)、AIは直ちに問題を知らせます。
技術的基盤
- モデル – 視覚的にインターフェースを認識できる「推論型」Gemini 3バージョン
- 開発者向けプロトコル – GoogleはMCPとAndroid App Functionsを提供していますが、システムはそれらなしでも画面画像を解析し、通常のユーザーのクリックを模倣して動作します。
経営陣からの反応
Androidエコシステムの社長サミラ・サマト氏は「ユーザーにとって重要なのは結果であり、どんな技術が使われたかではない」と強調しました。しかし、自動化の登場はアプリの広告機能に影響を与える可能性があります。Googleは発展を不可避とみなし、開発者にAIとの新しいインタラクション方法を探求するよう呼び掛けています。
将来
Geminiのエージェント機能はAndroid 17から始まる今後のAndroidバージョンに深く統合される予定であり、ユーザーの利便性に新たな可能性を開きます
コメント (0)
感想を共有してください。礼儀正しく、話題に沿ってお願いします。
コメントするにはログイン