Google Geminiはスマートフォンを操作できるようになると、コード内で新機能が発見されました

Google Geminiはスマートフォンを操作できるようになると、コード内で新機能が発見されました

8 software

Google の人工知能は、近いうちにあなたのガジェットを制御できるようになる予定です

より高度な AI モデルが単純なタスクを超えて進化し、将来的にはモバイルデバイスと直接対話するようになります。 Google は Project Astra の一環としてこの機能に取り組んでおり、近日中に初期結果を公開すると約束しています。

新機能について知っていること
- Google アプリ(バージョン 17.4.66)のベータ版で、Android Authority のサイトに「bonobo」というコード名の機能が言及されています。正式名称はおそらく「screen automation」(画面自動化)になるでしょう。

- この機能では、オンラインショップでの購入手続きやタクシー予約などの簡単な操作を実行できます。詳細へのリンクは Gemini のサポートページ全体にしか飛ばず、具体的な情報はまだ公開されていません。

動作概要
1. 起動

機能を初めて有効にすると、ユーザーには AI エージェントの行動を注意深く監視するよう警告が表示されます。これは「Gemini はミスを犯す可能性がある」ことを思い出させ、行動の責任はユーザーにあると示しています。

2. セキュリティ

Google は Keep Activity が有効な場合、画面キャプチャが「訓練されたモデレーター」に提供されると強調しています。そのため、アプリ内で機密情報や支払い情報を入力しないことが推奨されています。Gemini が自動的にそのような入力を停止するか、ユーザー自身が手動で止める必要があるかは未定です。

3. 注文

AI によって購入された商品は「マイオーダー」セクションに表示されます。現在、そのリンクは空白ページを開くだけで、機能はまだ公開準備が整っていません。

既にテスト中のアプリ
- 食品・商品の注文

- タクシーサービス(交通)

- 3‑D アバター作成

- Google マップからのコンテキスト追加

Gemini が制御できる具体的なアプリリストはまだありません。将来的に Google はサポートされるサービスの一覧を明確にする予定です。

まとめ:Google は画面自動化機能を積極的に開発中で、AI によってデバイス上で簡単な操作が可能になります。詳細は不透明ですが、オンラインショッピングやタクシー予約などのシナリオが実現できることはすでに見えてきます。ユーザーは Gemini エージェントの動作を注意深く監視し、安全指針を守るべきです

コメント (0)

感想を共有してください。礼儀正しく、話題に沿ってお願いします。

まだコメントはありません。コメントを残して、あなたの意見を共有してください!

コメントを残すにはログインしてください。

コメントするにはログイン