マイクロソフトはインターネット上でのディープフェイク拡散を止めるための解決策を提供しています

マイクロソフトはインターネット上でのディープフェイク拡散を止めるための解決策を提供しています

9 hardware

マイクロソフトはオンラインコンテンツの真偽を検証するための新しい標準セットを導入します

マイクロソフトは、ネット上に出現する資料のリアリティを評価する「技術的標準」の作成を発表しました。目的は、AI開発者やソーシャルプラットフォームが画像や動画がデジタルツール(例:ディープフェイク)で改ざんされているかどうか、およびその記録方法の信頼性を判断できるようにすることです。

検証システムの仕組み
* レンブラント絵画の例

- 詳細な由来ログが作成されます:保管場所、以前の所有者など。
- 絵画はスキャンされ、筆跡から数学的署名―「デジタル指紋」が生成されます。
- 展示時に訪問者はこれらのデータを開き、オリジナルであることを確認できます。

* 既に使用されている方法

マイクロソフトは60種類の既存技術(メタデータ削除、小さな変更、意図的操作など)の組み合わせを調査しました。各モデルについて異なるシナリオでの挙動がシミュレートされました。

研究者は次のことを明らかにしました:

- 信頼できる組み合わせは広範な観客に提示できます。
- 不正確な組み合わせは状況をさらに混乱させ、より多くの混乱を生むだけです。

重要性
* 法律はAIの透明性を要求しています(例:カリフォルニア州の「AI透明性法」)。
* マイクロソフトはまだCopilot、Azure、OpenAI、LinkedInなど自社サービスでこれらの標準を適用するかどうかを発表していません。

標準はコンテンツの真偽を決定しません。むしろ、素材が操作されたかどうかとその出所を示すだけです。業界が採用すれば、誤解を招くコンテンツの作成は著しく難しくなります。

業界状況
| 企業 | 行動 | 状態 |
|------|------|------|
| マイクロソフト | C2PA(2021)―由来追跡 | 開発中 |
| Google | AI生成コンテンツのウォーターマーク(2023以降) | 積極的に導入 |

しかし、マイクロソフトの完全なツールセットは、市場参加者が自社ビジネスモデルへの脅威を感じた場合、「プロジェクト」に留まる可能性があります。

既存解決策の有効性
* 研究によれば、Instagram、LinkedIn、Pinterest、TikTok、YouTubeで投稿されたコンテンツのわずか30%がAI生成として正しくラベル付けされています。
* 検証ツールを急速に展開することはリスクがあります。障害がユーザー信頼を損なう可能性があります。

包括的検証メカニズムが好ましいです。例えば、真実性のある画像に小さなAI編集が加えられた場合、プラットフォームはそれを完全生成と誤分類することがあります。統合アプローチは偽陽性のリスクを低減します。

結論
マイクロソフトはデジタル操作を検出するための構造化された標準セットを提案しています。これらのツールはオンライン資料への透明性と信頼性を高めることを目的としていますが、その成功は業界全体の採用と統合検証の信頼性に依存します

コメント (0)

感想を共有してください。礼儀正しく、話題に沿ってお願いします。

まだコメントはありません。コメントを残して、あなたの意見を共有してください!

コメントを残すにはログインしてください。

コメントするにはログイン