AIは今、人間と同じくらい成功裏に政治的見解を形成できるようになり、これが誰も心配することはありません。
アメリカの調査によると、政治的議論における主張を誰が書いたか(専門家か人工知能か)について、多くの人々はほとんど注意していないことが示されました。
- 「AI作成」とマークしたテキストは、その説得力をほぼ変えません。
- AIによるテキストは、0〜100 のスケールで回答者の意見を約10%変更する可能性があります。
主要な詳細
調査対象:1601 名の参加者に対し、地理工学、医薬品輸入、学生アスリートの給与、ソーシャルメディアの責任について AI が作成したメッセージを提示しました。テキストは次のようにラベル付けされました。
- 「AI作成」
- 「専門家が執筆」
- ラベルなし
ラベルの有無に関わらず、平均して回答者はテーマへの態度を 9.74%変化させました。著作者信頼度については、調査で「回答者が提示された情報源を信じるか」を尋ねたところ、92% が指定された情報源を信じましたが、これは意見の変化や議論の正確性評価、メッセージ共有への欲求には影響しませんでした。
修飾要因
年齢、政治的所属、AIへの親和性、教育レベルの影響を分析しました。結果はすべてのグループで安定しており、唯一高齢者では「AI作成」のテキストに対する信頼がわずかに低下しました。
研究者の結論
1. ラベル付けは障壁にならない ― 「AI作成」とだけ示すことは、こうしたメッセージが世論に与える影響を防げません。
2. AI の説得力は、人間と同等であり、情報源が明示されても変わりません。
3. 生成モデルによって作られたコンテンツの規制には、法律、真偽検証アルゴリズム、教育プログラムなどより包括的な対策が必要です。
したがって、AI の急速な発展に伴い、「AI」とだけ記載する簡易マークは透明性と操作防止を保証しません。これは政府、ソーシャルメディアプラットフォーム、および社会全体の課題となります。
コメント (0)
感想を共有してください。礼儀正しく、話題に沿ってお願いします。
コメントするにはログイン