OpenAIは人工知能の安全性を監督する「準備責任者」を任命しました

OpenAIは人工知能の安全性を監督する「準備責任者」を任命しました

7 software

OpenAIは人工知能の安全性に関する新しいリーダーを任命しました

AI の安全な利用に対する懸念が高まる中、OpenAI は新たなスタッフメンバーとしてディラン・スカンダーロ氏を「Head of Preparedness」(準備責任者)に任命したと発表しました。

ディラン・スカンダーロとは誰か?
| 期間 | 会社 | 役割 |
|------|------|------|
| 2023年5月 – 2024年2月 | Anthropic | AI セキュリティプロジェクトマネージャー |
| 2022年9月 – 2025年5月 | DeepMind(Google) | Gemini の合成データトレーニングスペシャリスト |
| 2022年以前 | Palantir、Unity Technologies、Everyday Robots | 機械学習およびソフトウェア開発のさまざまなポジション |

スカンダーロは、前職で AI モデル開発に伴うリスク低減を担当していたことで知られています。

新任の意味
- 役割:準備チームの主要ポジションとして、強力なモデルをユーザーへの脅威なしに開発できるようにする対策の準備と実装を担当します。
- 条件:年俸 550,000 ドル+OpenAI の株式。
- 背景:2023 年から「準備チーム」が設置され、以前は MIT 出身のアレクサンダー・マドリが率いていました。

OpenAI の経営者の見解
CEO サム・アルトマン氏は、モデル開発の加速に伴い、新たでより深刻なリスクに直面することを指摘しました。彼は次のように述べました:

> 「私たちは非常に強力なモデルに取り組むでしょう。それには適切な予防策が必要で、さらなる大きな利益を提供し続けるためです。」

アルトマン氏はスカンダーロの能力に自信を示しました:

*「彼は今まで出会った中で最高の候補者だ」* と語りました。

また、新しいリーダーによってチームが長期的な安全性に集中し、「より安心して眠れるようになる」と付け加えました。

期待されるスカンダーロの役割
スカンダーロ自身は、急速に進化する AI モデルが「極端で不可逆的な損害」を引き起こす可能性を認めています。そのため、彼には次の課題があります:

- リスク最小化戦略の策定;
- 安全なトレーニングと運用プラクティスの導入;
- OpenAI 全体の取り組みを調整。

結論
OpenAI は安全構造を拡充し、業界トップ企業から経験豊富な専門家を迎え入れました。この任命は、責任ある AI 開発と将来の課題への備えに対する同社のコミットメントを強調しています。

コメント (0)

感想を共有してください。礼儀正しく、話題に沿ってお願いします。

まだコメントはありません。コメントを残して、あなたの意見を共有してください!

コメントを残すにはログインしてください。

コメントするにはログイン