AI開発大手のOpenAIは、主要メンバーの退社と安全懸念の声を受け、新たな安全監督委員会を設置しました。この動きは、AIの安全性に対する懸念の高まりを象徴する事件と言えるでしょう。
委員会設立の背景:安全チーム解散とメンバーの退社
OpenAIは、次世代の人工知能モデルの開発にあたり、安全性とセキュリティに関する重要な決定を行うための委員会を立ち上げました。委員会は、今後3ヶ月かけてOpenAIの安全対策を評価し、改善案を提出しようとしています。
しかし、今回の委員会設置は、以前存在した「スーパーアラインメント」と呼ばれる安全チームが解散させられたこととも関連しています。
スーパーアラインメントチームは、AIが制御不能になることを防ぐための対策を研究する部署でした。しかし、チームを率いていたOpenAI共同創業者のイルヤ・サツケバー氏とヤン・レイク氏、そして政策研究者のグレチェン・クリーガー氏が、安全対策へのアプローチに対する相違などからOpenAIを退社しました。
特にレイク氏は、OpenAIが安全対策を軽視していると批判しており、ここ数年で「安全に対する文化やプロセスがおざなりになっていた」と指摘しています。
まとめ
AIの安全性は、今後ますます重要になってきます。OpenAIの今回の動きは、AI開発における安全対策の重要性を改めて認識させてくれるでしょう。
しかし、相次ぐ安全研究者の退社は、OpenAIのAI開発に対する姿勢への疑問を投げかけています。
OpenAIは、今回の委員会設置を通じて、安全対策の強化を図り、AI開発における信頼性を回復できるのでしょうか?
引用元:https://www.aitoday.io/openai-sets-up-new-security-oversight-team-a-25339
コメント