AI開発大手のOpenAIは、自社のAIモデル悪用を図る5つの偽装工作を過去3ヶ月間に阻止したと発表しました。
これらの工作は、フェイクソーシャルメディアプロフィールの作成やネガティブな世論操作、といった悪意のある目的でOpenAIのAIモデルを使おうとしていたようです。
OpenAIは、安全性を重視したAIモデル設計や、AIを活用した迅速な調査により、工作の阻止に成功したとしています。
また、今回の発表を通して、業界全体での情報共有の重要性を訴えています。
目次
阻止された偽装工作の詳細
OpenAIが阻止した工作は、主に以下の5つです。
- Bad Grammar (バッド・グラマー)
- ロシアによる工作で、ウクライナや東欧諸国、アメリカを標的としていました。
- OpenAIのAIモデルを使って、Telegramボットのコード作成や政治的なコメントの生成を行っていたようです。
- Doppelganger (ドッペルゲンガー)
- こちらでもロシアによる工作で、Xや9GAGといったプラットフォーム上で、複数の言語でのコメント生成や記事の翻訳、見出しの作成などを行っていました。
- Spamouflage (スパムフラージュ)
- 中国による工作で、ソーシャルメディアでのリサーチや、複数の言語でのテキスト生成、コードのデバッグなどを行っていたようです。
- International Union of Virtual Media (IUVM)
- イランによる工作で、AIを使って記事や見出し、ウェブサイトのタグなどを生成し、自らのウェブサイトで公開していたようです。
- Zero Zeno (ゼロ・ゼノ)
- イスラエルの企業による商業活動で、InstagramやFacebookなど複数のプラットフォーム上で記事やコメントを生成していました。
工作の成果は限定的
OpenAIの阻止活動により、どの工作も大きな成果を挙げることはできなかったようです。
OpenAIは、影響工作の評価指標である「Brookings’ Breakout Scale」を用いており、今回阻止された工作はどれもスコアが2以下だったとしています。
これは、複数のプラットフォームで活動をしていたものの、本来のコミュニティへの溶込みには失敗したことを示しています。
まとめ
OpenAIは今後も、安全で責任あるAI開発に取り組むとしています。
今回の件からも、業界全体での情報共有が重要であることが分かります。OpenAIは、今回の成功に、業界の協力とオープンソースコミュニティの長年のリサーチが貢献したとしています。
AIの利便性向上が進む一方で、悪用も懸念されます。OpenAIのような取り組みが、安全なAIの発展に寄与することが期待されます。
リンク
コメント