イギリスのメディア規制当局である Ofcom は、オンラインプラットフォームに対し、レコメンドアルゴリズムの安全対策を導入するよう求めています。
この動きは、2023年にイギリス政府が承認した「オンライン安全法」の施行に向けたものです。この法律は、子供たちがオンライン上で有害なコンテンツにさらされる機会を制限することを目的としています。
Ofcomが求める3つの安全対策
Ofcom は、オンラインプラットフォームに対して、以下の3つの安全対策をAIアルゴリズムに導入することを求めています。
- 有害またはポルノグラフィックなコンテンツを推奨しないこと
- レコメンドフィード内での有害コンテンツの表示を減らすこと
- 子供が推奨されたコンテンツに対してフィードバックを提供できるようにすること
対象となるのは、Instagram、YouTube、Google、Facebook など、10万におよぶウェブサービスです。
Ofcom は「有害アルゴリズム」をどのように制御するのか?
Ofcom は、今後、AIを含む自動化ツールを用いて、違法コンテンツを事前に検出する方法についても検討を進める予定です。
規制の対象となる膨大なサービスプロバイダーのデータ処理方法について、Ofcom の説明が不十分であるとの批判がイギリス議会委員会から出ていました。
また、Apple や WhatsApp を含むテック企業は、規制当局がオンラインサービスに対してテロリズムや児童性的虐待コンテンツの特定のために「認定技術」の導入を要求できるという条項を批判しています。
まとめ
Ofcom の今回の動きは、オンラインプラットフォーム上で蔓延する有害コンテンツへの懸念の高まりを反映しています。
今後、Ofcom がどのようにして「有害アルゴリズム」を制御していくのか、そして、オンラインプラットフォーム企業がこれらの規制にどのように対応していくのか、注目が集まっています。
この規制強化は、インターネットの自由なあり方と、子供の安全保護との間のバランスをいかにとるかという課題を改めて提起しています。
コメント