AIによる児童の性的搾取の増加に対処することを目指し、OpenAIは水曜日、新たな安全対策を示す政策の青写真を公表しました。この対策は、業界がAIを用いて児童の性的虐待素材を作成する用途を抑制するために講じることができる取り組みを示しています。 この枠組みの中で、OpenAIは、AIによる虐待に対する防護を強化し、テクノロジー企業と捜査当局の連携を改善することを目的とした、法的、運用的、技術的な措置を挙げています。 「児童の性的搾取は、デジタル時代における最も差し迫った課題の一つです」と同社は書いています。「AIは、こうした害が業界全体でどのように生じるか、そしてそれにどのように大規模に対処できるかの両方を、急速に変えています。」
OpenAIは、この提案が、児童保護やオンライン安全に取り組む団体からのフィードバックを取り入れていると述べました。これには、行方不明児童・搾取児童のための全米センター(National Center for Missing and Exploited Children)と、Attorney General Alliance、およびそのAIタスクフォースが含まれます。 「生成AIは、非常に憂慮すべき形で、オンライン上の児童の性的搾取という犯罪を加速させています――障壁を下げ、規模を拡大し、被害の新たな形を可能にするのです」と、行方不明児童・搾取児童のための全米センターの会長兼CEOであるMichelle DeLaune氏は声明で述べました。「しかし同時に、行方不明児童・搾取児童のための全米センターとしては、OpenAIのような企業が、これらのツールをより責任ある形で設計できるよう、最初から組み込まれたセーフガードとともにどう考えるかを反映していることが励みだと感じています。」 OpenAIは、この枠組みがAIモデルの中で、法的基準、業界の通報システム、技術的なセーフガードを組み合わせると述べました。同社は、これらの措置が、搾取リスクをより早期に特定し、オンライン上の各種プラットフォーム全体で説明責任を改善することを目的としているとしています。
この青写真は、行動すべき分野を特定しており、その中には、AIによって生成または改変された児童の性的虐待素材に対応するための法律の更新、オンライン提供事業者が虐待のシグナルをどのように報告し、捜査当局とどのように連携するかの改善、そして悪用を防ぐために設計されたAIシステムにセーフガードを組み込むことが含まれます。 「単一の介入だけで、この課題を単独で解決することはできません」と同社は書いています。「この枠組みは、リスクをより適切に特定し、対応を加速し、説明責任を支えるために、法的、運用的、技術的なアプローチを結び付けます。さらに、技術が進化しても執行当局の力が強く保たれることを確実にします。」 この青写真は、生成的AIが現実的な画像を作り出すことのできる仕組みであるため、未成年の操作された、または合成された描写を作る用途に使われ得るという懸念が、子どもの安全を重視する提唱者たちによって提起されている中で公表されました。2月に、UNICEFは、世界の政府に対し、AIによって生成された児童虐待素材を犯罪化する法律を可決するよう求めました。 1月には、欧州委員会が、かつてTwitterとして知られていたXについて、同プラットフォームの自社AIモデルであるGrokが違法コンテンツを生成することを防ぐためにEUのデジタル規則を遵守しなかったのではないかどうかの正式な調査を開始しました。英国およびオーストラリアの規制当局も、同様に調査を開始しています。 法律だけではAIによる虐待素材という惨状を止められないことを踏まえ、OpenAIは、AIシステムがより高い能力を持つようになるにつれて、より強い業界基準が必要になるだろうと述べました。 「搾取の試みをより早い段階で中断し、法執行機関へ送られるシグナルの質を改善し、エコシステム全体で説明責任を強化することで、この枠組みは、被害が起きる前にそれを防ぎ、リスクが生じた際に子どもをより迅速に守れるようにすることを目指します」とOpenAIは述べました。