出典:新志源追記:アエネアスはとても眠いです> **[はじめに]** 一部のメディアは、昨年の初めから日本政府がAIツールを使用して福島原発下水の放出に関連する発言を検出し始め、数時間以内に対応したというニュースを報じた。ここ数日、日本が核汚染水の太平洋への放出を正式に開始したというニュースが広く注目を集めた。放出の直前、一部のメディアは、日本政府が昨年からAIツールを使用して、福島原子力発電所の核下水の放出計画に関連する発言を監視していると報じた。今年6月、AIは日本の外務省高官らが国際原子力機関(IAEA)に巨額の政治献金を行っていたとする韓国メディアの報道を発見した。 数時間以内に日本政府は英語と日本語の両方でこの報告書を「根拠がない」として却下した。 日経アジアの以前の報道によると、日本の外務省は、ソーシャルメディアやその他のプラットフォーム上の情報を収集して分析し、中長期的な世論の影響を追跡するためのまったく新しいAIシステムを2023年に導入する予定です。学期。この枠組みには、日本向けの情報だけでなく、他の国や地域の日本向けの情報も含まれていることは注目に値します。## **イベントレビュー**2011年3月、地震と津波により福島第一原子力発電所の冷却システムが破壊され、3基の原子炉の核燃料が溶融し、放射性物質が漏洩した。その後発生した大規模な汚染により、数万人が避難を余儀なくされました。それ以来、爆発後に過熱した炉心を冷却するために130万立方メートル以上の海水が使用された。この汚染水も収集され、敷地内にある 1,000 個以上のステンレスタンクに保管されます。汚染を引き起こした 64 種類の放射性元素のうち、主に人間の健康に脅威をもたらす放射性元素は、炭素 14、ヨウ素 131、セシウム 137、ストロンチウム 90、コバルト 60、トリチウム 3 です。これらの核汚水を処理するために、東京電力(東京電力)は自社開発の高度液体処理システム(ALPS)を採用しており、プロセスは共沈、吸着、物理ろ過の5段階に分かれています。 しかし、このような大量の水により、持続可能な貯蔵がますます困難になります。2021年4月、日本政府はこれらの処理済み核下水の海洋放出を正式に承認した。さまざまな国や国際機関が表明した懸念にもかかわらず、日本の計画推進は妨げられていない。同時に、日本の外務省もAIを活用して核下水に含まれる放射性物質に関するオンライン報告を監視し、大量の広報資料を作成することでそのような情報の濃度を薄めようとしている。外務省は7月21日、核下水処理過程における安全保護について日本語、英語、フランス語、スペイン語、ロシア語、アラビア語、中国語、韓国語で説明するアニメーション動画をツイッターで公開した。このビデオでは、高度液体処理システム (ALPS) を通じて工場の水がどのように規制基準に合わせて浄化されるかを説明しています。そして、排出された核下水は広い海域に放出される前に海水で100倍に希釈されていると強調した。## **AI モニター音声**実際、インターネット世論を監視するこの技術は、すでに AI の分野で深く広範囲に研究されています。最も人気のあるものの 1 つは、アルゴリズム、機械学習モデル、人間を組み合わせて、ソーシャル メディアで公開される「フェイク ニュース」に対処する方法です。2018年のTwitterの調査では、フェイクニュース記事は本物のニュースよりも人間によってリツイートされる可能性が70%高いことが示されています。一方、本物のニュースが 1,500 人のグループに届くまでには約 6 倍の時間がかかり、ほとんどの場合、1,000 人を超える人に届くことはほとんどありません。対照的に、人気のあるフェイクニュースは 100,000 人もの人々に届くことがあります。 この目的を達成するために、メタは情報の正確性を確保するために、まったく新しい AI ツール Sphere を 2022 年にリリースしました。Sphere は、数十万件の引用を一度にスキャンして、対応する主張をサポートしているかどうかを確認できる初の AI モデルです。 Sphere のデータセットには、1 億 3,400 万の公開 Web ページが含まれています。インターネットの集合的な知識を利用して、数十万の Web 引用を迅速にスキャンして事実上の誤りがないか確認します。 メタ氏によると、スフィアはウィキペディアのすべてのページをスキャンして、ページの主張を裏付けない引用が見つかるかどうかを確認したという。Sphere は、疑わしいソースを見つけると、より強力なソースや修正を推奨して、エントリの精度を向上させることができます。 これまで、多くのAIシステムは引用元のない情報を識別できたが、メタ社の研究者らは、疑わしい主張を見つけ出し、引用元が実際にそれを裏付けるかどうかを判断するには「AIシステムによる深い理解と分析」が必要だと述べた。Sphere の開発は、プラットフォーム上の誤った情報に対処するための Meta の取り組みを示しています。Metaは数年にわたり、Facebook、Instagram、WhatsApp上で拡散した誤った情報により、ユーザーや規制当局から厳しい批判にさらされてきた。 CEOのXiao Zha氏は、この問題を議論するために議会に呼び出されたこともある。### **フェイクニュースを発見し、ソーシャルメディアのコミュニケーションパターンを調査する**ヨーロッパには、ジャーナリストやファクトチェッカーがフェイクニュースを検出するのに役立つソフトウェアツールを構築している Fandango プロジェクトもあります。 PS であれ、ディープフェイクであれ、Fandango のシステムはアルゴリズムを使用して変更をリバース エンジニアリングし、ジャーナリストが改ざんされたコンテンツを特定できるようにします。さらに、システムは、ファクトチェッカーによってフラグが付けられたフェイクニュースに基づいて、同様の単語や意見を含む Web ページやソーシャルメディアの投稿を検索します。 このシステムの背後には、さまざまな AI アルゴリズム、特に自然言語処理のサポートがあります。 スイスのルガーノ大学と英国のインペリアル・カレッジ・ロンドンの教授であるブロンスタイン氏は、フェイクニュースの検出に非典型的なAIアプローチを採用した。GoodNews と呼ばれるこのプロジェクトは、従来のフェイクニュース AI 検出ツールを覆します。 これまで、これらのツールはフェイクニュースの独特の意味論的特徴を分析してきましたが、WhatsApp は暗号化されておりアクセスが許可されないなど、障害に遭遇することがよくありました。さらに、多くの場合、フェイク ニュースは画像である可能性があり、自然言語処理技術を使用して分析するのは困難です。 そこでブロンスタイン教授のチームは従来のモデルをひっくり返し、フェイクニュースがどのように拡散するかを研究した。この結果は、Facebook ではフェイクニュースが「いいね!」よりもはるかに多くのシェアを獲得する可能性がある一方、通常の投稿はシェアよりも「いいね!」を獲得する傾向があることを示唆しています。 GoodNews はそのようなパターンを発見することで、ニュース項目の信頼性スコアを付けます。 グラフベースの機械学習を使用したチームの最初のモデルは、Twitter からのデータに基づいてトレーニングされましたが、その一部はジャーナリストによって虚偽であることが判明しました。そこから、彼らは AI アルゴリズムをトレーニングし、どの話が嘘でどれがそうでないかをモデルに教えました。 ### **マルチモーダルなディープフェイク検出により、AIGC は隠れる場所がありません**純粋なテキストに加えて、安定拡散などのビジュアル生成モデルの急速な発展も、ディープフェイクの問題をますます深刻にしています。マルチモーダルメディア改ざんでは、さまざまなニュース報道の写真に含まれる重要人物の顔(下の写真のフランス大統領の顔)が置き換えられ、テキスト内の重要なフレーズや単語が改ざんされます(「歓迎します」という肯定的なフレーズ) 」は「辞任を余儀なくされる」という否定的な表現に変更されました。 この新たな課題に対処するために、研究者らは、モダリティ間の意味的特徴を融合および推論することによって、改ざんされたサンプルのクロスモーダルな意味的不一致を検出できるマルチモーダル階層改ざん推論モデルを提案しました。現在、この作品は CVPR 2023 に採択されています。 具体的には、著者は、マルチモーダル階層改ざん推論モデル HierArchical Multi-modal Manipulation rEasoning tRansformer (HAMMER) を提案します。このモデルは、ダブルタワー構造に基づくマルチモーダル意味融合と推論のモデルアーキテクチャに基づいており、浅い改ざん推論と深い改ざん推論により、マルチモーダルな改ざんの検出と位置をきめ細かく階層的に実現します。 HAMMER モデルには次の 2 つの特徴があります。1. 浅い改ざん推論では、操作を意識した対照学習を使用して、画像エンコーダーとテキスト エンコーダーによって抽出された画像とテキストの単峰性の意味的特徴を調整します。同時に、シングルモーダル埋め込み機能は、クロスアテンション メカニズムによる情報対話に使用され、ローカル パッチ アテンション集約メカニズム (ローカル パッチ アテンション集約) は、画像改ざん領域を特定するように設計されています。2. 深い改ざん推論では、マルチモーダル アグリゲーターのモダリティを意識したクロスアテンション メカニズムを使用して、マルチモーダル セマンティクス機能がさらに融合されます。これに基づいて、特殊なマルチモーダル シーケンス タグ付けとマルチモーダル マルチラベル分類が実行され、テキスト改ざん単語の位置が特定され、より詳細な改ざんタイプが検出されます。実験結果によると、研究チームが提案したHAMMERは、マルチモーダルおよびシングルモーダルの検出方法よりも正確にマルチモーダルなメディア改ざんを検出し、位置を特定できることが示されています。   マルチモーダル改ざん検出と位置特定の可視化結果から判断すると、HAMMER は改ざん検出と位置特定タスクを同時に正確に実行できます。 さらに、改ざんされた単語に対するモデル アテンションの視覚化結果は、HAMMER が改ざんされたテキストと意味的に矛盾する画像領域に焦点を当てることによって、マルチモーダルな改ざん検出と位置特定を実行することを示しています。 参考文献:*******
核汚水の海洋放出議論!日本政府はAI兵器を使用してネットワーク全体をリアルタイムで監視し、「虚偽の情報」がないかを監視していたことが暴露された
出典:新志源
追記:アエネアスはとても眠いです
ここ数日、日本が核汚染水の太平洋への放出を正式に開始したというニュースが広く注目を集めた。
放出の直前、一部のメディアは、日本政府が昨年からAIツールを使用して、福島原子力発電所の核下水の放出計画に関連する発言を監視していると報じた。
今年6月、AIは日本の外務省高官らが国際原子力機関(IAEA)に巨額の政治献金を行っていたとする韓国メディアの報道を発見した。
この枠組みには、日本向けの情報だけでなく、他の国や地域の日本向けの情報も含まれていることは注目に値します。
イベントレビュー
2011年3月、地震と津波により福島第一原子力発電所の冷却システムが破壊され、3基の原子炉の核燃料が溶融し、放射性物質が漏洩した。その後発生した大規模な汚染により、数万人が避難を余儀なくされました。
それ以来、爆発後に過熱した炉心を冷却するために130万立方メートル以上の海水が使用された。
この汚染水も収集され、敷地内にある 1,000 個以上のステンレスタンクに保管されます。
汚染を引き起こした 64 種類の放射性元素のうち、主に人間の健康に脅威をもたらす放射性元素は、炭素 14、ヨウ素 131、セシウム 137、ストロンチウム 90、コバルト 60、トリチウム 3 です。
これらの核汚水を処理するために、東京電力(東京電力)は自社開発の高度液体処理システム(ALPS)を採用しており、プロセスは共沈、吸着、物理ろ過の5段階に分かれています。
2021年4月、日本政府はこれらの処理済み核下水の海洋放出を正式に承認した。
さまざまな国や国際機関が表明した懸念にもかかわらず、日本の計画推進は妨げられていない。
同時に、日本の外務省もAIを活用して核下水に含まれる放射性物質に関するオンライン報告を監視し、大量の広報資料を作成することでそのような情報の濃度を薄めようとしている。
外務省は7月21日、核下水処理過程における安全保護について日本語、英語、フランス語、スペイン語、ロシア語、アラビア語、中国語、韓国語で説明するアニメーション動画をツイッターで公開した。
このビデオでは、高度液体処理システム (ALPS) を通じて工場の水がどのように規制基準に合わせて浄化されるかを説明しています。そして、排出された核下水は広い海域に放出される前に海水で100倍に希釈されていると強調した。
AI モニター音声
実際、インターネット世論を監視するこの技術は、すでに AI の分野で深く広範囲に研究されています。
最も人気のあるものの 1 つは、アルゴリズム、機械学習モデル、人間を組み合わせて、ソーシャル メディアで公開される「フェイク ニュース」に対処する方法です。
2018年のTwitterの調査では、フェイクニュース記事は本物のニュースよりも人間によってリツイートされる可能性が70%高いことが示されています。
一方、本物のニュースが 1,500 人のグループに届くまでには約 6 倍の時間がかかり、ほとんどの場合、1,000 人を超える人に届くことはほとんどありません。対照的に、人気のあるフェイクニュースは 100,000 人もの人々に届くことがあります。
Sphere は、数十万件の引用を一度にスキャンして、対応する主張をサポートしているかどうかを確認できる初の AI モデルです。
Sphere は、疑わしいソースを見つけると、より強力なソースや修正を推奨して、エントリの精度を向上させることができます。
Sphere の開発は、プラットフォーム上の誤った情報に対処するための Meta の取り組みを示しています。
Metaは数年にわたり、Facebook、Instagram、WhatsApp上で拡散した誤った情報により、ユーザーや規制当局から厳しい批判にさらされてきた。 CEOのXiao Zha氏は、この問題を議論するために議会に呼び出されたこともある。
フェイクニュースを発見し、ソーシャルメディアのコミュニケーションパターンを調査する
ヨーロッパには、ジャーナリストやファクトチェッカーがフェイクニュースを検出するのに役立つソフトウェアツールを構築している Fandango プロジェクトもあります。
さらに、システムは、ファクトチェッカーによってフラグが付けられたフェイクニュースに基づいて、同様の単語や意見を含む Web ページやソーシャルメディアの投稿を検索します。
GoodNews と呼ばれるこのプロジェクトは、従来のフェイクニュース AI 検出ツールを覆します。
さらに、多くの場合、フェイク ニュースは画像である可能性があり、自然言語処理技術を使用して分析するのは困難です。
この結果は、Facebook ではフェイクニュースが「いいね!」よりもはるかに多くのシェアを獲得する可能性がある一方、通常の投稿はシェアよりも「いいね!」を獲得する傾向があることを示唆しています。 GoodNews はそのようなパターンを発見することで、ニュース項目の信頼性スコアを付けます。
そこから、彼らは AI アルゴリズムをトレーニングし、どの話が嘘でどれがそうでないかをモデルに教えました。
純粋なテキストに加えて、安定拡散などのビジュアル生成モデルの急速な発展も、ディープフェイクの問題をますます深刻にしています。
マルチモーダルメディア改ざんでは、さまざまなニュース報道の写真に含まれる重要人物の顔(下の写真のフランス大統領の顔)が置き換えられ、テキスト内の重要なフレーズや単語が改ざんされます(「歓迎します」という肯定的なフレーズ) 」は「辞任を余儀なくされる」という否定的な表現に変更されました。
現在、この作品は CVPR 2023 に採択されています。
このモデルは、ダブルタワー構造に基づくマルチモーダル意味融合と推論のモデルアーキテクチャに基づいており、浅い改ざん推論と深い改ざん推論により、マルチモーダルな改ざんの検出と位置をきめ細かく階層的に実現します。
浅い改ざん推論では、操作を意識した対照学習を使用して、画像エンコーダーとテキスト エンコーダーによって抽出された画像とテキストの単峰性の意味的特徴を調整します。同時に、シングルモーダル埋め込み機能は、クロスアテンション メカニズムによる情報対話に使用され、ローカル パッチ アテンション集約メカニズム (ローカル パッチ アテンション集約) は、画像改ざん領域を特定するように設計されています。
深い改ざん推論では、マルチモーダル アグリゲーターのモダリティを意識したクロスアテンション メカニズムを使用して、マルチモーダル セマンティクス機能がさらに融合されます。これに基づいて、特殊なマルチモーダル シーケンス タグ付けとマルチモーダル マルチラベル分類が実行され、テキスト改ざん単語の位置が特定され、より詳細な改ざんタイプが検出されます。
実験結果によると、研究チームが提案したHAMMERは、マルチモーダルおよびシングルモーダルの検出方法よりも正確にマルチモーダルなメディア改ざんを検出し、位置を特定できることが示されています。