Discussion sur le rejet des eaux usées nucléaires dans la mer ! Le gouvernement japonais a été exposé à l'utilisation d'armes d'IA pour surveiller l'ensemble du réseau en temps réel à la recherche de « fausses informations ».

Source : Xinzhiyuan

EDIT : Énée a tellement sommeil

[Introduction] Certains médias ont annoncé que dès l'année dernière, le gouvernement japonais avait commencé à utiliser des outils d'IA pour détecter les remarques liées au rejet des eaux usées nucléaires de Fukushima, et avait répondu en quelques heures.

Ces derniers jours, la nouvelle selon laquelle le Japon a officiellement commencé à déverser de l'eau contaminée par des substances nucléaires dans l'océan Pacifique a attiré une large attention.

Juste avant le rejet, certains médias ont rapporté que le gouvernement japonais utilisait des outils d'IA depuis l'année dernière pour surveiller toute remarque relative au projet de rejet des eaux usées nucléaires de la centrale nucléaire de Fukushima.

En juin de cette année, AI a découvert un article d'un média sud-coréen affirmant que de hauts responsables du ministère japonais des Affaires étrangères avaient fait d'énormes dons politiques à l'Agence internationale de l'énergie atomique (AIEA).

En quelques heures, le gouvernement japonais a répondu, rejetant le rapport comme étant « sans fondement », tant en anglais qu'en japonais.

Selon des rapports précédents de Nikkei Asia, le ministère japonais des Affaires étrangères lancera un tout nouveau système d'IA en 2023 pour collecter et analyser des informations sur les réseaux sociaux et d'autres plateformes, ainsi que pour suivre l'impact de l'opinion publique à moyen et long terme. terme.

Il convient de noter que ce cadre inclut non seulement des informations destinées au public japonais, mais également des informations destinées au Japon dans d'autres pays et régions.

Révision de l'événement

En mars 2011, un tremblement de terre et un tsunami ont détruit le système de refroidissement de la centrale nucléaire de Fukushima Daiichi, provoquant la fusion du combustible nucléaire de trois réacteurs et des fuites de matières radioactives. La pollution massive qui s’en est suivie a contraint des dizaines de milliers de personnes à évacuer.

Plus de 1,3 million de mètres cubes d'eau de mer ont depuis été utilisés pour refroidir le cœur du réacteur, qui a surchauffé après l'explosion.

Cette eau contaminée est également collectée et stockée dans plus de 1 000 cuves en inox présentes sur le site.

Parmi les 64 éléments radioactifs à l'origine de la pollution, les éléments radioactifs qui constituent principalement une menace pour la santé humaine sont : le carbone 14, l'iode 131, le césium 137, le strontium 90, le cobalt 60 et le tritium 3.

Afin de traiter ces eaux usées nucléaires, la Tokyo Electric Power Company (TEPCO) a adopté un système avancé de traitement des liquides (ALPS) qu'elle a développé elle-même. Le processus est divisé en cinq étapes de coprécipitation, d'adsorption et de filtration physique.

Cependant, de telles quantités d’eau rendent également de plus en plus difficile un stockage durable.

En avril 2021, le gouvernement japonais a officiellement autorisé le rejet en mer de ces eaux usées nucléaires traitées.

Malgré les inquiétudes exprimées par divers pays et organisations internationales, cela n’a pas empêché le Japon de faire avancer ce plan.

Dans le même temps, le ministère japonais des Affaires étrangères a également commencé à utiliser l’IA pour surveiller les rapports en ligne sur les substances radioactives contenues dans les eaux usées nucléaires et pour diluer la concentration de ces informations en produisant un grand nombre de supports promotionnels.

Le 21 juillet, le ministère des Affaires étrangères du Japon a publié une vidéo animée sur Twitter, expliquant la mesure de sécurité dans le processus de traitement des eaux usées nucléaires en japonais, anglais, français, espagnol, russe, arabe, chinois et coréen.

La vidéo explique comment l'eau de l'usine est purifiée conformément aux normes réglementaires grâce au système avancé de traitement des liquides (ALPS). Et a souligné qu'avant d'être rejetées dans des zones océaniques plus vastes, les eaux usées nucléaires rejetées avaient été diluées 100 fois par l'eau de mer.

Discours du moniteur IA

En fait, cette technologie de surveillance de l’opinion publique sur Internet a déjà été explorée de manière approfondie et approfondie dans le domaine de l’IA.

L’une des plus populaires est l’utilisation d’une combinaison d’algorithmes, de modèles d’apprentissage automatique et d’humains pour lutter contre les « fausses nouvelles » publiées sur les réseaux sociaux.

Une étude Twitter de 2018 a montré que les fausses nouvelles sont 70 % plus susceptibles d’être retweetées par des humains que les vraies nouvelles.

Pendant ce temps, les véritables nouvelles mettent environ 6 fois plus de temps pour atteindre un groupe de 1 500 personnes, et la plupart du temps, elles atteignent rarement plus de 1 000 personnes. En revanche, les fausses nouvelles populaires peuvent toucher jusqu’à 100 000 personnes.

À cette fin, Meta a lancé un tout nouvel outil d’IA Sphere en 2022 pour garantir l’exactitude des informations.

Sphere est le premier modèle d'IA capable d'analyser des centaines de milliers de citations à la fois pour vérifier si elles soutiennent les affirmations correspondantes.

L'ensemble de données de Sphere comprend 134 millions de pages Web publiques. Il s'appuie sur les connaissances collectives d'Internet pour analyser rapidement des centaines de milliers de citations Web à la recherche d'erreurs factuelles.

Meta a déclaré que Sphere avait analysé toutes les pages de Wikipédia pour voir s'il pouvait identifier les sources de citations qui ne soutiennent pas les affirmations faites dans les pages.

Lorsque Sphere détecte des sources suspectes, il peut recommander des sources plus fiables ou des corrections pour améliorer la précision d'une entrée.

Auparavant, de nombreux systèmes d'IA étaient capables d'identifier des informations dépourvues de sources de citation, mais les chercheurs de Meta ont déclaré que repérer les affirmations douteuses et déterminer si les sources de citation les soutiennent réellement nécessite « une compréhension et une analyse approfondies par les systèmes d'IA ».

Le développement de Sphere marque les efforts de Meta pour lutter contre la désinformation sur la plateforme.

Meta fait depuis plusieurs années l’objet de vives critiques de la part des utilisateurs et des régulateurs pour la désinformation diffusée sur Facebook, Instagram et WhatsApp. Le PDG Xiao Zha a même été convoqué devant le Congrès pour discuter de la question.

Découvrez les fausses nouvelles et explorez les modèles de communication sur les réseaux sociaux

En Europe, il existe également le projet Fandango, qui construit des outils logiciels pour aider les journalistes et les vérificateurs de faits à détecter les fausses nouvelles.

Qu’il s’agisse de PS ou de DeepFake, le système de Fandango peut effectuer une ingénierie inverse des modifications, en utilisant des algorithmes pour aider les journalistes à repérer les contenus falsifiés.

En outre, le système recherche des pages Web ou des publications sur les réseaux sociaux contenant des mots et des opinions similaires, basées sur de fausses nouvelles signalées par des vérificateurs de faits.

Derrière ce système se cache le support de divers algorithmes d’IA, notamment le traitement du langage naturel.

Bronstein, professeur à l'Université de Lugano en Suisse et à l'Imperial College de Londres au Royaume-Uni, a adopté une approche atypique de l'IA pour détecter les fausses nouvelles.

Le projet, appelé GoodNews, bouleverse les outils traditionnels de détection des fausses nouvelles par l’IA.

Dans le passé, ces outils ont analysé les caractéristiques sémantiques uniques des fausses nouvelles, mais ils ont souvent rencontré des obstacles, comme WhatsApp, qui est crypté et ne permet pas d'y accéder.

En outre, les fausses nouvelles peuvent souvent être des images difficiles à analyser à l’aide de techniques de traitement du langage naturel.

L’équipe du professeur Bronstein a donc bouleversé le modèle traditionnel pour étudier la manière dont les fausses nouvelles se propagent.

Les résultats suggèrent que les fausses nouvelles peuvent obtenir beaucoup plus de partages que de likes sur Facebook, tandis que les publications régulières ont tendance à obtenir plus de likes que de partages. En repérant de tels modèles, GoodNews attribue des scores de crédibilité aux actualités.

Le premier modèle de l'équipe, utilisant l'apprentissage automatique basé sur des graphiques, a été formé sur des données de Twitter, dont certaines se sont révélées fausses par les journalistes.

À partir de là, ils ont entraîné l’algorithme d’IA, enseignant au modèle quelles histoires étaient fausses et lesquelles ne l’étaient pas.

### Détection multimodale DeepFake, donc AIGC n'a nulle part où se cacher

En plus du texte pur, le développement rapide de modèles de génération visuelle tels que Stable Diffusion a également rendu le problème DeepFake de plus en plus grave.

Dans la falsification médiatique multimodale, les visages de personnes importantes sur les images de divers reportages (le visage du président français dans l'image ci-dessous) sont remplacés, et des phrases ou des mots clés dans le texte sont falsifiés (la phrase positive « est le bienvenu à " a été remplacé par la phrase négative " est contraint de démissionner ".

Afin de relever les nouveaux défis, les chercheurs ont proposé un modèle d'inférence de falsification hiérarchique multimodal, capable de détecter l'incohérence sémantique intermodale des échantillons falsifiés en fusionnant et en déduisant des caractéristiques sémantiques entre les modalités.

Actuellement, ce travail a été accepté par CVPR 2023.

Plus précisément, l'auteur propose un modèle de raisonnement de falsification hiérarchique multimodal HierArchical Multi-modal Manipulation raisonnement transformateur (HAMMER).

Ce modèle est basé sur l'architecture de modèle de fusion sémantique multimodale et de raisonnement basé sur la structure à double tour, et réalise la détection et la localisation de la falsification multimodale de manière fine et hiérarchique grâce à un raisonnement de falsification superficiel et profond.

Le modèle HAMMER présente les deux caractéristiques suivantes :

  1. Dans le raisonnement par falsification superficielle, l'apprentissage contrastif sensible à la manipulation est utilisé pour aligner les caractéristiques sémantiques de l'unimodalité de l'image et du texte extraites par l'encodeur d'image et l'encodeur de texte. Dans le même temps, la fonctionnalité d'intégration monomodale est utilisée pour l'interaction des informations via le mécanisme d'attention croisée, et le mécanisme d'agrégation attentionnelle des correctifs locaux (agrégation attentionnelle des correctifs locaux) est conçu pour localiser la zone de falsification de l'image ;

  2. Dans un raisonnement approfondi par falsification, les caractéristiques sémantiques multimodales sont ensuite fusionnées à l'aide du mécanisme d'attention croisée sensible aux modalités dans l'agrégateur multimodal. Sur cette base, un marquage de séquence multimodal spécial et une classification multimodale multi-étiquettes sont effectués pour localiser les mots de falsification de texte et détecter les types de falsification plus fins.

Les résultats expérimentaux montrent que le HAMMER proposé par l’équipe de recherche peut détecter et localiser la falsification de supports multimodaux avec plus de précision que les méthodes de détection multimodales et monomodales.

À en juger par les résultats de visualisation de la détection et de la localisation multimodales des altérations, HAMMER peut effectuer simultanément avec précision des tâches de détection et de localisation des altérations.

De plus, les résultats de visualisation de l'attention du modèle sur les mots falsifiés démontrent en outre que HAMMER effectue une détection et une localisation de falsification multimodale en se concentrant sur les régions d'image qui sont sémantiquement incohérentes avec le texte falsifié.

Les références:

Voir l'original
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate.io app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • ไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)