Discussão sobre a descarga de esgoto nuclear no mar! O governo japonês foi exposto ao uso de armas de IA para monitorar toda a rede em tempo real em busca de “informações falsas”
[Introdução] Alguns meios de comunicação divulgaram a notícia de que, já no ano passado, o governo japonês começou a usar ferramentas de IA para detectar comentários relacionados à descarga de esgoto nuclear de Fukushima e respondeu em poucas horas.
Nos últimos dias, a notícia de que o Japão começou oficialmente a descarregar água contaminada com energia nuclear no Oceano Pacífico atraiu a atenção generalizada.
Pouco antes da descarga, alguns meios de comunicação informaram que o governo japonês vinha usando ferramentas de IA desde o ano passado para monitorar quaisquer comentários relacionados ao plano da usina nuclear de Fukushima para descarregar esgoto nuclear.
Em junho deste ano, a IA encontrou uma reportagem da mídia sul-coreana afirmando que altos funcionários do Ministério das Relações Exteriores do Japão haviam feito enormes doações políticas à Agência Internacional de Energia Atômica (AIEA).
Em poucas horas, o governo japonês respondeu, rejeitando o relatório como “infundado” tanto em inglês como em japonês.
De acordo com relatórios anteriores do Nikkei Asia, o Ministério das Relações Exteriores do Japão lançará um novo sistema de IA em 2023 para coletar e analisar informações nas redes sociais e outras plataformas, bem como rastrear o impacto da opinião pública no médio e longo prazo. prazo.
Vale a pena notar que esta estrutura inclui não apenas informações destinadas ao público japonês, mas também informações destinadas ao Japão em outros países e regiões.
Revisão do Evento
Em Março de 2011, um terramoto e um tsunami danificaram o sistema de refrigeração da central nuclear de Fukushima Daiichi, provocando o derretimento do combustível nuclear de três reactores e a fuga de material radioactivo. A poluição massiva que se seguiu forçou dezenas de milhares de pessoas a evacuarem.
Desde então, mais de 1,3 milhão de metros cúbicos de água do mar foram usados para resfriar o núcleo do reator, que superaqueceu após a explosão.
Essa água contaminada também é coletada e armazenada em mais de 1.000 tanques de aço inoxidável no local.
Entre os 64 elementos radioativos que causaram poluição, os elementos radioativos que representam principalmente uma ameaça à saúde humana são: carbono-14, iodo-131, césio-137, estrôncio-90, cobalto-60 e trítio-3.
Para tratar esses esgotos nucleares, a Tokyo Electric Power Company (TEPCO) adotou um sistema avançado de tratamento de líquidos (ALPS) autodesenvolvido, o processo é dividido em cinco etapas de coprecipitação, adsorção e filtração física.
No entanto, essas grandes quantidades de água também tornam o armazenamento sustentável cada vez mais difícil.
Em abril de 2021, o governo japonês aprovou oficialmente a descarga no mar desses esgotos nucleares tratados.
Apesar das preocupações expressas por vários países e organizações internacionais, isto não impediu o Japão de avançar com o plano.
Ao mesmo tempo, o Ministério dos Negócios Estrangeiros japonês também começou a utilizar a IA para monitorizar relatórios online sobre substâncias radioactivas contidas em esgotos nucleares e para diluir a concentração de tais informações através da produção de um grande número de materiais promocionais.
Em 21 de julho, o Ministério das Relações Exteriores do Japão divulgou um vídeo animado no Twitter, explicando a proteção da segurança no processo de tratamento de esgoto nuclear em japonês, inglês, francês, espanhol, russo, árabe, chinês e coreano.
O vídeo explica como a água da planta é purificada de acordo com os padrões regulatórios por meio do Sistema Avançado de Tratamento de Líquidos (ALPS). E enfatizou que antes de ser lançado em áreas oceânicas mais amplas, o esgoto nuclear descartado foi diluído 100 vezes pela água do mar.
Discurso do monitor de IA
Na verdade, esta tecnologia de monitorização da opinião pública na Internet já foi profunda e extensivamente explorada no campo da IA.
Um dos mais populares é o uso de uma combinação de algoritmos, modelos de aprendizado de máquina e humanos para lidar com “notícias falsas” publicadas nas redes sociais.
Um estudo do Twitter de 2018 mostrou que notícias falsas têm 70% mais probabilidade de serem retuitadas por humanos do que notícias reais.
Enquanto isso, as notícias reais demoram cerca de 6 vezes mais para chegar a um grupo de 1.500 pessoas e, na maioria das vezes, raramente chegam a mais de 1.000 pessoas. Por outro lado, as notícias falsas populares podem atingir até 100 mil pessoas.
Para isso, a Meta lançou uma nova ferramenta de IA, Sphere, em 2022 para garantir a precisão das informações.
Sphere é o primeiro modelo de IA capaz de digitalizar centenas de milhares de citações de uma só vez para verificar se elas apoiam as afirmações correspondentes.
O conjunto de dados do Sphere inclui 134 milhões de páginas públicas da web. Ele se baseia no conhecimento coletivo da Internet para verificar rapidamente centenas de milhares de citações na web em busca de erros factuais.
Meta disse que Sphere examinou todas as páginas da Wikipedia para ver se consegue identificar fontes de citações que não apoiam as afirmações feitas nas páginas.
Quando o Sphere encontra fontes suspeitas, ele pode recomendar fontes mais fortes ou correções para ajudar a melhorar a precisão de uma entrada.
Anteriormente, muitos sistemas de IA eram capazes de identificar informações que não possuíam fontes de citação, mas os pesquisadores da Meta disseram que identificar afirmações duvidosas e determinar se as fontes de citação realmente as apoiam requer “compreensão e análise profundas por parte dos sistemas de IA”.
O desenvolvimento do Sphere marca os esforços da Meta para abordar a desinformação na plataforma.
A Meta tem enfrentado duras críticas de usuários e reguladores há vários anos pela disseminação de desinformação no Facebook, Instagram e WhatsApp. O CEO Xiao Zha foi até chamado ao Congresso para discutir o assunto.
Descubra notícias falsas e explore padrões de comunicação nas redes sociais
Na Europa, existe também o projeto Fandango, que está a construir ferramentas de software para ajudar jornalistas e verificadores de factos a detetar notícias falsas.
Seja PS ou DeepFake, o sistema do Fandango pode fazer engenharia reversa das mudanças, usando algoritmos para ajudar os jornalistas a identificar conteúdo adulterado.
Além disso, o sistema procura páginas da web ou postagens em redes sociais com palavras e opiniões semelhantes baseadas em notícias falsas que foram sinalizadas por verificadores de fatos.
Por trás deste sistema está o suporte de vários algoritmos de IA, especialmente processamento de linguagem natural.
Bronstein, professor da Universidade de Lugano, na Suíça, e do Imperial College London, no Reino Unido, adotou uma abordagem atípica de IA para detectar notícias falsas.
O projeto, chamado GoodNews, derruba as tradicionais ferramentas de detecção de IA de notícias falsas.
No passado, essas ferramentas analisaram as características semânticas únicas das notícias falsas, mas muitas vezes encontraram obstáculos, como o WhatsApp, que é criptografado e não permite acesso.
Além disso, muitas vezes as notícias falsas podem ser imagens difíceis de analisar usando técnicas de processamento de linguagem natural.
Assim, a equipe do professor Bronstein virou o modelo tradicional de cabeça para baixo para estudar como as notícias falsas se espalham.
Os resultados sugerem que notícias falsas podem obter muito mais compartilhamentos do que curtidas no Facebook, enquanto postagens regulares tendem a obter mais curtidas do que compartilhamentos. Ao identificar esses padrões, o GoodNews atribui pontuações de credibilidade às notícias.
O primeiro modelo da equipe, usando aprendizado de máquina baseado em gráficos, foi treinado com dados do Twitter, alguns dos quais foram provados falsos pelos jornalistas.
A partir disso, treinaram o algoritmo de IA, ensinando ao modelo quais histórias eram falsas e quais não eram.
### Detecção multimodal de DeepFake, então o AIGC não tem onde se esconder
Além do texto puro, o rápido desenvolvimento de modelos de geração visual, como o Stable Diffusion, também tornou o problema do DeepFake cada vez mais sério.
Na adulteração de meios de comunicação multimodais, os rostos de pessoas importantes em imagens de diversas reportagens (o rosto do presidente francês na imagem abaixo) são substituídos e frases ou palavras-chave do texto são adulteradas (a frase positiva "é bem-vinda para ”foi alterado para a frase negativa “é forçado a renunciar”).
Para enfrentar os novos desafios, os pesquisadores propuseram um modelo de inferência de adulteração hierárquica multimodal, que pode detectar a inconsistência semântica intermodal de amostras adulteradas, fundindo e inferindo características semânticas entre as modalidades.
Atualmente, este trabalho foi aceito pelo CVPR 2023.
Especificamente, o autor propõe um modelo de raciocínio de adulteração hierárquica multimodal HierArchical Multi-modal Manipulation rEasoning tRansformer (HAMMER).
Este modelo é baseado na arquitetura do modelo de fusão semântica multimodal e raciocínio baseado na estrutura de torre dupla, e realiza a detecção e localização de adulteração multimodal de maneira refinada e hierárquica por meio de raciocínio de adulteração superficial e profundo.
O modelo HAMMER possui as duas características a seguir:
No raciocínio de adulteração superficial, a aprendizagem contrastiva consciente da manipulação é usada para alinhar as características semânticas da unimodalidade de imagem e texto extraídas pelo codificador de imagem e pelo codificador de texto. Ao mesmo tempo, o recurso de incorporação monomodal é usado para interação de informações por meio do mecanismo de atenção cruzada, e o mecanismo de agregação de atenção de patch local (agregação de atenção de patch local) é projetado para localizar a área de adulteração de imagem;
No raciocínio de adulteração profunda, os recursos semânticos multimodais são ainda mais fundidos usando o mecanismo de atenção cruzada com reconhecimento de modalidade no agregador multimodal. Com base nisso, a marcação de sequência multimodal especial e a classificação multimodal de rótulos múltiplos são realizadas para localizar palavras de adulteração de texto e detectar tipos de adulteração mais refinados.
Os resultados experimentais mostram que o HAMMER proposto pela equipe de pesquisa pode detectar e localizar adulterações de mídia multimodal com mais precisão do que os métodos de detecção multimodais e unimodais.
A julgar pelos resultados de visualização da detecção e localização de adulteração multimodal, o HAMMER pode executar com precisão tarefas de detecção e localização de adulteração simultaneamente.
Além disso, os resultados da visualização da atenção do modelo em palavras adulteradas demonstram ainda que o HAMMER realiza detecção e localização de adulteração multimodal, concentrando-se em regiões da imagem que são semanticamente inconsistentes com o texto adulterado.
Referências:
Ver original
O conteúdo serve apenas de referência e não constitui uma solicitação ou oferta. Não é prestado qualquer aconselhamento em matéria de investimento, fiscal ou jurídica. Consulte a Declaração de exoneração de responsabilidade para obter mais informações sobre os riscos.
Discussão sobre a descarga de esgoto nuclear no mar! O governo japonês foi exposto ao uso de armas de IA para monitorar toda a rede em tempo real em busca de “informações falsas”
Fonte: Xinzhiyuan
EDIT: Enéias está com tanto sono
Nos últimos dias, a notícia de que o Japão começou oficialmente a descarregar água contaminada com energia nuclear no Oceano Pacífico atraiu a atenção generalizada.
Pouco antes da descarga, alguns meios de comunicação informaram que o governo japonês vinha usando ferramentas de IA desde o ano passado para monitorar quaisquer comentários relacionados ao plano da usina nuclear de Fukushima para descarregar esgoto nuclear.
Em junho deste ano, a IA encontrou uma reportagem da mídia sul-coreana afirmando que altos funcionários do Ministério das Relações Exteriores do Japão haviam feito enormes doações políticas à Agência Internacional de Energia Atômica (AIEA).
Vale a pena notar que esta estrutura inclui não apenas informações destinadas ao público japonês, mas também informações destinadas ao Japão em outros países e regiões.
Revisão do Evento
Em Março de 2011, um terramoto e um tsunami danificaram o sistema de refrigeração da central nuclear de Fukushima Daiichi, provocando o derretimento do combustível nuclear de três reactores e a fuga de material radioactivo. A poluição massiva que se seguiu forçou dezenas de milhares de pessoas a evacuarem.
Desde então, mais de 1,3 milhão de metros cúbicos de água do mar foram usados para resfriar o núcleo do reator, que superaqueceu após a explosão.
Essa água contaminada também é coletada e armazenada em mais de 1.000 tanques de aço inoxidável no local.
Entre os 64 elementos radioativos que causaram poluição, os elementos radioativos que representam principalmente uma ameaça à saúde humana são: carbono-14, iodo-131, césio-137, estrôncio-90, cobalto-60 e trítio-3.
Para tratar esses esgotos nucleares, a Tokyo Electric Power Company (TEPCO) adotou um sistema avançado de tratamento de líquidos (ALPS) autodesenvolvido, o processo é dividido em cinco etapas de coprecipitação, adsorção e filtração física.
Em abril de 2021, o governo japonês aprovou oficialmente a descarga no mar desses esgotos nucleares tratados.
Apesar das preocupações expressas por vários países e organizações internacionais, isto não impediu o Japão de avançar com o plano.
Ao mesmo tempo, o Ministério dos Negócios Estrangeiros japonês também começou a utilizar a IA para monitorizar relatórios online sobre substâncias radioactivas contidas em esgotos nucleares e para diluir a concentração de tais informações através da produção de um grande número de materiais promocionais.
Em 21 de julho, o Ministério das Relações Exteriores do Japão divulgou um vídeo animado no Twitter, explicando a proteção da segurança no processo de tratamento de esgoto nuclear em japonês, inglês, francês, espanhol, russo, árabe, chinês e coreano.
O vídeo explica como a água da planta é purificada de acordo com os padrões regulatórios por meio do Sistema Avançado de Tratamento de Líquidos (ALPS). E enfatizou que antes de ser lançado em áreas oceânicas mais amplas, o esgoto nuclear descartado foi diluído 100 vezes pela água do mar.
Discurso do monitor de IA
Na verdade, esta tecnologia de monitorização da opinião pública na Internet já foi profunda e extensivamente explorada no campo da IA.
Um dos mais populares é o uso de uma combinação de algoritmos, modelos de aprendizado de máquina e humanos para lidar com “notícias falsas” publicadas nas redes sociais.
Um estudo do Twitter de 2018 mostrou que notícias falsas têm 70% mais probabilidade de serem retuitadas por humanos do que notícias reais.
Enquanto isso, as notícias reais demoram cerca de 6 vezes mais para chegar a um grupo de 1.500 pessoas e, na maioria das vezes, raramente chegam a mais de 1.000 pessoas. Por outro lado, as notícias falsas populares podem atingir até 100 mil pessoas.
Sphere é o primeiro modelo de IA capaz de digitalizar centenas de milhares de citações de uma só vez para verificar se elas apoiam as afirmações correspondentes.
Quando o Sphere encontra fontes suspeitas, ele pode recomendar fontes mais fortes ou correções para ajudar a melhorar a precisão de uma entrada.
O desenvolvimento do Sphere marca os esforços da Meta para abordar a desinformação na plataforma.
A Meta tem enfrentado duras críticas de usuários e reguladores há vários anos pela disseminação de desinformação no Facebook, Instagram e WhatsApp. O CEO Xiao Zha foi até chamado ao Congresso para discutir o assunto.
Descubra notícias falsas e explore padrões de comunicação nas redes sociais
Na Europa, existe também o projeto Fandango, que está a construir ferramentas de software para ajudar jornalistas e verificadores de factos a detetar notícias falsas.
Além disso, o sistema procura páginas da web ou postagens em redes sociais com palavras e opiniões semelhantes baseadas em notícias falsas que foram sinalizadas por verificadores de fatos.
O projeto, chamado GoodNews, derruba as tradicionais ferramentas de detecção de IA de notícias falsas.
Além disso, muitas vezes as notícias falsas podem ser imagens difíceis de analisar usando técnicas de processamento de linguagem natural.
Os resultados sugerem que notícias falsas podem obter muito mais compartilhamentos do que curtidas no Facebook, enquanto postagens regulares tendem a obter mais curtidas do que compartilhamentos. Ao identificar esses padrões, o GoodNews atribui pontuações de credibilidade às notícias.
A partir disso, treinaram o algoritmo de IA, ensinando ao modelo quais histórias eram falsas e quais não eram.
Além do texto puro, o rápido desenvolvimento de modelos de geração visual, como o Stable Diffusion, também tornou o problema do DeepFake cada vez mais sério.
Na adulteração de meios de comunicação multimodais, os rostos de pessoas importantes em imagens de diversas reportagens (o rosto do presidente francês na imagem abaixo) são substituídos e frases ou palavras-chave do texto são adulteradas (a frase positiva "é bem-vinda para ”foi alterado para a frase negativa “é forçado a renunciar”).
Atualmente, este trabalho foi aceito pelo CVPR 2023.
Este modelo é baseado na arquitetura do modelo de fusão semântica multimodal e raciocínio baseado na estrutura de torre dupla, e realiza a detecção e localização de adulteração multimodal de maneira refinada e hierárquica por meio de raciocínio de adulteração superficial e profundo.
No raciocínio de adulteração superficial, a aprendizagem contrastiva consciente da manipulação é usada para alinhar as características semânticas da unimodalidade de imagem e texto extraídas pelo codificador de imagem e pelo codificador de texto. Ao mesmo tempo, o recurso de incorporação monomodal é usado para interação de informações por meio do mecanismo de atenção cruzada, e o mecanismo de agregação de atenção de patch local (agregação de atenção de patch local) é projetado para localizar a área de adulteração de imagem;
No raciocínio de adulteração profunda, os recursos semânticos multimodais são ainda mais fundidos usando o mecanismo de atenção cruzada com reconhecimento de modalidade no agregador multimodal. Com base nisso, a marcação de sequência multimodal especial e a classificação multimodal de rótulos múltiplos são realizadas para localizar palavras de adulteração de texto e detectar tipos de adulteração mais refinados.
Os resultados experimentais mostram que o HAMMER proposto pela equipe de pesquisa pode detectar e localizar adulterações de mídia multimodal com mais precisão do que os métodos de detecção multimodais e unimodais.