Дискуссия о сбросе ядерных сточных вод в море! Японское правительство подверглось использованию ИИ-оружия для мониторинга всей сети в режиме реального времени на предмет «ложной информации».

Источник: Синьчжиюань

РЕДАКТИРОВАТЬ: Эней такой сонный.

[Введение] Некоторые СМИ сообщили о том, что еще в прошлом году японское правительство начало использовать инструменты искусственного интеллекта для обнаружения замечаний, связанных со сбросом сточных вод на АЭС Фукусима, и отреагировало в течение нескольких часов.

В последние несколько дней широкое внимание привлекла новость о том, что Япония официально начала сбрасывать загрязненную ядерным оружием воду в Тихий океан.

Незадолго до сброса некоторые СМИ сообщили, что японское правительство с прошлого года использует инструменты искусственного интеллекта для отслеживания любых замечаний, связанных с планом АЭС Фукусима по сбросу ядерных сточных вод.

В июне этого года ИИ обнаружил сообщение южнокорейских СМИ, в котором утверждалось, что высокопоставленные чиновники Министерства иностранных дел Японии сделали огромные политические пожертвования Международному агентству по атомной энергии (МАГАТЭ).

Через несколько часов японское правительство отреагировало, назвав отчет «безосновательным» как на английском, так и на японском языках.

Согласно предыдущим отчетам Nikkei Asia, Министерство иностранных дел Японии в 2023 году запустит совершенно новую систему искусственного интеллекта для сбора и анализа информации в социальных сетях и других платформах, а также для отслеживания влияния общественного мнения в среднесрочной и долгосрочной перспективе. срок.

Стоит отметить, что эта структура включает в себя не только информацию, предназначенную для японской аудитории, но и информацию, предназначенную для Японии в других странах и регионах.

Обзор мероприятия

В марте 2011 года землетрясение и цунами вывели из строя систему охлаждения на АЭС «Фукусима-дайити», в результате чего ядерное топливо в трёх реакторах расплавилось и произошла утечка радиоактивных материалов. Последовавшее за этим массовое загрязнение вынудило десятки тысяч людей эвакуироваться.

С тех пор для охлаждения активной зоны реактора, перегревшейся после взрыва, было использовано более 1,3 миллиона кубических метров морской воды.

Эта загрязненная вода также собирается и хранится в более чем 1000 резервуарах из нержавеющей стали на территории объекта.

Среди 64 радиоактивных элементов, вызвавших загрязнение, основную угрозу для здоровья человека представляют радиоактивные элементы: углерод-14, йод-131, цезий-137, стронций-90, кобальт-60 и тритий-3.

Для очистки этих ядерных сточных вод компания Tokyo Electric Power Company (TEPCO) внедрила собственную усовершенствованную систему очистки жидкостей (ALPS), процесс которой разделен на пять стадий соосаждения, адсорбции и физической фильтрации.

Однако такие большие объемы воды также затрудняют устойчивое хранение.

В апреле 2021 года правительство Японии официально одобрило сброс очищенных ядерных сточных вод в море.

Несмотря на обеспокоенность, выраженную различными странами и международными организациями, это не помешало Японии продвигать этот план.

В то же время Министерство иностранных дел Японии также начало использовать ИИ для мониторинга онлайн-сообщений о радиоактивных веществах, содержащихся в ядерных сточных водах, и разбавило концентрацию такой информации, выпустив большое количество рекламных материалов.

21 июля Министерство иностранных дел Японии опубликовало в Твиттере анимированный видеоролик, разъясняющий меры безопасности в процессе ядерной очистки сточных вод на японском, английском, французском, испанском, русском, арабском, китайском и корейском языках.

В видеоролике объясняется, как вода на заводе очищается до нормативных стандартов с помощью усовершенствованной системы очистки жидкости (ALPS). И подчеркнул, что перед выбросом в более обширные районы океана сбрасываемые ядерные сточные воды разбавляются морской водой в 100 раз.

ИИ контролирует речь

Фактически, эта технология мониторинга общественного мнения в Интернете уже глубоко и широко исследована в области ИИ.

Одним из самых популярных является использование комбинации алгоритмов, моделей машинного обучения и людей для борьбы с «фейковыми новостями», публикуемыми в социальных сетях.

Исследование Twitter, проведенное в 2018 году, показало, что люди ретвитят фейковые новости на 70% чаще, чем настоящие новости.

Между тем, реальным новостям требуется примерно в 6 раз больше времени, чтобы дойти до группы из 1500 человек, и в большинстве случаев они редко достигают более 1000 человек. Напротив, популярные фейковые новости могут охватить до 100 000 человек.

С этой целью в 2022 году Meta запустила совершенно новый инструмент искусственного интеллекта Sphere, чтобы обеспечить точность информации.

Sphere — первая модель искусственного интеллекта, способная одновременно сканировать сотни тысяч цитат, чтобы проверить, подтверждают ли они соответствующие утверждения.

Набор данных Sphere включает 134 миллиона общедоступных веб-страниц. Он опирается на коллективные знания Интернета для быстрого сканирования сотен тысяч веб-цитатов на предмет фактических ошибок.

Мета сообщила, что Sphere просканировала все страницы Википедии, чтобы выяснить, сможет ли она определить источники цитат, которые не подтверждают утверждения, содержащиеся на страницах.

Когда Sphere обнаруживает подозрительные источники, она может рекомендовать более надежные источники или исправления, чтобы повысить точность записи.

Раньше многие системы ИИ могли идентифицировать информацию, для которой не хватало источников цитирования, но исследователи из Meta заявили, что выявление сомнительных утверждений и определение того, действительно ли их подтверждают источники цитирования, требует «глубокого понимания и анализа со стороны систем ИИ».

Развитие Sphere знаменует собой усилия Meta по борьбе с дезинформацией на платформе.

В течение нескольких лет Meta подвергалась резкой критике со стороны пользователей и регулирующих органов за распространение дезинформации в Facebook, Instagram и WhatsApp. Генерального директора Сяо Чжа даже вызвали в Конгресс, чтобы обсудить этот вопрос.

Находите фейковые новости и изучайте модели общения в социальных сетях

В Европе также существует проект Fandango, который занимается созданием программных инструментов, помогающих журналистам и специалистам по проверке фактов обнаруживать фейковые новости.

Будь то PS или DeepFake, система Fandango может реконструировать изменения, используя алгоритмы, помогающие журналистам обнаружить подделанный контент.

Кроме того, система ищет веб-страницы или публикации в социальных сетях со схожими словами и мнениями, основанными на фейковых новостях, отмеченных специалистами по проверке фактов.

За этой системой стоит поддержка различных алгоритмов искусственного интеллекта, особенно обработки естественного языка.

Бронштейн, профессор Университета Лугано в Швейцарии и Имперского колледжа Лондона в Великобритании, применил нетипичный подход искусственного интеллекта для обнаружения фейковых новостей.

Проект под названием GoodNews переворачивает традиционные инструменты искусственного интеллекта для обнаружения фейковых новостей.

В прошлом эти инструменты анализировали уникальные семантические характеристики фейковых новостей, но они часто сталкивались с препятствиями, такими как WhatsApp, который зашифрован и не разрешает доступ.

Кроме того, во многих случаях фейковыми новостями могут быть изображения, которые трудно проанализировать с помощью методов обработки естественного языка.

Поэтому команда профессора Бронштейна перевернула традиционную модель с ног на голову, чтобы изучить, как распространяются фейковые новости.

Результаты показывают, что фейковые новости могут получить гораздо больше лайков, чем лайков на Facebook, в то время как обычные публикации, как правило, получают больше лайков, чем репостов. Выявляя такие закономерности, GoodNews присваивает новостям рейтинги достоверности.

Первая модель команды, использующая машинное обучение на основе графов, была обучена на данных из Twitter, некоторые из которых журналисты доказали ложными.

На основе этого они обучили алгоритм ИИ, обучая модель, какие истории были ложными, а какие нет.

### Мультимодальное обнаружение DeepFake, поэтому AIGC негде спрятаться

Помимо чистого текста, быстрое развитие моделей визуальной генерации, таких как Stable Diffusion, также сделало проблему DeepFake все более серьезной.

При мультимодальном фальсификации СМИ заменяются лица важных людей на фотографиях различных новостных сообщений (лицо президента Франции на снимке ниже), а также подделываются ключевые фразы или слова в тексте (позитивная фраза «приветствуется». был изменен на негативную фразу «вынужден уйти в отставку»).

Чтобы решить новые проблемы, исследователи предложили мультимодальную иерархическую модель вывода о подделке, которая может обнаруживать кросс-модальную семантическую несогласованность подделанных образцов путем объединения и вывода семантических особенностей между модальностями.

В настоящее время эта работа принята CVPR 2023.

В частности, автор предлагает мультимодальную иерархическую модель рассуждения о вмешательстве — HierArchical Multi-modal Manipulation Rasoning tRasformer (HAMMER).

Эта модель основана на архитектуре модели мультимодального семантического слияния и рассуждений, основанных на структуре двойной башни, и реализует обнаружение и обнаружение мультимодального вмешательства мелкозернистым и иерархическим образом посредством поверхностных и глубоких рассуждений о несанкционированном вмешательстве.

Модель HAMMER имеет следующие две характеристики:

  1. В поверхностных рассуждениях о вмешательстве контрастное обучение с учетом манипулирования используется для согласования семантических характеристик унимодальности изображения и текста, извлеченных кодировщиком изображения и кодировщиком текста. При этом функция одномодального встраивания используется для информационного взаимодействия посредством механизма перекрестного внимания, а механизм Local Patch Attentional Aggregation (Локальная агрегация внимания патчей) предназначен для обнаружения области подделки изображения;

  2. При рассуждениях о глубоком вмешательстве мультимодальные семантические характеристики дополнительно объединяются с использованием механизма перекрестного внимания с учетом модальности в мультимодальном агрегаторе. На этой основе выполняется специальная мультимодальная маркировка последовательностей и мультимодальная классификация по нескольким меткам для обнаружения слов, подделывающих текст, и обнаружения более мелких типов подделки.

Результаты экспериментов показывают, что HAMMER, предложенный исследовательской группой, может обнаруживать и определять местонахождение мультимодального вмешательства в среду передачи данных более точно, чем мультимодальные и одномодальные методы обнаружения.

Судя по результатам визуализации мультимодального обнаружения и локализации взлома, HAMMER может точно выполнять задачи обнаружения и локализации взлома одновременно.

Кроме того, результаты визуализации внимания модели на подделанных словах дополнительно демонстрируют, что HAMMER выполняет мультимодальное обнаружение и локализацию подделки, фокусируясь на областях изображения, которые семантически несовместимы с подделанным текстом.

Использованная литература:

Посмотреть Оригинал
Содержание носит исключительно справочный характер и не является предложением или офертой. Консультации по инвестициям, налогообложению или юридическим вопросам не предоставляются. Более подробную информацию о рисках см. в разделе «Дисклеймер».
  • Награда
  • комментарий
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить