Дискусія щодо скидання ядерних стічних вод у море! Японський уряд був викритий у використанні штучного інтелекту для моніторингу всієї мережі в режимі реального часу на наявність «неправдивої інформації»

Джерело: Xinzhiyuan

РЕДАГУВАТИ: Еней такий сонний

[Вступ] Деякі ЗМІ поширили новину про те, що ще минулого року уряд Японії почав використовувати інструменти штучного інтелекту для виявлення зауважень, пов’язаних із скиданням стічних вод атомної станції Фукусіма, і відповів протягом кількох годин.

Останніми днями широку увагу привернула новина про те, що Японія офіційно почала скидати заражену ядерною зброєю воду в Тихий океан.

Незадовго до викиду деякі ЗМІ повідомили, що уряд Японії з минулого року використовує інструменти штучного інтелекту, щоб відстежувати будь-які зауваження, пов’язані з планом атомної електростанції «Фукусіма» щодо скидання ядерних стічних вод.

У червні цього року AI знайшов повідомлення південнокорейських ЗМІ про те, що високопосадовці японського міністерства закордонних справ зробили величезні політичні пожертви Міжнародному агентству з атомної енергії (МАГАТЕ).

За кілька годин японський уряд відповів, відкинувши звіт як «безпідставний» як англійською, так і японською.

Згідно з попередніми звітами Nikkei Asia, Міністерство закордонних справ Японії запустить абсолютно нову систему AI у 2023 році для збору та аналізу інформації в соціальних мережах та інших платформах, а також для відстеження впливу громадської думки в середньому та довгостроковому періоді. термін.

Варто зазначити, що ця структура включає не лише інформацію, призначену для японської аудиторії, але й інформацію, призначену для Японії в інших країнах і регіонах.

Огляд події

У березні 2011 року землетрус і цунамі вивели з ладу систему охолодження на атомній електростанції «Фукусіма-Дайічі», що призвело до розплавлення ядерного палива в трьох реакторах і витоку радіоактивного матеріалу. Величезне забруднення змусило десятки тисяч людей евакуюватися.

З тих пір для охолодження активної зони реактора, яка перегрілася після вибуху, було використано понад 1,3 мільйона кубічних метрів морської води.

Цю забруднену воду також збирають і зберігають у більш ніж 1000 резервуарах з нержавіючої сталі на місці.

Серед 64 радіоактивних елементів, які спричинили забруднення, радіоактивні елементи, які в основному становлять загрозу для здоров'я людини, це: вуглець-14, йод-131, цезій-137, стронцій-90, кобальт-60 і тритій-3.

Щоб очищати ці атомні стічні води, Токійська електрична енергетична компанія (TEPCO) запровадила власно розроблену передову систему очищення рідини (ALPS), процес ділиться на п’ять етапів співосадження, адсорбції та фізичної фільтрації.

Однак така велика кількість води також ускладнює стале зберігання.

У квітні 2021 року уряд Японії офіційно схвалив скидання цих очищених ядерних стічних вод у море.

Незважаючи на занепокоєння, висловлене різними країнами та міжнародними організаціями, це не зупинило Японію від просування плану.

У той же час Міністерство закордонних справ Японії також почало використовувати штучний інтелект для моніторингу онлайн-повідомлень про радіоактивні речовини, що містяться в ядерних стічних водах, і зменшило концентрацію такої інформації, випустивши велику кількість рекламних матеріалів.

21 липня Міністерство закордонних справ Японії опублікувало в Twitter анімаційне відео, в якому японською, англійською, французькою, іспанською, російською, арабською, китайською та корейською мовами пояснюється захист безпеки в процесі очищення ядерних стічних вод.

У відео пояснюється, як вода заводу очищається відповідно до нормативних стандартів за допомогою вдосконаленої системи очищення рідини (ALPS). І підкреслив, що перед тим, як потрапити в більш широкі райони океану, скинуті ядерні стічні води були розбавлені морською водою в 100 разів.

ШІ монітор мови

Насправді ця технологія моніторингу громадської думки в Інтернеті вже була глибоко та широко досліджена в галузі ШІ.

Одним із найпопулярніших є використання комбінації алгоритмів, моделей машинного навчання та людей для боротьби з «фейковими новинами», опублікованими в соціальних мережах.

Дослідження Twitter у 2018 році показало, що фейкові новини на 70% частіше ретвітять люди, ніж справжні новини.

Водночас справжнім новинам потрібно приблизно в 6 разів більше часу, щоб охопити групу з 1500 людей, і в більшості випадків вони рідко досягають більше ніж 1000 людей. Навпаки, популярні фейкові новини можуть охопити до 100 000 людей.

З цією метою у 2022 році Meta запустила абсолютно новий інструмент штучного інтелекту Sphere, щоб забезпечити точність інформації.

Sphere — перша модель ШІ, здатна сканувати сотні тисяч цитат одночасно, щоб перевірити, чи підтверджують вони відповідні твердження.

Набір даних Sphere включає 134 мільйони загальнодоступних веб-сторінок. Він покладається на колективні знання Інтернету для швидкого сканування сотень тисяч веб-цитат на наявність фактичних помилок.

Meta сказав, що Sphere просканувала всі сторінки Вікіпедії, щоб перевірити, чи може вона ідентифікувати джерела цитат, які не підтверджують твердження, зроблені на сторінках.

Коли Sphere знаходить підозрілі джерела, він може рекомендувати надійніші джерела або виправлення, щоб підвищити точність запису.

Раніше багато систем штучного інтелекту могли ідентифікувати інформацію, у якій не було джерел цитування, але дослідники з Meta заявили, що вибір сумнівних тверджень і визначення того, чи справді джерела цитат їх підтверджують, вимагає «глибокого розуміння та аналізу системами штучного інтелекту».

Розробка Sphere знаменує зусилля Meta боротися з дезінформацією на платформі.

Meta протягом кількох років зазнавала жорсткої критики з боку користувачів і регуляторів за поширення дезінформації у Facebook, Instagram і WhatsApp. Генерального директора Сяо Чжа навіть викликали до Конгресу, щоб обговорити це питання.

Відкривайте фейкові новини та досліджуйте моделі спілкування в соціальних мережах

В Європі також існує проект Fandango, який розробляє програмні інструменти, які допомагають журналістам і фактчекерам виявляти фейкові новини.

Незалежно від того, чи це PS чи DeepFake, система Fandango може відновити зміни, використовуючи алгоритми, щоб допомогти журналістам виявити підроблений контент.

Крім того, система шукає веб-сторінки або дописи в соціальних мережах із схожими словами та думками, заснованими на фейкових новинах, які були позначені фахівцями.

За цією системою стоїть підтримка різних алгоритмів ШІ, особливо обробки природної мови.

Бронштейн, професор Університету Лугано в Швейцарії та Імперського коледжу Лондона у Великій Британії, застосував нетиповий підхід ШІ для виявлення фейкових новин.

Проект під назвою GoodNews змінює традиційні інструменти ШІ для виявлення фейкових новин.

У минулому ці інструменти аналізували унікальні семантичні характеристики фейкових новин, але вони часто стикалися з перешкодами, такими як WhatsApp, який зашифрований і не надає доступу.

Крім того, часто фейкові новини можуть бути зображеннями, які важко проаналізувати за допомогою методів обробки природної мови.

Тому команда професора Бронштейна перевернула традиційну модель з ніг на голову, щоб дослідити, як поширюються фейкові новини.

Результати показують, що фейкові новини можуть отримати набагато більше лайків, ніж лайків у Facebook, тоді як звичайні публікації, як правило, отримують більше лайків, ніж поширень. Виявляючи такі закономірності, GoodNews надає новинам оцінки довіри.

Перша модель команди з використанням машинного навчання на основі графів була навчена на даних із Twitter, деякі з яких були доведені журналістами неправдивими.

З цього вони навчили алгоритм ШІ, навчаючи модель, які історії були неправдивими, а які ні.

### Мультимодальне виявлення DeepFake, тому AIGC ніде сховатися

На додаток до чистого тексту, швидкий розвиток моделей візуальної генерації, таких як Stable Diffusion, також зробив проблему DeepFake дедалі серйознішою.

У мультимодальних медіа-підробках обличчя важливих людей на зображеннях різних новин (обличчя президента Франції на зображенні нижче) замінюються, а ключові фрази чи слова в тексті підробляються (позитивна фраза «вітається в » було замінено на негативну фразу «змушений піти у відставку»).

Щоб відповісти на нові виклики, дослідники запропонували мультимодальну ієрархічну модель висновку про фальсифікацію, яка може виявити кросмодальну семантичну неузгодженість фальсифікованих зразків шляхом злиття та виведення семантичних ознак між модальностями.

Наразі цю роботу прийнято CVPR 2023.

Зокрема, автор пропонує мультимодальну ієрархічну модель аргументації HierArchical Multi-modal Manipulation Reasoning tTransformer (HAMMER).

Ця модель базується на модельній архітектурі мультимодального семантичного злиття та міркувань на основі структури подвійної вежі та реалізує виявлення та місцезнаходження мультимодального втручання в тонкий та ієрархічний спосіб через дрібне та глибоке втручання.

Модель HAMMER має наступні дві характеристики:

  1. У неглибоких міркуваннях підробки контрастне навчання з урахуванням маніпуляцій використовується для узгодження семантичних особливостей унімодальності зображення та тексту, отриманих кодувальником зображення та кодувальником тексту. При цьому функція одномодального вбудовування використовується для інформаційної взаємодії через механізм перехресного звернення уваги, а механізм агрегування уваги локального патча (Local Patch Attentional Aggregation) призначений для визначення місця фальсифікації зображення;

  2. У міркуваннях глибокого втручання мультимодальні семантичні характеристики додатково об’єднуються за допомогою механізму перехресної уваги з урахуванням модальності в мультимодальному агрегаторі. На цій основі виконується спеціальне тегування мультимодальної послідовності та мультимодальна класифікація з кількома мітками для визначення місцезнаходження слів з підробкою тексту та виявлення більш дрібних типів підробки.

Експериментальні результати показують, що HAMMER, запропонований дослідницькою групою, може виявляти та локалізувати фальсифікацію мультимодального медіа точніше, ніж мультимодальні та одномодальні методи виявлення.

Судячи з результатів візуалізації мультимодального виявлення та локалізації втручання, HAMMER може точно виконувати завдання виявлення та локалізації втручання одночасно.

Крім того, результати візуалізації уваги моделі на підроблених словах додатково демонструють, що HAMMER виконує багатомодальне виявлення втручання та локалізацію, зосереджуючись на областях зображення, які семантично несумісні з підробленим текстом.

Література:

Переглянути оригінал
Контент має виключно довідковий характер і не є запрошенням до участі або пропозицією. Інвестиційні, податкові чи юридичні консультації не надаються. Перегляньте Відмову від відповідальності , щоб дізнатися більше про ризики.
  • Нагородити
  • Прокоментувати
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити