مناقشة حول تصريف مياه الصرف الصحي النووية في البحر! تعرضت الحكومة اليابانية لاستخدام أسلحة الذكاء الاصطناعي لمراقبة الشبكة بأكملها في الوقت الحقيقي بحثًا عن "معلومات كاذبة"

المصدر: شينزيوان

تحرير: اينيس نعسان جدا

[مقدمة] نشرت بعض وسائل الإعلام خبرًا يفيد بأن الحكومة اليابانية بدأت في وقت مبكر من العام الماضي في استخدام أدوات الذكاء الاصطناعي للكشف عن الملاحظات المتعلقة بتصريف مياه الصرف الصحي في فوكوشيما النووية، واستجابت في غضون ساعات قليلة.

في الأيام القليلة الماضية، اجتذبت الأخبار التي تفيد بأن اليابان بدأت رسميا في تصريف المياه الملوثة نوويا في المحيط الهادئ اهتماما واسع النطاق.

وقبل التصريف مباشرة، ذكرت بعض وسائل الإعلام أن الحكومة اليابانية تستخدم أدوات الذكاء الاصطناعي منذ العام الماضي لمراقبة أي ملاحظات تتعلق بخطة محطة فوكوشيما للطاقة النووية لتصريف مياه الصرف الصحي النووية.

وفي يونيو من هذا العام، عثرت منظمة العفو الدولية على تقرير إعلامي كوري جنوبي يزعم أن مسؤولين كبارًا في وزارة الخارجية اليابانية قدموا تبرعات سياسية ضخمة للوكالة الدولية للطاقة الذرية.

وفي غضون ساعات، ردت الحكومة اليابانية ورفضت التقرير ووصفته باللغتين الإنجليزية واليابانية بأنه "لا أساس له من الصحة".

وفقًا لتقارير سابقة صادرة عن Nikkei Asia، ستطلق وزارة الخارجية اليابانية نظامًا جديدًا للذكاء الاصطناعي في عام 2023 لجمع وتحليل المعلومات على وسائل التواصل الاجتماعي والمنصات الأخرى، بالإضافة إلى تتبع تأثير الرأي العام على المدى المتوسط والطويل. شرط.

ومن الجدير بالذكر أن هذا الإطار لا يتضمن فقط المعلومات الموجهة للجمهور الياباني، بل يشمل أيضًا المعلومات الموجهة لليابان في البلدان والمناطق الأخرى.

مراجعة الحدث

في مارس/آذار 2011، أدى زلزال وتسونامي إلى تدمير نظام التبريد في محطة فوكوشيما دايتشي للطاقة النووية، مما أدى إلى ذوبان الوقود النووي في ثلاثة مفاعلات وتسرب المواد المشعة. وأجبر التلوث الهائل الذي أعقب ذلك عشرات الآلاف من الأشخاص على الإخلاء.

ومنذ ذلك الحين، تم استخدام أكثر من 1.3 مليون متر مكعب من مياه البحر لتبريد قلب المفاعل، الذي ارتفعت درجة حرارته بعد الانفجار.

يتم أيضًا جمع هذه المياه الملوثة وتخزينها في أكثر من 1000 خزان من الفولاذ المقاوم للصدأ في الموقع.

ومن بين العناصر المشعة الـ 64 التي تسببت في التلوث، فإن العناصر المشعة التي تشكل خطرًا رئيسيًا على صحة الإنسان هي: الكربون 14، واليود 131، والسيزيوم 137، والسترونتيوم 90، والكوبالت 60، والتريتيوم 3.

ومن أجل معالجة مياه الصرف الصحي النووية، اعتمدت شركة طوكيو للطاقة الكهربائية (تيبكو) نظامًا متطورًا لمعالجة السوائل (ALPS) تم تطويره ذاتيًا، وتنقسم العملية إلى خمس مراحل هي الترسيب المشترك والامتزاز والترشيح المادي.

ومع ذلك، فإن هذه الكميات الكبيرة من المياه تزيد من صعوبة التخزين المستدام.

وفي أبريل 2021، وافقت الحكومة اليابانية رسميًا على تصريف مياه الصرف الصحي المعالجة نوويًا في البحر.

وعلى الرغم من المخاوف التي أعربت عنها مختلف البلدان والمنظمات الدولية، فإن هذا لم يمنع اليابان من المضي قدمًا في الخطة.

وفي الوقت نفسه، بدأت وزارة الخارجية اليابانية أيضًا في استخدام الذكاء الاصطناعي لرصد التقارير عبر الإنترنت حول المواد المشعة الموجودة في مياه الصرف الصحي النووية، وتخفيف تركيز هذه المعلومات من خلال إنتاج عدد كبير من المواد الترويجية.

في 21 يوليو، أصدرت وزارة الخارجية اليابانية مقطع فيديو بالرسوم المتحركة على تويتر، يشرح حماية السلامة في عملية معالجة مياه الصرف الصحي النووية باللغات اليابانية والإنجليزية والفرنسية والإسبانية والروسية والعربية والصينية والكورية.

يشرح الفيديو كيفية تنقية مياه المحطة وفقًا للمعايير التنظيمية من خلال نظام معالجة السوائل المتقدم (ALPS). وشدد على أنه قبل إطلاقها في مناطق المحيط الأوسع، تم تخفيف مياه الصرف الصحي النووية 100 مرة بمياه البحر.

مراقبة الكلام بالذكاء الاصطناعي

في الواقع، لقد تم بالفعل استكشاف تقنية مراقبة الرأي العام عبر الإنترنت بعمق وعلى نطاق واسع في مجال الذكاء الاصطناعي.

أحد أكثر هذه الأساليب شيوعًا هو استخدام مجموعة من الخوارزميات ونماذج التعلم الآلي والبشر للتعامل مع "الأخبار المزيفة" المنشورة في وسائل التواصل الاجتماعي.

أظهرت دراسة أجريت على موقع تويتر عام 2018 أن القصص الإخبارية المزيفة تزيد احتمالية إعادة تغريدها من قبل البشر بنسبة 70% مقارنة بالأخبار الحقيقية.

وفي الوقت نفسه، تستغرق الأخبار الحقيقية وقتًا أطول بحوالي 6 مرات للوصول إلى مجموعة مكونة من 1500 شخص، وفي معظم الأوقات نادرًا ما تصل إلى أكثر من 1000 شخص. وعلى النقيض من ذلك، يمكن أن تصل الأخبار المزيفة الشائعة إلى ما يصل إلى 100 ألف شخص.

ولتحقيق هذه الغاية، أطلقت Meta أداة جديدة تمامًا للذكاء الاصطناعي Sphere في عام 2022 لضمان دقة المعلومات.

Sphere هو أول نموذج للذكاء الاصطناعي قادر على مسح مئات الآلاف من الاستشهادات مرة واحدة للتحقق مما إذا كانت تدعم الادعاءات المقابلة.

تتضمن مجموعة بيانات Sphere 134 مليون صفحة ويب عامة. وهو يعتمد على المعرفة الجماعية للإنترنت لإجراء فحص سريع لمئات الآلاف من استشهادات الويب بحثًا عن الأخطاء الواقعية.

وقالت ميتا إن Sphere قام بفحص جميع الصفحات على ويكيبيديا لمعرفة ما إذا كان بإمكانه تحديد مصادر الاستشهادات التي لا تدعم الادعاءات الواردة في الصفحات.

عندما يجد Sphere مصادر مشبوهة، يمكنه التوصية بمصادر أو تصحيحات أقوى للمساعدة في تحسين دقة الإدخال.

في السابق، كانت العديد من أنظمة الذكاء الاصطناعي قادرة على تحديد المعلومات التي تفتقر إلى مصادر الاقتباس، لكن الباحثين في ميتا قالوا إن انتقاء الادعاءات المشكوك فيها وتحديد ما إذا كانت مصادر الاقتباس تدعمها بالفعل يتطلب "فهمًا وتحليلًا عميقين من قبل أنظمة الذكاء الاصطناعي".

يمثل تطوير Sphere جهود Meta لمعالجة المعلومات الخاطئة على المنصة.

واجهت Meta انتقادات شديدة من المستخدمين والمنظمين لعدة سنوات بسبب انتشار المعلومات الخاطئة على Facebook وInstagram وWhatsApp. حتى أنه تم استدعاء الرئيس التنفيذي شياو تشا أمام الكونجرس لمناقشة هذه القضية.

اكتشف الأخبار المزيفة واستكشف أنماط التواصل عبر وسائل التواصل الاجتماعي

وفي أوروبا، هناك أيضًا مشروع Fandango، الذي يقوم ببناء أدوات برمجية لمساعدة الصحفيين ومدققي الحقائق على اكتشاف الأخبار المزيفة.

سواء كان PS أو DeepFake، يمكن لنظام Fandango إجراء هندسة عكسية للتغييرات، باستخدام الخوارزميات لمساعدة الصحفيين على اكتشاف المحتوى الذي تم التلاعب به.

بالإضافة إلى ذلك، يبحث النظام عن صفحات الويب أو منشورات وسائل التواصل الاجتماعي التي تحتوي على كلمات وآراء مماثلة بناءً على أخبار مزيفة تم الإبلاغ عنها من قبل مدققي الحقائق.

ويدعم هذا النظام خوارزميات الذكاء الاصطناعي المختلفة، وخاصة معالجة اللغات الطبيعية.

واتبع برونشتاين، الأستاذ في جامعة لوغانو في سويسرا وكلية إمبريال كوليدج لندن في المملكة المتحدة، نهجا غير عادي للذكاء الاصطناعي للكشف عن الأخبار المزيفة.

يقلب المشروع، المسمى GoodNews، أدوات الكشف عن الأخبار المزيفة التقليدية بواسطة الذكاء الاصطناعي.

وفي الماضي، قامت هذه الأدوات بتحليل الخصائص الدلالية الفريدة للأخبار المزيفة، لكنها واجهت في كثير من الأحيان عوائق، مثل تطبيق واتساب المشفر الذي لا يسمح بالوصول إليه.

بالإضافة إلى ذلك، في كثير من الأحيان قد تكون الأخبار المزيفة عبارة عن صور يصعب تحليلها باستخدام تقنيات معالجة اللغة الطبيعية.

لذلك قلب فريق البروفيسور برونشتاين النموذج التقليدي رأسًا على عقب لدراسة كيفية انتشار الأخبار المزيفة.

تشير النتائج إلى أن الأخبار المزيفة يمكن أن تحصل على مشاركات أكثر بكثير من الإعجابات على فيسبوك، في حين تميل المنشورات العادية إلى الحصول على إعجابات أكثر من المشاركات. من خلال اكتشاف مثل هذه الأنماط، تقوم GoodNews بإدراج درجات المصداقية للعناصر الإخبارية.

تم تدريب النموذج الأول للفريق، الذي يستخدم التعلم الآلي القائم على الرسم البياني، على بيانات من تويتر، والتي أثبت الصحفيون خطأ بعضها.

ومن هذا المنطلق، قاموا بتدريب خوارزمية الذكاء الاصطناعي، وتعليم النموذج أي القصص كاذبة وأيها ليست كذلك.

### كشف DeepFake متعدد الوسائط، لذلك ليس لدى AIGC مكان للاختباء

بالإضافة إلى النص الخالص، أدى التطور السريع لنماذج التوليد المرئي مثل Stable Diffusion إلى جعل مشكلة DeepFake أكثر خطورة.

في العبث الإعلامي متعدد الوسائط، يتم استبدال وجوه الأشخاص المهمين في صور التقارير الإخبارية المختلفة (وجه الرئيس الفرنسي في الصورة أدناه)، ويتم التلاعب بالعبارات أو الكلمات الرئيسية في النص (العبارة الإيجابية "مرحبًا بكم في" "تم تعديلها إلى العبارة السلبية "أجبر على الاستقالة").

من أجل مواجهة التحديات الجديدة، اقترح الباحثون نموذجًا لاستدلال التلاعب الهرمي متعدد الوسائط، والذي يمكنه اكتشاف التناقض الدلالي عبر الوسائط للعينات التي تم العبث بها عن طريق دمج واستنتاج السمات الدلالية بين الطرائق.

حاليًا، تم قبول هذا العمل بواسطة CVPR 2023.

على وجه التحديد، يقترح المؤلف نموذجًا هرميًا متعدد الوسائط للتلاعب بالاستدلال، وهو نموذج HierArchical متعدد الوسائط للتلاعب بالاستدلال (HAMMER).

يعتمد هذا النموذج على بنية نموذجية للدمج الدلالي متعدد الوسائط والتفكير استنادًا إلى هيكل البرج المزدوج، ويدرك اكتشاف وموقع التلاعب متعدد الوسائط بطريقة دقيقة وهرمية من خلال تفكير التلاعب الضحل والعميق.

يتميز طراز HAMMER بالخاصيتين التاليتين:

  1. في تفكير التلاعب الضحل، يتم استخدام التعلم التقابلي المدرك للتلاعب لمحاذاة السمات الدلالية للصورة وأحادية النص المستخرجة بواسطة برنامج تشفير الصور وبرنامج تشفير النص. في الوقت نفسه، يتم استخدام ميزة التضمين أحادي الوسائط لتفاعل المعلومات من خلال آلية الانتباه المتبادل، وتم تصميم آلية التجميع المتعمد للتصحيح المحلي (التجميع المتعمد للتصحيح المحلي) لتحديد موقع منطقة التلاعب بالصورة؛

  2. في تفكير العبث العميق، يتم دمج الميزات الدلالية متعددة الوسائط بشكل أكبر باستخدام آلية الانتباه المتبادل المدركة للطريقة في المجمع متعدد الوسائط. على هذا الأساس، يتم إجراء علامات تسلسلية خاصة متعددة الوسائط وتصنيف متعدد الوسائط لتحديد موقع كلمات التلاعب بالنص واكتشاف أنواع التلاعب الدقيقة.

تظهر النتائج التجريبية أن جهاز HAMMER الذي اقترحه فريق البحث يمكنه اكتشاف وتحديد موقع التلاعب بالوسائط المتعددة الوسائط بشكل أكثر دقة من طرق الكشف متعددة الوسائط وأحادية الوسائط.

انطلاقًا من نتائج التصور الخاصة باكتشاف العبث وتحديد موقعه متعدد الوسائط، تستطيع HAMMER إجراء مهام الكشف عن العبث وتحديد موقعه بدقة في وقت واحد.

بالإضافة إلى ذلك، فإن نتائج تصور الانتباه النموذجي على الكلمات التي تم العبث بها توضح أيضًا أن HAMMER تقوم باكتشاف التلاعب متعدد الوسائط وتوطينه من خلال التركيز على مناطق الصورة غير المتوافقة لغويًا مع النص الذي تم العبث به.

مراجع:

شاهد النسخة الأصلية
المحتوى هو للمرجعية فقط، وليس دعوة أو عرضًا. لا يتم تقديم أي مشورة استثمارية أو ضريبية أو قانونية. للمزيد من الإفصاحات حول المخاطر، يُرجى الاطلاع على إخلاء المسؤولية.
  • أعجبني
  • تعليق
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت
تداول العملات الرقمية في أي مكان وفي أي وقت
qrCode
امسح لتنزيل تطبيق Gate.io
المنتدى
بالعربية
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • ไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)