Кілька поглядів на OpenAI, DeepMind тощо, щоб відкрити модель британському уряду

**OpenAI, DeepMind відкриє модель для британського уряду? **

Прем’єр-міністр Великобританії Ріші Сунак оголосив у понеділок на London Tech Week, що компанії Google DeepMind, OpenAI і Anthropic погодилися відкрити свої моделі штучного інтелекту британському уряду для досліджень і безпеки.

Британський прем’єр-міністр Ріші Сунак сказав, що це дозволить уряду Великої Британії** «допомогти створити кращі оцінки, щоб краще зрозуміти можливості та ризики цих систем»**. Цього разу промова Сунака в основному виступає за те, що очікується, що штучний інтелект змінить освіту та медицину, а також проголошує потенціал Великобританії як «острова інновацій».

«* ШІ, безумовно, є однією з найбільших можливостей, які перед нами стоять», — сказав Сунак. Завдяки поєднанню моделей штучного інтелекту з квантовою потужністю «можливості стають надзвичайними».

У березні 2023 року уряд Великої Британії опублікував технічний документ щодо штучного інтелекту, в якому запропоновано «проінноваційний» підхід, але нещодавно Сунак наголосив на необхідності «огорожі».

Сунак заявив у понеділок, що Велика Британія хоче бути не лише основною сферою наукових знань, але й географічним домом для глобального регулювання безпеки штучного інтелекту», але Велика Британія ще не опублікувала список конкретних нормативних пропозицій і правил. .

Ключем до цих правил і планів стане Глобальний саміт з безпеки ШІ у Великій Британії цієї осені, який Сунак порівнює з **"версією ШІ Конференції сторін ООН зі зміни клімату". **

Крім того, також була створена робоча група у формі фонду, яка наразі інвестує близько 100 мільйонів фунтів стерлінгів у фінансову підтримку для проведення досліджень технології безпеки штучного інтелекту.Спочатку Велика Британія заявила, що гнучкий і збалансований регуляторний підхід у Великобританії дозволить продовжувати робити його привабливим для інвестицій.

Anthropic і OpenAI нещодавно створили європейські штаб-квартири у Великій Британії, а Palantir минулого тижня оголосила про відкриття дослідницького центру ШІ у Великій Британії.

Варто зазначити, що генеральний директор OpenAI Сем Альтман відвідав європейські країни у травні 2023 року, зустрічався з регуляторними органами різних країн, а також зустрічався з главами урядів, зокрема Іспанії, Польщі, Франції та Великобританії.

Альтман вперше зустрівся з прем’єр-міністром Іспанії Педро Санчесом**, оскільки цього літа Іспанія головує в Європейській раді протягом шести місяців, а це означає, що в критичний момент у переговорах щодо збірки правил штучного інтелекту Іспанії є над чим пограти. можливість впливати на дискусію. ** А у Франції, Польщі та Іспанії глави регіональних урядів, швидше за все, впливатимуть через Європейську раду на остаточну форму встановлення норм ШІ ЄС.

У Альтмана, який також брав участь у дискусії в UCL, взяли інтерв’ю на сцені, посилаючись на ** його перевагу регулюванню, яке є «десь між традиційним європейським підходом і традиційним американським підходом». **

У травні 2023 року члени двох ключових комітетів Європейського парламенту внесли низку поправок до нормативно-правової бази штучного інтелекту на основі оцінки ризику, спочатку запропонованої комітетом (квітень 2021 року), спрямованої на забезпечення того, щоб загальний штучний інтелект, базові моделі та генеративний штучний інтелект Інтелект виходить за рамки правил.

Європейський парламент підтримує зобов’язання постачальників базових моделей застосовувати перевірки безпеки, заходи щодо управління даними та заходи щодо зменшення ризиків перед виведенням моделей на ринок, що включає вимогу враховувати «можливість для здоров’я, безпеки, основних прав, навколишнього середовища, як а також демократії та верховенства права". передбачувані ризики".

Поправки також вимагатимуть від виробників базових моделей зменшити енергоспоживання та використання ресурсів своїми системами** та зареєструватися в базах даних ЄС, тоді як постачальники генеративних технологій ШІ, таких як ChatGPT OpenAI, матимуть зобов’язання щодо прозорості, що означає, що технології ШІ Провайдери повинні переконатися, що користувачі поінформовані про те, що контент створено машиною, і вжити «адекватних заходів безпеки» для вмісту, створеного їхніми системами, а також надати короткий опис будь-якого захищеного авторським правом матеріалу, який використовується для навчання їхнього штучного інтелекту. **

Однак під час цієї поїздки до Європи генеральний директор OpenAI знайшов час, щоб зустрітися з британським прем’єр-міністром Сунаком і провів зустріч із Демісом Хассабісом з DeepMind і Даріо Амодеї з Anthropic with Sunak. Звичайно, Великобританія залишається великою європейською економікою. Крім того, є чутки, що OpenAI розглядає можливість створення місцевої штаб-квартири в країні. І Anthropic щойно оголосила про відкриття власного офісу в Лондоні. Для OpenAI, принаймні з точки зору регулювання, Великобританія більше не є членом Європейського Союзу, що означає, що вона не може брати участь у законодавстві ЄС про штучний інтелект.

Крім того, уряд Сунака вважає, що уряд не має наміру створювати нове внутрішнє законодавство для регулювання штучного інтелекту. Серед них нещодавно опублікований білий документ британського уряду пропонує покладатися виключно на існуючі регуляторні органи, такі як органи конкуренції та спостерігачі за конфіденційністю, щоб надати рекомендації щодо безпечного розвитку штучного інтелекту, а не законодавчо регулювати використання технологій. **

деякі думки

Сполучене Королівство, ймовірно, скористається своїми власними географічними перевагами та займе важливу сферу безпеки штучного інтелекту, щоб мати власний вплив. **Наприклад, якщо гіганти штучного інтелекту підтримають діалог із дослідження безпеки штучного інтелекту під керівництвом Великобританії, вони зможуть добре сформувати правила штучного інтелекту у Великій Британії, що застосовуються до їх власного бізнесу, і Велика Британія також виграє в цьому випадку. **

Але якщо британський Саміт безпеки штучного інтелекту має бути справжнім і надійним успіхом, він повинен об’єднати дослідників у всьому світі та активно залучати незалежних дослідників, групи громадянського суспільства та технічні організації, а не лише «Видатну компанію зі штучного інтелекту» та її власну співпрацю з місцевими науковцями. планувати.

**І глобальний саміт безпеки штучного інтелекту повинен відмовитися від упереджень і розбіжностей і прагнути спільного добробуту для безпеки всієї людини в світі AGI. **

Переглянути оригінал
Контент має виключно довідковий характер і не є запрошенням до участі або пропозицією. Інвестиційні, податкові чи юридичні консультації не надаються. Перегляньте Відмову від відповідальності , щоб дізнатися більше про ризики.
  • Нагородити
  • Прокоментувати
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити