ИИ в Европе: Что может означать Закон об ИИ

Фотография Maico Amorim на Unsplash


Закон об ИИ всё ещё находится в стадии проекта, но инвесторы и владельцы бизнеса в Европейском союзе уже нервничают из-за возможных последствий.

Помешает ли он ЕС стать ценным конкурентом на глобальной арене?

По мнению регуляторов, — нет. Но давайте посмотрим, что происходит.

Закон об ИИ и оценка рисков

Закон об ИИ делит риски, связанные с искусственным интеллектом, на разные категории, но перед этим он ограничивает определение искусственного интеллекта, включив в него только системы на базе машинного обучения и логики.

Это не только помогает отличить системы ИИ от более простого программного обеспечения, но и способствует пониманию того, почему ЕС хочет классифицировать риски.

Различные применения ИИ делятся на неприемлемый риск, высокий риск и
низкий или минимальный риск. Практики, относящиеся к категории неприемлемого риска, считаются запрещёнными.

К таким практикам относятся:

  • практики, использующие техники, действующие за пределами сознания человека,
  • практики, направленные на эксплуатацию уязвимых групп населения,
  • системы на базе ИИ, предназначенные для классификации людей по личным характеристикам или поведению,
  • системы на базе ИИ, использующие биометрическую идентификацию в общественных местах.

Есть некоторые случаи использования, которые следует считать похожими на практики, включённые в запрещённые виды деятельности, и они попадают в категорию «высокий риск».

К ним относятся системы, используемые для найма сотрудников или оценки кредитоспособности людей (что может быть опасно для финтеха). В таких случаях все компании, создающие или использующие такие системы, должны предоставлять подробные отчёты о том, как работает система и какие меры принимаются для минимизации рисков для людей и обеспечения максимальной прозрачности.

Всё кажется ясным и правильным, но есть некоторые проблемы, которые регуляторы должны решить.

Закон кажется слишком общим

Одна из самых тревожных для бизнесменов и инвесторов сторон — недостаток внимания к конкретным секторам ИИ.

Например, компании, разрабатывающие и использующие системы ИИ для общих целей, могут считаться использующими искусственный интеллект для высокорискованных случаев.

Это означает, что им придётся готовить подробные отчёты, что требует времени и денег. Поскольку малый и средний бизнес не исключение, а составляет большую часть европейской экономики, со временем они могут стать менее конкурентоспособными.

И именно разница между американскими и европейскими компаниями в области ИИ вызывает серьёзные опасения: в Европе нет крупных компаний в сфере ИИ, как в США, поскольку среда развития ИИ в основном создаётся малыми и средними предприятиями и стартапами.

По данным опроса appliedAI, большинство инвесторов избегают инвестиций в стартапы, помеченные как «высокорискованные», именно из-за сложности такой классификации.

ChatGPT изменил планы ЕС

Регуляторы ЕС должны были завершить подготовку документа 19 апреля, но обсуждение различных определений систем на базе ИИ и их применений задержало окончательное оформление проекта.

Более того, технологические компании показали, что не все согласны с текущей версией документа.

Самым большим источником задержек стала разница между фундаментальными моделями и ИИ общего назначения.

Пример фундаментальных моделей ИИ — ChatGPT от OpenAI: эти системы обучаются на больших объёмах данных и могут генерировать любой вид вывода.

ИИ общего назначения включает системы, которые можно адаптировать под разные задачи и сферы.

Регуляторы ЕС хотят строго регулировать фундаментальные модели, поскольку они могут нести больше рисков и негативно влиять на жизнь людей.

Как регулируют ИИ в США и Китае

Если посмотреть, как регуляторы ЕС относятся к ИИ, бросается в глаза одна особенность: кажется, регуляторы менее склонны к сотрудничеству.

В США, например, администрация Байдена запрашивала общественные комментарии по безопасности систем вроде ChatGPT, прежде чем разрабатывать возможную нормативную базу.

В Китае правительство уже много лет регулирует ИИ и сбор данных, и его главная забота — социальная стабильность.

На сегодняшний день страна, которая кажется хорошо подготовленной в области регулирования ИИ, — это Великобритания, которая выбрала «лёгкий» подход — но известно, что Великобритания стремится стать лидером в области ИИ и финтеха.

Финтех и Закон об ИИ

Когда речь заходит о компаниях и стартапах, предоставляющих финансовые услуги, ситуация становится ещё сложнее.

Если закон останется в текущей редакции, финтех-компании должны будут соблюдать не только существующие финансовые регуляции, но и новый нормативный каркас.

Тот факт, что оценка кредитоспособности может быть признана высокорискованным случаем, — лишь пример бремени, которое ляжет на финтех-компании, мешая им быть так же гибкими, как раньше, привлекать инвестиции и оставаться конкурентоспособными.

Заключение

Как отметил Питер Сарлин, генеральный директор Silo AI, проблема не в регулировании, а в плохом регулировании.

Чрезмерная общность может навредить инновациям и всем компаниям, участвующим в производстве, распространении и использовании продуктов и услуг на базе ИИ.

Если инвесторы ЕС начнут опасаться потенциальных рисков, связанных с ярлыком «высокорискованный», это может негативно сказаться на развитии ИИ в Европейском союзе, в то время как США ищут общественные комментарии для улучшения своих технологий, а Китай уже ясно выразил свою позицию по регулированию искусственного интеллекта.

По словам Робина Рёма, соучредителя Apheris, одним из возможных сценариев является переезд стартапов в США — страну, которая, возможно, многое теряет в области блокчейна и криптовалют, но может выиграть в гонке за ИИ.


Если хотите больше узнать о финтехе и быть в курсе новостей, событий и мнений в этой сфере, подписывайтесь на рассылку FTW!

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить