Закон об ИИ всё ещё находится в стадии проекта, но инвесторы и владельцы бизнеса в Европейском союзе уже нервничают из-за возможных последствий.
Помешает ли он ЕС стать ценным конкурентом на глобальной арене?
По мнению регуляторов, — нет. Но давайте посмотрим, что происходит.
Закон об ИИ и оценка рисков
Закон об ИИ делит риски, связанные с искусственным интеллектом, на разные категории, но перед этим он ограничивает определение искусственного интеллекта, включив в него только системы на базе машинного обучения и логики.
Это не только помогает отличить системы ИИ от более простого программного обеспечения, но и способствует пониманию того, почему ЕС хочет классифицировать риски.
Различные применения ИИ делятся на неприемлемый риск, высокий риск и низкий или минимальный риск. Практики, относящиеся к категории неприемлемого риска, считаются запрещёнными.
К таким практикам относятся:
практики, использующие техники, действующие за пределами сознания человека,
практики, направленные на эксплуатацию уязвимых групп населения,
системы на базе ИИ, предназначенные для классификации людей по личным характеристикам или поведению,
системы на базе ИИ, использующие биометрическую идентификацию в общественных местах.
Есть некоторые случаи использования, которые следует считать похожими на практики, включённые в запрещённые виды деятельности, и они попадают в категорию «высокий риск».
К ним относятся системы, используемые для найма сотрудников или оценки кредитоспособности людей (что может быть опасно для финтеха). В таких случаях все компании, создающие или использующие такие системы, должны предоставлять подробные отчёты о том, как работает система и какие меры принимаются для минимизации рисков для людей и обеспечения максимальной прозрачности.
Всё кажется ясным и правильным, но есть некоторые проблемы, которые регуляторы должны решить.
Закон кажется слишком общим
Одна из самых тревожных для бизнесменов и инвесторов сторон — недостаток внимания к конкретным секторам ИИ.
Например, компании, разрабатывающие и использующие системы ИИ для общих целей, могут считаться использующими искусственный интеллект для высокорискованных случаев.
Это означает, что им придётся готовить подробные отчёты, что требует времени и денег. Поскольку малый и средний бизнес не исключение, а составляет большую часть европейской экономики, со временем они могут стать менее конкурентоспособными.
И именно разница между американскими и европейскими компаниями в области ИИ вызывает серьёзные опасения: в Европе нет крупных компаний в сфере ИИ, как в США, поскольку среда развития ИИ в основном создаётся малыми и средними предприятиями и стартапами.
По данным опроса appliedAI, большинство инвесторов избегают инвестиций в стартапы, помеченные как «высокорискованные», именно из-за сложности такой классификации.
ChatGPT изменил планы ЕС
Регуляторы ЕС должны были завершить подготовку документа 19 апреля, но обсуждение различных определений систем на базе ИИ и их применений задержало окончательное оформление проекта.
Более того, технологические компании показали, что не все согласны с текущей версией документа.
Самым большим источником задержек стала разница между фундаментальными моделями и ИИ общего назначения.
Пример фундаментальных моделей ИИ — ChatGPT от OpenAI: эти системы обучаются на больших объёмах данных и могут генерировать любой вид вывода.
ИИ общего назначения включает системы, которые можно адаптировать под разные задачи и сферы.
Регуляторы ЕС хотят строго регулировать фундаментальные модели, поскольку они могут нести больше рисков и негативно влиять на жизнь людей.
Как регулируют ИИ в США и Китае
Если посмотреть, как регуляторы ЕС относятся к ИИ, бросается в глаза одна особенность: кажется, регуляторы менее склонны к сотрудничеству.
В США, например, администрация Байдена запрашивала общественные комментарии по безопасности систем вроде ChatGPT, прежде чем разрабатывать возможную нормативную базу.
В Китае правительство уже много лет регулирует ИИ и сбор данных, и его главная забота — социальная стабильность.
На сегодняшний день страна, которая кажется хорошо подготовленной в области регулирования ИИ, — это Великобритания, которая выбрала «лёгкий» подход — но известно, что Великобритания стремится стать лидером в области ИИ и финтеха.
Финтех и Закон об ИИ
Когда речь заходит о компаниях и стартапах, предоставляющих финансовые услуги, ситуация становится ещё сложнее.
Если закон останется в текущей редакции, финтех-компании должны будут соблюдать не только существующие финансовые регуляции, но и новый нормативный каркас.
Тот факт, что оценка кредитоспособности может быть признана высокорискованным случаем, — лишь пример бремени, которое ляжет на финтех-компании, мешая им быть так же гибкими, как раньше, привлекать инвестиции и оставаться конкурентоспособными.
Заключение
Как отметил Питер Сарлин, генеральный директор Silo AI, проблема не в регулировании, а в плохом регулировании.
Чрезмерная общность может навредить инновациям и всем компаниям, участвующим в производстве, распространении и использовании продуктов и услуг на базе ИИ.
Если инвесторы ЕС начнут опасаться потенциальных рисков, связанных с ярлыком «высокорискованный», это может негативно сказаться на развитии ИИ в Европейском союзе, в то время как США ищут общественные комментарии для улучшения своих технологий, а Китай уже ясно выразил свою позицию по регулированию искусственного интеллекта.
По словам Робина Рёма, соучредителя Apheris, одним из возможных сценариев является переезд стартапов в США — страну, которая, возможно, многое теряет в области блокчейна и криптовалют, но может выиграть в гонке за ИИ.
Если хотите больше узнать о финтехе и быть в курсе новостей, событий и мнений в этой сфере, подписывайтесь на рассылку FTW!
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
ИИ в Европе: Что может означать Закон об ИИ
Фотография Maico Amorim на Unsplash
Закон об ИИ всё ещё находится в стадии проекта, но инвесторы и владельцы бизнеса в Европейском союзе уже нервничают из-за возможных последствий.
Помешает ли он ЕС стать ценным конкурентом на глобальной арене?
По мнению регуляторов, — нет. Но давайте посмотрим, что происходит.
Закон об ИИ и оценка рисков
Закон об ИИ делит риски, связанные с искусственным интеллектом, на разные категории, но перед этим он ограничивает определение искусственного интеллекта, включив в него только системы на базе машинного обучения и логики.
Это не только помогает отличить системы ИИ от более простого программного обеспечения, но и способствует пониманию того, почему ЕС хочет классифицировать риски.
Различные применения ИИ делятся на неприемлемый риск, высокий риск и
низкий или минимальный риск. Практики, относящиеся к категории неприемлемого риска, считаются запрещёнными.
К таким практикам относятся:
Есть некоторые случаи использования, которые следует считать похожими на практики, включённые в запрещённые виды деятельности, и они попадают в категорию «высокий риск».
К ним относятся системы, используемые для найма сотрудников или оценки кредитоспособности людей (что может быть опасно для финтеха). В таких случаях все компании, создающие или использующие такие системы, должны предоставлять подробные отчёты о том, как работает система и какие меры принимаются для минимизации рисков для людей и обеспечения максимальной прозрачности.
Всё кажется ясным и правильным, но есть некоторые проблемы, которые регуляторы должны решить.
Закон кажется слишком общим
Одна из самых тревожных для бизнесменов и инвесторов сторон — недостаток внимания к конкретным секторам ИИ.
Например, компании, разрабатывающие и использующие системы ИИ для общих целей, могут считаться использующими искусственный интеллект для высокорискованных случаев.
Это означает, что им придётся готовить подробные отчёты, что требует времени и денег. Поскольку малый и средний бизнес не исключение, а составляет большую часть европейской экономики, со временем они могут стать менее конкурентоспособными.
И именно разница между американскими и европейскими компаниями в области ИИ вызывает серьёзные опасения: в Европе нет крупных компаний в сфере ИИ, как в США, поскольку среда развития ИИ в основном создаётся малыми и средними предприятиями и стартапами.
По данным опроса appliedAI, большинство инвесторов избегают инвестиций в стартапы, помеченные как «высокорискованные», именно из-за сложности такой классификации.
ChatGPT изменил планы ЕС
Регуляторы ЕС должны были завершить подготовку документа 19 апреля, но обсуждение различных определений систем на базе ИИ и их применений задержало окончательное оформление проекта.
Более того, технологические компании показали, что не все согласны с текущей версией документа.
Самым большим источником задержек стала разница между фундаментальными моделями и ИИ общего назначения.
Пример фундаментальных моделей ИИ — ChatGPT от OpenAI: эти системы обучаются на больших объёмах данных и могут генерировать любой вид вывода.
ИИ общего назначения включает системы, которые можно адаптировать под разные задачи и сферы.
Регуляторы ЕС хотят строго регулировать фундаментальные модели, поскольку они могут нести больше рисков и негативно влиять на жизнь людей.
Как регулируют ИИ в США и Китае
Если посмотреть, как регуляторы ЕС относятся к ИИ, бросается в глаза одна особенность: кажется, регуляторы менее склонны к сотрудничеству.
В США, например, администрация Байдена запрашивала общественные комментарии по безопасности систем вроде ChatGPT, прежде чем разрабатывать возможную нормативную базу.
В Китае правительство уже много лет регулирует ИИ и сбор данных, и его главная забота — социальная стабильность.
На сегодняшний день страна, которая кажется хорошо подготовленной в области регулирования ИИ, — это Великобритания, которая выбрала «лёгкий» подход — но известно, что Великобритания стремится стать лидером в области ИИ и финтеха.
Финтех и Закон об ИИ
Когда речь заходит о компаниях и стартапах, предоставляющих финансовые услуги, ситуация становится ещё сложнее.
Если закон останется в текущей редакции, финтех-компании должны будут соблюдать не только существующие финансовые регуляции, но и новый нормативный каркас.
Тот факт, что оценка кредитоспособности может быть признана высокорискованным случаем, — лишь пример бремени, которое ляжет на финтех-компании, мешая им быть так же гибкими, как раньше, привлекать инвестиции и оставаться конкурентоспособными.
Заключение
Как отметил Питер Сарлин, генеральный директор Silo AI, проблема не в регулировании, а в плохом регулировании.
Чрезмерная общность может навредить инновациям и всем компаниям, участвующим в производстве, распространении и использовании продуктов и услуг на базе ИИ.
Если инвесторы ЕС начнут опасаться потенциальных рисков, связанных с ярлыком «высокорискованный», это может негативно сказаться на развитии ИИ в Европейском союзе, в то время как США ищут общественные комментарии для улучшения своих технологий, а Китай уже ясно выразил свою позицию по регулированию искусственного интеллекта.
По словам Робина Рёма, соучредителя Apheris, одним из возможных сценариев является переезд стартапов в США — страну, которая, возможно, многое теряет в области блокчейна и криптовалют, но может выиграть в гонке за ИИ.
Если хотите больше узнать о финтехе и быть в курсе новостей, событий и мнений в этой сфере, подписывайтесь на рассылку FTW!