Протестующие собрались у офисов OpenAI, Anthropic и xAI по поводу проблем в отрасли

Decrypt

Вкратце

  • 200 протестующих прошли от Anthropic к офисам OpenAI и xAI в Сан-Франциско.
  • Активисты призвали компании, занимающиеся ИИ, приостановить разработку новых передовых моделей ИИ.
  • Организатор Майкл Траззи ранее устраивал многонедельную голодовку у здания Google DeepMind.

Протестующие вышли на улицы Сан-Франциско в субботу, остановившись у офисов Anthropic, OpenAI и xAI, чтобы потребовать условной паузы в разработке всё более мощных искусственных интеллектов. По словам основателя Stop the AI Race и документалиста Майкла Траззи, в демонстрации приняли участие около 200 человек. Среди участников были исследователи, ученые и представители правозащитных групп, таких как Machine Intelligence Research Institute, PauseAI, QuitGPT, StopAI и Evitable. «Много людей заботятся об этом риске, связанном с передовыми системами ИИ», — сказал Траззи в интервью Decrypt. «То, что все идут вместе, показывает, что люди не одиноки в своих мыслях по этому поводу. Есть много тех, кто заботится об этом».**

Марш начался в полдень у офисов Anthropic, затем переместился к OpenAI и далее к xAI. На каждом этапе активисты и спикеры из участвующих организаций обращались к протестующим. По словам Траззи, цель протеста — подтолкнуть компании по ИИ к согласованию условной паузы в создании более мощных моделей и заключению соглашений с разработчиками ИИ из других стран о том же. «Если бы Китай и США договорились прекратить создание более опасных моделей, они могли бы сосредоточиться на улучшении систем для нас, например, медицинского ИИ», — отметил он. «Все бы выиграли». Предложение Stop the AI Race предполагает, что компании прекратят разработку новых передовых моделей и переключат работу на безопасность, если другие крупные лаборатории «достоверно сделают то же самое», что делает протесты у офисов ИИ более важными, отметил Траззи.

Постоянное сопротивление Этот протест — последний в серии попыток нарушить развитие ИИ. В марте 2023 года Институт будущего жизни опубликовал открытое письмо с требованием ввести мораторий на дальнейшее улучшение ведущего инструмента ИИ после публичного запуска ChatGPT за год до этого. Подписавшиеся включали основателя xAI Илона Маска, соучредителя Apple Стива Возняка и соучредителя Ripple Криса Ларсена. Спустя год после первой публикации, открытое письмо «Поставьте на паузу крупные эксперименты с ИИ» собрало более 33 000 подписей. В сентябре Траззи устроил недельную голодовку у офисов Google DeepMind в Лондоне, а Гвидо Рейхштадтер провел параллельную голодовку у офисов Anthropic в Сан-Франциско. Правительственные чиновники и сторонники продолжения развития ИИ утверждают, что замедление исследований в США может дать преимущество зарубежным конкурентам. На прошлой неделе администрация Трампа опубликовала свой каркас по ИИ для установления национальных стандартов законов, регулирующих развитие ИИ. Белый дом охарактеризовал это как обязательство «выиграть гонку за ИИ». «Даже если вы в Китае или любой другой стране мира, никто не хочет систем, которыми нельзя управлять», — сказал Траззи. «Поскольку мы участвуем в гонке между компаниями и странами за максимально быстрое создание систем, мы делаем сокращения и обходы правил в области безопасности. В гонке всегда есть победители. Что у нас есть — это система, которую мы не можем контролировать, и поэтому это называется гонкой на самоуничтожение». Но даже если разработчики ИИ согласились бы на паузу, проверить это будет не так просто. Траззи предложил один из способов — ограничить вычислительные ресурсы, используемые для обучения новых моделей.

«Если ограничить, сколько вычислительной мощности компания может использовать для создания этих систем, то вы практически ограничите разработку новых моделей», — сказал он. После протеста в Сан-Франциско Траззи заявил, что возможны дополнительные демонстрации в других местах, где работают крупные компании по ИИ. «Мы хотим появляться там, где работают сотрудники», — сказал он. «Мы хотим с ними поговорить, и чтобы они говорили со своим руководством и инициировали изменения изнутри», — добавил он, отметив, что информаторы будут иметь определенную силу, потому что «они те, кто создает это». OpenAI, Anthropic и xAI не сразу ответили на запросы Decrypt о комментариях.

Посмотреть Оригинал
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
Нет комментариев