Ведущая компания по производству браузеров, Opera, заявила, что добавляет экспериментальную поддержку 150 локальных LLM (Large Language Model) вариантов из примерно 50 семейств моделей в свой браузер Opera One в потоке разработчиков.
LLM, такие как GPT (Generative Pre-trained Transformer) модели, разработанные OpenAI, являются продвинутыми системами искусственного интеллекта, обученными на больших объемах текстовых данных для понимания и генерации текстов, похожих на человеческие. Они используются для различных задач обработки естественного языка, включая генерацию текста, перевод и суммирование.
Согласно Opera, это первый раз, когда локальные LLM можно легко получить доступ и управлять ими через встроенную функцию в крупном браузере. Локальные модели ИИ являются бесплатным дополнением к онлайн-сервису Aria AI от Opera. Среди поддерживаемых локальных LLM находятся:
! * Лама из Меты
Викуна
Джемма из Google
Mixtral от Mistral AI
“Представление локальных LLM таким образом позволяет Opera начать исследовать способы создания опытов и знаний в быстро развивающемся локальном AI-пространстве,” сказал Кристян Колондра, EVP по браузерам и играм в Opera.
Использование локальных больших языковых моделей означает, что данные пользователей хранятся локально на их устройстве, что позволяет им использовать генеративный ИИ без необходимости отправлять информацию на сервер, сказал Opera.
Среди проблем, возникающих в дискурсе об искусственном интеллекте, находятся вопросы конфиденциальности данных, что привело к тому, что три ведущих децентрализованных AI проекта; Fetch.ai, SingularityNET (SNET) и Ocean Protocol решили объединиться для создания децентрализованной экосистемы искусственного интеллекта.
«На сегодняшний день пользователи Opera One Developer получают возможность выбирать модель, с помощью которой они хотят обрабатывать свои входные данные. Чтобы протестировать модели, им необходимо обновиться до новейшей версии Opera Developer и выполнить несколько шагов для активации новой функции», - заявила Opera.
“Выбор локальной LLM затем загрузит ее на их машину. Локальная LLM, которая обычно требует от 2 до 10 ГБ локального пространства для хранения на каждый вариант, будет использоваться вместо Aria, встроенного ИИ браузера Opera, до тех пор, пока пользователь не начнет новый чат с ИИ или не включит Aria снова.”
Подписывайтесь на нас в Twitter, чтобы получать последние публикации и обновления
Содержание носит исключительно справочный характер и не является предложением или офертой. Консультации по инвестициям, налогообложению или юридическим вопросам не предоставляются. Более подробную информацию о рисках см. в разделе «Дисклеймер».
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ | Браузер Opera интегрирует основные модели ИИ для локальной загрузки и офлайн-использования
Ведущая компания по производству браузеров, Opera, заявила, что добавляет экспериментальную поддержку 150 локальных LLM (Large Language Model) вариантов из примерно 50 семейств моделей в свой браузер Opera One в потоке разработчиков.
LLM, такие как GPT (Generative Pre-trained Transformer) модели, разработанные OpenAI, являются продвинутыми системами искусственного интеллекта, обученными на больших объемах текстовых данных для понимания и генерации текстов, похожих на человеческие. Они используются для различных задач обработки естественного языка, включая генерацию текста, перевод и суммирование.
Согласно Opera, это первый раз, когда локальные LLM можно легко получить доступ и управлять ими через встроенную функцию в крупном браузере. Локальные модели ИИ являются бесплатным дополнением к онлайн-сервису Aria AI от Opera. Среди поддерживаемых локальных LLM находятся:
! * Лама из Меты
“Представление локальных LLM таким образом позволяет Opera начать исследовать способы создания опытов и знаний в быстро развивающемся локальном AI-пространстве,” сказал Кристян Колондра, EVP по браузерам и играм в Opera.
Использование локальных больших языковых моделей означает, что данные пользователей хранятся локально на их устройстве, что позволяет им использовать генеративный ИИ без необходимости отправлять информацию на сервер, сказал Opera.
Среди проблем, возникающих в дискурсе об искусственном интеллекте, находятся вопросы конфиденциальности данных, что привело к тому, что три ведущих децентрализованных AI проекта; Fetch.ai, SingularityNET (SNET) и Ocean Protocol решили объединиться для создания децентрализованной экосистемы искусственного интеллекта.
«На сегодняшний день пользователи Opera One Developer получают возможность выбирать модель, с помощью которой они хотят обрабатывать свои входные данные. Чтобы протестировать модели, им необходимо обновиться до новейшей версии Opera Developer и выполнить несколько шагов для активации новой функции», - заявила Opera.
“Выбор локальной LLM затем загрузит ее на их машину. Локальная LLM, которая обычно требует от 2 до 10 ГБ локального пространства для хранения на каждый вариант, будет использоваться вместо Aria, встроенного ИИ браузера Opera, до тех пор, пока пользователь не начнет новый чат с ИИ или не включит Aria снова.”
Подписывайтесь на нас в Twitter, чтобы получать последние публикации и обновления
________________________________________
________________________________________