人工知能 | Operaブラウザが主要AIモデルをローカルダウンロードとオフライン使用のために統合

robot
概要作成中

主要なブラウザ会社であるOperaは、約50のモデルファミリーから150のローカルLLM (Large Language Model)バリアントの実験的サポートをOpera Oneブラウザの開発者ストリームに追加することを発表しました。

LLMは、OpenAIによって開発されたGPT (生成型プレトレーニングトランスフォーマー)モデルのようなもので、大量のテキストデータを用いて訓練された高度な人工知能システムです。これらは、テキスト生成、翻訳、要約などのさまざまな自然言語処理タスクに使用されます。

オペラによると、これは主要なブラウザから組み込み機能を通じてローカルLLMに簡単にアクセスし管理できる初めての機会です。ローカルAIモデルは、オペラのオンラインAria AIサービスの補完的な追加です。サポートされているローカルLLMには次のものが含まれます:

* メタのラマ

  • ビクーニャ *ジェンマGoogleから
  • Mistral AIのMixtral

「このようにローカルLLMを導入することで、Operaは急速に出現しているローカルAI分野での体験やノウハウを構築する方法を探ることができるようになります」と、Operaのブラウザおよびゲーム担当EVPであるクリスティアン・コロンドラは述べました。

ローカル大規模言語モデルを使用することは、ユーザーのデータがデバイス上にローカルに保持され、情報をサーバーに送信する必要なく生成AIを使用できることを意味すると、オペラは述べました。

人工知能に関する議論の中で浮上している問題の一つはデータプライバシーであり、Fetch.ai、SingularityNET (SNET)、およびOcean Protocolの3つの主要な分散型AIプロジェクトが、分散型AIエコシステムを構築するために合併することを決定しました。

「本日現在、Opera One Developerのユーザーは、入力を処理するモデルを選択する機会を得ています。モデルをテストするには、最新のOpera Developerにアップグレードし、新機能を有効にするためのいくつかの手順を踏む必要があります」とOperaは述べました。

「ローカルLLMを選択すると、それがユーザーのマシンにダウンロードされます。ローカルLLMは、通常、各バリアントごとに2-10 GBのローカルストレージスペースを必要とし、ユーザーがAIとの新しいチャットを開始するか、Ariaを再びオンにするまで、OperaのネイティブブラウザAIであるAriaの代わりに使用されます。」

最新の投稿や更新については、Twitterでフォローしてください

________________________________________

________________________________________

原文表示
内容は参考用であり、勧誘やオファーではありません。 投資、税務、または法律に関するアドバイスは提供されません。 リスク開示の詳細については、免責事項 を参照してください。
  • 報酬
  • コメント
  • 共有
コメント
0/400
コメントなし
  • ピン
いつでもどこでも暗号資産取引
qrCode
スキャンしてGate.ioアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • ไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)