人工知能 | Operaブラウザが主要なAIモデルをローカルダウンロードおよびオフライン使用のために統合

robot
概要作成中

大手ブラウザ企業のOperaは、約50のモデルファミリーから150のローカルLLM (Large Language Model)のバリアントに対する実験的なサポートをOpera Oneブラウザの開発者ストリームに追加すると発表しました。

LLMは、OpenAIによって開発されたGPT (Generative Pre-trained Transformer)などのモデルであり、大量のテキストデータを用いて訓練された高度な人工知能システムです。これらは、テキスト生成、翻訳、要約などのさまざまな自然言語処理タスクに使用されます。

オペラによると、これは主要なブラウザから組み込み機能を通じてローカルLLMに簡単にアクセスし、管理できる初めての機会です。ローカルAIモデルは、オペラのオンラインAria AIサービスへの補完的な追加です。サポートされているローカルLLMには、以下が含まれます:

* メタのラマ

  • ビクーニャ *ジェンマGoogleから
  • Mistral AIのMixtral

*「このようにローカルLLMを導入することで、Operaは急速に進化するローカルAI分野において、体験やノウハウを構築する方法を探り始めることができます。」*とOperaのブラウザおよびゲーム担当EVP、クリスティアン・コロンドラは述べました。

ローカル大規模言語モデルを使用することは、ユーザーのデータがデバイス上にローカルで保持され、情報をサーバーに送信する必要なく生成AIを利用できることを意味すると、オペラは述べました。

人工知能の議論において浮上している問題の中には、データプライバシーに関するものがあり、Fetch.ai、SingularityNET (SNET)、そしてOcean Protocolの3つの主要な分散型AIプロジェクトが合併し、分散型AIエコシステムを構築することを決定しました。

「本日より、Opera One Developerユーザーは、自分の入力を処理するために使用したいモデルを選択する機会を得ています。モデルをテストするには、最新のOpera Developerにアップグレードし、新機能を有効にするためのいくつかの手順に従う必要があります。」 とOperaは述べました。

「ローカルLLMを選択すると、それがユーザーのマシンにダウンロードされます。ローカルLLMは、通常、バリアントごとに2-10 GBのローカルストレージスペースを必要とし、ユーザーがAIとの新しいチャットを開始するか、Ariaを再度オンにするまで、OperaのネイティブブラウザAIであるAriaの代わりに使用されます。」

最新の投稿とアップデートについてはTwitterでフォローしてください

MAJOR0.93%
STREAM-0.42%
GPT-9.19%
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
  • ピン