ШТУЧНИЙ ІНТЕЛЕКТ | Браузер Opera інтегрує великі моделі ШІ для локального завантаження та офлайн-використання

robot
Генерація анотацій у процесі

Ведуча компанія браузерів, Opera, повідомляє, що вона додає експериментальну підтримку 150 локальних LLM (Велика мовна модель) варіантів з приблизно 50 сімей моделей до свого браузера Opera One у розробницькому потоці.

LLMs такі як GPT (Generative Pre-trained Transformer) моделі, розроблені OpenAI, є просунутими системами штучного інтелекту, навченої на великій кількості текстових даних для розуміння та генерації тексту, подібного до людського. Вони використовуються для різних завдань обробки природної мови, включаючи генерацію тексту, переклад та узагальнення.

Згідно з Opera, це вперше, коли локальні LLM можуть бути легко доступні та керовані з основного браузера через вбудовану функцію. Локальні AI моделі є безкоштовним доповненням до онлайн-сервісу Aria AI від Opera. Серед підтримуваних локальних LLM:

! * Лама з Meta

  • Вікунья
  • Джемма від Google
  • Mixtral від Mistral AI

“Представлення локальних LLM у такий спосіб дозволяє Opera почати досліджувати способи створення досвіду та знань у швидко зростаючому місцевому AI-просторі,” сказав Кристіан Колондра, EVP Браузери та Ігри в Opera.

Використання локальних великих мовних моделей означає, що дані користувачів зберігаються локально на їхньому пристрої, що дозволяє їм використовувати генеративний ШІ без необхідності надсилати інформацію на сервер, повідомила компанія Opera.

Серед питань, що виникають у дискурсі про штучний інтелект, є проблеми конфіденційності даних, що призвело до того, що три провідні децентралізовані AI проекти; Fetch.ai, SingularityNET (SNET) і Ocean Protocol вирішили об’єднатися для створення децентралізованої AI екосистеми.

“Станом на сьогодні, користувачі Opera One Developer отримують можливість вибрати модель, з якою вони хочуть обробляти свої дані. Щоб протестувати моделі, їм потрібно оновити до найновішої версії Opera Developer та виконати кілька кроків для активації нової функції,” - сказала Opera.

“Вибір локального LLM завантажить його на їхній комп’ютер. Локальний LLM, який зазвичай вимагає 2-10 ГБ локального дискового простору на варіант, буде використовуватися замість Aria, рідного браузерного ШІ Opera, поки користувач не почне новий чат з ШІ або не ввімкне Aria знову.”

Слідкуйте за нами в Twitter для останніх постів та оновлень

MAJOR0,85%
STREAM0,55%
GPT-24,77%
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити