La société de navigation en tête, Opera, déclare qu’elle ajoute un support expérimental pour 150 LLM locaux (Large Language Model) variantes provenant d’environ 50 familles de modèles à son navigateur Opera One dans le flux développeur.
Les LLMs tels que GPT (Generative Pre-trained Transformer) modèles développés par OpenAI, sont des systèmes d’intelligence artificielle avancés entraînés sur de grandes quantités de données textuelles pour comprendre et générer un texte semblable à celui des humains. Ils sont utilisés pour diverses tâches de traitement du langage naturel, y compris la génération de texte, la traduction et la synthèse.
Selon Opera, c’est la première fois que les LLM locaux peuvent être facilement accessibles et gérés depuis un navigateur majeur grâce à une fonctionnalité intégrée. Les modèles d’IA locaux sont un ajout complémentaire au service Aria AI en ligne d’Opera. Parmi les LLM locaux pris en charge, on trouve :
* Llama de Meta
Vicuna
Gemma de Google
Mixtral de Mistral AI
« Introduire les LLM locaux de cette manière permet à Opera de commencer à explorer des moyens de créer des expériences et de savoir-faire dans le domaine de l’IA locale en pleine émergence », a déclaré Krystian Kolondra, EVP Navigateurs et Jeux chez Opera.
L’utilisation de modèles de langage locaux signifie que les données des utilisateurs sont conservées localement sur leur appareil, leur permettant d’utiliser l’IA générative sans avoir besoin d’envoyer des informations à un serveur, a déclaré Opera.
Parmi les problèmes émergents dans le discours sur l’intelligence artificielle, la confidentialité des données est une préoccupation, ce qui a conduit trois projets d’IA décentralisés de premier plan ; Fetch.ai, SingularityNET (SNET) et Ocean Protocol à décider de fusionner pour créer un écosystème d’IA décentralisé.
« À partir d’aujourd’hui, les utilisateurs d’Opera One Developer ont la possibilité de sélectionner le modèle qu’ils souhaitent utiliser pour traiter leur saisie. Pour tester les modèles, ils doivent mettre à jour vers la dernière version d’Opera Developer et suivre plusieurs étapes pour activer la nouvelle fonctionnalité », a déclaré Opera.
“Choisir un LLM local le téléchargera alors sur leur machine. Le LLM local, qui nécessite généralement entre 2 et 10 Go d’espace de stockage local par variante, sera ensuite utilisé à la place d’Aria, l’IA native du navigateur Opera, jusqu’à ce qu’un utilisateur commence une nouvelle conversation avec l’IA ou réactive Aria.”
Suivez-nous sur Twitter pour les derniers posts et mises à jour
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
INTELLIGENCE ARTIFICIELLE | Le navigateur Opera intègre des modèles d'IA majeurs pour le téléchargement local et une utilisation hors ligne
La société de navigation en tête, Opera, déclare qu’elle ajoute un support expérimental pour 150 LLM locaux (Large Language Model) variantes provenant d’environ 50 familles de modèles à son navigateur Opera One dans le flux développeur.
Les LLMs tels que GPT (Generative Pre-trained Transformer) modèles développés par OpenAI, sont des systèmes d’intelligence artificielle avancés entraînés sur de grandes quantités de données textuelles pour comprendre et générer un texte semblable à celui des humains. Ils sont utilisés pour diverses tâches de traitement du langage naturel, y compris la génération de texte, la traduction et la synthèse.
Selon Opera, c’est la première fois que les LLM locaux peuvent être facilement accessibles et gérés depuis un navigateur majeur grâce à une fonctionnalité intégrée. Les modèles d’IA locaux sont un ajout complémentaire au service Aria AI en ligne d’Opera. Parmi les LLM locaux pris en charge, on trouve :
« Introduire les LLM locaux de cette manière permet à Opera de commencer à explorer des moyens de créer des expériences et de savoir-faire dans le domaine de l’IA locale en pleine émergence », a déclaré Krystian Kolondra, EVP Navigateurs et Jeux chez Opera.
L’utilisation de modèles de langage locaux signifie que les données des utilisateurs sont conservées localement sur leur appareil, leur permettant d’utiliser l’IA générative sans avoir besoin d’envoyer des informations à un serveur, a déclaré Opera.
Parmi les problèmes émergents dans le discours sur l’intelligence artificielle, la confidentialité des données est une préoccupation, ce qui a conduit trois projets d’IA décentralisés de premier plan ; Fetch.ai, SingularityNET (SNET) et Ocean Protocol à décider de fusionner pour créer un écosystème d’IA décentralisé.
« À partir d’aujourd’hui, les utilisateurs d’Opera One Developer ont la possibilité de sélectionner le modèle qu’ils souhaitent utiliser pour traiter leur saisie. Pour tester les modèles, ils doivent mettre à jour vers la dernière version d’Opera Developer et suivre plusieurs étapes pour activer la nouvelle fonctionnalité », a déclaré Opera.
“Choisir un LLM local le téléchargera alors sur leur machine. Le LLM local, qui nécessite généralement entre 2 et 10 Go d’espace de stockage local par variante, sera ensuite utilisé à la place d’Aria, l’IA native du navigateur Opera, jusqu’à ce qu’un utilisateur commence une nouvelle conversation avec l’IA ou réactive Aria.”
Suivez-nous sur Twitter pour les derniers posts et mises à jour