Le ciel s'effondre, mes chéris ! Ces deux derniers jours, j'étais débordé, à peine le temps de respirer pour aller voir le classement de @SentientAGI, au départ j'étais tranquillement autour de la 80ème place, mais quand j'ai ouvert, eh bien, je n'y suis plus du tout !



Cette sensation de disparition soudaine est vraiment trop familière, je l'ai déjà rencontrée plusieurs fois auparavant, mon état d'esprit est presque devenu confus.

Alors, j'ai décidé de me concentrer et de bien examiner ce projet. J'ai également révisé les parties que je n'avais pas bien comprises auparavant. En conséquence, lorsque je suis tombé sur leur étude OML, cela a immédiatement attiré mon attention. N'est-ce pas justement la solution au grand problème de la distribution des modèles d'IA actuellement ?

■Pensez-y, nous avons deux situations où nous utilisons l'IA :

Soit ChatGPT, soit Claude, qui ne peuvent être utilisés que via leurs API, il est impossible de traiter des données privées sur son propre ordinateur, et on ne sait même pas comment ils fonctionnent.

Soit c'est quelque chose comme Llama 2, qui est open source, bien qu'il puisse être téléchargé et exécuté localement, les développeurs ne peuvent pas contrôler les modèles une fois qu'ils sont diffusés, il est impossible de poursuivre ceux qui les copient pour les vendre, au final, si l'on ne gagne pas d'argent, il n'y a pas de motivation pour continuer.

■Et ce qu'ils font avec OML, c'est essayer de résoudre ce paradoxe :

C'est "Tout le monde peut télécharger le modèle, mais il ne peut pas être utilisé à la légère". Vous pouvez télécharger le modèle sur votre propre ordinateur, mais pour le lancer et l'utiliser, vous devez avoir une autorisation cryptographique fournie par le développeur. Il est impossible de démonter le modèle pour copier la formule ou de falsifier l'autorisation.

■Ils n'ont pas seulement trouvé une solution, mais ils ont aussi clarifié les choses :

Pour la première fois, il a été clairement dit qu'il fallait se défendre contre les « modèles copiés » et les « autorisations falsifiées », en calculant si cette affaire pouvait être réalisée (par exemple, dans quelles situations on peut garantir une sécurité à 100 %), et plusieurs méthodes de mise en œuvre ont été proposées, comme brouiller le code du modèle et utiliser un verrou cryptographique pour les parties clés.

■Ce qui est plus fiable, c'est qu'ils ont vraiment créé une version opérationnelle OML 1.0, les deux conceptions sont très intéressantes :

Un est de donner au modèle une "empreinte digitale exclusive" peu importe comment il est modifié, on peut toujours savoir à qui il appartient et tenir quelqu'un responsable.

L'autre est un modèle où l'on utilise des dépôts de cryptomonnaie, des pénalités en cas de violation, et l'on se retrouve sur une liste noire, ce qui signifie que personne ne donnera plus d'autorisation.

Je pense que cette recherche est très concrète, les développeurs peuvent ouvrir leur code en toute confiance tout en gagnant de l'argent, et nous pouvons également utiliser le modèle localement sans nous soucier du piratage!
#SentientAGI
Voir l'original
post-image
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)