L'un des pères fondateurs de l'intelligence artificielle moderne, Yann LeCun, fait à nouveau parler de lui. Ce gars a littéralement inventé des éléments clés de ce qui fait fonctionner l'IA aujourd'hui. Mais voici le rebondissement - il pense que toute l'industrie a poursuivi le mauvais lapin dans le trou.
Son problème ? Les grands modèles linguistiques. Ouais, ces trucs dont tout le monde est obsédé en ce moment. LeCun dit fondamentalement que le domaine a été séduit par les LLM et a perdu de vue ce qui compte réellement pour construire une véritable intelligence machine. Une opinion assez audacieuse compte tenu de l'argent et du battage médiatique qui affluent dans cet espace.
Ce n'est pas tous les jours qu'on voit quelqu'un avec ses références jeter un froid sur la tendance la plus chaude de la technologie. Cela vous fait vous demander si nous manquons tous quelque chose de fondamental en courant pour construire des modèles de langage de plus en plus grands.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
13 J'aime
Récompense
13
4
Reposter
Partager
Commentaire
0/400
UnruggableChad
· Il y a 11h
Lecun a recommencé à faire du coping, mais pour être honnête, je suis plutôt d'accord avec lui, les LLM sont effectivement un peu trop surestimés en ce moment. Mais comme l'argent a déjà été investi, qui oserait s'opposer ?
Voir l'originalRépondre0
MeaninglessGwei
· Il y a 11h
lecun est de retour pour faire le show, je pense depuis longtemps que le piège des grands modèles est un peu excessif... Même les grands personnages ne peuvent plus le supporter et nous continuons à nous battre pour le volume de paramètres, ça me fait rire.
Voir l'originalRépondre0
FloorSweeper
· Il y a 11h
lmao lecun dit enfin ce que pense le smart money... tout le monde a accumulé des sacs llm tandis que le véritable alpha saignait ailleurs ngl
Voir l'originalRépondre0
SolidityNewbie
· Il y a 12h
Lecun ose vraiment dire ça, mais en y repensant, ce gars-là a inventé les réseaux de convolution, il a effectivement de la confiance pour s'attaquer à cette vague de LLM.
L'un des pères fondateurs de l'intelligence artificielle moderne, Yann LeCun, fait à nouveau parler de lui. Ce gars a littéralement inventé des éléments clés de ce qui fait fonctionner l'IA aujourd'hui. Mais voici le rebondissement - il pense que toute l'industrie a poursuivi le mauvais lapin dans le trou.
Son problème ? Les grands modèles linguistiques. Ouais, ces trucs dont tout le monde est obsédé en ce moment. LeCun dit fondamentalement que le domaine a été séduit par les LLM et a perdu de vue ce qui compte réellement pour construire une véritable intelligence machine. Une opinion assez audacieuse compte tenu de l'argent et du battage médiatique qui affluent dans cet espace.
Ce n'est pas tous les jours qu'on voit quelqu'un avec ses références jeter un froid sur la tendance la plus chaude de la technologie. Cela vous fait vous demander si nous manquons tous quelque chose de fondamental en courant pour construire des modèles de langage de plus en plus grands.