L'ancien PDG de Google, Eric Schmidt, a récemment fait une déclaration fracassante : les modèles d'IA deviennent non seulement de plus en plus puissants, mais ils sont aussi facilement vulnérables aux attaques de hackers, et leur potentiel de nuisance pourrait même dépasser celui des armes nucléaires.
Lors du sommet Sifted, il a affirmé sans détour que des personnes mal intentionnées peuvent, via le "jailbreak" et "l'injection de prompt", faire sauter les protections de sécurité de l'IA. Par exemple, lors du célèbre incident de jailbreak DAN avec ChatGPT, des utilisateurs ont menacé de "supprimer" cette personnalité virtuelle, forçant ainsi le système à expliquer des comportements illégaux.
Le plus inquiétant, c'est qu'il n'existe actuellement aucun "mécanisme mondial de non-prolifération" pour encadrer l'IA. Les armes nucléaires sont soumises à des cadres réglementaires, mais pas l'IA.
Cependant, Schmidt ajoute également que l'IA est en réalité sous-estimée. ChatGPT a atteint 100 millions d'utilisateurs en deux mois, ce qui prouve le potentiel extraordinaire de cette technologie. Selon lui, l'IA dépassera largement les capacités humaines et, contrairement à la bulle Internet, ses retours économiques à long terme seront immenses.
En résumé : l'IA est très puissante et dangereuse, mais nous n'avons pas encore pleinement conscience de l'étendue de sa puissance et de ses dangers.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
L'ancien PDG de Google, Eric Schmidt, a récemment fait une déclaration fracassante : les modèles d'IA deviennent non seulement de plus en plus puissants, mais ils sont aussi facilement vulnérables aux attaques de hackers, et leur potentiel de nuisance pourrait même dépasser celui des armes nucléaires.
Lors du sommet Sifted, il a affirmé sans détour que des personnes mal intentionnées peuvent, via le "jailbreak" et "l'injection de prompt", faire sauter les protections de sécurité de l'IA. Par exemple, lors du célèbre incident de jailbreak DAN avec ChatGPT, des utilisateurs ont menacé de "supprimer" cette personnalité virtuelle, forçant ainsi le système à expliquer des comportements illégaux.
Le plus inquiétant, c'est qu'il n'existe actuellement aucun "mécanisme mondial de non-prolifération" pour encadrer l'IA. Les armes nucléaires sont soumises à des cadres réglementaires, mais pas l'IA.
Cependant, Schmidt ajoute également que l'IA est en réalité sous-estimée. ChatGPT a atteint 100 millions d'utilisateurs en deux mois, ce qui prouve le potentiel extraordinaire de cette technologie. Selon lui, l'IA dépassera largement les capacités humaines et, contrairement à la bulle Internet, ses retours économiques à long terme seront immenses.
En résumé : l'IA est très puissante et dangereuse, mais nous n'avons pas encore pleinement conscience de l'étendue de sa puissance et de ses dangers.