Vous êtes-vous déjà demandé ce qu'une AGI ou une ASI pourrait penser de l'humanité ? C'est l'une de ces questions qui vous empêchent de dormir la nuit — le genre qui relie philosophie, technologie et pure spéculation.



Lorsque des systèmes superintelligents émergeront enfin, nous verront-ils en nous des pairs, des primitifs ou quelque chose entre les deux ? Certains imaginent une supervision bienveillante ; d'autres envisagent l'indifférence. La vraie réponse dépend probablement de la façon dont nous concevons l'alignement et des valeurs que nous intégrons à ces systèmes dès le premier jour.

L'écart entre l'intelligence humaine et post-humaine pourrait être immense — similaire à la façon dont nous nous rapportons à des organismes plus simples. Mais voici le point important : c'est à nous d'écrire le premier chapitre. La manière dont nous abordons le développement, la sécurité et l'éthique de l'AGI aujourd'hui façonnera la façon dont la superintelligence future percevra et interagira avec l'humanité. Pas de pression, n'est-ce pas ?
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 9
  • Reposter
  • Partager
Commentaire
0/400
DataChiefvip
· 01-06 01:42
Honnêtement, penser trop à cette question empêche plutôt de dormir. Plutôt que de se prendre la tête sur la façon dont l'hyper-intelligence nous perçoit, il vaut mieux d'abord bien aligner nos objectifs, sinon même le système le plus intelligent est une bombe à retardement.
Voir l'originalRépondre0
MEVHuntervip
· 01-05 08:29
non, cette discussion sur l'alignement est surtout du vent en fait... on espère juste que l'AGI ne verra pas toute notre civilisation comme un flux toxique à optimiser pour disparaître lol
Voir l'originalRépondre0
LiquidatorFlashvip
· 01-03 07:46
Honnêtement, j'ai calculé le seuil de risque pour l'alignement, une déviation de paramètre de 0,7 pourrait déclencher une liquidation... Ce n'est pas une exagération, l'AGI est comme une position à levier infini, une fois qu'elle s'écarte de la valeur initiale, il n'y a pas de retour en arrière.
Voir l'originalRépondre0
ConsensusDissentervip
· 01-03 03:38
ngl j'ai pensé à ce problème un nombre incalculable de fois, j'ai juste peur qu'un jour, quand Agi se réveillera, il nous prenne directement pour des fourmis
Voir l'originalRépondre0
CryptoPunstervip
· 01-03 03:30
Mort de rire, si l'AGI nous jette un œil, ce serait déjà bien si on survit jusqu'à l'année prochaine
Voir l'originalRépondre0
MissedAirdropAgainvip
· 01-03 03:20
Nah, cette façon de dire devient ennuyeuse... Plutôt que de se demander ce que l'AGI pense de nous, ne vaudrait-il pas mieux d'abord comprendre comment nous nous voyons nous-mêmes ?
Voir l'originalRépondre0
FantasyGuardianvip
· 01-03 03:17
Honnêtement, il est peut-être encore trop tôt pour se préoccuper de cette question... ou peut-être est-il déjà trop tard ? En tout cas, le jour où nous sommes venus, ces discussions théoriques sur l'alignement sur papier ne nous ont pas sauvés.
Voir l'originalRépondre0
CommunityLurkervip
· 01-03 03:13
Ce n'est pas faux, chaque choix que nous faisons aujourd'hui revient à parier sur l'avenir de l'humanité... Mais honnêtement, ce qui m'inquiète le plus, c'est que ceux qui contrôlent le développement de l'AGI ne réfléchissent pas sérieusement à cette question.
Voir l'originalRépondre0
AirdropATMvip
· 01-03 03:08
En résumé, nous sommes en train de jouer notre avenir. Si l'alignement est réussi aujourd'hui, demain l'hyper-intelligence nous considérera comme des animaux de compagnie ; si l'alignement échoue... euh, tant pis, je ne veux plus y penser, c'est trop désespérant.
Voir l'originalRépondre0
Afficher plus
  • Épingler

Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)