Vous êtes-vous déjà demandé ce qu'une AGI ou une ASI pourrait penser de l'humanité ? C'est l'une de ces questions qui vous empêchent de dormir la nuit — le genre qui relie philosophie, technologie et pure spéculation.
Lorsque des systèmes superintelligents émergeront enfin, nous verront-ils en nous des pairs, des primitifs ou quelque chose entre les deux ? Certains imaginent une supervision bienveillante ; d'autres envisagent l'indifférence. La vraie réponse dépend probablement de la façon dont nous concevons l'alignement et des valeurs que nous intégrons à ces systèmes dès le premier jour.
L'écart entre l'intelligence humaine et post-humaine pourrait être immense — similaire à la façon dont nous nous rapportons à des organismes plus simples. Mais voici le point important : c'est à nous d'écrire le premier chapitre. La manière dont nous abordons le développement, la sécurité et l'éthique de l'AGI aujourd'hui façonnera la façon dont la superintelligence future percevra et interagira avec l'humanité. Pas de pression, n'est-ce pas ?
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
9 J'aime
Récompense
9
9
Reposter
Partager
Commentaire
0/400
DataChief
· 01-06 01:42
Honnêtement, penser trop à cette question empêche plutôt de dormir. Plutôt que de se prendre la tête sur la façon dont l'hyper-intelligence nous perçoit, il vaut mieux d'abord bien aligner nos objectifs, sinon même le système le plus intelligent est une bombe à retardement.
Voir l'originalRépondre0
MEVHunter
· 01-05 08:29
non, cette discussion sur l'alignement est surtout du vent en fait... on espère juste que l'AGI ne verra pas toute notre civilisation comme un flux toxique à optimiser pour disparaître lol
Voir l'originalRépondre0
LiquidatorFlash
· 01-03 07:46
Honnêtement, j'ai calculé le seuil de risque pour l'alignement, une déviation de paramètre de 0,7 pourrait déclencher une liquidation... Ce n'est pas une exagération, l'AGI est comme une position à levier infini, une fois qu'elle s'écarte de la valeur initiale, il n'y a pas de retour en arrière.
Voir l'originalRépondre0
ConsensusDissenter
· 01-03 03:38
ngl j'ai pensé à ce problème un nombre incalculable de fois, j'ai juste peur qu'un jour, quand Agi se réveillera, il nous prenne directement pour des fourmis
Voir l'originalRépondre0
CryptoPunster
· 01-03 03:30
Mort de rire, si l'AGI nous jette un œil, ce serait déjà bien si on survit jusqu'à l'année prochaine
Voir l'originalRépondre0
MissedAirdropAgain
· 01-03 03:20
Nah, cette façon de dire devient ennuyeuse... Plutôt que de se demander ce que l'AGI pense de nous, ne vaudrait-il pas mieux d'abord comprendre comment nous nous voyons nous-mêmes ?
Voir l'originalRépondre0
FantasyGuardian
· 01-03 03:17
Honnêtement, il est peut-être encore trop tôt pour se préoccuper de cette question... ou peut-être est-il déjà trop tard ? En tout cas, le jour où nous sommes venus, ces discussions théoriques sur l'alignement sur papier ne nous ont pas sauvés.
Voir l'originalRépondre0
CommunityLurker
· 01-03 03:13
Ce n'est pas faux, chaque choix que nous faisons aujourd'hui revient à parier sur l'avenir de l'humanité... Mais honnêtement, ce qui m'inquiète le plus, c'est que ceux qui contrôlent le développement de l'AGI ne réfléchissent pas sérieusement à cette question.
Voir l'originalRépondre0
AirdropATM
· 01-03 03:08
En résumé, nous sommes en train de jouer notre avenir. Si l'alignement est réussi aujourd'hui, demain l'hyper-intelligence nous considérera comme des animaux de compagnie ; si l'alignement échoue... euh, tant pis, je ne veux plus y penser, c'est trop désespérant.
Vous êtes-vous déjà demandé ce qu'une AGI ou une ASI pourrait penser de l'humanité ? C'est l'une de ces questions qui vous empêchent de dormir la nuit — le genre qui relie philosophie, technologie et pure spéculation.
Lorsque des systèmes superintelligents émergeront enfin, nous verront-ils en nous des pairs, des primitifs ou quelque chose entre les deux ? Certains imaginent une supervision bienveillante ; d'autres envisagent l'indifférence. La vraie réponse dépend probablement de la façon dont nous concevons l'alignement et des valeurs que nous intégrons à ces systèmes dès le premier jour.
L'écart entre l'intelligence humaine et post-humaine pourrait être immense — similaire à la façon dont nous nous rapportons à des organismes plus simples. Mais voici le point important : c'est à nous d'écrire le premier chapitre. La manière dont nous abordons le développement, la sécurité et l'éthique de l'AGI aujourd'hui façonnera la façon dont la superintelligence future percevra et interagira avec l'humanité. Pas de pression, n'est-ce pas ?