À quelle fréquence entendez-vous des prédictions sur la fin du monde où le rôle principal est joué par une intelligence artificielle toute-puissante ? Au moins une fois par semaine, un homme d’affaires ou une célébrité exprime ses inquiétudes quant à un avenir terrible sous son joug.
Bien sûr, une personnalité connue + une prévision sombre — c’est la recette idéale pour un gros titre. Mais si auparavant, ces matériaux reflétaient un progrès réel, parfois effrayant, dans la technologie, aujourd’hui, cela ressemble de plus en plus à du marketing vide ou à une simple incompréhension de la nature des événements.
Pourquoi continue-t-on à avoir peur de mauvaises reprises de « Terminator », alors que les chatbots modernes mentent souvent effrontément et ne peuvent même pas se souvenir de cinq lignes de dialogue ? Et surtout — à qui cela peut-il profiter ?
Pas impressionnant
Il faut d’emblée noter : les technologies d’IA ont fait un saut énorme au cours de la dernière décennie. Les systèmes modernes ont appris à rédiger des textes cohérents, à reconnaître des patterns dans de grands volumes de données et à créer du contenu visuel. Il y a peu, les machines ne pouvaient pas remplacer un travail aussi humain.
Les perspectives de progrès sont inquiétantes. Cependant, à l’heure actuelle, le développement de produits de masse s’est arrêté principalement aux discussions sur ce qu’on appelle l’intelligence artificielle générale et à la sortie de modèles linguistiques presque identiques (parfois, les nouveautés sont même pires que leurs prédécesseurs).
Ce que nous avons en fin de compte : un outil-assistant, entraîné à effectuer des tâches simples avec du texte et parfois avec des images. Les gens l’ont adapté pour le codage via Vibe ou la rédaction de posts pour les réseaux sociaux. Cependant, le résultat obtenu nécessite souvent une vérification — les neurones ne sont pas capables de gérer des travaux plus complexes.
Vous pouvez maintenant demander à votre chatbot préféré d’écrire une thèse de doctorat sur le sujet « X » : vous obtiendrez un texte à peu près cohérent avec des liens en première ou deuxième page de recherche. Pour améliorer le résultat, il est conseillé d’utiliser des prompts avancés, mais cela revient simplement à une configuration encore plus fine en « langage machine » et à un apprentissage supplémentaire.
Après une utilisation prolongée de l’IA, chaque utilisateur doit probablement reconnaître la limite des modèles actuels. Tout progrès, en fin de compte, se heurte à la taille des bases de données pour l’entraînement et aux capacités des serveurs, et le facteur « intelligence » est passé au second plan.
Intelligence sans cerveau
Pour comprendre le contexte, il faut expliquer le mécanisme de fonctionnement de l’IA. En résumé, les grands modèles linguistiques des chatbots classiques fonctionnent ainsi :
Le texte d’entrée est découpé en tokens (parties de mots, symboles).
À chaque token est attribué un vecteur numérique.
Le modèle analyse les relations entre les tokens et détermine quels mots sont les plus importants pour comprendre le contexte.
Sur cette base, le LLM « prédit » chaque token suivant, formant une réponse.
La « prédiction » ne sort pas du vide. Pour cela, il a subi un entraînement préalable sur une énorme base de données, généralement issue de sources ouvertes sur Internet. C’est là que le réseau neuronal puise tout son « intelligence ».
Les modèles linguistiques ne « comprennent » pas le texte au sens humain, mais calculent des régularités statistiques. Tous les chatbots modernes de premier plan utilisent la même architecture de base appelée « Transformeur », qui fonctionne selon ce principe.
Bien sûr, c’est une comparaison grossière, mais on peut qualifier un LLM de calculateur très puissant basé sur une grande base de données. Un outil fort, nécessaire, et qui simplifie de nombreux aspects de notre vie, mais il est encore prématuré d’attribuer à cette technologie une intelligence à part entière.
Les chatbots modernes ressemblent davantage à une nouvelle itération des moteurs de recherche (salut, Gemini de Google), plutôt qu’à un assistant omniscient de poche.
D’autant plus que la fiabilité des réponses de l’IA soulève des questions. Après avoir examiné les statistiques de hallucinations et de mensonges des réseaux neuronaux, on ressent fortement l’envie de revenir à une recherche classique sur Google.
Comparaison de la précision des réponses de GPT-5 et o4-mini. Source : OpenAI.## Bouh, j’ai eu peur ?
Le principal argument des partisans de l’apocalypse est que « l’IA devient exponentiellement plus intelligente », et que dès qu’elle dépassera l’intelligence humaine, l’humanité en tant qu’espèce sera condamnée.
Les IA modernes, sans aucun doute, surpassent déjà l’homme en précision de traitement et de transformation des données. Par exemple, un réseau neuronal peut raconter en détail « Wikipedia ». Mais c’est à peu près tout ce que ses connaissances lui permettent. Plus précisément, le modèle ne pourra pas les utiliser à des « fins personnelles », car il ne sait pas faire cela, et ce n’est pas son objectif.
De plus, il est déjà connu que l’intelligence artificielle ne comprend pas le monde qui nous entoure. Les lois de la physique sont pour l’IA une forêt obscure.
Tout le développement des modèles linguistiques s’est réduit à élargir le spectre de la prédiction (deviner les tokens). Cependant, l’IA approche rapidement ses limites en matière d’apprentissage textuel, et de plus en plus, on entend parler de la nécessité de créer une « intelligence spatiale ».
Mais si les faiblesses de la technologie elle-même peuvent encore être identifiées, et que des travaux dans ces directions sont déjà en cours, des questions plus complexes restent ouvertes.
Même pour l’humanité, de nombreux aspects du fonctionnement du cerveau restent un mystère. Que dire de la reproduction d’une structure aussi complexe dans un environnement numérique ?
De plus, un obstacle presque insurmontable pour l’IA devient la créativité — la capacité de créer quelque chose de nouveau. Techniquement, les LLM ne peuvent pas dépasser leurs limites architecturales, car leur fonctionnement repose sur le traitement de données déjà existantes.
Ainsi, le destin futur de l’IA dépend directement de la qualité des informations que l’humanité lui fournit, et pour l’instant, toutes les données d’entraînement sont exclusivement orientées vers l’aide à l’humain.
Pour être juste, il faut mentionner Elon Musk et son Grok. À un moment, les utilisateurs ont remarqué un biais dans le chatbot et une tendance à surestimer les capacités du milliardaire. C’est un signal assez inquiétant d’un point de vue éthique, mais il est peu probable qu’un « neuro-Elon » potentiel puisse nuire physiquement à l’humanité.
Il en est ainsi : la seule véritable finalité des applications d’intelligence artificielle est de répondre aux requêtes de l’utilisateur. Le chatbot n’a pas de volonté ni de désirs propres, et dans un avenir proche, cette paradigme ne changera probablement pas.
L’anatomie de la peur
Et pourquoi continue-t-on à avoir peur de cette IA, qui s’est avérée être une invention pas si « intelligente » ? Les principales réponses sont évidentes.
Sans parler de l’incompréhension de la technologie, la raison la plus simple est la cupidité — pour l’argent ou la popularité.
Prenons l’exemple d’un des « prophètes de l’apocalypse » — Eliezer Yudkowsky. Chercheur en IA et co-auteur du livre « Si quelqu’un la construit, tout le monde meurt » (« If Anyone Builds It, Everyone Dies »), il avertit depuis les années 2000 sur une super-intelligence IA, qui serait dénuée de valeurs humaines.
Couverture du livre. Source : Instaread.« La super-intelligence » n’est pas encore visible, ce que Yudkowsky lui-même admet souvent. Mais cela ne l’empêche pas de faire des déclarations retentissantes dans des podcasts et de vendre ses livres.
Le physicien connu et « parrain de l’IA » Geoffrey Hinton a également exprimé des craintes apocalyptiques. Il estime que la probabilité que cette technologie mène à l’extinction de l’humanité dans les 30 prochaines années est de 10-20 %.
Selon Hinton, avec l’augmentation des capacités, la stratégie de « garder l’IA sous contrôle » pourrait cesser de fonctionner, et les systèmes autonomes chercheraient à survivre et à étendre leur contrôle.
Dans ce contexte, il n’est pas clair qui et dans quel but pourrait donner aux réseaux neuronaux une « volonté de vivre ». Hinton continue de travailler dans le domaine de l’apprentissage des réseaux, et en 2024, il a été nommé pour le prix Nobel pour ses avancées dans ce domaine, devenant en 2026 le deuxième scientifique après le cybernéticien Yoshua Bengio à atteindre 1 million de citations.
Étonnamment, des prévisions plus terre-à-terre viennent du cofondateur de Google Brain, Andrew Y. Il qualifiait l’intelligence artificielle de technologie « extrêmement limitée » et était convaincu que, dans un avenir proche, les algorithmes ne pourraient pas remplacer l’humain.
Il est évident que des prédicateurs à la langue acérée existent dans tous les domaines. Leur existence dans l’industrie de l’IA peut aussi s’expliquer par l’amour du public pour la science-fiction. Qui n’a pas envie de se faire peur avec des histoires à la Philip K. Dick ou Robert Sheckley, sauf que le scénario se déroule déjà dans notre réalité actuelle.
Dans un tel contexte, les déclarations de grandes entreprises, qui semblent involontairement avertir des menaces pour l’emploi et prévoir un développement rapide de l’IA, suscitent davantage de questions. Si le second point explique en grande partie la nécessité de réduire les coûts, le premier pousse involontairement à des interprétations plus conspirationnistes.
Ainsi, l’une des plus grandes entreprises mondiales — Amazon — a licencié plus de 30 000 employés au cours des six derniers mois. La direction invoque des plans d’optimisation et l’impact de l’automatisation, y compris l’intégration de l’IA.
Le développement des robots d’entrepôt n’a pas été abandonné. Mais certains pensent que le problème est bien plus prosaïque : lors des purges massives dans les entreprises, la faute revient à une mauvaise gestion RH durant la pandémie de COVID-19.
Amazon n’est pas le seul exemple. Les entreprises d’IA de la Silicon Valley continuent d’élargir leurs équipes et de louer de nouveaux locaux.
Et déjà en 2023, presque toutes ces mêmes entreprises ont signé un document de l’organisation Center for AI Safety appelant à ralentir le développement de la technologie — prétendant que l’intelligence artificielle présente des « risques existentiels » comparables aux pandémies et aux guerres nucléaires.
Déclaration du Center for AI Safety. Source : aistatement.com. Avec le temps, la lettre a été oubliée, le travail a continué, mais aucune menace visible n’est apparue.
En termes d’entreprise, dans l’époque des discours sur la bulle de l’IA qui aurait gonflé, faire appel aux changements technologiques semble plus pratique pour le business que d’admettre des erreurs structurelles dans la gestion du personnel. Mais de telles déclarations créent une fausse image de la situation et détournent l’attention des vrais problèmes — désinformation et deepfakes.
L’intelligence artificielle ne vole pas les emplois, elle change la façon de travailler, en simplifiant parfois certains processus. Cependant, une étude approfondie de Harvard montre que l’IA peut aussi compliquer et ralentir certains processus internes.
La technologie s’infiltrera sans aucun doute dans tous les domaines de notre vie : éducation, science, commerce, politique. Mais la forme qu’elle prendra dépendra uniquement des humains eux-mêmes. Pour l’instant, les réseaux neuronaux n’ont pas encore le droit de vote.
Inaccessible pour nous
Ce qui précède concernait les IA accessibles au public, comme les chatbots et les générateurs d’images. Bien sûr, derrière des portes closes, il existe des développements plus sérieux.
Parmi eux, des modèles linguistiques spécialisés dans la médecine ou l’archéologie. Par exemple, certains aident à synthétiser de nouvelles protéines, d’autres à déchiffrer des documents anciens difficiles à analyser traditionnellement.
Mais pour suivre les résultats de telles recherches, tests et déploiements, il faut accéder à des rapports internes difficiles d’accès ou à des publications dans des médias spécialisés, ce qui limite considérablement la connaissance qu’on en a. Cependant, il est tout à fait probable que c’est dans ce domaine que se produisent actuellement les plus grandes avancées.
Il est peu probable qu’un « IA de l’apocalypse » voie le jour même dans des laboratoires secrets. Tous ces modèles sont spécialisés, et ne savent faire que ce qu’on leur demande.
Toutes les craintes d’un IA hors de contrôle ne sont que le reflet de nos propres peurs : la perte d’emploi ou des questions éthiques plus complexes. Mais tant que nous, humains, déterminons l’avenir de la technologie, en fixant ses orientations et ses objectifs, l’IA reste un outil, et non un sujet doté de sa propre volonté.
Parler de risques potentiels est légitime. Inventer des théories apocalyptiques, humainement compréhensible. Mais il faut toujours aborder ces sujets avec un peu de scepticisme ou même d’ironie. Si une simple touche « éteindre » existe, notre monde n’est pas menacé par une super-intelligence numérique.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
La peur a de grands yeux - ForkLog : cryptomonnaies, IA, singularité, avenir
À quelle fréquence entendez-vous des prédictions sur la fin du monde où le rôle principal est joué par une intelligence artificielle toute-puissante ? Au moins une fois par semaine, un homme d’affaires ou une célébrité exprime ses inquiétudes quant à un avenir terrible sous son joug.
Bien sûr, une personnalité connue + une prévision sombre — c’est la recette idéale pour un gros titre. Mais si auparavant, ces matériaux reflétaient un progrès réel, parfois effrayant, dans la technologie, aujourd’hui, cela ressemble de plus en plus à du marketing vide ou à une simple incompréhension de la nature des événements.
Pourquoi continue-t-on à avoir peur de mauvaises reprises de « Terminator », alors que les chatbots modernes mentent souvent effrontément et ne peuvent même pas se souvenir de cinq lignes de dialogue ? Et surtout — à qui cela peut-il profiter ?
Pas impressionnant
Il faut d’emblée noter : les technologies d’IA ont fait un saut énorme au cours de la dernière décennie. Les systèmes modernes ont appris à rédiger des textes cohérents, à reconnaître des patterns dans de grands volumes de données et à créer du contenu visuel. Il y a peu, les machines ne pouvaient pas remplacer un travail aussi humain.
Les perspectives de progrès sont inquiétantes. Cependant, à l’heure actuelle, le développement de produits de masse s’est arrêté principalement aux discussions sur ce qu’on appelle l’intelligence artificielle générale et à la sortie de modèles linguistiques presque identiques (parfois, les nouveautés sont même pires que leurs prédécesseurs).
Ce que nous avons en fin de compte : un outil-assistant, entraîné à effectuer des tâches simples avec du texte et parfois avec des images. Les gens l’ont adapté pour le codage via Vibe ou la rédaction de posts pour les réseaux sociaux. Cependant, le résultat obtenu nécessite souvent une vérification — les neurones ne sont pas capables de gérer des travaux plus complexes.
Vous pouvez maintenant demander à votre chatbot préféré d’écrire une thèse de doctorat sur le sujet « X » : vous obtiendrez un texte à peu près cohérent avec des liens en première ou deuxième page de recherche. Pour améliorer le résultat, il est conseillé d’utiliser des prompts avancés, mais cela revient simplement à une configuration encore plus fine en « langage machine » et à un apprentissage supplémentaire.
Après une utilisation prolongée de l’IA, chaque utilisateur doit probablement reconnaître la limite des modèles actuels. Tout progrès, en fin de compte, se heurte à la taille des bases de données pour l’entraînement et aux capacités des serveurs, et le facteur « intelligence » est passé au second plan.
Intelligence sans cerveau
Pour comprendre le contexte, il faut expliquer le mécanisme de fonctionnement de l’IA. En résumé, les grands modèles linguistiques des chatbots classiques fonctionnent ainsi :
La « prédiction » ne sort pas du vide. Pour cela, il a subi un entraînement préalable sur une énorme base de données, généralement issue de sources ouvertes sur Internet. C’est là que le réseau neuronal puise tout son « intelligence ».
Les modèles linguistiques ne « comprennent » pas le texte au sens humain, mais calculent des régularités statistiques. Tous les chatbots modernes de premier plan utilisent la même architecture de base appelée « Transformeur », qui fonctionne selon ce principe.
Bien sûr, c’est une comparaison grossière, mais on peut qualifier un LLM de calculateur très puissant basé sur une grande base de données. Un outil fort, nécessaire, et qui simplifie de nombreux aspects de notre vie, mais il est encore prématuré d’attribuer à cette technologie une intelligence à part entière.
Les chatbots modernes ressemblent davantage à une nouvelle itération des moteurs de recherche (salut, Gemini de Google), plutôt qu’à un assistant omniscient de poche.
D’autant plus que la fiabilité des réponses de l’IA soulève des questions. Après avoir examiné les statistiques de hallucinations et de mensonges des réseaux neuronaux, on ressent fortement l’envie de revenir à une recherche classique sur Google.
Le principal argument des partisans de l’apocalypse est que « l’IA devient exponentiellement plus intelligente », et que dès qu’elle dépassera l’intelligence humaine, l’humanité en tant qu’espèce sera condamnée.
Les IA modernes, sans aucun doute, surpassent déjà l’homme en précision de traitement et de transformation des données. Par exemple, un réseau neuronal peut raconter en détail « Wikipedia ». Mais c’est à peu près tout ce que ses connaissances lui permettent. Plus précisément, le modèle ne pourra pas les utiliser à des « fins personnelles », car il ne sait pas faire cela, et ce n’est pas son objectif.
De plus, il est déjà connu que l’intelligence artificielle ne comprend pas le monde qui nous entoure. Les lois de la physique sont pour l’IA une forêt obscure.
Tout le développement des modèles linguistiques s’est réduit à élargir le spectre de la prédiction (deviner les tokens). Cependant, l’IA approche rapidement ses limites en matière d’apprentissage textuel, et de plus en plus, on entend parler de la nécessité de créer une « intelligence spatiale ».
Mais si les faiblesses de la technologie elle-même peuvent encore être identifiées, et que des travaux dans ces directions sont déjà en cours, des questions plus complexes restent ouvertes.
Même pour l’humanité, de nombreux aspects du fonctionnement du cerveau restent un mystère. Que dire de la reproduction d’une structure aussi complexe dans un environnement numérique ?
De plus, un obstacle presque insurmontable pour l’IA devient la créativité — la capacité de créer quelque chose de nouveau. Techniquement, les LLM ne peuvent pas dépasser leurs limites architecturales, car leur fonctionnement repose sur le traitement de données déjà existantes.
Ainsi, le destin futur de l’IA dépend directement de la qualité des informations que l’humanité lui fournit, et pour l’instant, toutes les données d’entraînement sont exclusivement orientées vers l’aide à l’humain.
Pour être juste, il faut mentionner Elon Musk et son Grok. À un moment, les utilisateurs ont remarqué un biais dans le chatbot et une tendance à surestimer les capacités du milliardaire. C’est un signal assez inquiétant d’un point de vue éthique, mais il est peu probable qu’un « neuro-Elon » potentiel puisse nuire physiquement à l’humanité.
Il en est ainsi : la seule véritable finalité des applications d’intelligence artificielle est de répondre aux requêtes de l’utilisateur. Le chatbot n’a pas de volonté ni de désirs propres, et dans un avenir proche, cette paradigme ne changera probablement pas.
L’anatomie de la peur
Et pourquoi continue-t-on à avoir peur de cette IA, qui s’est avérée être une invention pas si « intelligente » ? Les principales réponses sont évidentes.
Sans parler de l’incompréhension de la technologie, la raison la plus simple est la cupidité — pour l’argent ou la popularité.
Prenons l’exemple d’un des « prophètes de l’apocalypse » — Eliezer Yudkowsky. Chercheur en IA et co-auteur du livre « Si quelqu’un la construit, tout le monde meurt » (« If Anyone Builds It, Everyone Dies »), il avertit depuis les années 2000 sur une super-intelligence IA, qui serait dénuée de valeurs humaines.
Le physicien connu et « parrain de l’IA » Geoffrey Hinton a également exprimé des craintes apocalyptiques. Il estime que la probabilité que cette technologie mène à l’extinction de l’humanité dans les 30 prochaines années est de 10-20 %.
Selon Hinton, avec l’augmentation des capacités, la stratégie de « garder l’IA sous contrôle » pourrait cesser de fonctionner, et les systèmes autonomes chercheraient à survivre et à étendre leur contrôle.
Dans ce contexte, il n’est pas clair qui et dans quel but pourrait donner aux réseaux neuronaux une « volonté de vivre ». Hinton continue de travailler dans le domaine de l’apprentissage des réseaux, et en 2024, il a été nommé pour le prix Nobel pour ses avancées dans ce domaine, devenant en 2026 le deuxième scientifique après le cybernéticien Yoshua Bengio à atteindre 1 million de citations.
Étonnamment, des prévisions plus terre-à-terre viennent du cofondateur de Google Brain, Andrew Y. Il qualifiait l’intelligence artificielle de technologie « extrêmement limitée » et était convaincu que, dans un avenir proche, les algorithmes ne pourraient pas remplacer l’humain.
Il est évident que des prédicateurs à la langue acérée existent dans tous les domaines. Leur existence dans l’industrie de l’IA peut aussi s’expliquer par l’amour du public pour la science-fiction. Qui n’a pas envie de se faire peur avec des histoires à la Philip K. Dick ou Robert Sheckley, sauf que le scénario se déroule déjà dans notre réalité actuelle.
Dans un tel contexte, les déclarations de grandes entreprises, qui semblent involontairement avertir des menaces pour l’emploi et prévoir un développement rapide de l’IA, suscitent davantage de questions. Si le second point explique en grande partie la nécessité de réduire les coûts, le premier pousse involontairement à des interprétations plus conspirationnistes.
Ainsi, l’une des plus grandes entreprises mondiales — Amazon — a licencié plus de 30 000 employés au cours des six derniers mois. La direction invoque des plans d’optimisation et l’impact de l’automatisation, y compris l’intégration de l’IA.
Le développement des robots d’entrepôt n’a pas été abandonné. Mais certains pensent que le problème est bien plus prosaïque : lors des purges massives dans les entreprises, la faute revient à une mauvaise gestion RH durant la pandémie de COVID-19.
Amazon n’est pas le seul exemple. Les entreprises d’IA de la Silicon Valley continuent d’élargir leurs équipes et de louer de nouveaux locaux.
Et déjà en 2023, presque toutes ces mêmes entreprises ont signé un document de l’organisation Center for AI Safety appelant à ralentir le développement de la technologie — prétendant que l’intelligence artificielle présente des « risques existentiels » comparables aux pandémies et aux guerres nucléaires.
En termes d’entreprise, dans l’époque des discours sur la bulle de l’IA qui aurait gonflé, faire appel aux changements technologiques semble plus pratique pour le business que d’admettre des erreurs structurelles dans la gestion du personnel. Mais de telles déclarations créent une fausse image de la situation et détournent l’attention des vrais problèmes — désinformation et deepfakes.
L’intelligence artificielle ne vole pas les emplois, elle change la façon de travailler, en simplifiant parfois certains processus. Cependant, une étude approfondie de Harvard montre que l’IA peut aussi compliquer et ralentir certains processus internes.
La technologie s’infiltrera sans aucun doute dans tous les domaines de notre vie : éducation, science, commerce, politique. Mais la forme qu’elle prendra dépendra uniquement des humains eux-mêmes. Pour l’instant, les réseaux neuronaux n’ont pas encore le droit de vote.
Inaccessible pour nous
Ce qui précède concernait les IA accessibles au public, comme les chatbots et les générateurs d’images. Bien sûr, derrière des portes closes, il existe des développements plus sérieux.
Parmi eux, des modèles linguistiques spécialisés dans la médecine ou l’archéologie. Par exemple, certains aident à synthétiser de nouvelles protéines, d’autres à déchiffrer des documents anciens difficiles à analyser traditionnellement.
Mais pour suivre les résultats de telles recherches, tests et déploiements, il faut accéder à des rapports internes difficiles d’accès ou à des publications dans des médias spécialisés, ce qui limite considérablement la connaissance qu’on en a. Cependant, il est tout à fait probable que c’est dans ce domaine que se produisent actuellement les plus grandes avancées.
Il est peu probable qu’un « IA de l’apocalypse » voie le jour même dans des laboratoires secrets. Tous ces modèles sont spécialisés, et ne savent faire que ce qu’on leur demande.
Toutes les craintes d’un IA hors de contrôle ne sont que le reflet de nos propres peurs : la perte d’emploi ou des questions éthiques plus complexes. Mais tant que nous, humains, déterminons l’avenir de la technologie, en fixant ses orientations et ses objectifs, l’IA reste un outil, et non un sujet doté de sa propre volonté.
Parler de risques potentiels est légitime. Inventer des théories apocalyptiques, humainement compréhensible. Mais il faut toujours aborder ces sujets avec un peu de scepticisme ou même d’ironie. Si une simple touche « éteindre » existe, notre monde n’est pas menacé par une super-intelligence numérique.