Le PDG d'OpenAI, Sam Altman, a récemment partagé une observation intéressante sur X. Il a déclaré que les discussions dans les communautés en ligne semblent de plus en plus artificielles, et qu'il a du mal à distinguer si les publications proviennent de véritables humains ou ont été générées par l'IA.
Le 8 septembre, M. Altman a révélé dans un post sur X qu'il avait eu "l'expérience la plus étrange" en lisant sur la croissance du modèle Codex d'OpenAI. Il a instinctivement supposé que tous ces commentaires provenaient de faux comptes ou de bots.
J'ai vraiment eu une expérience étrange en lisant : dans ce cas, même si je sais que la croissance de Codex est en réalité forte, je suis convaincu que tout est faux ou des bots.
Je pense qu'il y a plusieurs facteurs : l'apprentissage des idiosyncrasies de la façon de parler des LLM par de véritables humains, la pression pour optimiser l'engagement sur les réseaux sociaux, et les tactiques d'"astroturfing" utilisées par les entreprises...
— Sam Altman (@sama) 8 septembre 2025
L'observation de M. Altman a commencé par une "expérience étrange"
«J'ai eu l'expérience la plus étrange en lisant cela», a-t-il commencé son post. «Dans ce cas, la croissance de Codex est réellement forte, et même en sachant que cette tendance est réelle, je ne peux m'empêcher de penser que tout cela est faux ou vient de bots.» Le PDG d'OpenAI semble ne plus être capable de juger si les commentaires sont authentiques ou s'ils proviennent de bots.
« Je pense qu'il y a plusieurs facteurs qui s'entrelacent », a-t-il poursuivi en essayant de diagnostiquer la cause. Il a attribué cela à des facteurs tels que le fait que de vraies personnes ont acquis des habitudes de « manière de parler des LLM », la pression d'optimisation des plateformes de médias sociaux qui récompensent l'engagement, et le fait que les entreprises utilisent des tactiques de « astroturfing ».
En conclusion, il a supposé que tous ces facteurs combinés expliquent pourquoi "les AI Twitter/AI Reddit semblent étrangement très faux par rapport à il y a un ou deux ans."
Les réactions à ce post étaient variées, avec des opinions venant de personnes mécontentes de M. Altman et de sa société.
Un des commentaires les plus remarquables provenait d'un utilisateur se présentant comme le modérateur fondateur du subreddit r/claudecode.
"Je pense qu'il est important d'expliquer la situation", ont-ils écrit. "Les commentaires de cette capture d'écran peuvent sembler venir d'un bot, mais ces comptes ne sont pas supprimés ni bloqués par des filtres anti-spam. La plupart d'entre eux sont actifs depuis plus de 5 ans, ont participé à des centaines de subreddits et ne suivent pas les modèles de faux comptes. Même s'il y a des récompenses, il n'y a pas de moyen fiable de les vérifier."
Selon les utilisateurs, "Depuis GPT-5, l'ambiance du subreddit a changé. De nombreux nouveaux venus préfèrent Codex CLI à Claude, et bien sûr, un groupe bruyant s'y oppose. Dans les petites communautés, ce type de fluctuation est toujours amplifié. OpenAI, tu fais du bon travail."
M. Altman exprime son mécontentement concernant le bot gérant le compte X.
Les commentaires récents de M. Altman sont apparus quelques jours après qu'il a reconnu qu'il n'avait jamais pris au sérieux la "théorie de l'internet mort", mais qu'il pense maintenant qu'il y a "vraiment beaucoup de comptes Twitter gérés par de nombreux LLM."
La théorie de l'Internet mort est une théorie du complot selon laquelle Internet n'est plus contrôlé par de véritables humains, mais principalement dominé par des bots et du contenu généré par l'IA. Cette idée soutient que la plupart des activités en ligne, y compris les commentaires, les publications et les articles, ne sont pas réelles et sont toutes créées pour manipuler l'opinion publique et contrôler les utilisateurs.
Selon une revue de cette théorie publiée par plusieurs sources, dont le New York Magazine, deux éléments clés sont à considérer : le remplacement de l'activité humaine par la curation par des bots et des algorithmes qui dominent ce que les utilisateurs rencontrent, et la gestion contrôlée où les gouvernements et les entreprises pourraient intentionnellement curer le contenu, limiter les échanges authentiques et amplifier des voix artificielles.
À l'heure actuelle, il n'existe pas de preuves d'une vaste conspiration dirigée par l'État, mais l'augmentation significative du trafic de bots et la "corruption des liens" continuent d'alimenter le débat.
Les commentaires de M. Altman ont suscité de nouveaux débats sur ce sujet, et beaucoup ont avoué avoir rencontré des réponses qui semblent être générées par une IA de manière répétitive et peu naturelle, ce qui a corroboré ses doutes. D'autre part, des voix ont également souligné l'ironie que sa société OpenAI ait peut-être joué le rôle le plus important dans la généralisation de l'IA et des chatbots.
Avertissement : Informations à titre de référence uniquement. Les performances passées ne garantissent pas les résultats futurs.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Sam Altman a exprimé le sentiment que l'Internet est déjà dominé par l'IA.
Le PDG d'OpenAI, Sam Altman, a récemment partagé une observation intéressante sur X. Il a déclaré que les discussions dans les communautés en ligne semblent de plus en plus artificielles, et qu'il a du mal à distinguer si les publications proviennent de véritables humains ou ont été générées par l'IA.
Le 8 septembre, M. Altman a révélé dans un post sur X qu'il avait eu "l'expérience la plus étrange" en lisant sur la croissance du modèle Codex d'OpenAI. Il a instinctivement supposé que tous ces commentaires provenaient de faux comptes ou de bots.
L'observation de M. Altman a commencé par une "expérience étrange"
«J'ai eu l'expérience la plus étrange en lisant cela», a-t-il commencé son post. «Dans ce cas, la croissance de Codex est réellement forte, et même en sachant que cette tendance est réelle, je ne peux m'empêcher de penser que tout cela est faux ou vient de bots.» Le PDG d'OpenAI semble ne plus être capable de juger si les commentaires sont authentiques ou s'ils proviennent de bots.
« Je pense qu'il y a plusieurs facteurs qui s'entrelacent », a-t-il poursuivi en essayant de diagnostiquer la cause. Il a attribué cela à des facteurs tels que le fait que de vraies personnes ont acquis des habitudes de « manière de parler des LLM », la pression d'optimisation des plateformes de médias sociaux qui récompensent l'engagement, et le fait que les entreprises utilisent des tactiques de « astroturfing ».
En conclusion, il a supposé que tous ces facteurs combinés expliquent pourquoi "les AI Twitter/AI Reddit semblent étrangement très faux par rapport à il y a un ou deux ans."
Les réactions à ce post étaient variées, avec des opinions venant de personnes mécontentes de M. Altman et de sa société.
Un des commentaires les plus remarquables provenait d'un utilisateur se présentant comme le modérateur fondateur du subreddit r/claudecode.
"Je pense qu'il est important d'expliquer la situation", ont-ils écrit. "Les commentaires de cette capture d'écran peuvent sembler venir d'un bot, mais ces comptes ne sont pas supprimés ni bloqués par des filtres anti-spam. La plupart d'entre eux sont actifs depuis plus de 5 ans, ont participé à des centaines de subreddits et ne suivent pas les modèles de faux comptes. Même s'il y a des récompenses, il n'y a pas de moyen fiable de les vérifier."
Selon les utilisateurs, "Depuis GPT-5, l'ambiance du subreddit a changé. De nombreux nouveaux venus préfèrent Codex CLI à Claude, et bien sûr, un groupe bruyant s'y oppose. Dans les petites communautés, ce type de fluctuation est toujours amplifié. OpenAI, tu fais du bon travail."
M. Altman exprime son mécontentement concernant le bot gérant le compte X.
Les commentaires récents de M. Altman sont apparus quelques jours après qu'il a reconnu qu'il n'avait jamais pris au sérieux la "théorie de l'internet mort", mais qu'il pense maintenant qu'il y a "vraiment beaucoup de comptes Twitter gérés par de nombreux LLM."
La théorie de l'Internet mort est une théorie du complot selon laquelle Internet n'est plus contrôlé par de véritables humains, mais principalement dominé par des bots et du contenu généré par l'IA. Cette idée soutient que la plupart des activités en ligne, y compris les commentaires, les publications et les articles, ne sont pas réelles et sont toutes créées pour manipuler l'opinion publique et contrôler les utilisateurs.
Selon une revue de cette théorie publiée par plusieurs sources, dont le New York Magazine, deux éléments clés sont à considérer : le remplacement de l'activité humaine par la curation par des bots et des algorithmes qui dominent ce que les utilisateurs rencontrent, et la gestion contrôlée où les gouvernements et les entreprises pourraient intentionnellement curer le contenu, limiter les échanges authentiques et amplifier des voix artificielles.
À l'heure actuelle, il n'existe pas de preuves d'une vaste conspiration dirigée par l'État, mais l'augmentation significative du trafic de bots et la "corruption des liens" continuent d'alimenter le débat.
Les commentaires de M. Altman ont suscité de nouveaux débats sur ce sujet, et beaucoup ont avoué avoir rencontré des réponses qui semblent être générées par une IA de manière répétitive et peu naturelle, ce qui a corroboré ses doutes. D'autre part, des voix ont également souligné l'ironie que sa société OpenAI ait peut-être joué le rôle le plus important dans la généralisation de l'IA et des chatbots.
Avertissement : Informations à titre de référence uniquement. Les performances passées ne garantissent pas les résultats futurs.