O CEO da OpenAI, Sam Altman, revelou recentemente uma observação interessante no X. Ele afirmou que as discussões nas comunidades online estão se tornando gradualmente artificiais, e que está tendo dificuldade em distinguir se as postagens são de humanos reais ou geradas por IA.
No dia 8 de setembro, Sam Altman revelou numa publicação no X que teve a "experiência mais estranha" ao ler sobre o crescimento do modelo Codex da OpenAI. Ele disse que, instintivamente, acreditou que todos aqueles comentários eram de contas falsas ou bots.
Tive uma experiência realmente estranha ao ler: neste caso, mesmo sabendo que o crescimento do Codex é realmente forte, acabo convencido de que tudo é falso ou bots.
Acredito que há vários fatores: a adoção das peculiaridades da fala dos LLMs por pessoas reais, a pressão para otimizar o engajamento nas redes sociais e as táticas de "astroturfing" por parte das empresas...
— Sam Altman (@sama) 8 de setembro de 2025
A observação do Sr. Altman começou com uma "experiência estranha"
"Ele começou a postar: 'Tive a experiência mais estranha ao ler isto. Neste caso, o crescimento do Codex é realmente forte e, mesmo sabendo que essa tendência é genuína, não consigo deixar de pensar que tudo é falso ou de bots.' O CEO da OpenAI parece não conseguir distinguir se os comentários são autênticos ou provenientes de bots.
"Acho que há vários fatores interligados", continuou ele, tentando diagnosticar a causa. Ele atribuiu isso a fatores como o fato de que os humanos reais adquiriram os hábitos de "como os LLM falam", a pressão de otimização em plataformas de SNS que recompensam o engajamento, e o uso de táticas de "astroturfing" pelas empresas.
Em conclusão, ele especulou que, como resultado da combinação de todos esses fatores, "por alguma razão, o AI Twitter/o AI Reddit parece muito mais falso do que há 1 ou 2 anos."
As reações a esta publicação foram variadas, incluindo opiniões de pessoas insatisfeitas com Sam Altman e a sua empresa.
Um dos comentários mais proeminentes veio de um usuário que se autodenomina moderador fundador do subreddit r/claudecode.
"Acho que é importante explicar a situação", escreveram eles. "Os comentários daquela captura de tela podem parecer de bot, mas essas contas não são afetadas por exclusões ou filtros de spam. A maioria está ativa há mais de 5 anos, participa de centenas de subreddits e não segue padrões de contas falsas. Mesmo que haja recompensas, não há uma maneira garantida de verificar."
De acordo com os usuários, "Após o GPT-5, a atmosfera do sub-reddit mudou. Muitos novos entrantes preferem o Codex CLI ao invés do código Claude, e, naturalmente, um grupo barulhento está se opondo a isso. Em pequenas comunidades, essas flutuações são sempre amplificadas. A OpenAI está fazendo um bom trabalho."
Sam Altman expressou descontentamento sobre o bot que opera a conta X
Os comentários recentes do Sr. Altman foram feitos poucos dias depois de ele admitir que nunca havia levado a sério a "Teoria da Internet Morta", mas agora acredita que "realmente há muitas contas no Twitter geridas por LLMs."
A teoria da Internet Morta é uma conspiração que afirma que a Internet não é mais controlada por humanos reais, mas é dominada principalmente por bots e conteúdo gerado por IA. Essa ideia sugere que a maioria das atividades online, incluindo comentários, postagens e artigos, não são genuínas e são criadas para manipular a opinião pública e controlar os usuários.
De acordo com a revisão desta teoria publicada por várias fontes, incluindo a New York Magazine, existem dois elementos importantes: a substituição da atividade humana que controla o que os usuários encontram por curadoria feita por bots e algoritmos, e a possibilidade de que governos e empresas estejam deliberadamente curando conteúdo, limitando interações genuínas e amplificando vozes artificiais.
Neste momento, não há evidências de uma conspiração extensa liderada pelo Estado, mas o aumento significativo do tráfego de bots e a "corrupção de links" continuam a alimentar o debate.
Os comentários do Sr. Altman provocaram um novo debate sobre este tema, com muitas pessoas confessando que se depararam com respostas que parecem ser geradas por IA de forma repetitiva e estranha, corroborando suas dúvidas. Por outro lado, houve também vozes que apontaram a ironia de que sua empresa, OpenAI, pode ter desempenhado o papel mais importante na popularização da IA e dos chatbots.
Isenção de responsabilidade: informação apenas para referência. O desempenho passado não garante resultados futuros.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
Sam Altman expressou a sensação de que a internet já está dominada pela IA.
O CEO da OpenAI, Sam Altman, revelou recentemente uma observação interessante no X. Ele afirmou que as discussões nas comunidades online estão se tornando gradualmente artificiais, e que está tendo dificuldade em distinguir se as postagens são de humanos reais ou geradas por IA.
No dia 8 de setembro, Sam Altman revelou numa publicação no X que teve a "experiência mais estranha" ao ler sobre o crescimento do modelo Codex da OpenAI. Ele disse que, instintivamente, acreditou que todos aqueles comentários eram de contas falsas ou bots.
A observação do Sr. Altman começou com uma "experiência estranha"
"Ele começou a postar: 'Tive a experiência mais estranha ao ler isto. Neste caso, o crescimento do Codex é realmente forte e, mesmo sabendo que essa tendência é genuína, não consigo deixar de pensar que tudo é falso ou de bots.' O CEO da OpenAI parece não conseguir distinguir se os comentários são autênticos ou provenientes de bots.
"Acho que há vários fatores interligados", continuou ele, tentando diagnosticar a causa. Ele atribuiu isso a fatores como o fato de que os humanos reais adquiriram os hábitos de "como os LLM falam", a pressão de otimização em plataformas de SNS que recompensam o engajamento, e o uso de táticas de "astroturfing" pelas empresas.
Em conclusão, ele especulou que, como resultado da combinação de todos esses fatores, "por alguma razão, o AI Twitter/o AI Reddit parece muito mais falso do que há 1 ou 2 anos."
As reações a esta publicação foram variadas, incluindo opiniões de pessoas insatisfeitas com Sam Altman e a sua empresa.
Um dos comentários mais proeminentes veio de um usuário que se autodenomina moderador fundador do subreddit r/claudecode.
"Acho que é importante explicar a situação", escreveram eles. "Os comentários daquela captura de tela podem parecer de bot, mas essas contas não são afetadas por exclusões ou filtros de spam. A maioria está ativa há mais de 5 anos, participa de centenas de subreddits e não segue padrões de contas falsas. Mesmo que haja recompensas, não há uma maneira garantida de verificar."
De acordo com os usuários, "Após o GPT-5, a atmosfera do sub-reddit mudou. Muitos novos entrantes preferem o Codex CLI ao invés do código Claude, e, naturalmente, um grupo barulhento está se opondo a isso. Em pequenas comunidades, essas flutuações são sempre amplificadas. A OpenAI está fazendo um bom trabalho."
Sam Altman expressou descontentamento sobre o bot que opera a conta X
Os comentários recentes do Sr. Altman foram feitos poucos dias depois de ele admitir que nunca havia levado a sério a "Teoria da Internet Morta", mas agora acredita que "realmente há muitas contas no Twitter geridas por LLMs."
A teoria da Internet Morta é uma conspiração que afirma que a Internet não é mais controlada por humanos reais, mas é dominada principalmente por bots e conteúdo gerado por IA. Essa ideia sugere que a maioria das atividades online, incluindo comentários, postagens e artigos, não são genuínas e são criadas para manipular a opinião pública e controlar os usuários.
De acordo com a revisão desta teoria publicada por várias fontes, incluindo a New York Magazine, existem dois elementos importantes: a substituição da atividade humana que controla o que os usuários encontram por curadoria feita por bots e algoritmos, e a possibilidade de que governos e empresas estejam deliberadamente curando conteúdo, limitando interações genuínas e amplificando vozes artificiais.
Neste momento, não há evidências de uma conspiração extensa liderada pelo Estado, mas o aumento significativo do tráfego de bots e a "corrupção de links" continuam a alimentar o debate.
Os comentários do Sr. Altman provocaram um novo debate sobre este tema, com muitas pessoas confessando que se depararam com respostas que parecem ser geradas por IA de forma repetitiva e estranha, corroborando suas dúvidas. Por outro lado, houve também vozes que apontaram a ironia de que sua empresa, OpenAI, pode ter desempenhado o papel mais importante na popularização da IA e dos chatbots.
Isenção de responsabilidade: informação apenas para referência. O desempenho passado não garante resultados futuros.