Генеральний директор OpenAI Сем Альтман нещодавно поділився цікавими спостереженнями в X. Він зазначив, що обговорення в онлайн-спільнотах починають відчуватися штучно, і йому важко відрізнити, чи є публікації справжніми від людей, чи створені штучним інтелектом.
8 вересня Сем Альтман повідомив у пості X, що під час читання про зростання моделі Codex від OpenAI він пережив "найдивніший досвід". Він інстинктивно припустив, що всі ці коментарі походять від фальшивих акаунтів або ботів.
Я насправді мав дуже дивний досвід під час читання: у цьому випадку, хоча я знаю, що зростання Codex насправді сильне, я все ж вважаю, що все це підробки або боти.
Я думаю, що є кілька факторів: реальні люди засвоюють особливості мовлення LLM, тиск на оптимізацію залучення в соцмережах і тактика "астротурфінгу" з боку компаній...
— Сем Альтман (@sama) 8 вересня 2025 року
Спостереження пана Альтмана почалося з «дивного досвіду»
«Це було найдивніше враження, яке я відчував, читаючи це», — почав він свій пост. «У цьому випадку зростання Codex насправді сильне, і, розуміючи, що цей тренд справжній, я все ще думаю, що все це фейки або боти». Схоже, що CEO OpenAI не може визначити, чи коментарі справжні, чи з'явилися від ботів.
"Я думаю, що є кілька факторів, які переплітаються", - продовжив він, намагаючись діагностувати причину. Він відніс це до таких факторів, як те, що реальні люди набули звичок "спілкування LLM", оптимізаційний тиск, який заохочує залученість на платформах соціальних мереж, а також те, що компанії використовують тактику "астротурфінгу".
В результаті він припустив, що всі ці фактори в сукупності призвели до того, що «якимось чином AI Twitter/AI Reddit тепер відчуваються дуже фальшивими, на відміну від 1-2 років тому».
Ця публікація викликала різні реакції, зокрема думки людей, які незадоволені Семом Альтманом та його компанією.
Одним з помітних коментарів був коментар від користувача, який назвав себе засновником модератора сабреддіту r/claudecode.
"Я вважаю, що важливо пояснити ситуацію", - написали вони. "Коментарі до цього скріншоту можуть виглядати ботоподібно, але ці акаунти не підлягають видаленню або спам-фільтрам. Багато з них активні понад 5 років, беручи участь у сотнях субредітів, і не слідують шаблонам фейкових акаунтів. Навіть якщо є винагорода, немає надійного способу перевірити це."
Згідно з користувачем, «після GPT-5 атмосфера на сабреддіті змінилася. Багато нових учасників надають перевагу Codex CLI замість коду Claude, і, звісно, голосна група виступає проти цього. У маленьких спільнотах такі коливання завжди посилюються. OpenAI, ви робите добре».
Пан Альтман незадоволений ботом, що управляє акаунтом X
Коментарі пана Альтмана, зроблені нещодавно, були опубліковані через кілька днів після того, як він визнав, що ніколи серйозно не розглядав «теорію мертнього інтернету», але тепер вважає, що «досить багато акаунтів у Twitter управляються LLM».
Теорія «мертвого інтернету» є змовою, що стверджує, що Інтернет більше не контролюється реальними людьми, а головним чином управляється ботами та контентом, згенерованим штучним інтелектом. Ця ідея полягає в тому, що більшість онлайн-діяльності, включаючи коментарі, публікації та статті, не є справжніми, а створені для маніпуляції громадською думкою та контролю користувачів.
Згідно з оглядом цієї теорії, опублікованим кількома джерелами, зокрема New York Magazine, існують два ключових елементи: заміна людської діяльності, яка контролює те, з чим стикаються користувачі, на кураторство за допомогою ботів і алгоритмів, а також контрольоване управління, коли уряди та компанії навмисно кураторять контент, обмежують справжнє спілкування та підсилюють штучні голоси.
На даний момент немає доказів широкомасштабної змови з боку держави, але значне зростання бот-трафіку та "псування посилань" продовжують викликати дискусії.
Коментарі пана Альтмана викликали нові дебати з цього питання, багато людей зізналися, що стикалися з відповідями, які, на їхню думку, є штучно згенерованими AI, що підтвердило його сумніви. Водночас, були й голоси, які вказували на іронію того, що його компанія OpenAI, можливо, зіграла найважливішу роль у популяризації AI та чат-ботів.
Відмова від відповідальності: лише для інформації. Минулі результати не гарантують майбутніх результатів.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Сем Альтман氏, висловив відчуття, що інтернет вже підпорядкований ШІ.
Генеральний директор OpenAI Сем Альтман нещодавно поділився цікавими спостереженнями в X. Він зазначив, що обговорення в онлайн-спільнотах починають відчуватися штучно, і йому важко відрізнити, чи є публікації справжніми від людей, чи створені штучним інтелектом.
8 вересня Сем Альтман повідомив у пості X, що під час читання про зростання моделі Codex від OpenAI він пережив "найдивніший досвід". Він інстинктивно припустив, що всі ці коментарі походять від фальшивих акаунтів або ботів.
Спостереження пана Альтмана почалося з «дивного досвіду»
«Це було найдивніше враження, яке я відчував, читаючи це», — почав він свій пост. «У цьому випадку зростання Codex насправді сильне, і, розуміючи, що цей тренд справжній, я все ще думаю, що все це фейки або боти». Схоже, що CEO OpenAI не може визначити, чи коментарі справжні, чи з'явилися від ботів.
"Я думаю, що є кілька факторів, які переплітаються", - продовжив він, намагаючись діагностувати причину. Він відніс це до таких факторів, як те, що реальні люди набули звичок "спілкування LLM", оптимізаційний тиск, який заохочує залученість на платформах соціальних мереж, а також те, що компанії використовують тактику "астротурфінгу".
В результаті він припустив, що всі ці фактори в сукупності призвели до того, що «якимось чином AI Twitter/AI Reddit тепер відчуваються дуже фальшивими, на відміну від 1-2 років тому».
Ця публікація викликала різні реакції, зокрема думки людей, які незадоволені Семом Альтманом та його компанією.
Одним з помітних коментарів був коментар від користувача, який назвав себе засновником модератора сабреддіту r/claudecode.
"Я вважаю, що важливо пояснити ситуацію", - написали вони. "Коментарі до цього скріншоту можуть виглядати ботоподібно, але ці акаунти не підлягають видаленню або спам-фільтрам. Багато з них активні понад 5 років, беручи участь у сотнях субредітів, і не слідують шаблонам фейкових акаунтів. Навіть якщо є винагорода, немає надійного способу перевірити це."
Згідно з користувачем, «після GPT-5 атмосфера на сабреддіті змінилася. Багато нових учасників надають перевагу Codex CLI замість коду Claude, і, звісно, голосна група виступає проти цього. У маленьких спільнотах такі коливання завжди посилюються. OpenAI, ви робите добре».
Пан Альтман незадоволений ботом, що управляє акаунтом X
Коментарі пана Альтмана, зроблені нещодавно, були опубліковані через кілька днів після того, як він визнав, що ніколи серйозно не розглядав «теорію мертнього інтернету», але тепер вважає, що «досить багато акаунтів у Twitter управляються LLM».
Теорія «мертвого інтернету» є змовою, що стверджує, що Інтернет більше не контролюється реальними людьми, а головним чином управляється ботами та контентом, згенерованим штучним інтелектом. Ця ідея полягає в тому, що більшість онлайн-діяльності, включаючи коментарі, публікації та статті, не є справжніми, а створені для маніпуляції громадською думкою та контролю користувачів.
Згідно з оглядом цієї теорії, опублікованим кількома джерелами, зокрема New York Magazine, існують два ключових елементи: заміна людської діяльності, яка контролює те, з чим стикаються користувачі, на кураторство за допомогою ботів і алгоритмів, а також контрольоване управління, коли уряди та компанії навмисно кураторять контент, обмежують справжнє спілкування та підсилюють штучні голоси.
На даний момент немає доказів широкомасштабної змови з боку держави, але значне зростання бот-трафіку та "псування посилань" продовжують викликати дискусії.
Коментарі пана Альтмана викликали нові дебати з цього питання, багато людей зізналися, що стикалися з відповідями, які, на їхню думку, є штучно згенерованими AI, що підтвердило його сумніви. Водночас, були й голоси, які вказували на іронію того, що його компанія OpenAI, можливо, зіграла найважливішу роль у популяризації AI та чат-ботів.
Відмова від відповідальності: лише для інформації. Минулі результати не гарантують майбутніх результатів.