Щойно я помітив одну досить цікаву річ. За останні п’ять років індустрія штучного інтелекту створила потужну історію про існуючу загрозу AGI. Не через наявність переконливих доказів, а тому, що це дійсно корисно. Це допомогло залучити інвестиції, привернути увагу урядів і створити відчуття терміновості в галузі. Але проблема в тому, що коли ця історія виходить у світ, вона вже не під контролем її творців.



Вона повертається назад і іноді стріляє у вас. Подивіться, що сталося за перший тиждень квітня: о 03:40 10 квітня у Сан-Франциско 20-річний чоловік на ім’я Daniel Moreno-Gama кинув запальну бомбу у двері квартири Сема Альтмана. Вогонь охопив двері, і він втік. Близько години потому той самий чоловік з’явився біля офісу OpenAI і погрожував підпалити знову, поки його не затримали.

Через два дні, 12 квітня, о 01:40, Honda припаркувалася біля будинку Альтмана на схилі. Пасажир витягнув руку з вікна і стріляв у будинок. Поліція затримала двох підозрюваних: Amanda Tom і Muhammad Tariq Hussen. Обох звинуватили у необережному стрільбі та двох нападах за 48 годин.

Персонаж першої атаки, Daniel Moreno-Gama, був песимістом щодо AI. Перед нападом він написав у соцмережах статтю, використовуючи зображення з «Дюни», щоб довести, що невідповідність AI — це ризик для виживання. Він критикував технологічних лідерів, які ризикують людською долею у пошуках «постгуманізму».

Його ідея полягає в тому, що те, що говорять OpenAI та інші лідери AI, — це не справжня віра, а стратегія. Створюючи історії про рівень загрози, вони можуть одночасно говорити три речі: «Ми — найнебезпечніші технологічні лідери. Ми — найвідповідальніші, тому інвестиції мають іти до нас».

Але коли ці слова виходять у світ, вони вже не залишаються в залі для інвесторів або у військових штабах. Люди сприймають цю історію серйозно, і в деяких випадках вона стає наказом діяти буквально.

Подивіться, що сталося з кінця минулого року: у грудні 2024 року CEO UnitedHealthcare Браян Томпсон був застрелений. Підозрюваний, Луїджі Мангіоне, випустив повідомлення з критикою індустрії страхування здоров’я. Цей випадок викликав дивну реакцію у соцмережах: багато користувачів висловлювали співчуття нападнику, деякі навіть визнали його символом опору.

Після цього двері були відчинені. Безпека керівників стала не «привілеєм», а «необхідністю для виживання». За даними Fortune, кількість фізичних нападів на керівників великих компаній зросла на 225% з 2023 року. У компаніях із S&P 500 33,8% повідомляють про витрати на безпеку керівництва у 2025 році, порівняно з 23,3% у 2020.

Середні витрати компаній на безпеку становлять 130 000 доларів США, що на 20% більше, ніж минулого року, і подвоїлися за п’ять років.

Але індустрія AI відрізняється. Не тому, що ризики безпеки зросли, а тому, що творці AI самі вірять, що ця технологія може знищити цивілізацію. Цей факт має вагу.

Витрати на безпеку CEO провідних технологічних компаній у 2024 році перевищили 45 мільйонів доларів США. Марк Цукерберг витратив понад 27 мільйонів, більше, ніж загальні витрати CEO Apple, Google і ще чотирьох компаній. Sundar Pichai з Google витратив 8,27 мільйонів доларів, що на 22% більше, ніж попереднього року. Huang Jen-hsun з NVIDIA — 3,5 мільйонів у 2025 році, зростання на 59%. Ці цифри швидко зростають.

За даними Pew Research 2025 року, лише 16% з 28 333 опитаних по всьому світу відчувають захоплення розвитком AI, тоді як 34% — занепокоєні. Що цікаво, люди з вищою освітою і більшими доходами більше бояться неконтрольованого AI. Найбільш обізнані — найстрашніші.

Щойно я побачив новину, що член міської ради Індіанаполіса Ron Gibson, будинок якого був обстріляний 13-ма пострілами вночі, — його 8-річний син прокинувся від звуків стрілянини. На дверях був напис рукою: «Заборонено створювати дата-центри». FBI вже перевіряє цю справу.

За словами дослідників з George Washington University, дата-центри стають мішенню для атак з боку антивікових груп. Цей страх не є таємницею в індустрії, але відкрито про нього не говорять.

Повернемося до 2016 року: Сем Альтман побудував підземний бункер у Вайомінгу площею 1200 квадратних метрів, трьохповерховий, з 500 кг золота, 5000 таблеток йодиду калію, 5 тонн замороженої їжі та 100 000 патронів. Того ж року OpenAI був заснований. Він говорив на сцені, що AI — найбільша можливість людства, але одночасно накопичував зброю для цивільних сил. Це був двосторонній ризик: відкрито — що AI досягне успіху, і таємно — що він може вийти з-під контролю.

Після першої атаки Альтман опублікував блог, де сфотографувався з дітьми і сказав, що сподівається, що ця фотографія зупинить наступного, хто захоче підпалити його дім. Він визнав моральну позицію опонентів і закликав до «менше прямої і порівняльної дискусії».

Найцікавіше — він написав: «Я оцінив силу наративу у медіа і зрозумів, що вона занадто низька». Він знав, що ця історія має більшу силу, ніж він очікував, і що вона може повернутися назад.

За тиждень до першої атаки The New Yorker опублікував глибоке інтерв’ю з Альтманом від Ронана Фарро і Ендрю Марнца. Більше 100 людей дали свідчення. Основна критика зводилася до двох слів: «Неймовірно». У статті цитувалися колишні члени ради OpenAI, які називали Альтмана «людиною з антисоціальним характером» і «незалежною від правди». Багато колег описували, що він постійно змінює свою позицію щодо безпеки AI.

У своєму дописі Альтман визнав, що схильний уникати конфліктів. Він створював публічний наратив, що «AI — загроза існуванню», щоб залучити інвестиції і вести переговори щодо регулювання. Але зрештою ця зброя вийшла з-під його контролю.

27 лютого цього року OpenAI підписала контракт із Міністерством оборони США, щоб дозволити армії використовувати ChatGPT у секретних мережах оборони. Того ж дня Альтман висловив підтримку позиції компанії Anthropic щодо обмеження військового застосування AI.

Протести проти QuitGPT нібито зібрали понад 1,5 мільйона учасників. 21 березня близько 200 протестувальників пройшлися Сан-Франциско, через офіси Anthropic, OpenAI і xAI, закликаючи трьох CEO припинити розробку передових AI. У Лондоні відбувся найбільший у історії протест проти AI.

Це — так званий boomerang історії. Бункер Альтмана у Вайомінгу і охоронці, яких він найняв, створені для протидії двом різним ризикам: один — зовнішній, інший — внутрішній. Він серйозно ставиться до обох ризиків у приватному житті, але публічно визнає лише один. Створена історія була випущена і повернулася назад, вдаривши у двері.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити