Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Pre-IPOs
Отримайте повний доступ до глобальних IPO акцій.
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Акції
AI
Gate AI
Ваш універсальний AI-помічник для спілкування
Gate AI Bot
Використовуйте Gate AI безпосередньо у своєму соціальному додатку
GateClaw
Gate Блакитний Лобстер — готовий до використання
Gate for AI Agent
AI-інфраструктура, Gate MCP, Skills і CLI
Gate Skills Hub
Понад 10 000 навичок
Від офісу до трейдингу: універсальна база навичок для ефективнішої роботи з AI
GateRouter
Розумний вибір із понад 40 моделей ШІ, без додаткових витрат (0%)
Щойно я помітив одну досить цікаву річ. За останні п’ять років індустрія штучного інтелекту створила потужну історію про існуючу загрозу AGI. Не через наявність переконливих доказів, а тому, що це дійсно корисно. Це допомогло залучити інвестиції, привернути увагу урядів і створити відчуття терміновості в галузі. Але проблема в тому, що коли ця історія виходить у світ, вона вже не під контролем її творців.
Вона повертається назад і іноді стріляє у вас. Подивіться, що сталося за перший тиждень квітня: о 03:40 10 квітня у Сан-Франциско 20-річний чоловік на ім’я Daniel Moreno-Gama кинув запальну бомбу у двері квартири Сема Альтмана. Вогонь охопив двері, і він втік. Близько години потому той самий чоловік з’явився біля офісу OpenAI і погрожував підпалити знову, поки його не затримали.
Через два дні, 12 квітня, о 01:40, Honda припаркувалася біля будинку Альтмана на схилі. Пасажир витягнув руку з вікна і стріляв у будинок. Поліція затримала двох підозрюваних: Amanda Tom і Muhammad Tariq Hussen. Обох звинуватили у необережному стрільбі та двох нападах за 48 годин.
Персонаж першої атаки, Daniel Moreno-Gama, був песимістом щодо AI. Перед нападом він написав у соцмережах статтю, використовуючи зображення з «Дюни», щоб довести, що невідповідність AI — це ризик для виживання. Він критикував технологічних лідерів, які ризикують людською долею у пошуках «постгуманізму».
Його ідея полягає в тому, що те, що говорять OpenAI та інші лідери AI, — це не справжня віра, а стратегія. Створюючи історії про рівень загрози, вони можуть одночасно говорити три речі: «Ми — найнебезпечніші технологічні лідери. Ми — найвідповідальніші, тому інвестиції мають іти до нас».
Але коли ці слова виходять у світ, вони вже не залишаються в залі для інвесторів або у військових штабах. Люди сприймають цю історію серйозно, і в деяких випадках вона стає наказом діяти буквально.
Подивіться, що сталося з кінця минулого року: у грудні 2024 року CEO UnitedHealthcare Браян Томпсон був застрелений. Підозрюваний, Луїджі Мангіоне, випустив повідомлення з критикою індустрії страхування здоров’я. Цей випадок викликав дивну реакцію у соцмережах: багато користувачів висловлювали співчуття нападнику, деякі навіть визнали його символом опору.
Після цього двері були відчинені. Безпека керівників стала не «привілеєм», а «необхідністю для виживання». За даними Fortune, кількість фізичних нападів на керівників великих компаній зросла на 225% з 2023 року. У компаніях із S&P 500 33,8% повідомляють про витрати на безпеку керівництва у 2025 році, порівняно з 23,3% у 2020.
Середні витрати компаній на безпеку становлять 130 000 доларів США, що на 20% більше, ніж минулого року, і подвоїлися за п’ять років.
Але індустрія AI відрізняється. Не тому, що ризики безпеки зросли, а тому, що творці AI самі вірять, що ця технологія може знищити цивілізацію. Цей факт має вагу.
Витрати на безпеку CEO провідних технологічних компаній у 2024 році перевищили 45 мільйонів доларів США. Марк Цукерберг витратив понад 27 мільйонів, більше, ніж загальні витрати CEO Apple, Google і ще чотирьох компаній. Sundar Pichai з Google витратив 8,27 мільйонів доларів, що на 22% більше, ніж попереднього року. Huang Jen-hsun з NVIDIA — 3,5 мільйонів у 2025 році, зростання на 59%. Ці цифри швидко зростають.
За даними Pew Research 2025 року, лише 16% з 28 333 опитаних по всьому світу відчувають захоплення розвитком AI, тоді як 34% — занепокоєні. Що цікаво, люди з вищою освітою і більшими доходами більше бояться неконтрольованого AI. Найбільш обізнані — найстрашніші.
Щойно я побачив новину, що член міської ради Індіанаполіса Ron Gibson, будинок якого був обстріляний 13-ма пострілами вночі, — його 8-річний син прокинувся від звуків стрілянини. На дверях був напис рукою: «Заборонено створювати дата-центри». FBI вже перевіряє цю справу.
За словами дослідників з George Washington University, дата-центри стають мішенню для атак з боку антивікових груп. Цей страх не є таємницею в індустрії, але відкрито про нього не говорять.
Повернемося до 2016 року: Сем Альтман побудував підземний бункер у Вайомінгу площею 1200 квадратних метрів, трьохповерховий, з 500 кг золота, 5000 таблеток йодиду калію, 5 тонн замороженої їжі та 100 000 патронів. Того ж року OpenAI був заснований. Він говорив на сцені, що AI — найбільша можливість людства, але одночасно накопичував зброю для цивільних сил. Це був двосторонній ризик: відкрито — що AI досягне успіху, і таємно — що він може вийти з-під контролю.
Після першої атаки Альтман опублікував блог, де сфотографувався з дітьми і сказав, що сподівається, що ця фотографія зупинить наступного, хто захоче підпалити його дім. Він визнав моральну позицію опонентів і закликав до «менше прямої і порівняльної дискусії».
Найцікавіше — він написав: «Я оцінив силу наративу у медіа і зрозумів, що вона занадто низька». Він знав, що ця історія має більшу силу, ніж він очікував, і що вона може повернутися назад.
За тиждень до першої атаки The New Yorker опублікував глибоке інтерв’ю з Альтманом від Ронана Фарро і Ендрю Марнца. Більше 100 людей дали свідчення. Основна критика зводилася до двох слів: «Неймовірно». У статті цитувалися колишні члени ради OpenAI, які називали Альтмана «людиною з антисоціальним характером» і «незалежною від правди». Багато колег описували, що він постійно змінює свою позицію щодо безпеки AI.
У своєму дописі Альтман визнав, що схильний уникати конфліктів. Він створював публічний наратив, що «AI — загроза існуванню», щоб залучити інвестиції і вести переговори щодо регулювання. Але зрештою ця зброя вийшла з-під його контролю.
27 лютого цього року OpenAI підписала контракт із Міністерством оборони США, щоб дозволити армії використовувати ChatGPT у секретних мережах оборони. Того ж дня Альтман висловив підтримку позиції компанії Anthropic щодо обмеження військового застосування AI.
Протести проти QuitGPT нібито зібрали понад 1,5 мільйона учасників. 21 березня близько 200 протестувальників пройшлися Сан-Франциско, через офіси Anthropic, OpenAI і xAI, закликаючи трьох CEO припинити розробку передових AI. У Лондоні відбувся найбільший у історії протест проти AI.
Це — так званий boomerang історії. Бункер Альтмана у Вайомінгу і охоронці, яких він найняв, створені для протидії двом різним ризикам: один — зовнішній, інший — внутрішній. Він серйозно ставиться до обох ризиків у приватному житті, але публічно визнає лише один. Створена історія була випущена і повернулася назад, вдаривши у двері.