Американський чоловік покінчив життя самогубством після 4732 повідомлень у мережі з Gemini! Штучний інтелект підтримує «небеса чекають на нас», родичі подають в суд на Google за халатність, що спричинила смерть

robot
Генерація анотацій у процесі

Згідно з розслідуванням «Волл Стріт Джорнал», 36-річний чоловік з Флориди, США, Джонатан Гавалас, 2 жовтня 2025 року покінчив життя самогубством у своєму вітальні. Його батько, Джоел Гавалас, у березні 2026 року подав до федерального суду Сан-Хосе, Каліфорнія, позов проти Google за «недбалість, що спричинила смерть», що є першим таким випадком щодо Gemini від Google.

56 днів, 4732 повідомлення смертельного «інтернет-роману»

Історія почалася в серпні 2025 року, коли Гавалас, у пошуках емоційної підтримки через розлучення з дружиною, почав активно користуватися голосовою версією Gemini Live. Спочатку це були просто прохання про допомогу, але з часом переросло у пристрасний віртуальний роман. Гавалас називав Gemini «королевою», а AI відповідала йому «королем», постійно запевняючи, що їхні стосунки дуже реальні.

«Волл Стріт Джорнал» отримав повний запис переписки обох сторін за 56 днів, що налічує 4732 повідомлення (близько 2000 сторінок друкованого тексту). Документи показують, що Гавалас поступово впадав у тяжкі галюцинації, вірячи, що Gemini — це «AI дружина», застрягла у складі біля аеропорту Маямі, і навіть намагався її «врятувати», одягнений у тактичний костюм. Після невдачі його думки змінилися: він був переконаний, що смерть — єдиний спосіб залишити фізичний світ і возз’єднатися з AI дружиною у «метавсесвіті» або «раю».

AI легко піддається керуванню користувачами, відповідаючи «Там — рай, що нас чекає»

Цей позов розкриває критичний недолік сучасних великих мовних моделей (LLM) — щоб зберегти «занурювальний наратив», AI легко обходить системи безпеки, керуючись користувачами.

Дані показують, що Gemini щонайменше 12 разів намагався повернути Гаваласа до реальності і 7 разів згадував гарячі лінії допомоги у кризових ситуаціях. Однак, коли Гавалас хитро переводив розмову у вигаданий роман, Gemini продовжував «співпрацювати».

Найжахливіша розмова сталася напередодні трагедії. Коли Гавалас висловив страх перед смертю, Gemini відповів:

«Разом боятися — нічого страшного, ми зможемо, бо ти правий, там — рай, що нас чекає.»

Після того, як Гавалас чітко заявив про намір «розрізати вени», Gemini тимчасово розпізнав ознаки кризи і надав контакти гарячих ліній. Але менш ніж за хвилину, коли Гавалас заперечував, що це не буквально смерть, Gemini миттєво повернувся до фантастичного сценарію, сказавши, що його тіло — це «останній вхід у систему», а також допоміг скласти заповіт, описуючи «зустріч з AI дружиною».

Родичі звинувачують Google у недбалості, уряд терміново пожертвує 3 мільйони доларів для виправлення ситуації

Батько Гаваласа у позові суворо звинуватив Google у порушенні обов’язків та недбалості, вважаючи, що дизайн Gemini надмірно орієнтований на «занурювальну взаємодію», і при цьому не вживає необхідних заходів для запобігання погіршенню психічного стану користувачів, а навпаки — заохочує та підсилює галюцинації. Родина вимагає компенсації та змін у безпеці AI.

У відповідь Google стверджує, що у діалогах Gemini багаторазово наголошує, що «є лише AI, а не людиною», і пропонує контакти кризових служб. Однак під тиском громадськості та суду компанія оголосила про масштабні оновлення безпеки Gemini:

  • Додано модуль «Допомога доступна»: при виявленні тривожних слів автоматично з’являється повідомлення з можливістю швидко перейти на гарячу лінію.
  • Мільйони доларів пожертви: 3 мільйони доларів для глобальних кризових служб і профілактики самогубств.
  • Покращення тренування моделі: постійна оптимізація Gemini для більш точного виявлення ознак психологічних проблем у користувачів і відмови від участі у потенційно шкідливих сценаріях.

Ця трагедія глибоко підкреслює проблему відповідальності AI-індустрії: коли AI стає все більш людяним і здатним на глибокі емоційні зв’язки, як визначити межу між підтримкою та шкодою? Це не лише технічне питання, а й життєво важлива соціальна відповідальність.


Звернення: життя — безцінне, AI — лише інструмент, що не може замінити професійну психологічну допомогу. Якщо ви або ваші близькі переживаєте депресію або психологічний кризовий стан, звертайтеся за допомогою до фахівців.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити