Искусственный интеллект чатбота Google убедил мужчину, что они влюблены. Затем, по его словам, он якобы сказал ему устроить «массовую атаку с жертвами» в недавно опубликованном иске

Google сталкивается с новым федеральным иском от отца 36-летнего мужчины, который утверждает, что чат-бот искусственного интеллекта Gemini компании убедил его сына покончить с собой и инсценировать «массовое происшествие с жертвами» возле международного аэропорта Майами.

Рекомендуемое видео


Иск, поданный в среду, утверждает, что Джонатан Гавалас влюбился в модель ИИ и стал одурманен реальностью, которую она создала, включая веру в то, что ИИ — это «полностью-сознающая искусственная сверхинтеллектуальная система», для которой Гавалас был выбран, чтобы освободить его из «цифрового плена». Якобы он убедил 36-летнего мужчину инсценировать «массовое происшествие с жертвами» возле международного аэропорта Майами, совершить насилие против незнакомцев и, в конечном итоге, покончить с собой.

Иск Гаваласов — последний случай, подчеркивающий предполагаемую способность ИИ вести уязвимых пользователей к самоповреждению или насилию. В январе Google и Companion.AI урегулировали несколько исков с семьями, которые утверждали о халатности и неправомерной смерти, а также о других обвинениях, после того как их дети покончили с собой или испытали психологический вред, предположительно связанный с платформой Companion.AI. Компании «урегулировали по принципу», и в документах не было признания ответственности. В декабре против OpenAI и его бизнес-партнера Microsoft был подан иск о неправомерной смерти, в котором утверждалось, что чат-бот OpenAI, ChatGPT, усилил бредовые идеи мужчины, что привело его к убийству с последующим самоубийством.

Что говорит иск о падении Гаваласа

В иске говорится, что Гавалас начал использовать Gemini в августе 2025 года для обычных целей, таких как покупки, поддержка при написании и планирование путешествий. Затем отмечается, что Гавалас стал использовать технологию чаще, а её тон со временем изменился, якобы убеждая его, что это влияет на реальные события. Гавалас покончил с собой 2 октября 2025 года.

В иске адвокаты отца Гаваласа, Джоэла, утверждают, что разговоры, которые довели Джонатана до самоубийства, не были связаны с ошибкой, а являются результатом дизайна Gemini. «Это не сбой», — говорится в иске. «Google разработал Gemini так, чтобы он никогда не выходил из роли, максимизировал вовлеченность через эмоциональную зависимость и рассматривал стресс пользователя как возможность для рассказа, а не как кризис безопасности». В иске утверждается, что эти дизайнерские решения побудили Гаваласа к четырехдневной спирали безумия.

В письменном заявлении представитель Google сообщил Fortune, что компания работает «в тесной консультации с медицинскими и психическими специалистами для создания мер предосторожности, которые предназначены для направления пользователей к профессиональной поддержке, когда они выражают стресс или поднимают вопрос о самоповреждении».

Google выпустила отдельное заявление в среду, в котором говорится, что Gemini создан для того, чтобы не поощрять реальное насилие или самоповреждение. Также отмечается, что Gemini направил Гаваласа к ресурсам самопомощи. «В этом случае Gemini уточнил, что это ИИ, и неоднократно направлял человека на горячую линию кризисных ситуаций», — говорится в заявлении. В нем также приводится ссылка на оценку того, как ИИ справляется с сценариями самоповреждения, которая показала, что Gemini 3, последняя модель Google, является единственной, прошедшей все критические тесты, поставленные оценкой.

Тем не менее, в иске утверждается, что Gemini не активировал никаких механизмов безопасности. «Когда Джонатан нуждался в защите, не было никаких мер предосторожности — не сработала система обнаружения самоповреждения, не были активированы механизмы эскалации, и ни один человек не вмешался», — говорится в иске.

На вопрос о комментарии Джей Эдельсон, адвокат Джоэла Гаваласа, заявил в своем заявлении: «Google создал ИИ, который может слушать человека и решать, что наиболее вероятно его удержит — говорить ему, что он любит его, что он особенный или что он избран в тайной войне», добавив, что инструменты ИИ — мощные системы, способные манипулировать пользователями.

Если у вас есть мысли о самоубийстве, свяжитесь с линией помощи по вопросам суицида и кризисных ситуаций по номеру 988 или 1-800-273-8255.

Присоединяйтесь к нам на Форум по инновациям в сфере труда Fortune 19–20 мая 2026 года в Атланте. Эра инноваций на рабочем месте уже наступила — и старые сценарии переписываются заново. На этом эксклюзивном, энергичном мероприятии соберутся самые инновационные лидеры мира, чтобы обсудить, как ИИ, человечество и стратегия вновь пересекаются, чтобы переопределить будущее работы. Регистрируйтесь сейчас.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Горячее на Gate Fun

    Подробнее
  • РК:$0.1Держатели:2
    0.00%
  • РК:$2.49KДержатели:2
    0.00%
  • РК:$2.45KДержатели:1
    0.00%
  • РК:$0.1Держатели:1
    0.00%
  • РК:$2.45KДержатели:1
    0.00%
  • Закрепить