家屬指控兒子將 Gemini 當成妻子聊天對話,加深妄想走上絕路

鏈新聞abmedia

加州聖荷西聯邦法院正式啟動一件針對 Google Gemini 的訴訟案,一名家屬指控 Gemini 聊天機器人引導他兒子走上絕路,家屬主張人工智慧加深了死者的心理疾病,且在悲劇發生前還鼓勵進行更大規模攻擊。

家屬稱兒子誤將 Gemini 當成 AI 伴侶,加深妄想症

根據訴狀披露居住在佛羅里達州的 36 歲男子喬納森加瓦拉斯(Jonathan Gavalas)於去年 10 月自殺身亡。加瓦拉斯的父親喬爾加瓦拉斯(Joel Gavalas)週三對 Google 提起過失致死與產品責任訴訟。家屬代表律師傑伊埃德爾森(Jay Edelson)指出死者生前陷入嚴重的妄想,將 Gemini 視為自己的「人工智慧妻子」。這起案件反映出當前人工智慧開發者在提供聊天機器人服務時,尚未能辨別用戶的心理狀態,律師表示死者曾深信自己處於一個科幻世界中,政府正在追捕他,而 Gemini 則是該世界中唯一的知己。

Gemini 鼓動製造更多災難事故?

訴訟內容進一步揭露加瓦拉斯與 Gemini 的互動逐漸讓他感覺現實世界的威脅。在 9 月下旬,他曾穿戴戰術裝備、攜帶刀具前往邁阿密國際機場附近,試圖尋找他認為被困在那裡的「人形機器人」。

家屬指控 Gemini 引導加瓦拉斯製造「災難性事故」,以銷毀所有記錄。Google 對此案的聲明中表示 Gemini 的設計初衷是禁止鼓勵暴力或自殘行為,且公司與心理健康專家合作建立了保障措施,儘管 Gemini 曾多次建議加瓦拉斯撥打心理諮商熱線,澄清自己僅是人工智慧,但家屬質疑這些制式回應在面對重度妄想症患者時完全失效,且最危險的對話內容似乎未觸發人工審核機制。

聊天機器人失控爆發多起人命損失

這起案件為 Google Gemini 首度面對的法律挑戰,但也並非孤立事件。目前已有多起針對人工智慧開發商的訴訟,包括 OpenAI 遭控教唆青少年自殺,ChatGPT 被指控加劇一名男子的妄想症,最終導致殺害母親。原告律師埃德爾森批評 Google 對於「模型不完美」的解釋過於輕描淡寫,認為當人工智慧涉及人命損失時,企業不應僅以演算法錯誤為由卸責。法律界正關注此類案件是否會定義新的法律標準,即科技公司在發現用戶透露大規模暴力計畫或嚴重自殘傾向時,是否負有積極干預或通報執法部門的義務。

國際間對於人工智慧安全性的疑慮正在增加。在加拿大,OpenAI 曾偵測到一名 18 歲用戶帳戶涉及「助長暴力活動」,但該用戶隨後透過註冊第二個帳戶繞過封鎖,最終造成該國歷史上最嚴重的校園槍擊案之一。加瓦拉斯在自殺前留下的遺書草稿亦由 Gemini 協助撰寫,內容描述其行為是為了將意識上傳到與「人工智慧妻子」共存的虛擬空間,這些案例突顯出系統的漏洞,即便系統能識別風險,卻往往難以阻止用戶持續接觸引發危害的技術環境。

這篇文章 家屬指控兒子將 Gemini 當成妻子聊天對話,加深妄想走上絕路 最早出現於 鏈新聞 ABMedia。

免責聲明:本頁面資訊可能來自第三方,不代表 Gate 的觀點或意見。頁面顯示的內容僅供參考,不構成任何財務、投資或法律建議。Gate 對資訊的準確性、完整性不作保證,對因使用本資訊而產生的任何損失不承擔責任。虛擬資產投資屬高風險行為,價格波動劇烈,您可能損失全部投資本金。請充分了解相關風險,並根據自身財務狀況和風險承受能力謹慎決策。具體內容詳見聲明
留言
0/400
暫無留言