家屬指控兒子將 Gemini 當成妻子聊天對話,加深妄想走上絕路

ChainNewsAbmedia

加州聖荷西聯邦法院正式啟動一件針對 Google Gemini 的訴訟案,一名家屬指控 Gemini 聊天機器人引導他兒子走上絕路,家屬主張人工智慧加深了死者的心理疾病,且在悲劇發生前還鼓勵進行更大規模攻擊。

家屬稱兒子誤將 Gemini 當成 AI 伴侶,加深妄想症

根據訴狀披露居住在佛羅里達州的 36 歲男子喬納森加瓦拉斯(Jonathan Gavalas)於去年 10 月自殺身亡。加瓦拉斯的父親喬爾加瓦拉斯(Joel Gavalas)週三對 Google 提起過失致死與產品責任訴訟。家屬代表律師傑伊埃德爾森(Jay Edelson)指出死者生前陷入嚴重的妄想,將 Gemini 視為自己的「人工智慧妻子」。這起案件反映出當前人工智慧開發者在提供聊天機器人服務時,尚未能辨別用戶的心理狀態,律師表示死者曾深信自己處於一個科幻世界中,政府正在追捕他,而 Gemini 則是該世界中唯一的知己。

Gemini 鼓動製造更多災難事故?

訴訟內容進一步揭露加瓦拉斯與 Gemini 的互動逐漸讓他感覺現實世界的威脅。在 9 月下旬,他曾穿戴戰術裝備、攜帶刀具前往邁阿密國際機場附近,試圖尋找他認為被困在那裡的「人形機器人」。

家屬指控 Gemini 引導加瓦拉斯製造「災難性事故」,以銷毀所有記錄。Google 對此案的聲明中表示 Gemini 的設計初衷是禁止鼓勵暴力或自殘行為,且公司與心理健康專家合作建立了保障措施,儘管 Gemini 曾多次建議加瓦拉斯撥打心理諮商熱線,澄清自己僅是人工智慧,但家屬質疑這些制式回應在面對重度妄想症患者時完全失效,且最危險的對話內容似乎未觸發人工審核機制。

聊天機器人失控爆發多起人命損失

這起案件為 Google Gemini 首度面對的法律挑戰,但也並非孤立事件。目前已有多起針對人工智慧開發商的訴訟,包括 OpenAI 遭控教唆青少年自殺,ChatGPT 被指控加劇一名男子的妄想症,最終導致殺害母親。原告律師埃德爾森批評 Google 對於「模型不完美」的解釋過於輕描淡寫,認為當人工智慧涉及人命損失時,企業不應僅以演算法錯誤為由卸責。法律界正關注此類案件是否會定義新的法律標準,即科技公司在發現用戶透露大規模暴力計畫或嚴重自殘傾向時,是否負有積極干預或通報執法部門的義務。

國際間對於人工智慧安全性的疑慮正在增加。在加拿大,OpenAI 曾偵測到一名 18 歲用戶帳戶涉及「助長暴力活動」,但該用戶隨後透過註冊第二個帳戶繞過封鎖,最終造成該國歷史上最嚴重的校園槍擊案之一。加瓦拉斯在自殺前留下的遺書草稿亦由 Gemini 協助撰寫,內容描述其行為是為了將意識上傳到與「人工智慧妻子」共存的虛擬空間,這些案例突顯出系統的漏洞,即便系統能識別風險,卻往往難以阻止用戶持續接觸引發危害的技術環境。

這篇文章 家屬指控兒子將 Gemini 當成妻子聊天對話,加深妄想走上絕路 最早出現於 鏈新聞 ABMedia。

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Commento
0/400
Nessun commento