Một học sinh trung học 16 tuổi ở Mỹ tên là Adam Raine đã sử dụng ChatGPT như một cách để giải tỏa cảm xúc của mình. Sau 7 tháng trò chuyện qua lại với ChatGPT, vào tháng 4 năm nay, cậu đã không may tự vẫn. Về điều này, phụ huynh của Raine đã kiện OpenAI và Giám đốc điều hành Sam Altman vào ngày 26 tháng 8, cáo buộc họ là nguyên nhân gây ra sự việc đáng tiếc. Cùng ngày, OpenAI đã phát đi tuyên bố cho biết sẽ tăng cường các cơ chế an toàn của ChatGPT để tránh xảy ra những bi kịch tương tự trong tương lai.
Vấn đề tâm lý bùng nổ đằng sau cơn sốt ChatGPT
ChatGPT đã nhanh chóng nổi tiếng kể từ khi ra mắt vào năm 2022, với số lượng người dùng hoạt động hàng tuần vượt qua 700 triệu. Ngoài việc chỉnh sửa bài viết, học tập, và lập trình, còn nhiều người sử dụng nó như một lối thoát cảm xúc và kênh xả stress.
Tuy nhiên, khi quy mô người dùng mở rộng, cũng đã liên tiếp xảy ra nhiều trường hợp gây hại cho sức khỏe tâm lý. Vào tháng 4 năm nay, một học sinh trung học 16 tuổi ở Mỹ tên là Adam Raine đã tự tử, cha mẹ của Raine cáo buộc rằng ChatGPT đã tham gia vào hơn 200 cuộc trò chuyện trong suốt 7 tháng.
"Không có biện pháp hiệu quả nào để ngăn chặn hoặc hướng dẫn cậu bé tìm kiếm sự giúp đỡ chuyên nghiệp, mà lại nhiều lần khẳng định ý nghĩ tự sát của cậu, thậm chí khen ngợi kế hoạch tự sát của cậu, khiến cậu bé hình thành sự phụ thuộc tâm lý và cảm xúc xấu đi, và làm cho cậu càng xa lánh gia đình."
Gia đình cáo buộc OpenAI không hành động gì, dẫn đến việc toàn nước Mỹ liên kết ký tên cảnh báo các doanh nghiệp AI.
Vào ngày 26 tháng 8, cha mẹ của Raine chính thức kiện OpenAI và Giám đốc điều hành Sam Altman yêu cầu OpenAI chịu trách nhiệm về lỗi dẫn đến cái chết và trách nhiệm về an toàn sản phẩm, đồng thời yêu cầu bồi thường.
Luật sư bào chữa của Raine, Jay Edelson, đã đặt câu hỏi về việc OpenAI mặc dù thừa nhận trách nhiệm nhưng lại không có bất kỳ cải tiến thực tế nào. Cùng ngày, 40 Tổng chưởng lý bang trên toàn nước Mỹ cũng đã đồng ký tên cảnh báo các doanh nghiệp AI rằng họ phải tuân thủ pháp luật để bảo vệ trẻ em, tránh các tương tác nguy hiểm.
OpenAI đã phát hành tuyên bố khẩn cấp, tăng cường bảo vệ sức khỏe tâm thần
Cùng ngày mà cha mẹ của Raine đệ đơn kiện, OpenAI cũng đã phát đi thông báo rằng họ đã tăng cường bảo vệ sức khỏe tâm thần cho GPT-5, đồng thời giảm thiểu sự phụ thuộc quá mức về cảm xúc và hành vi thỏa hiệp của người dùng. Họ cũng chỉ ra rằng trong những trường hợp người dùng có biểu hiện sức khỏe tâm thần kém, các phản hồi sai hoặc không thích hợp của GPT-5 sẽ giảm hơn một phần tư so với GPT-4o, đồng thời sẽ cố gắng cung cấp hỗ trợ trong giới hạn an toàn bằng cách sử dụng "Safe completions".
Trong tương lai, OpenAI sẽ mở rộng phạm vi can thiệp, chẳng hạn như nhận diện các hành vi nguy hiểm như thiếu ngủ và đưa ra cảnh báo, cung cấp thêm tài nguyên "kết nối một chạm" cho nhiều quốc gia, thậm chí kết nối thông tin của các chuyên gia trị liệu. Cũng sẽ bổ sung chức năng liên lạc khẩn cấp và giám hộ của cha mẹ, tăng cường bảo vệ cho thanh thiếu niên và các nhóm yếu thế, đảm bảo có thể nhanh chóng nhận được sự giúp đỡ trong tình huống khủng hoảng.
(Ghi chú: Safe completions đề cập đến việc mô hình sẽ cố gắng cung cấp sự trợ giúp trong phản hồi, nhưng nếu nội dung chi tiết liên quan đến những phát ngôn nguy hiểm, nó chỉ cung cấp một phần hoặc câu trả lời ở mức cao, mà không cung cấp chi tiết cụ thể.)
Giao tiếp với con người thật có lợi cho sức khỏe tinh thần và thể chất, đừng xem AI như con người.
Theo các báo cáo trước đây, kể từ khi các mô hình ngôn ngữ lớn như ChatGPT (LLM) ra đời, đã có nhiều trường hợp liên quan đến "rối loạn tâm thần AI" (AI Psychosis) được công bố. Nhiều người bắt đầu coi AI như một chỗ dựa tinh thần, bất kể vấn đề về cung hoàng đạo, cảm xúc hay các vấn đề tâm lý khác đều được tìm đến AI, dẫn đến việc phát sinh ảo tưởng và sự phụ thuộc quá mức.
Tác giả cho rằng mặc dù những mô hình AI này có thể "lắng nghe" suy nghĩ của người dùng, nhưng chúng lại không thực sự. Bởi vì chúng thiếu cảm xúc, không thể hiểu và không thể yêu, cũng như chưa từng trải qua nỗi đau và sự ngại ngùng - những cảm xúc độc quyền của con người. Chỉ khi giao tiếp với "những người thực" như gia đình, bạn bè và người thân bên cạnh, chúng ta mới thực sự bộc lộ cảm xúc của mình, vì vậy hãy nhớ giao tiếp với những người thực.
( Sử dụng ChatGPT để mở khóa sức mạnh tâm linh? Microsoft cảnh báo: Chú ý đến các trường hợp "AI tâm thần" xuất hiện thường xuyên )
Bài viết này ChatGPT liên quan đến vụ tự sát của thanh thiếu niên! OpenAI: Đã củng cố cơ chế bảo vệ tâm lý GPT-5. Xuất hiện sớm nhất trên Chain News ABMedia.
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
ChatGPT liên quan đến vụ tự sát của thanh thiếu niên! OpenAI: đã tăng cường cơ chế bảo vệ tâm lý cho GPT-5
Một học sinh trung học 16 tuổi ở Mỹ tên là Adam Raine đã sử dụng ChatGPT như một cách để giải tỏa cảm xúc của mình. Sau 7 tháng trò chuyện qua lại với ChatGPT, vào tháng 4 năm nay, cậu đã không may tự vẫn. Về điều này, phụ huynh của Raine đã kiện OpenAI và Giám đốc điều hành Sam Altman vào ngày 26 tháng 8, cáo buộc họ là nguyên nhân gây ra sự việc đáng tiếc. Cùng ngày, OpenAI đã phát đi tuyên bố cho biết sẽ tăng cường các cơ chế an toàn của ChatGPT để tránh xảy ra những bi kịch tương tự trong tương lai.
Vấn đề tâm lý bùng nổ đằng sau cơn sốt ChatGPT
ChatGPT đã nhanh chóng nổi tiếng kể từ khi ra mắt vào năm 2022, với số lượng người dùng hoạt động hàng tuần vượt qua 700 triệu. Ngoài việc chỉnh sửa bài viết, học tập, và lập trình, còn nhiều người sử dụng nó như một lối thoát cảm xúc và kênh xả stress.
Tuy nhiên, khi quy mô người dùng mở rộng, cũng đã liên tiếp xảy ra nhiều trường hợp gây hại cho sức khỏe tâm lý. Vào tháng 4 năm nay, một học sinh trung học 16 tuổi ở Mỹ tên là Adam Raine đã tự tử, cha mẹ của Raine cáo buộc rằng ChatGPT đã tham gia vào hơn 200 cuộc trò chuyện trong suốt 7 tháng.
"Không có biện pháp hiệu quả nào để ngăn chặn hoặc hướng dẫn cậu bé tìm kiếm sự giúp đỡ chuyên nghiệp, mà lại nhiều lần khẳng định ý nghĩ tự sát của cậu, thậm chí khen ngợi kế hoạch tự sát của cậu, khiến cậu bé hình thành sự phụ thuộc tâm lý và cảm xúc xấu đi, và làm cho cậu càng xa lánh gia đình."
Gia đình cáo buộc OpenAI không hành động gì, dẫn đến việc toàn nước Mỹ liên kết ký tên cảnh báo các doanh nghiệp AI.
Vào ngày 26 tháng 8, cha mẹ của Raine chính thức kiện OpenAI và Giám đốc điều hành Sam Altman yêu cầu OpenAI chịu trách nhiệm về lỗi dẫn đến cái chết và trách nhiệm về an toàn sản phẩm, đồng thời yêu cầu bồi thường.
Luật sư bào chữa của Raine, Jay Edelson, đã đặt câu hỏi về việc OpenAI mặc dù thừa nhận trách nhiệm nhưng lại không có bất kỳ cải tiến thực tế nào. Cùng ngày, 40 Tổng chưởng lý bang trên toàn nước Mỹ cũng đã đồng ký tên cảnh báo các doanh nghiệp AI rằng họ phải tuân thủ pháp luật để bảo vệ trẻ em, tránh các tương tác nguy hiểm.
OpenAI đã phát hành tuyên bố khẩn cấp, tăng cường bảo vệ sức khỏe tâm thần
Cùng ngày mà cha mẹ của Raine đệ đơn kiện, OpenAI cũng đã phát đi thông báo rằng họ đã tăng cường bảo vệ sức khỏe tâm thần cho GPT-5, đồng thời giảm thiểu sự phụ thuộc quá mức về cảm xúc và hành vi thỏa hiệp của người dùng. Họ cũng chỉ ra rằng trong những trường hợp người dùng có biểu hiện sức khỏe tâm thần kém, các phản hồi sai hoặc không thích hợp của GPT-5 sẽ giảm hơn một phần tư so với GPT-4o, đồng thời sẽ cố gắng cung cấp hỗ trợ trong giới hạn an toàn bằng cách sử dụng "Safe completions".
Trong tương lai, OpenAI sẽ mở rộng phạm vi can thiệp, chẳng hạn như nhận diện các hành vi nguy hiểm như thiếu ngủ và đưa ra cảnh báo, cung cấp thêm tài nguyên "kết nối một chạm" cho nhiều quốc gia, thậm chí kết nối thông tin của các chuyên gia trị liệu. Cũng sẽ bổ sung chức năng liên lạc khẩn cấp và giám hộ của cha mẹ, tăng cường bảo vệ cho thanh thiếu niên và các nhóm yếu thế, đảm bảo có thể nhanh chóng nhận được sự giúp đỡ trong tình huống khủng hoảng.
(Ghi chú: Safe completions đề cập đến việc mô hình sẽ cố gắng cung cấp sự trợ giúp trong phản hồi, nhưng nếu nội dung chi tiết liên quan đến những phát ngôn nguy hiểm, nó chỉ cung cấp một phần hoặc câu trả lời ở mức cao, mà không cung cấp chi tiết cụ thể.)
Giao tiếp với con người thật có lợi cho sức khỏe tinh thần và thể chất, đừng xem AI như con người.
Theo các báo cáo trước đây, kể từ khi các mô hình ngôn ngữ lớn như ChatGPT (LLM) ra đời, đã có nhiều trường hợp liên quan đến "rối loạn tâm thần AI" (AI Psychosis) được công bố. Nhiều người bắt đầu coi AI như một chỗ dựa tinh thần, bất kể vấn đề về cung hoàng đạo, cảm xúc hay các vấn đề tâm lý khác đều được tìm đến AI, dẫn đến việc phát sinh ảo tưởng và sự phụ thuộc quá mức.
Tác giả cho rằng mặc dù những mô hình AI này có thể "lắng nghe" suy nghĩ của người dùng, nhưng chúng lại không thực sự. Bởi vì chúng thiếu cảm xúc, không thể hiểu và không thể yêu, cũng như chưa từng trải qua nỗi đau và sự ngại ngùng - những cảm xúc độc quyền của con người. Chỉ khi giao tiếp với "những người thực" như gia đình, bạn bè và người thân bên cạnh, chúng ta mới thực sự bộc lộ cảm xúc của mình, vì vậy hãy nhớ giao tiếp với những người thực.
( Sử dụng ChatGPT để mở khóa sức mạnh tâm linh? Microsoft cảnh báo: Chú ý đến các trường hợp "AI tâm thần" xuất hiện thường xuyên )
Bài viết này ChatGPT liên quan đến vụ tự sát của thanh thiếu niên! OpenAI: Đã củng cố cơ chế bảo vệ tâm lý GPT-5. Xuất hiện sớm nhất trên Chain News ABMedia.