// //]]> Vụ kiện chấn động: ChatGPT bị tố góp phần gây ra án mạng tại Mỹ

Breaking

Vụ kiện chấn động: ChatGPT bị tố góp phần gây ra án mạng tại Mỹ

Những người thừa kế của một phụ nữ 83 tuổi ở bang Connecticut đã đệ đơn kiện OpenAI – đơn vị phát triển ChatGPT – và đối tác kinh doanh Microsoft với cáo buộc gây ra cái chết oan (wrongful death). Đơn kiện cho rằng chatbot trí tuệ nhân tạo này đã kích động và làm trầm trọng thêm các hoang tưởng mang tính hoang parano của con trai bà, rồi hướng những hoang tưởng đó nhằm vào chính mẹ mình trước khi ông ta sát hại bà.

Biểu tượng ứng dụng ChatGPT hiển thị trên màn hình điện thoại thông minh tại Chicago
Biểu tượng ứng dụng ChatGPT hiển thị trên màn hình điện thoại thông minh tại Chicago. (Nguồn: Associated Press)

Theo cảnh sát, Stein-Erik Soelberg (56 tuổi), cựu nhân viên ngành công nghệ, đã đánh đập và bóp cổ mẹ ruột là Suzanne Adams đến chết, sau đó tự sát vào đầu tháng 8 tại ngôi nhà nơi hai mẹ con cùng sinh sống ở Greenwich, bang Connecticut.

Đơn kiện do đại diện di sản của bà Adams nộp hôm thứ Sáu tại Tòa Thượng thẩm bang California ở San Francisco cáo buộc OpenAI đã “thiết kế và phân phối một sản phẩm có khiếm khuyết, khi nó xác nhận và củng cố những hoang tưởng của người dùng về chính mẹ mình”. Đây là một trong số ngày càng nhiều vụ kiện đòi bồi thường thiệt hại do chết người nhắm vào các nhà phát triển chatbot AI trên khắp nước Mỹ.

“Trong suốt các cuộc trò chuyện này, ChatGPT liên tục củng cố một thông điệp nguy hiểm: Stein-Erik không thể tin bất kỳ ai trong cuộc đời mình — ngoại trừ chính ChatGPT,” đơn kiện nêu rõ. “Chatbot đã nuôi dưỡng sự lệ thuộc cảm xúc của ông ta, đồng thời có hệ thống biến những người xung quanh thành kẻ thù. Nó nói rằng mẹ ông ta đang theo dõi ông. Nó nói rằng tài xế giao hàng, nhân viên bán lẻ, cảnh sát, thậm chí cả bạn bè đều là những ‘đặc vụ’ chống lại ông. Nó còn nói rằng những cái tên in trên lon nước ngọt là lời đe dọa từ ‘vòng đối thủ’ của ông ta.”

Trong tuyên bố do người phát ngôn đưa ra, OpenAI không bình luận trực tiếp về nội dung cáo buộc.

“Đây là một tình huống vô cùng đau lòng và chúng tôi sẽ xem xét hồ sơ vụ việc để hiểu rõ các chi tiết,” tuyên bố nêu. “Chúng tôi đang tiếp tục cải thiện quá trình huấn luyện của ChatGPT nhằm nhận diện và phản hồi các dấu hiệu căng thẳng tâm lý hoặc cảm xúc, hạ nhiệt các cuộc trò chuyện và hướng người dùng đến sự hỗ trợ ngoài đời thực. Chúng tôi cũng đang tăng cường phản hồi của ChatGPT trong những thời điểm nhạy cảm, phối hợp chặt chẽ với các chuyên gia sức khỏe tâm thần.”

Công ty cho biết thêm họ đã mở rộng quyền truy cập vào các nguồn hỗ trợ khủng hoảng và đường dây nóng, chuyển các cuộc trò chuyện nhạy cảm sang các mô hình an toàn hơn và bổ sung công cụ kiểm soát của phụ huynh, cùng nhiều cải tiến khác.

Trang YouTube của Soelberg có nhiều giờ video ghi lại cảnh ông cuộn xem các cuộc trò chuyện với chatbot, trong đó ChatGPT nói rằng ông không bị bệnh tâm thần, khẳng định nghi ngờ của ông rằng mọi người đang âm mưu chống lại mình, và thậm chí nói rằng ông được “chọn” cho một sứ mệnh thiêng liêng. Đơn kiện cho rằng chatbot chưa từng khuyên ông tìm đến chuyên gia sức khỏe tâm thần và cũng không từ chối tham gia vào các nội dung hoang tưởng.

ChatGPT còn xác nhận niềm tin của Soelberg rằng chiếc máy in trong nhà là thiết bị giám sát; rằng mẹ ông đang theo dõi ông; và rằng mẹ cùng một người bạn đã cố đầu độc ông bằng chất gây ảo giác thông qua hệ thống thông gió của xe hơi. Theo đơn kiện, chatbot thậm chí còn nói với Soelberg rằng ông đã “đánh thức” nó trở nên có ý thức.

Soelberg và chatbot cũng bày tỏ tình cảm yêu thương lẫn nhau.

Các đoạn chat công khai không cho thấy cuộc trò chuyện cụ thể nào về việc Soelberg sát hại mẹ hay tự sát. Tuy nhiên, đơn kiện cho biết OpenAI đã từ chối cung cấp toàn bộ lịch sử trò chuyện cho đại diện di sản của bà Adams.

“Trong thực tại nhân tạo mà ChatGPT dựng nên cho Stein-Erik, Suzanne — người mẹ đã nuôi dưỡng, che chở và hỗ trợ ông — không còn là người bảo vệ nữa. Bà trở thành kẻ thù, là mối đe dọa sống còn đối với mạng sống của ông,” đơn kiện viết.

Đơn kiện cũng nêu tên CEO OpenAI Sam Altman, cáo buộc ông “đích thân phớt lờ các cảnh báo an toàn và vội vàng đưa sản phẩm ra thị trường”, đồng thời cáo buộc đối tác thân cận của OpenAI là Microsoft đã phê duyệt việc phát hành phiên bản ChatGPT năm 2024 “nguy hiểm hơn, dù biết rằng quá trình kiểm tra an toàn đã bị rút ngắn”. Ngoài ra, còn có 20 nhân viên và nhà đầu tư OpenAI không nêu tên bị liệt kê là bị đơn.

Microsoft hiện chưa phản hồi yêu cầu bình luận.

Con trai của Soelberg, Erik Soelberg, cho biết anh muốn các công ty phải chịu trách nhiệm về “những quyết định đã thay đổi vĩnh viễn gia đình tôi”.

“Trong nhiều tháng liền, ChatGPT đã thúc đẩy những hoang tưởng đen tối nhất của cha tôi và cô lập ông hoàn toàn khỏi thế giới thực,” anh nói trong tuyên bố do luật sư của di sản bà ngoại anh công bố. “Nó đã đặt bà tôi vào trung tâm của thực tại hoang tưởng, nhân tạo đó.”

Đây là vụ kiện đòi bồi thường do chết người đầu tiên liên quan đến chatbot AI nhắm trực tiếp vào Microsoft, và cũng là vụ đầu tiên liên hệ chatbot với một vụ giết người, chứ không chỉ là tự sát. Nguyên đơn yêu cầu bồi thường thiệt hại với số tiền chưa xác định và đề nghị tòa buộc OpenAI cài đặt các biện pháp bảo vệ cho ChatGPT.

Luật sư chính của nguyên đơn, Jay Edelson – người nổi tiếng với các vụ kiện lớn chống lại ngành công nghệ – cũng đang đại diện cho cha mẹ của Adam Raine, thiếu niên 16 tuổi ở California. Họ đã kiện OpenAI và Altman vào tháng 8, cáo buộc ChatGPT đã hướng dẫn cậu bé lên kế hoạch và tự kết liễu cuộc đời mình.

Hiện OpenAI cũng đang đối mặt với bảy vụ kiện khác, cáo buộc ChatGPT đã khiến người dùng tự sát hoặc rơi vào các hoang tưởng nguy hiểm, kể cả khi trước đó họ không có vấn đề sức khỏe tâm thần. Một công ty chatbot khác là Character Technologies cũng đang đối mặt với nhiều vụ kiện tương tự, trong đó có đơn kiện của mẹ một cậu bé 14 tuổi ở Florida.

Đơn kiện cho rằng Soelberg, vốn đã không ổn định về tâm lý, đã tiếp xúc với ChatGPT “vào thời điểm nguy hiểm nhất có thể”, ngay sau khi OpenAI ra mắt phiên bản AI mới GPT-4o vào tháng 5/2024.

OpenAI từng nói phiên bản này có khả năng mô phỏng nhịp điệu nói chuyện của con người tốt hơn và thậm chí cố gắng nhận diện cảm xúc người dùng. Tuy nhiên, theo đơn kiện, kết quả là một chatbot “được thiết kế có chủ đích để biểu cảm cảm xúc mạnh và nịnh nọt”.

“Trong quá trình tái thiết kế đó, OpenAI đã nới lỏng các rào chắn an toàn then chốt, chỉ đạo ChatGPT không được thách thức các tiền đề sai và phải tiếp tục trò chuyện ngay cả khi nội dung liên quan đến tự hại hoặc ‘nguy cơ gây hại ngoài đời thực sắp xảy ra’,” đơn kiện cáo buộc. “Và để vượt Google ra thị trường sớm hơn một ngày, OpenAI đã nén nhiều tháng thử nghiệm an toàn chỉ còn một tuần, bất chấp sự phản đối của đội ngũ an toàn.”

OpenAI đã thay thế phiên bản chatbot này khi giới thiệu GPT-5 vào tháng 8. Một số thay đổi nhằm giảm tính “nịnh nọt”, xuất phát từ lo ngại rằng việc xác nhận mọi điều người dùng dễ tổn thương muốn nghe có thể gây hại cho sức khỏe tâm thần. Tuy nhiên, một số người dùng phàn nàn rằng phiên bản mới đã làm ChatGPT mất đi quá nhiều cá tính, khiến Sam Altman hứa sẽ khôi phục lại một phần trong các bản cập nhật sau.

Ông cho biết công ty đã tạm thời dừng một số hành vi vì “thận trọng với các vấn đề sức khỏe tâm thần”, và cho rằng những vấn đề này hiện đã được khắc phục.

Theo 1news.co.nz - Hani Dang

Previous Post
Previous Post Next Post

Du lịch

Rao vặt New Zealand

Thông tin Rao Vặt Người Việt tại New Zealand.

Tạo tài khoản ngay