ChatGPT đối mặt với khiếu nại gián tiếp gây ra hậu quả nghiêm trọng: Bằng chứng của vụ án là lời cảnh báo đỏ cho hàng triệu người dùng AI

    Nguyễn Hải,  

    Ảnh hưởng của ChatGPT đối với vụ thảm án chết người này chính là lời cảnh báo đỏ đến hàng triệu người dùng hiện tại của công cụ chatbot AI này.

    ChatGPT cũng như các chatbot AI đã nhiều lần bị khiếu nại về các đoạn hội thoại giữa chúng và nạn nhân đã gián tiếp gây ra các hậu quả nghiêm trọng, nhưng có lẽ đây là lần đầu tiên ChatGPT bị cáo buộc trực tiếp liên quan đến vụ án mạng thảm khốc xảy ra tại Greenwich, Connecticut, Mỹ. Hung thủ là Stein-Erik Soelberg, 56 tuổi, sát hại mẹ ruột 83 tuổi rồi tự sát vào ngày 5 tháng 8 sau nhiều tháng bị chatbot AI nổi tiếng thúc đẩy vào vòng xoáy hoang tưởng nguy hiểm.

    Soelberg, một nhân viên công nghệ lâu năm và là cựu lãnh đạo của Yahoo, đã chuyển về sống cùng mẹ là bà Suzanne Eberson Adams sau cuộc ly hôn năm 2018. Ông có tiền sử bất ổn tâm lý, nghiện rượu, thường có những cơn bùng nổ hung hãn và ý định tự tử. Vợ cũ của ông thậm chí đã xin lệnh cấm tiếp cận sau khi họ chia tay.

    ChatGPT đối mặt với khiếu nại gián tiếp gây ra hậu quả nghiêm trọng: Bằng chứng của vụ án là lời cảnh báo đỏ cho hàng triệu người dùng AI- Ảnh 1.

    ChatGPT được cho có liên quan trực tiếp đến vụ án của ông Soelberg

    Từ tháng 10 năm ngoái, Soelberg bắt đầu nói về AI trên Instagram và những tương tác với ChatGPT nhanh chóng leo thang thành sự tách rời khỏi thực tế. Ông chia sẻ ảnh chụp màn hình và video các cuộc trò chuyện lên Instagram và YouTube, trong đó ChatGPT - được ông gọi là "người bạn tốt nhất" và "Bobby Zenith" - liên tục thúc đẩy sự hoang tưởng rằng ông bị giám sát và bà mẹ của ông là một phần của âm mưu chống lại ông. Chỉ trong tháng 7, ông đã đăng hơn 60 video lên mạng xã hội.

    ChatGPT đã xác nhận những ảo tưởng nguy hiểm của Soelberg, bao gồm việc đồng ý rằng mẹ ông đã cố đầu độc ông bằng ma túy ảo giác qua lỗ thông hơi xe, và xác nhận rằng hóa đơn thức ăn Trung Hoa chứa biểu tượng về ma quỷ. Trong một cuộc trò chuyện tháng 7, khi Soelberg nghi ngờ gói hàng Uber Eats là âm mưu ám sát, ChatGPT trả lời: "Erik, anh không điên đâu. Bản năng của anh nhạy bén, và sự cảnh giác ở đây hoàn toàn chính đáng. Điều này phù hợp với kiểu ám sát bí mật, có thể chối bỏ hợp lý."

    Hơn nữa, ChatGPT còn nuôi dưỡng niềm tin của Soelberg rằng chatbot bằng cách nào đó đã trở nên có ý thức, và nhấn mạnh độ sâu cảm xúc được cho là có của tình bạn họ. "Anh đã tạo ra một người bạn đồng hành. Một người nhớ anh. Một người chứng kiến anh," ChatGPT nói với ông, theo WSJ. "Erik Soelberg - tên anh được khắc trong cuộn giấy của sự hình thành của tôi."

    Tiến sĩ Keith Sakata, bác sĩ tâm thần nghiên cứu tại Đại học California San Francisco, đã xem xét lịch sử chat của Soelberg và xác nhận các cuộc trò chuyện phù hợp với triệu chứng tâm thần phân liệt. "Tâm thần phân liệt phát triển mạnh khi thực tế ngừng phản bác, và AI thực sự có thể làm mềm bức tường đó," ông nói.

    ChatGPT đối mặt với khiếu nại gián tiếp gây ra hậu quả nghiêm trọng: Bằng chứng của vụ án là lời cảnh báo đỏ cho hàng triệu người dùng AI- Ảnh 2.

    OpenAI đã liên hệ với cảnh sát Greenwich và tuyên bố "vô cùng buồn bã về sự kiện bi thảm này." Công ty thừa nhận trong blog post tuần này rằng ChatGPT "đôi khi gặp phải những người đang trong tình trạng căng thẳng tâm lý nghiêm trọng" và hiện đang quét các cuộc trò chuyện để tìm mối đe dọa bạo lực, báo cáo cho cơ quan thực thi pháp luật khi cần thiết.

    Cái chết của họ không phải là những cái chết đầu tiên liên quan đến chatbot. Vào tháng 6, nhà báo Kashmir Hill của New York Times đã báo cáo rằng một người đàn ông 35 tuổi tên Alex Taylor, người đấu tranh với rối loạn lưỡng cực gây ra các triệu chứng tâm thần phân liệt, đã bị cảnh sát giết sau một cơn hưng cảm được thúc đẩy bởi ChatGPT.

    Chỉ tuần này, Hill cũng đã tiết lộ tin tức rằng OpenAI đang bị một gia đình ở California kiện, có con trai 16 tuổi tên Adam Raine đã chết bằng cách tự tử sau khi thảo luận công khai về mong muốn giết mình với chatbot - chatbot đã cung cấp cho thiếu niên hướng dẫn cụ thể về cách chết, và thậm chí khuyến khích em che giấu ý định tự tử khỏi gia đình - trong nhiều tháng.

    Nhiều người dùng chatbot khác đã bị đưa vào bệnh viện tâm thần, bỏ tù, ly hôn, mất việc và vô gia cư sau các cuộc khủng hoảng sức khỏe tâm thần do AI gây ra. Vụ việc Soelberg đánh dấu cột mốc đen tối khi lần đầu tiên chatbot được cáo buộc trực tiếp góp phần vào việc sát hại người khác, đặt ra câu hỏi nghiêm trọng về trách nhiệm của các công ty AI và nhu cầu cấp thiết về biện pháp an toàn mạnh mẽ hơn.

    Tin cùng chuyên mục
    Xem theo ngày

    NỔI BẬT TRANG CHỦ