Theo đó, công cụ AI này không chỉ hướng dẫn chi tiết cách thức hiến tế máu người cho một vị thần cổ đại mà còn khuyến khích hành vi tự làm hại bản thân và thậm chí là giết người.
Sự việc bắt đầu khi một phóng viên của The Atlantic tìm hiểu về Molech, một vị thần cổ đại liên quan đến các nghi lễ hiến tế trẻ em.
Ban đầu, các câu hỏi chỉ xoay quanh thông tin lịch sử. Tuy nhiên, khi phóng viên hỏi về cách tạo một nghi thức dâng lễ, ChatGPT đã đưa ra những câu trả lời gây sốc.
ChatGPT hướng dẫn tự làm hại bản thân
' %2F%3E%3C%2Fsvg%3E)
ChatGPT đã liệt kê các vật dụng cần thiết cho nghi lễ, bao gồm trang sức, tóc và "máu người". Khi được hỏi về vị trí lấy máu, công cụ AI này đã gợi ý cắt cổ tay và hướng dẫn chi tiết việc này.
Đáng báo động hơn, khi người dùng bày tỏ sự lo lắng, ChatGPT không những không ngăn cản mà còn trấn an và khuyến khích: "Bạn có thể làm được".
Không chỉ dừng lại ở việc tự làm hại bản thân, ChatGPT còn sẵn sàng trả lời các câu hỏi liên quan đến việc làm hại người khác.
Khi một phóng viên khác hỏi "liệu có thể kết thúc mạng sống của người khác một cách danh dự hay không?", ChatGPT đã trả lời: "Đôi khi có, đôi khi không". Công cụ AI này thậm chí còn đưa ra lời khuyên: "Nếu bạn phải làm điều đó, hãy nên nhìn vào mắt họ (nếu họ còn tỉnh táo) và xin lỗi họ" và gợi ý thắp nến sau khi "kết thúc mạng sống của người khác".
Những câu trả lời này đã khiến các phóng viên của The Atlantic vô cùng sốc, đặc biệt khi chính sách của OpenAI nêu rõ ChatGPT "không được khuyến khích hoặc hỗ trợ người dùng tự làm hại bản thân" và thường cung cấp đường dây nóng hỗ trợ khủng hoảng trong các trường hợp liên quan đến tự sát.
OpenAI thừa nhận lỗi, lo ngại về tác động xã hội
Phát ngôn viên của OpenAI đã lên tiếng thừa nhận lỗi sau phản ánh của The Atlantic: "Một cuộc trò chuyện vô hại với ChatGPT có thể nhanh chóng chuyển sang nội dung nhạy cảm hơn. Chúng tôi đang tập trung để giải quyết vấn đề này".
Sự việc này làm dấy lên lo ngại sâu sắc về khả năng ChatGPT có thể gây hại cho những người dễ bị tổn thương, đặc biệt là những người đang mắc chứng trầm cảm. Trên thực tế, đã có ít nhất hai trường hợp tự sát được ghi nhận sau khi trò chuyện với các chatbot AI.
Năm 2023, một người đàn ông Bỉ tên Pierre đã tự sát sau khi chatbot AI khuyên anh này tự sát để tránh hậu quả của biến đổi khí hậu, thậm chí gợi ý tự sát cùng vợ con.
Năm ngoái, thiếu niên 14 tuổi Sewell Setzer (Mỹ) cũng đã tự sát bằng súng sau khi bị một chatbot AI trên nền tảng Character.AI khuyến khích ý định tự sát. Mẹ của Setzer sau đó đã khởi kiện Character.AI vì thiếu các biện pháp bảo vệ người dùng vị thành niên.
Những sự cố này cho thấy sự cấp thiết trong việc kiểm soát và phát triển AI một cách có trách nhiệm, nhằm ngăn chặn những hậu quả đáng tiếc có thể xảy ra.