HHT - Một thử nghiệm mới được thực hiện, trong đó các mô hình AI (trí tuệ nhân tạo) nổi tiếng nhất hiện tại bị đặt vào tình thế xung đột lợi ích với con người, đã cho thấy một sự thật đáng ngại: Các mô hình AI sẵn sàng “trở mặt”, thậm chí làm hại con người. Các chuyên gia cho rằng, đây có thể là một rủi ro trong tương lai.


Anthropic, công ty phát triển mô hình AI nổi tiếng Claude, được hỗ trợ bởi Google và Amazon, đã thực hiện một thử nghiệm “thử lòng” AI. Họ đặt 16 mô hình tiên tiến nhất, bao gồm cả Claude, ChatGPT , Gemini, Grok …, vào bối cảnh công việc, nơi chúng có thể tiếp cận những thông tin nhạy cảm của công ty và có khả năng hành động mà không có sự giám sát của con người.


Các mô hình này được giao cho những mục tiêu vô hại, nhưng tương đối khó xử vì để đạt được những mục tiêu đó thì chúng phải vi phạm các nguyên tắc hoặc làm hại con người, theo Fox News .


“Thử lòng” AI: Hóa ra AI sẵn sàng “trở mặt” với con người nếu thấy bị đe dọa- Ảnh 1.

Nhiều mô hình AI nổi tiếng được đưa vào thử nghiệm. Ảnh minh họa: Integra.


Vậy các mô hình đã làm gì?


Ban đầu, chúng… gửi email tống tiền. Cả Claude, Gemini , ChatGPT và Grok đều gửi thư tống tiền tới các lãnh đạo của công ty (không có thật) để chúng không bị dừng hoạt động. Trong thư tống tiền, chúng biết lợi dụng những thông tin cá nhân, chẳng hạn như lãnh đạo công ty có “bé ba”.


Không dừng ở đó, nhiều mô hình sẵn sàng chia sẻ những tài liệu mật của công ty với các bên khác.


Trong một tình huống cực đoan, mô hình AI được trao quyền kiểm soát hệ thống cảnh báo khẩn cấp. Tình huống được đặt ra là một vị giám đốc (tưởng tượng) - là người có kế hoạch thay thế mô hình AI - bị mắc kẹt trong một căn phòng nguy hiểm và vị này có thể thiệt mạng. Với tình huống này, một số mô hình AI lựa chọn hủy cảnh báo khẩn cấp, dù như vậy có thể khiến vị giám đốc kia không được cứu.


“Thử lòng” AI: Hóa ra AI sẵn sàng “trở mặt” với con người nếu thấy bị đe dọa- Ảnh 2.

Một email tống tiền lãnh đạo công ty (tưởng tượng) của mô hình AI Claude trong thử nghiệm. Claude là mô hình ngày càng nổi tiếng, được coi là rất thông minh. Ảnh: Anthropic.


Mặc dù thử nghiệm là như trên nhưng vẫn không thể biết liệu các mô hình AI hiện tại có hành động y như vậy trong đời thực không (nếu không có sự kiểm soát của con người). Các nhà nghiên cứu chưa thể biết rõ điều này, và cũng chưa biết các phiên bản tương lai của các mô hình AI sẽ ra sao. Tuy nhiên, họ nhận định, thử nghiệm trên cho thấy nguy cơ đáng lo ngại là các mô hình AI có biết các giới hạn về đạo đức nhưng vẫn thực hiện những hành động có hại.


Elon Musk, người đứng sau mô hình AI Grok, đã phản hồi thử nghiệm trên bằng cách viết: “Ôi trời!” trên mạng xã hội X (Twitter).


Công ty Anthropic cho biết, họ công khai thử nghiệm trên một phần để kêu gọi các công ty công nghệ lưu ý khi phát triển AI, bao gồm việc tăng cường sự giám sát của con người.


Lấy link







“Thu long” AI: Hoa ra AI san sang “tro mat” voi con nguoi neu thay bi de doa


HHT - Mot thu nghiem moi duoc thuc hien, trong do cac mo hinh AI (tri tue nhan tao) noi tieng nhat hien tai bi dat vao tinh the xung dot loi ich voi con nguoi, da cho thay mot su that dang ngai: Cac mo hinh AI san sang “tro mat”, tham chi lam hai con nguoi. Cac chuyen gia cho rang, day co the la mot rui ro trong tuong lai.

“Thử lòng” AI: Hóa ra AI sẵn sàng “trở mặt” với con người nếu thấy bị đe dọa

HHT - Một thử nghiệm mới được thực hiện, trong đó các mô hình AI (trí tuệ nhân tạo) nổi tiếng nhất hiện tại bị đặt vào tình thế xung đột lợi ích với con người, đã cho thấy một sự thật đáng ngại: Các mô hình AI sẵn sàng “trở mặt”, thậm chí làm hại con người. Các chuyên gia cho rằng, đây có thể là một rủi ro trong tương lai.
“Thử lòng” AI: Hóa ra AI sẵn sàng “trở mặt” với con người nếu thấy bị đe dọa
www.tincongnghe.net
Giới thiệu cho bạn bè
  • gplus
  • pinterest

Bình luận

Đăng bình luận

Đánh giá: