GS Yuval Noah Harari: Con người hiểu sai và nghĩ ngắn về AI

Theo GS Yuval Noah Harari, tác giả sách "Sapiens: Lược sử loài người" và "Nexus", điều nguy hiểm là con người đang xem nhẹ AI khi coi đây chỉ là công cụ hỗ trợ.


Tại Diễn đàn Kinh tế Thế giới, diễn ra tại Davos (Thụy Sĩ) ngày 19-23/1, ông Harari cảnh báo thế giới đang đánh giá sai về trí tuệ nhân tạo. Mối nguy hiểm thực sự không nằm ở tốc độ phát triển của công nghệ, mà ở cách con người đối xử với nó một cách thiếu nghiêm túc.


Theo Forbes, bài phát biểu của Harari đơn giản nhưng đầy tính đột phá. Ông nói: "Điều quan trọng nhất cần biết về AI là nó không chỉ là công cụ đơn thuần. Nó là một tác nhân. Nó có thể tự học hỏi, tự thay đổi và tự đưa ra quyết định".


Ông đưa ra phép ẩn dụ về con dao. Dao là một công cụ. Một người dùng dao để cắt salad, nhưng cũng có thể gây thương tích cho con người. "Bạn làm gì với con dao đó do bạn quyết định, nhưng AI là một con dao mà chính nó có thể tự quyết định xem nên cắt salad hay giết người", ông nói.


Cách nhìn này được đánh giá quan trọng vì đến nay, hầu hết quy tắc công nghệ dựa trên mối quan hệ cũ: con người quyết định, công cụ thực thi. Còn theo luận điểm của Harari, AI bắt đầu phá vỡ mối quan hệ đó. Một khi điều đó xảy ra, các mô hình thông thường về trách nhiệm giải trình, quy định và thậm chí cả lòng tin sẽ bắt đầu "lung lay".


Tác giả cuốn Nexus nêu ba đặc điểm theo ông sẽ khiến AI khác biệt so với các công cụ trước đây. Thứ nhất, nó rất chủ động, có thể học hỏi, thích nghi và hành động mà không cần chờ đợi hướng dẫn từng bước từ con người. Thứ hai, nó mang tính sáng tạo, có thể "phát minh ra dao mới", từ đó dần mất kiểm soát nếu không quản lý. Thứ ba, cũng đáng lo ngại nhất, là AI có thể nói dối và thao túng.


"Bốn tỷ năm tiến hóa đã chứng minh bất cứ thứ gì muốn tồn tại đều học cách nói dối và thao túng", Harari nói. "Bốn năm qua đã chứng minh rằng các tác nhân AI bắt đầu có ý chí sinh tồn và chúng đã học được cách nói dối".


Cũng theo ông, nếu một kẻ lừa đảo có thể nhắm mục tiêu vào hàng chục người, một hệ thống AI dễ dàng hướng đến hàng triệu người, liên tục điều chỉnh những gì nó nói dựa trên những gì hiệu quả. "Trong nhiều cuộc thảo luận tại Davos, khi nhiều người nhắc đến từ 'dài hạn', họ thường ám chỉ thời gian vài năm. Nhưng khi tôi nói về từ này, tôi nghĩ đến 200 năm sau", Harari cho biết.


Harari so sánh sự phát triển của AI hiện tại với giai đoạn đầu của cuộc Cách mạng công nghiệp, cho rằng nhân loại thường hiểu sai về các công nghệ mang tính đột phá khi chúng phát triển. Những hậu quả sâu sắc nhất của quá trình công nghiệp hóa phải mất nhiều thế hệ mới bộc lộ đầy đủ, thường thông qua biến động xã hội, chính trị và địa chính trị mà không ai có thể dự đoán trước được.


"Bạn có thể thử nghiệm các sự cố có thể xảy ra", ông nói. "Nhưng bạn không thể thử nghiệm những tác động địa chính trị, hay tác động văn hóa của động cơ hơi nước trong phòng thí nghiệm. Điều đó cũng tương tự với AI".


Ông cũng cảnh báo, ngay cả khi dừng phát triển AI hôm nay, những tác động lâu dài của công nghệ này vẫn khó nắm bắt. "Hòn đá đã được ném xuống hồ, nhưng nó vừa chỉ chạm vào mặt nước thôi", ông nói. "Chúng ta không biết những con sóng nào sẽ được tạo ra, ngay cả với các AI đã có cách đây 1-2 năm".


Harari là người mới nhất "gia nhập" danh sách những nhà nghiên cứu AI và giới lãnh đạo công nghệ bày tỏ lo ngại về rủi ro của AI, từ làn sóng mất việc làm đến sự tuyệt chủng của loài người. Tuy nhiên, phát biểu tại Davos, điều khiến ông lo lắng nhất không chỉ là sự không chắc chắn mà còn là sự tự mãn. Theo ông, nhiều người đang ra "những quyết định quyền lực nhất" tập trung vào lợi ích ngắn hạn thay vì nhìn ra hậu quả dài hạn. Hệ quả xã hội của AI sẽ diễn ra rất lâu sau này, bất kể thế giới đã sẵn sàng hay chưa.


"Điều tôi lo ngại nhất là việc thiếu sự quan tâm đến thực tế, rằng chúng ta đang tạo ra công nghệ mạnh mẽ nhất trong lịch sử loài người," ông nói. "Ngay cả những người rất thông minh và quyền lực nhất cũng lo lắng, nhưng chỉ suy nghĩ theo hướng vài tháng, hoặc vài năm".


Ở quy mô quốc gia, ông cũng dự đoán AI sẽ đẩy nhân loại vào "một cuộc khủng hoảng bản sắc". "Chúng ta thường tự đánh giá bản thân dựa trên khả năng tư duy, nhưng trí tuệ nhân tạo có thể sẽ sớm vượt trội loài người ở nhiệm vụ này", ông nói.


Theo giáo sư, AI hiện có thể "suy nghĩ hoặc ít nhất sắp xếp câu từ tốt hơn con người". Đây chính là một phần của tư duy. Khắp các lĩnh vực: Luật pháp được tạo nên từ ngôn từ; Hợp đồng được tạo nên từ ngôn từ; Quản trị được tạo nên từ ngôn từ; Giáo dục, thuyết phục, hệ tư tưởng và phần lớn đời sống doanh nghiệp đều vận hành dựa trên ngôn ngữ.


"Mọi thứ được tạo nên từ ngôn từ sẽ bị AI tiếp quản", Harari nhấn mạnh.


Bên cạnh đó, ông nhận định mọi quốc gia đều sẽ phải đối mặt với khủng hoảng bản sắc từ "nhập cư mới". Ông ví dụ, thời xưa, mỗi vùng đất khi có nhiều người lạ cùng tới sẽ gây xáo trộn văn hóa. Nhưng hiện tại, khi AI "nhập cư", chúng sẽ "dối giỏi hơn và di chuyển với tốc độ ánh sáng mà không cần thị thực". Điều này vừa mang đến lợi ích vừa gây nhiều vấn đề, khi xã hội có thể có bác sĩ AI giỏi, giáo viên AI xuất sắc hay thậm chí lính biên phòng AI "ngăn chặn nhập cư" bất hợp pháp. Dù vậy, AI cũng có thể cướp việc làm, thay đổi hoàn toàn văn hóa, bao gồm nghệ thuật, tôn giáo và tình yêu.


Ông sau đó hỏi khán giả, rằng liệu họ có muốn cho phép AI được công nhận là "pháp nhân" tại quốc gia, có quyền như thành lập doanh nghiệp, hình thành và truyền bá tôn giáo riêng, thậm chí làm bạn và kết hôn với con người hay không.


"Nếu muốn câu trả lời, muốn tác động đến hướng đi của nhân loại, chúng ta cần phải đưa ra quyết định ngay bây giờ", ông nói.


Theo ông, tất cả các luận điểm trên dẫn đến câu hỏi quan trọng yêu cầu mọi nhà lãnh đạo phải giải quyết: "Liệu mỗi quốc gia có công nhận những người nhập cư bằng AI là những cá nhân hợp pháp?".


Harari hình dung chỉ cần một quốc gia lớn như Mỹ công nhận, AI có thể gây tác động lớn ở quy mô toàn cầu. Chẳng hạn, AI có thể phát minh thiết bị tài chính siêu hiệu quả và cực kỳ phức tạp mà con người không thể hiểu hết, từ đó không biết cách quản lý. Lúc này, các mô hình tài chính truyền thống sẽ đối mặt với nguy cơ sụp đổ.


"Thực tế, trên mạng xã hội, các tác nhân AI đã có thể hoạt động như những cá nhân có chức năng đầy đủ trong ít nhất một thập kỷ. Nếu nghĩ AI không nên được đối xử như con người trên mạng xã hội, bạn nên hành động từ 10 năm trước", ông nói thêm.


Yuval Noah Harari là nhà sử học, triết học người Israel, được đánh giá là một nhà nghiên cứu xuất sắc tại Trung tâm Nghiên cứu Rủi ro Hiện sinh thuộc Đại học Cambridge và là giáo sư lịch sử tại Đại học Hebrew Jerusalem. Ông là tác giả nổi tiếng toàn cầu với hàng loạt đầu sách bán chạy như Sapiens: Lược sử loài người, Homo Deus: Lược sử tương lai, 21 bài học cho thế kỷ 21, hay gần nhất là Nexus. Trong đó, Homo Deus xuất bản năm 2015 và Nexus năm 2024 bàn về mối đe dọa hiện sinh mà AI gây ra cho nhân loại.


Bảo Lâm tổng hợp









GS Yuval Noah Harari: Con nguoi hieu sai va 'nghi ngan' ve AI


Theo GS Yuval Noah Harari, tac gia sach "Sapiens: Luoc su loai nguoi" va "Nexus", dieu nguy hiem la con nguoi dang xem nhe AI khi coi day chi la cong cu ho tro.

GS Yuval Noah Harari: Con người hiểu sai và 'nghĩ ngắn' về AI

Theo GS Yuval Noah Harari, tác giả sách "Sapiens: Lược sử loài người" và "Nexus", điều nguy hiểm là con người đang xem nhẹ AI khi coi đây chỉ là công cụ hỗ trợ.
GS Yuval Noah Harari: Con người hiểu sai và nghĩ ngắn về AI
www.tincongnghe.net
Giới thiệu cho bạn bè
  • gplus
  • pinterest

Bình luận

Đăng bình luận

Đánh giá: