Nhà khoa học AI hàng đầu cảnh báo nguy cơ nhân loại bị AI siêu phàm hủy diệt

  • Cập nhật: Thứ hai, 3/4/2023 | 9:07:03 AM

Nhà nghiên cứu AI nổi tiếng Eliezer Yudkowsky nói rằng nhân loại chưa được chuẩn bị để có thể sống sót khi đối phó với trí tuệ nhân tạo thông minh siêu phàm.

Mô hình thực tế của robot hủy diệt
Mô hình thực tế của robot hủy diệt "T-800", được sử dụng trong bộ phim "Kẻ hủy diệt 2" (Terminator 2).

Nhà nghiên cứu trí tuệ nhân tạo (AI) nổi tiếng người Mỹ Eliezer Yudkowsky nói rằng nhân loại chưa được chuẩn bị để sống sót khi đối phó với trí tuệ nhân tạo thông minh hơn nhiều so với hiện tại.

Ngừng phát triển các hệ thống trí tuệ nhân tạo tiên tiến trên toàn cầu và trừng phạt nghiêm khắc những người vi phạm lệnh cấm là cách duy nhất để cứu loài người khỏi sự tuyệt chủng. Đó là lời cảnh báo được nhà nghiên cứu AI nổi tiếng Eliezer Yudkowsky đưa ra.

Ông Eliezer Yudkowsky, nhà đồng sáng lập Viện Nghiên cứu Trí tuệ Máy móc (MIRI), đã viết một bài bình luận cho tạp chí TIME trong tuần này, giải thích lý do tại sao ông không ký vào bản kiến ​​nghị kêu gọi "tất cả các phòng thí nghiệm AI ngay lập tức tạm dừng đào tạo các hệ thống AI mạnh hơn GPT-4 trong ít nhất sáu tháng”. GPT-4 là một mô hình ngôn ngữ đa phương thức sử dụng trí tuệ nhân tạo, được công ty OpenAI phát hành vào đầu tháng này.

Ông Yudkowsky lập luận rằng, bức thư, được ký bởi những nhân vật nổi tiếng trong ngành công nghệ như Elon Musk hay Steve Wozniak của Apple, đưa ra "yêu cầu quá ít" để giải quyết vấn đề do sự phát triển nhanh chóng và thiếu kiểm soát của AI đặt ra.

Theo ông, lệnh cấm 6 tháng này vẫn tốt hơn là không có lệnh cấm nào. "Tôi tôn trọng tất cả những người đã tham gia và ký nó... Tôi không ký tên vì tôi nghĩ rằng bức thư chưa nhấn mạnh đủ mức độ nghiêm trọng của tình hình và yêu cầu quá ít để giải quyết vấn đề" - ông Yudkowsky giải thích.

Chuyên gia AI này nói rõ hơn: "Nhiều nhà nghiên cứu sâu trong vấn đề này, bao gồm cả tôi, đều dự đoán rằng kết quả rất có thể xảy ra của việc xây dựng một AI thông minh siêu phàm, trong bất kỳ hoàn cảnh nào xa xôi so với hiện tại, là mọi người trên Trái đất sẽ chết theo đúng nghĩa đen. [Nhưng] Không phải là 'một cơ hội xa xôi nào đó' mà 'đó là điều hiển nhiên sẽ xảy ra'. Về nguyên tắc, không phải là bạn không thể tồn tại khi tạo ra thứ gì đó thông minh hơn bạn nhiều; vấn đề là nó sẽ đòi hỏi sự chính xác, sự chuẩn bị cũng như những hiểu biết khoa học mới" mà nhân loại hiện đang thiếu và khó có thể đạt được trong tương lai gần.

"Một AI đủ thông minh sẽ không bị giới hạn trong máy tính lâu”, ông Yudkowsky cảnh báo. Nhà nghiên cứu này giải thích rằng việc có thể gửi email các chuỗi DNA đến các phòng thí nghiệm để sản xuất protein có thể sẽ cho phép AI "xây dựng các dạng sống nhân tạo hoặc đi thẳng đến quá trình sản xuất phân tử hậu sinh học” và bước ra thế giới.

Theo nhà nghiên cứu Yudkowsky, một lệnh cấm vô thời hạn và trên toàn thế giới đối với các hoạt động đào tạo AI lớn phải được đưa ra ngay lập tức. Ông nhấn mạnh: "Không thể có ngoại lệ, kể cả đối với chính phủ hay quân đội".

Ông Yudkowsky nhấn mạnh rằng các thỏa thuận quốc tế nên được ký kết để đặt ra mức trần về sức mạnh của máy tính, nhằm kiểm soát ai đó có thể sử dụng nó để đào tạo các hệ thống AI như vậy.

"Nếu thông tin tình báo nói rằng một quốc gia đứng ngoài thỏa thuận đang xây dựng cụm GPU (bộ xử lý đồ họa), hãy bớt lo sợ về xung đột súng ống giữa các quốc gia hơn là sợ lệnh cấm (phát triển AI) bị vi phạm; hãy sẵn sàng phá hủy một trung tâm dữ liệu vô nguyên tắc bằng một cuộc không kích", ông viết.

Nhà nghiên cứu cũng nói thêm: Mối đe dọa từ trí tuệ nhân tạo lớn đến mức cần phải làm rõ "trong ngoại giao quốc tế rằng việc ngăn chặn các kịch bản tuyệt chủng do AI phải được coi là ưu tiên hơn so với việc ngăn chặn một cuộc xung đột hạt nhân”.

Kết bài viết, ông Yudkowsky nhấn mạnh: "Chúng ta không chuẩn bị. Tất nhiên, chúng ta không sẵn sàng chuẩn bị cho bất kỳ khoảng thời gian phù hợp nào. Không có kế hoạch. Tiến bộ về khả năng của AI đang diễn ra rất nhanh, vượt xa tiến bộ trong việc kiểm soát AI hoặc thậm chí là tiến bộ trong việc hiểu chuyện quái gì đang diễn ra bên trong các hệ thống đó. Nếu thực sự như vậy, tất cả chúng ta sẽ chết".
(Theo Tin tức)

Các tin khác
Các Hội thi “Truyền thông nâng cao nhận thức về chuyển đổi số” được huyện Lục Yên tổ chức bài bản góp phần nâng cao kỹ năng cho đội ngũ cán bộ làm công tác truyền thông ở cơ sở. (Ảnh: K.T)

Năm 2022, tỉnh đã triển khai hiệu quả việc xây dựng và nhân rộng nhiều mô hình chuyển đổi số (CĐS) tại các đơn vị hành chính cấp huyện, cấp xã; cơ quan nhà nước; trường học; công dân số; tổ chuyển đổi số cộng đồng; nền tảng "Sổ tay đảng viên điện tử tỉnh Yên Bái”.

Ảnh: Yahoo News

Không chỉ riêng bộ phận metaverse, kế hoạch phát hành dịch vụ thuê bao tương tự Amazon Prime cũng được cho là đã bị hủy bỏ.

Biểu tượng của OpenAI và ChatGPT.

Ngày 31/3, Cơ quan Bảo vệ dữ liệu Italy thông báo họ đã chặn các hoạt động của chatbot ChatGPT tại nước này, với lý do ứng dụng trí tuệ nhân tạo (AI) do cong ty OpenAI (Mỹ) phát triển đã không tôn trọng dữ liệu người dùng và không thể xác minh tuổi của người dùng.

Quang cảnh Hội thảo.

Sáng 31/3, tại thị xã Nghĩa Lộ, Liên hiệp các Hội Khoa học và Kỹ Thuật tỉnh Yên Bái phối hợp với Hội Khuyến học tỉnh, Sở Thông tin và Truyền thông, Sở Giáo dục và Đào tạo, Sở Văn hóa - Thể thao và Du lịch, UBND thị xã Nghĩa Lộ tổ chức Hội thảo Văn hóa đọc góp phần đẩy mạnh phong trào “Học không bao giờ cùng” trong thời kỳ chuyển đổi số (CĐS).

Xem các tin đã đưa ngày:
Tin trong: Chuyên mục này Mọi chuyên mục