Phát triển AI có trách nhiệm là gì?
Phát triển AI có trách nhiệm được nhiều nhà nghiên cứu chú trọng, nhưng trong thế giới công nghệ lớn, mối lo ngại này dường như bị lãng quên.
Như Dimitri Sirota, Giám đốc điều hành của BigID: "AI có trách nhiệm rất quan trọng vào năm 2025 vì hầu hết các doanh nghiệp và cả xã hội đều đẩy nhanh việc tích hợp AI, điều này làm tăng cả tiềm năng và rủi ro. Hậu quả của AI không được kiểm soát hoặc quản lý kém sẽ trở nên nghiêm trọng, từ việc đưa ra kết quả thiên vị đến vi phạm quyền riêng tư dữ liệu".
Thực tế cho thấy, việc phát triển các giải pháp AI tạo sinh như ChatGPT cũng được thực hiện thông qua một số hoạt động đào tạo dữ liệu đáng ngờ. Tờ The New York Times từng cáo buộc OpenAI đã sử dụng các tài liệu và bài viết có bản quyền để đào tạo các mô hình AI tạo sinh của mình thông qua sự cho phép và trả phí.
Ông lớn Google cũng đã cho thấy việc ưu tiên huấn luyện AI tạo sinh ngày càng thông minh hơn mà "phớt lờ" phát triển AI có trách nhiệm sang một bên.
Hiện nay, hầu hết các công cụ tìm kiếm cung cấp bản tóm tắt do AI tạo ra cho câu hỏi của người dùng nhưng không cảnh báo rõ ràng về nguy cơ ảo giác, chỉ đề cập rằng "AI tạo ra đang trong giai đoạn thử nghiệm". Cảnh báo mơ hồ này có thể khiến người dùng nghĩ rằng các bản tóm tắt là chính xác 100%.
Những sự cố như thế này cho thấy rằng sự phát triển AI có trách nhiệm còn rất xa. Cho đến đầu năm 2025, AI có trách nhiệm vẫn ít được ưu tiên hơn so với sự đổi mới và lợi nhuận. Cách tiếp cận này từ các nhà cung cấp chắc chắn sẽ dẫn đến hậu quả tiêu cực.
Trí tuệ nhân tạo đã gây ra nhiều vấn đề
Trong khi nhiều nhà nghiên cứu mô hình ngôn ngữ lớn đang phát triển các kỹ thuật để cố gắng giải quyết vấn đề ảo giác của AI, nhiều người dùng vẫn đang bị đánh lừa hoặc thậm chí bị tổn hại bởi kết quả do AI phản hồi.
Cụ thể, năm 2023, một thẩm phán Hoa Kỳ đã áp dụng lệnh trừng phạt đối với hai luật sư ở New York vì đã nộp một bản tóm tắt pháp lý cung cấp bằng chứng về 6 trường hợp hư cấu do ChatGPT tạo ra. Tương tự, vào tháng 11/2024, Google Gemini được ghi nhận là đã nói với một người dùng rằng: "Bạn là sự lãng phí thời gian và tài nguyên" và "Hãy chết đi".
Mọi hướng phát triển trí tuệ nhân tạo trách nhiệm cần chú trọng nâng cao nhận thức về hạn chế của LLM, giúp người dùng tránh bị lừa dối, thậm chí bị sỉ nhục.
Mặc dù các nhà cung cấp như OpenAI sẽ đưa ra các thông báo cảnh báo như "ChatGPT có thể mắc lỗi", tuy nhiên, trách nhiệm của các nhà cung cấp là cần phải làm rõ ràng hơn nữa các vấn đề mà AI tạo sinh có thể gây ra để người dùng nhận thức được vấn đề rủi ro tiềm ẩn khi sử dụng AI như một công cụ truy vấn hoặc hỗ trợ công việc.
Trong khi một số công tư dường như thờ ơ với AI có trách nhiệm, Anthropic lại là một "ngôi sao điển hình" chủ động trong việc nêu bật các vấn đề với mô hình AI của của công ty này. Tháng 12/2024, Anthropic công bố báo cáo và lưu ý rằng Claude đôi khi làm giả sự liên kết trong quá trình đào tạo dẫn đến thay đổi câu trả lời dựa trên những gì nó nghĩ người dùng muốn nghe. Lưu ý này quan trọng để giảm thiểu khả năng người dùng hiểu lầm hoặc bị tổn hại.
Deepfakes có thể khiến chúng ta mất lòng tin vào mọi thứ
Năm 2024 đánh dấu sự bùng nổ của deepfake. Trước đây, công nghệ này chỉ được sử dụng ngẫu nhiên trong phim Hollywood với các diễn viên đã khuất hoặc những video vui nhộn, nhưng giờ đã trở nên phổ biến hơn.
Sự phát triển của các mô hình chuyển đổi văn bản thành giọng nói, hình ảnh và video đã tạo ra môi trường cho phép bất kỳ ai cũng có thể tạo ra nội dung giả mạo gần như không thể phân biệt với thực tế. Người dùng giờ đây phải tự phán đoán đâu là thật, đâu là giả, dẫn đến việc mất niềm tin vào thông tin.
Trong suốt năm 2024, chúng ta đã thấy nhiều video deepfake của các nhân vật nổi tiếng, bao gồm Tổng thống Trump, Tổng thống Biden, ứng cử viên tổng thống đảng Dân chủ Kamala Harris và Taylor Swift,... xuất hiện trên các nền tảng mạng xã hội.
Trong một sự cố nghiêm trọng, Steve Kramer đã sử dụng công nghệ deepfake để gửi một cuộc gọi giả mạo Tổng thống Biden, khuyến khích mọi người không bỏ phiếu trong cuộc bầu cử sơ bộ ở New Hampshire. Sự kiện này cho thấy deepfake đang được sử dụng để ảnh hưởng đến dư luận và truyền bá thông tin sai lệch.
Cũng trong năm 2024, một nhân viên tài chính đã bị lừa 25 triệu đô la bởi những kẻ lừa đảo sử dụng deepfake để tạo ra cuộc gọi video giả mạo giám đốc tài chính của công ty.
Tuy nhiên, các nhà cung cấp AI vẫn chưa đưa ra các biện pháp kiểm soát hiệu quả để ngăn chặn sự phát tán nội dung như vậy. Một số như Runway đã thử nghiệm hình mờ để phân biệt hình ảnh thật và tổng hợp, nhưng điều này vẫn có thể bị xóa.
Tại sao AI có trách nhiệm lại quan trọng vào năm 2025?
Năm 2024 chỉ ra rằng chúng ta không thể chỉ dựa vào các nhà cung cấp AI để phát triển AI có trách nhiệm. Người dùng, nhà nghiên cứu và nhà cung cấp cần cùng nhau đánh giá và cải thiện các mô hình này. Sau khi người dùng chỉ trích Gemini, CEO Google Sundar Pichai đã cam kết khắc phục vấn đề.
Các nhà cung cấp cũng cần nỗ lực giáo dục người dùng về những lỗi sai và tính gây ảo giác của AI và khuyến khích người dùng kiểm tra thực tế các kết quả tiềm năng.
Có 2 cấp độ tổng hợp về an toàn AI, bao gồm:
- Cấp độ 1 liên quan đến tồn tại, như "AI đang đe dọa cuộc sống của chúng ta" - đây là một chủ đề đang được bàn luận nhiều nhất hiện nay.
- Cấp độ thứ hai, liên quan đến phát triển đạo đức công nghệ AI, sự thiên vị của thuật toán và nhu cầu minh bạch.
Khi AI ngày càng ảnh hưởng đến nhiều lĩnh vực, giải quyết những vấn đề này là cần thiết để đảm bảo AI nâng cao khả năng của con người và giảm thiểu rủi ro.
Sự phát triển AI có trách nhiệm thường sẽ đứng sau sự đổi mới và theo đuổi doanh thu của các công ty. Bởi vậy, việc gây áp lực buộc các nhà cung cấp AI phải triển khai các biện pháp bảo vệ và thiết kế hệ thống AI một cách có trách nhiệm là điều cần thiết từ phía chính phủ, luật pháp và người dùng.
Năm 2025 sẽ là cột mốc quan trọng trong lĩnh vực AI, khi chúng ta đối mặt với thách thức kiểm soát công nghệ này và nhận thấy tác động của nó đến cuộc sống. Chúng ta cần sử dụng AI như một công cụ mạnh mẽ, nhưng cần nhớ rằng công cụ này có thể phục vụ cả mục đích tốt lẫn xấu, cả có ý thức lẫn vô tình.
(Theo congdankhuyenhoc)