Biển quảng cáo ứng dụng ChatGPT tại triển lãm công nghệ trí tuệ nhân tạo ở Tokyo, Nhật Bản, ngày 10/5/2023. (Ảnh: AFP/TTXVN) |
Ngày 26/11, Mỹ, Anh và hơn chục quốc gia khác đã công bố thỏa thuận quốc tế an toàn trí tuệ nhân tạo (AI). Theo mô tả của giới chức Mỹ, đây là thỏa thuận chi tiết đầu tiên về cách thức bảo đảm công nghệ AI được sử dụng một cách an toàn trước nguy cơ lừa đảo, đồng thời hối thúc các công ty công nghệ phải tạo ra các hệ thống AI "an toàn ngay trong bước thiết kế."
Theo nội dung văn kiện dày 20 trang, 18 quốc gia đã đồng ý rằng các công ty thiết kế và sử dụng AI cần phát triển và triển khai công nghệ tiên tiến này theo cách giúp khách hàng và công chúng nói chung được an toàn, không bị lạm dụng.
Thỏa thuận không mang tính ràng buộc và chủ yếu đưa ra các khuyến nghị chung, như giám sát hành vi lạm dụng AI, bảo vệ dữ liệu... Các nước tham gia ký thỏa thuận mới nằm ở khắp các châu lục, ngoài Mỹ và Anh, có Đức, Italy, Cộng hòa Séc, Estonia, Ba Lan, Australia, Chile, Israel, Nigeria, Singapore…
Theo Giám đốc Cơ quan An ninh Cơ sở Hạ tầng và An ninh mạng Mỹ, bà Jen Easterly, điều quan trọng là rất nhiều quốc gia đã nhất trí với ý tưởng rằng các hệ thống AI cần đặt sự an toàn lên hàng đầu.
Trả lời báo giới, bà Easterly nhấn mạnh: “Đây là lần đầu tiên chúng ta cùng khẳng định rằng AI không chỉ liên quan đến các tính năng thú vị và tốc độ ra mắt thị trường hay cách cạnh tranh để giảm chi phí, mà hơn thế, với thỏa thuận vừa đạt được, mọi người đã nhất trí rằng điều quan trọng nhất cần phải thực hiện ở giai đoạn thiết kế chính là an ninh".
Đây là sáng kiến mới nhất trong một loạt sáng kiến của các chính phủ trên khắp thế giới nhằm định hình sự phát triển của AI, vốn đang có sức ảnh hưởng ngày càng lớn trong ngành công nghiệp và xã hội nói chung.
Thỏa thuận vừa đạt được giải quyết các câu hỏi về cách đảm bảo cho công nghệ AI không bị tin tặc tấn công và nêu ra các khuyến nghị như chỉ phát hành các mô hình sau khi kiểm tra bảo mật một cách thích hợp.
Tuy nhiên, thỏa thuận trên không giải quyết các câu hỏi hóc búa xung quanh việc sử dụng AI phù hợp, hoặc cách thu thập dữ liệu cung cấp cho các mô hình này.
Châu Âu đã đi trước Mỹ về các quy định liên quan đến AI. Các nhà lập pháp ở châu Âu đã soạn thảo các quy tắc về AI. Pháp, Đức và Italy gần đây cũng đã đạt thỏa thuận về cách quản lý AI.
Chính quyền Tổng thống Mỹ Joe Biden cũng đã hối thúc các nhà lập pháp đưa ra quy định về AI, nhưng Quốc hội Mỹ đang chia rẽ nên đạt được ít tiến bộ trong việc này.
Nhà Trắng đã tìm cách giảm thiểu rủi ro từ AI cho người tiêu dùng, người lao động và các nhóm thiểu số, đồng thời củng cố an ninh quốc gia bằng sắc lệnh toàn diện đầu tiên về AI hồi tháng 10, theo đó các công ty phát triển AI phải thông báo cho Chính phủ Mỹ theo Đạo luật sản xuất quốc phòng (DPA) nếu chương trình AI đang phát triển gây ra các rủi ro về an ninh quốc gia, nền kinh tế địa phương hoặc ảnh hưởng đến sức khỏe người dùng.
Sắc lệnh mới này cũng giúp giải quyết các rủi ro liên quan đến hóa học, sinh học, phóng xạ, hạt nhân và an ninh mạng.