“Một số quy định trong các dự thảo văn bản hướng dẫn thi hành Luật Trí tuệ nhân tạo đang được phản ánh là có phạm vi điều chỉnh tương đối rộng so với mức độ rủi ro thực tế của công nghệ”.
Ý kiến này đã được gửi tới Thủ tướng Chính phủ Phạm Minh Chính, qua Báo cáo Tổng hợp khó khăn, vướng mắc liên quan đến các chính sách khoa học công nghệ, đổi mới sáng tạo, chuyển đổi số và phản ánh nhanh việc thực thi Nghị quyết 68-NQ/TW của Ban Nghiên cứu phát triển kinh tế tư nhân (Ban IV, thuộc Hội đồng Tư vấn cải cách hành chính).
| Dự thảo Nghị định quy định chi tiết một số điều và biện pháp tổ chức thi hành Luật Trí tuệ nhân tạo và Dự thảo Quyết định của Thủ tướng Chính phủ ban hành Danh mục hệ thống trí tuệ nhân tạo có rủi ro cao đang được các doanh nghiệp đóng góp ý kiến. |
Trong Báo cáo, Ban IV viện dẫn ý kiến, kiến nghị của doanh nghiệp, hiệp hội doanh nghiệp lo ngại rằng, với cách tiếp cận trên, chi phí tuân thủ và rủi ro pháp lý đối với doanh nghiệp, đặc biệt là với doanh nghiệp nhỏ và vừa, có khả năng gia tăng đáng kể.
Đồng thời, doanh nghiệp cũng lo ngại việc làm chậm quá trình nghiên cứu, đầu tư và thương mại hóa các ứng dụng AI trong nền kinh tế.
Hai văn bản đang tạo nên những quan ngại trên gồm Dự thảo Nghị định quy định chi tiết một số điều và biện pháp tổ chức thi hành Luật Trí tuệ nhân tạo, và Dự thảo Quyết định của Thủ tướng Chính phủ ban hành Danh mục hệ thống trí tuệ nhân tạo có rủi ro cao.
Tăng nghĩa vụ gắn nhãn nội dung do AI tạo ra
Một trong những nội dung được doanh nghiệp phản ánh nhiều là quy định về nghĩa vụ gắn nhãn và thông báo hiển thị đối với nội dung do hệ thống trí tuệ nhân tạo tạo ra hoặc chỉnh sửa.
Theo dự thảo Nghị định, tại Khoản 1, Điều 19, bên triển khai có trách nhiệm thông báo và gắn nhãn khi cung cấp ra công cộng nội dung do hệ thống AI tạo ra hoặc chỉnh sửa trong hai trường hợp: nội dung mô phỏng, giả lập ngoại hình, giọng nói của người thật; hoặc nội dung tái hiện, mô phỏng sự kiện, hiện tượng có thể gây nhầm lẫn cho người tiếp nhận về tính xác thực.
Một số hiệp hội và doanh nghiệp đề nghị xem xét bãi bỏ quy định này, hoặc nếu vẫn duy trì thì chỉ áp dụng đối với nội dung do hệ thống AI thuộc nhóm rủi ro cao tạo ra, đặc biệt trong các lĩnh vực như y tế, an ninh, quốc phòng – nơi các nội dung mô phỏng có thể ảnh hưởng trực tiếp tới sức khỏe, tính mạng con người hoặc an ninh quốc gia.
Theo các ý kiến góp ý, việc áp dụng nghĩa vụ gắn nhãn trên phạm vi rộng đối với mọi nội dung do AI tạo ra hoặc chỉnh sửa có thể dẫn đến cách tiếp cận quản lý đồng loạt, vượt quá mức độ rủi ro thực tế của công nghệ, chưa phản ánh đúng tinh thần quản lý theo mức độ rủi ro.
Các doanh nghiệp cho rằng, nghĩa vụ minh bạch nên được giới hạn ở những trường hợp có nguy cơ gây nhầm lẫn nghiêm trọng, đặc biệt khi nội dung có khả năng tác động đến sức khỏe con người hoặc liên quan đến quốc phòng, an ninh. Cách tiếp cận này được đánh giá là vừa bảo đảm mục tiêu minh bạch và bảo vệ xã hội, vừa phù hợp với yêu cầu phát triển công nghệ trong bối cảnh hiện nay.
Bên cạnh đó, việc bắt buộc gắn nhãn hiển thị rộng rãi có thể làm gia tăng chi phí tuân thủ và rủi ro pháp lý, đặc biệt đối với các doanh nghiệp nhỏ và vừa - nhóm đang đóng vai trò quan trọng trong quá trình ứng dụng và phát triển các giải pháp AI.
Đáng nói là, quy định quá rộng có thể khiến ý nghĩa cảnh báo bị “loãng” hoặc vô hình trung tạo định kiến đối với các sản phẩm, nội dung có yếu tố AI, trong khi công nghệ này đang ngày càng trở thành công cụ phổ biến và hợp pháp trong sáng tạo, truyền thông và kinh doanh. Điều này có thể làm giảm giá trị thương mại của sản phẩm, dịch vụ và ảnh hưởng đến mức độ chấp nhận của xã hội đối với các công nghệ mới.
Đề nghị thu hẹp phạm vi hệ thống AI “rủi ro cao”
Bên cạnh quy định về gắn nhãn, doanh nghiệp cũng góp ý đối với dự thảo Danh mục hệ thống trí tuệ nhân tạo có rủi ro cao.
Theo dự thảo hiện nay, danh mục này được xây dựng trên tám nhóm lĩnh vực chính, bao gồm: y tế và chăm sóc sức khỏe; tài chính – ngân hàng; tuyển dụng và quản lý nhân sự; giáo dục và đào tạo; an ninh – trật tự – tư pháp; giao thông vận tải; hạ tầng kỹ thuật trọng yếu và quản lý nhà nước, dịch vụ công.
Gửi ý kiến tới Thủ tướng Chính phủ, một số hiệp hội và doanh nghiệp đề nghị điều chỉnh danh mục theo hướng thu hẹp, chỉ áp dụng chế độ “rủi ro cao” đối với các hệ thống AI có khả năng tác động trực tiếp và nghiêm trọng đến tính mạng, sức khỏe con người, đặc biệt trong lĩnh vực y tế, chăm sóc sức khỏe, thiết bị y tế, chẩn đoán và điều trị.
Ngoài ra, nhóm hệ thống AI liên quan đến an ninh quốc gia, trật tự an toàn xã hội và hoạt động tư pháp, như thực thi pháp luật, tố tụng hoặc hỗ trợ quyết định trong xét xử cũng được đề xuất duy trì trong nhóm rủi ro cao.
Trong khi đó, các lĩnh vực như tài chính - ngân hàng, tuyển dụng và quản lý nhân sự, giáo dục - đào tạo được cho là nên được xem xét không xếp loại hoặc khoanh vùng hẹp hơn, chỉ áp dụng khi có liên quan đến các yếu tố đặc biệt như dữ liệu lớn gắn với an ninh quốc gia.
Theo lập luận của các doanh nghiệp, các hệ thống AI trong các lĩnh vực kinh tế - thương mại này rất đa dạng, nhưng phần lớn hoạt động trong quan hệ dân sự - thương mại, với mục tiêu nâng cao năng suất và năng lực cạnh tranh của doanh nghiệp. Do đó, chúng không mặc nhiên tạo ra rủi ro xã hội nghiêm trọng ở cấp độ công cộng.
Nếu toàn bộ hệ thống AI trong các lĩnh vực này bị xếp vào nhóm rủi ro cao, doanh nghiệp sẽ phải đáp ứng các nghĩa vụ tuân thủ nghiêm ngặt hơn, làm gia tăng chi phí gia nhập thị trường, kéo dài thời gian phát triển sản phẩm và có thể tạo tâm lý e ngại đối với hoạt động đổi mới sáng tạo.
Các ý kiến góp ý cũng cho rằng việc mở rộng danh mục rủi ro cao sang nhiều lĩnh vực dân sự - thương mại có thể phân tán nguồn lực quản lý, thanh tra và giám sát của cơ quan nhà nước.
Trong khi đó, nếu tập trung cơ chế quản lý rủi ro cao vào các hệ thống AI thực sự có khả năng ảnh hưởng trực tiếp đến tính mạng, sức khỏe con người, hoặc liên quan đến quốc phòng, an ninh và hoạt động tư pháp, việc quản lý có thể đạt hiệu quả cao hơn, đồng thời vẫn tạo dư địa thuận lợi cho doanh nghiệp đầu tư và ứng dụng các công nghệ mới.
Nhóm I: Hệ thống trí tuệ nhân tạo tác động đến quyền con người.
Nhóm II: Hệ thống trí tuệ nhân tạo ảnh hưởng đến an toàn, an ninh.
Nhóm III: Hệ thống trí tuệ nhân tạo trong các lĩnh vực thiết yếu, liên quan mật thiết tới lợi ích công cộng.
Nhóm IV: Hệ thống trí tuệ nhân tạo có quy mô ảnh hưởng lớn hoặc khó khắc phục.