Sự bành trướng của công nghệ giả dạng
Những hình ảnh khiêu dâm của ca sĩ Taylor Swift đang lan truyền chóng mặt trên mạng xã hội. Đây đều là các sản phẩm giả mạo được tạo ra bởi deepfake - công nghệ có khả năng ghép khuôn mặt với độ chân thực cao.
Nếu mọi thứ chỉ dừng lại ở đó, vụ việc liên quan đến nữ ca sĩ người Mỹ đã không lọt tốp tìm kiếm trên Google Trend. Điều đáng nói là với sự phát triển của AI, các sản phẩm của deepfake như “hổ mọc thêm cánh”, xóa nhòa khoảng cách giữa thật và giả.
Deepfake được chuyên gia nhận định là nỗi "ác mộng" của phụ nữ. Ảnh: Freepik |
Mặc dù nguy hại là vậy nhưng các sản phẩm deepfake lại có thể tồn tại một khoảng thời gian dài trên mạng xã hội. Chẳng hạn trên X (tên gọi mới của Twitter), các hình ảnh, video giả mạo của Taylor Swift được lan truyền trong suốt 17 giờ đồng hồ và có hơn 45 triệu lượt xem trước khi bị gỡ bỏ.
Theo báo cáo của Bloomberg, nhiều video độc hại có thể tìm kiếm dễ dàng ngay trên Google. Đây cũng là nguồn thu hút lưu lượng truy cập chính của các trang web deepfake. Mặc dù phía công ty tìm kiếm này đã cung cấp một biểu mẫu cho phép nạn nhân yêu cầu xóa nội dung deepfake nhưng nhiều người phàn nàn rằng quy trình này quá rắc rối.
Ngay tại Việt Nam, nhiều hội nhóm còn “truyền tay” nhau các công cụ sản xuất nội dung khiêu dâm bằng deepfake. Trước đây, công nghệ này yêu cầu một khối lượng ảnh và video đầu vào rất lớn, cấu hình của thiết bị xử lý cũng phải rất mạnh.
Tuy nhiên, với sự hỗ trợ AI, các sản phẩm độc hại giờ đây có thể được tạo ra ngay trên web với dữ liệu đầu vào chỉ là một vài tấm ảnh hoặc video của nạn nhân. Các công đoạn sản xuất cũng rất đơn giản và chỉ gói gọn trong vài thao tác. Với việc mọi người thường xuyên đăng ảnh cá nhân lên mạng xã hội, giờ đây bất cứ ai cũng có thể trở thành nạn nhân của deepfake, chứ không chỉ riêng người nổi tiếng.
"Deepfake đã trở thành cơn ác mộng đối với phụ nữ và xã hội. Tội phạm mạng hiện khai thác AI để ghép khuôn mặt nạn nhân vào ảnh và video khiêu dâm cũng như trong chiến dịch tuyên truyền. Những hình thức này nhằm mục đích thao túng dư luận bằng cách phát tán thông tin sai lệch hoặc thậm chí gây tổn hại đến danh tiếng của tổ chức hoặc cá nhân”, bà Võ Dương Tú Diễm, Giám đốc khu vực Việt Nam của Kaspersky, bình luận.
Không chỉ dừng lại ở nội dung khiêu dâm, các deepfake video còn được kẻ gian sử dụng nhằm mục đích lừa đảo chiếm đoạt tài sản và thậm chí là tác động chính trị. Tại Mỹ, một số người đã nhận được các bản ghi âm giả mạo giọng của Tổng thống Joe Biden. Nội dung đoạn âm thanh yêu cầu họ không bỏ phiếu tại địa phương. Trong bối cảnh 2024 là năm mà nửa thế giới đi bầu cử, AI và deepfake đang trở thành một mối nguy hại khó lường đối với các quốc gia.
“Với AI, kẻ lừa đảo chỉ mất 3 giây để thực hiện những hành vi gian lận, bôi nhọ và tung tin giả. Tôi đã xem những deepfake video về chính bản thân mình, nó rất chân thực và khiến tôi vô cùng bất ngờ”, Tổng thống Mỹ Joe Biden chia sẻ với giới truyền thông.
Những biện pháp ngăn chặn và phòng tránh
Tại Mỹ, một số tiểu bang đã thực thi các luật liên quan đến nội dung khiêu dâm được tạo ra bởi deepfake. Tuy nhiên, việc áp dụng không có sự nhất quán trên toàn quốc. Hiện phía chính phủ và doanh nghiệp đang nỗ lực để ngăn chặn sự bành trướng của các nội dung xấu độc.
Theo bà Jean Pierre, thư ký báo chí tại Nhà Trắng, chính quyền đang làm việc với các công ty AI nhằm tạo ra watermark (hình mờ) trên hình ảnh được tạo ra bởi trí tuệ nhân tạo, điều này sẽ giúp công chúng dễ dàng phân biệt nguồn gốc của sản phẩm.
AI đang tiếp thêm sức mạnh cho deepfake. Ảnh: Freepik |
Bên cạnh đó, Tổng thống Mỹ Joe Biden cũng đã đã chỉ định một bộ phận chuyên giải quyết vấn đề quấy rối và lạm dụng trực tuyến. Phía Bộ Tư pháp Mỹ cũng đã lập đường dây nóng dành cho những nạn nhân của lạm dụng tình dục dựa trên hình ảnh. Không dừng lại ở đó, Quốc hội Mỹ đã bắt đầu thảo luận về các bộ luật riêng biệt nhằm bảo vệ quyền lợi của người nổi tiếng trước sự phát triển như vũ bão của AI.
Hiện OpenAI cũng đã công bố các biện pháp phòng chống việc lợi dụng AI nhằm tung tin giả về hoạt động bỏ phiếu. Giờ đây, công cụ ChatGPT sẽ điều hướng người dùng đến trang web bầu cử khi nhận được câu hỏi liên quan đến vấn đề này. Bên cạnh đó, công ty còn “bắt tay” với Liên minh Chứng minh và Xác thực Nội dung để mã hóa nguồn gốc của hình ảnh được tạo ra bởi DALL - E.
Tại Việt Nam, Bộ Công an đã chỉ ra các đặc điểm nhận diện cuộc gọi lừa đảo deepfake. Cụ thể, thời gian gọi thường rất ngắn, chỉ kéo dài vài giây; Khuôn mặt của người gọi thiếu tính cảm xúc, tư thế lúng túng, không tự nhiên; Phần đầu và cơ thể trong video cũng không nhất quán với nhau; Màu da của nhân vật trong video bất thường, ánh sáng kỳ lạ và bóng đổ không đúng vị trí.
Ngoài ra, âm thanh trong video cũng không đồng nhất với hình ảnh, có nhiều tiếng tạp âm hoặc thậm chí không có âm thanh. Cuộc gọi có thể bị gián đoạn với lý do mất sóng hoặc sóng yếu. Đồng thời, đối tượng có thể sẽ yêu cầu chuyển tiền đến một tài khoản lạ. Với trường hợp nạn nhân bị kẻ xấu sử dụng deepfake để bôi nhọ danh dự, nhân phẩm, người bị hại cần giữ bình tình và nhanh chóng nộp đơn tố cáo đến cơ quan công an điều tra địa phương.