(Techz.vn) Công cụ có tên DeepNude có thể biến một bức ảnh của phụ nữ trở thành ảnh khoả thân, rấy lên những nghi ngại về tác hại của AI khi được làm với mục đích xấu.

Chỉ cần cung cấp một bức hình bình thường của 1 người phụ nữ, phần mềm có tên DeepNude có thể tạo ra một bức hình khoả thân với khuôn mặt của phụ nữ đó. Điểm đặc biệt của phần mềm này là nó mang sức mạnh của trí tuệ nhân tạo, chính vì vậy cho kết quả cực giống hình thật, đồng thời bất cứ ai cũng có thể sử dụng.

DeepNude chính là ví dụ mới nhất về tác hại của AI nếu được sử dụng không đúng cách. Nếu rơi vào tay của những kẻ xấu, nó hoàn toàn có thể trở thành công cụ để làm hại đến nhân phẩm phụ nữ, gây tổn thương tâm lý, tống tiền hoặc thậm chí đe doạ đến tính mạng. 

DeepNude có 2 phiên bản cho máy tính Windows, tất cả đều có watermark để người xem nhận ra là ảnh giả, tuy nhiên  phiên bản trả phí có giá 99$ sẽ cho kết quả là là một bức ảnh độ phân giải cao hơn, watermark nhỏ hơn. Nhiều chuyên gia cho rằng, dù “nhân đạo" ở việc gắn watermark tuy nhiên nếu thực sự muốn hại người khác thì các watermark này rất dễ để xoá.

Theo trang Motherboard, người đứng sau DeepNude có nickname Alberto. Anh này không phải làm một kẻ biến thái, nhưng lại là một người đam mê công nghệ trí tuệ nhân tạo và rất ấn tượng với ý tưởng máy nhìn xuyên quần áo trong các truyện tranh viễn tưởng. Alberto làm DeepNude với mục đích giải trí là chính và có vẻ chưa nhận thức được sản phẩm của mình có thể gây hại với cộng đồng đến mức nào. 

Theo biên tập viên của trang Motherboard từng liên hệ với Alberto, anh này cho rằng việc ghép mặt của phụ nữ vào những bức hình khoả thân không phải là mới, lý lẽ được Alberto đưa ra là: Dù không có DeepNude thì bất cứ ai cũng có thể làm được điều đó chỉ bằng cách học theo các video trên mạng và thực hiện trong 30 phút với ứng dụng Photoshop.

Một số người trải nghiệm ứng này cho biết, dù DeepNude cho kết quả rất thật, nhưng nếu soi kỹ thì vẫn có thể nhận ra dựa vào độ nét không tương đồng giữa các bộ phận. Ngoài ra nếu nhập hình nam giới, trí tuệ nhân tạo cũng sẽ không nhận ra và xử lý chính xác được. 

Hiện vẫn chưa có những quy định rõ ràng về việc sử dụng phần mềm như DeepNude để ghép mặt người khác vào các tấm hình khoả thân, tuy nhiên với việc sử dụng những phần mềm dễ dàng như vậy, DeepNude có thể dễ dàng bị kẻ xấu khai thác. Hiện tại Alberto đã hạ công cụ của mình để ngăn việc download, sau khi lượng quan tâm đến phần mềm này quá lớn.

 

Trí tuệ nhân tạo có thể phát hiện ảnh đã Photoshop lại khuôn mặt, trả lại niềm tin cho nhiếp ảnh

(Techz.vn) Đừng nghĩ ảnh đã chỉnh sửa cẩn thận thì không ai có thể phát hiện. Trí tuệ nhân tạo mới do chính Adobe góp công phát triển có thể đảo ngược vấn đề này.

 

Let's block ads! (Why?)

Post a Comment

 
Top