Sau khi điều tra về cách Meta xử lý hình ảnh khiêu dâm do AI tạo ra, cơ quan quan sát bán độc lập của công ty, Hội đồng giám sát, hiện đang thúc giục công ty tinh chỉnh các chính sách của mình xung quanh những hình ảnh như vậy. Hội đồng muốn Meta thay đổi thuật ngữ mà họ sử dụng từ "gây tổn hại" thành "không có sự đồng thuận" và chuyển các chính sách của mình về những hình ảnh như vậy sang phần "Tiêu chuẩn cộng đồng về khai thác tình dục" từ phần "Bắt nạt và quấy rối".
Hiện tại, các chính sách của Meta xung quanh hình ảnh khiêu dâm do AI tạo ra được tách ra từ quy tắc "photoshop khiêu dâm gây tổn hại" trong phần Bắt nạt và quấy rối. Hội đồng cũng thúc giục Meta thay thế từ "photoshop" bằng một thuật ngữ chung cho phương tiện truyền thông bị thao túng.
Ngoài ra, Meta cấm hình ảnh không có sự đồng thuận nếu nó "không nhằm mục đích thương mại hoặc được sản xuất trong bối cảnh riêng tư". Hội đồng đề xuất rằng điều khoản này không nên bắt buộc phải xóa hoặc cấm hình ảnh do AI tạo ra hoặc bị thao túng mà không có sự đồng ý.
Những khuyến nghị này được đưa ra sau hai vụ việc nổi cộm, trong đó hình ảnh rõ ràng do AI tạo ra của những người nổi tiếng được đăng trên Instagram và Facebook đã khiến Meta gặp rắc rối.
Một trong những vụ việc này liên quan đến hình ảnh khỏa thân do AI tạo ra của một người nổi tiếng Ấn Độ được đăng trên Instagram. Một số người dùng đã báo cáo hình ảnh nhưng Meta không gỡ xuống và thực tế đã đóng biên bản trong vòng 48 giờ mà không xem xét thêm. Người dùng đã kháng cáo quyết định đó nhưng biên bản lại bị đóng. Công ty chỉ hành động sau khi Hội đồng giám sát thụ lý vụ việc, xóa nội dung và cấm tài khoản.
Hình ảnh do AI tạo ra khác giống với một người nổi tiếng của Hoa Kỳ và được đăng trên Facebook. Meta đã có hình ảnh đó trong kho lưu trữ Dịch vụ khớp phương tiện (MMS) của mình (một ngân hàng hình ảnh vi phạm các điều khoản dịch vụ của mình có thể được sử dụng để phát hiện những hình ảnh tương tự) do các báo cáo của phương tiện truyền thông và đã nhanh chóng xóa hình ảnh khi một người dùng khác tải lên Facebook.
Đáng chú ý là Meta chỉ thêm hình ảnh của người nổi tiếng Ấn Độ vào ngân hàng MMS sau khi Hội đồng giám sát thúc giục. Công ty dường như đã nói với Hội đồng rằng kho lưu trữ không có hình ảnh trước đó vì không có báo cáo nào của phương tiện truyền thông về vấn đề này.
"Điều này đáng lo ngại vì nhiều nạn nhân của hình ảnh thân mật deepfake không được công chúng biết đến và buộc phải chấp nhận việc lan truyền các mô tả không đồng thuận của họ hoặc báo cáo mọi trường hợp", Hội đồng cho biết trong ghi chú của mình.
Breakthrough Trust, một tổ chức của Ấn Độ vận động giảm bạo lực trên mạng dựa trên giới tính, lưu ý rằng những vấn đề này và các chính sách của Meta có ý nghĩa về mặt văn hóa. Trong các bình luận gửi lên Hội đồng giám sát, Breakthrough cho biết hình ảnh không đồng thuận thường bị coi nhẹ là vấn đề trộm cắp danh tính hơn là bạo lực trên cơ sở giới tính.
"Các nạn nhân thường phải đối mặt với nạn nhân thứ cấp khi báo cáo những trường hợp như vậy tại đồn cảnh sát/tòa án ("tại sao bạn lại đăng ảnh của mình lên, v.v." ngay cả khi đó không phải là ảnh của họ như deepfake). Một khi đã lên mạng, hình ảnh sẽ lan truyền rất nhanh ra ngoài nền tảng nguồn và việc chỉ gỡ xuống nền tảng nguồn là không đủ vì nó sẽ nhanh chóng lan sang các nền tảng khác", Barsha Charkorborty, người đứng đầu bộ phận truyền thông của tổ chức, đã viết cho Hội đồng giám sát.
Trong một cuộc gọi, Charkorborty nói với TechCrunch rằng người dùng thường không biết rằng báo cáo của họ đã được tự động đánh dấu là "đã giải quyết" sau 48 giờ và Meta không nên áp dụng cùng một mốc thời gian cho tất cả các trường hợp. Thêm vào đó, bà đề xuất rằng công ty cũng nên nỗ lực nâng cao nhận thức của người dùng về các vấn đề như vậy.
Devika Malik, một chuyên gia về chính sách nền tảng từng làm việc trong nhóm chính sách Nam Á của Meta, đã nói với TechCrunch vào đầu năm nay rằng các nền tảng phần lớn dựa vào báo cáo của người dùng để gỡ bỏ hình ảnh không được sự đồng ý, đây có thể không phải là cách tiếp cận đáng tin cậy khi giải quyết phương tiện truyền thông do AI tạo ra.
"Điều này đặt ra gánh nặng không công bằng cho người dùng bị ảnh hưởng trong việc chứng minh danh tính của họ và việc không có sự đồng ý (như trường hợp của chính sách Meta). Malik cho biết, điều này có thể dễ xảy ra lỗi hơn khi nói đến phương tiện truyền thông tổng hợp và thời gian để nắm bắt và xác minh các tín hiệu bên ngoài này khiến nội dung có được lực kéo có hại.
Aparajita Bharti, Đối tác sáng lập của nhóm nghiên cứu The Quantum Hub (TQH) có trụ sở tại Delhi, cho biết Meta nên cho phép người dùng cung cấp nhiều bối cảnh hơn khi báo cáo nội dung, vì họ có thể không biết về các loại vi phạm quy tắc khác nhau theo chính sách của Meta.
Bà cho biết, "Chúng tôi hy vọng Meta sẽ vượt qua phán quyết cuối cùng [của Hội đồng giám sát] để cho phép các kênh linh hoạt và tập trung vào người dùng báo cáo nội dung có bản chất này".
"Chúng tôi thừa nhận rằng người dùng không thể hiểu hoàn toàn về sự khác biệt tinh tế giữa các đầu mối báo cáo khác nhau và ủng hộ các hệ thống ngăn chặn các vấn đề thực sự bị bỏ qua do các vấn đề kỹ thuật của chính sách kiểm duyệt nội dung của Meta".