Nguồn hình ảnh: Bryce Durbin / TechCrunch
OpenAI đã xây dựng một công cụ có khả năng phát hiện ra những sinh viên gian lận bằng cách yêu cầu Chat GPT viết bài tập — nhưng theo The Wall Street Journal , công ty đang cân nhắc xem có nên phát hành công cụ này hay không.
Trong một tuyên bố gửi tới TechCrunch, người phát ngôn của OpenAI đã xác nhận rằng công ty đang nghiên cứu phương pháp thêm hình mờ văn bản được mô tả trong bài viết của Tạp chí, nhưng cho biết họ đang thực hiện "cách tiếp cận có chủ đích" do "sự phức tạp liên quan và tác động có thể xảy ra của nó đối với hệ sinh thái rộng lớn hơn ngoài OpenAI".
Người phát ngôn cho biết: "Phương pháp thêm hình mờ văn bản mà chúng tôi đang phát triển có triển vọng về mặt kỹ thuật, nhưng có những rủi ro quan trọng mà chúng tôi đang cân nhắc trong khi nghiên cứu các giải pháp thay thế, bao gồm khả năng bị kẻ xấu lách luật và khả năng tác động không cân xứng đến các nhóm như người không nói tiếng Anh".
Đây sẽ là một cách tiếp cận khác với hầu hết các nỗ lực trước đây để phát hiện văn bản do AI tạo ra, vốn phần lớn là không hiệu quả . Ngay cả OpenAI cũng đã đóng cửa trình phát hiện văn bản AI trước đây của mình vào năm ngoái do "tỷ lệ chính xác thấp".
Với watermarking văn bản, OpenAI sẽ chỉ tập trung vào việc phát hiện văn bản từ Chat GPT, không phải từ các mô hình của các công ty khác. Nó sẽ thực hiện điều này bằng cách thực hiện những thay đổi nhỏ đối với cách Chat GPT chọn từ, về cơ bản là tạo ra một watermark vô hình trong văn bản mà sau này có thể được phát hiện bởi một công cụ riêng biệt.
Sau khi bài viết của Tạp chí được công bố, OpenAI cũng đã cập nhật bài đăng trên blog vào tháng 5 về nghiên cứu của mình xung quanh việc phát hiện nội dung do AI tạo ra. Bản cập nhật cho biết việc đóng dấu văn bản đã chứng minh là "có độ chính xác cao và thậm chí hiệu quả chống lại hành vi giả mạo cục bộ, chẳng hạn như diễn đạt lại", nhưng đã chứng minh là "ít mạnh mẽ hơn trước hành vi giả mạo toàn cầu; chẳng hạn như sử dụng hệ thống dịch, diễn đạt lại bằng một mô hình tạo khác hoặc yêu cầu mô hình chèn một ký tự đặc biệt vào giữa mỗi từ rồi xóa ký tự đó".
Do đó, OpenAI viết rằng phương pháp này "rất dễ bị kẻ xấu lách luật". Bản cập nhật của OpenAI cũng nhắc lại quan điểm của người phát ngôn về những người không nói tiếng Anh, viết rằng việc thêm hình mờ vào văn bản có thể "làm mất uy tín của việc sử dụng AI như một công cụ viết hữu ích đối với những người không nói tiếng Anh bản xứ".