Nhằm giải quyết sự gia tăng của tình trạng lạm dụng tình dục trẻ em qua AI, vào hôm thứ Tư, OpenAI đã công bố một bản kế hoạch chính sách phác thảo các biện pháp an toàn mới mà ngành có thể thực hiện để giúp hạn chế việc sử dụng AI trong việc tạo ra tài liệu lạm dụng tình dục trẻ em. Trong khuôn khổ này, OpenAI liệt kê các biện pháp pháp lý, vận hành và kỹ thuật nhằm củng cố các biện pháp bảo vệ chống lại hành vi lạm dụng có hỗ trợ bởi AI và cải thiện sự phối hợp giữa các công ty công nghệ và các nhà điều tra. “Lạm dụng tình dục trẻ em là một trong những thách thức cấp bách nhất của kỷ nguyên số,” công ty viết. “AI đang nhanh chóng thay đổi cả việc những tác hại này xuất hiện như thế nào trong toàn ngành và cách chúng có thể được giải quyết ở quy mô lớn.”
OpenAI cho biết đề xuất này tích hợp phản hồi từ các tổ chức làm việc trong lĩnh vực bảo vệ trẻ em và an toàn trực tuyến, bao gồm National Center for Missing and Exploited Children và Attorney General Alliance cùng lực lượng đặc nhiệm AI của tổ chức này. “AI tạo sinh đang thúc đẩy tội phạm lạm dụng tình dục trẻ em trên mạng theo những cách hết sức đáng lo ngại—hạ thấp rào cản, mở rộng quy mô và cho phép các hình thức gây hại mới,” Chủ tịch & CEO của National Center for Missing & Exploited Children, Michelle DeLaune, cho biết trong một tuyên bố. “Nhưng đồng thời, National Center for Missing & Exploited Children cũng được khích lệ khi thấy các công ty như OpenAI suy ngẫm về cách thiết kế các công cụ này một cách có trách nhiệm hơn, với các biện pháp bảo vệ được tích hợp từ đầu.” OpenAI cho biết khuôn khổ này kết hợp các tiêu chuẩn pháp lý, hệ thống báo cáo trong ngành và các biện pháp bảo vệ kỹ thuật trong các mô hình AI. Công ty cho biết các biện pháp này nhằm giúp xác định sớm các rủi ro bị khai thác và cải thiện trách nhiệm giải trình trên các nền tảng trực tuyến.
Bản kế hoạch nêu ra các lĩnh vực cần hành động, bao gồm cập nhật luật để giải quyết tài liệu lạm dụng tình dục trẻ em do AI tạo ra hoặc bị chỉnh sửa, cải thiện cách các nhà cung cấp trực tuyến báo cáo các tín hiệu lạm dụng và phối hợp với các nhà điều tra, đồng thời xây dựng các biện pháp bảo vệ trong các hệ thống AI được thiết kế để ngăn chặn việc lạm dụng. “Không một biện pháp can thiệp đơn lẻ nào có thể giải quyết thách thức này một mình,” công ty viết. “Khuôn khổ này kết hợp các cách tiếp cận pháp lý, vận hành và kỹ thuật để nhận diện rủi ro tốt hơn, đẩy nhanh phản hồi và hỗ trợ trách nhiệm giải trình, đồng thời đảm bảo rằng các cơ quan thực thi vẫn mạnh mẽ khi công nghệ phát triển.” Bản kế hoạch được đưa ra trong bối cảnh các advocate về an toàn cho trẻ em đã nêu lo ngại rằng các hệ thống AI tạo sinh có khả năng tạo ra hình ảnh chân thực có thể được dùng để tạo ra các hình ảnh bị thao túng hoặc mô phỏng về trẻ vị thành niên. Vào tháng Hai, UNICEF đã kêu gọi các chính phủ trên thế giới ban hành luật hình sự hóa tài liệu lạm dụng tình dục trẻ em do AI tạo ra. Vào tháng Một, Ủy ban Châu Âu đã khởi động một cuộc điều tra chính thức về việc liệu X, trước đây được biết đến là Twitter, có vi phạm các quy tắc kỹ thuật số của EU hay không bằng cách không ngăn mô hình AI bản địa của nền tảng, Grok, tạo ra nội dung bất hợp pháp, trong khi các cơ quan quản lý tại Vương quốc Anh và Australia cũng đã mở các cuộc điều tra. Nhấn mạnh rằng chỉ riêng luật pháp sẽ không thể ngăn chặn làn sóng tài liệu lạm dụng do AI tạo ra, OpenAI cho biết sẽ cần các tiêu chuẩn mạnh mẽ hơn của ngành khi các hệ thống AI trở nên có năng lực hơn. “Bằng cách ngắt sớm các nỗ lực khai thác, nâng cao chất lượng các tín hiệu gửi tới cơ quan thực thi pháp luật, và tăng cường trách nhiệm giải trình trên toàn bộ hệ sinh thái, khuôn khổ này hướng tới việc ngăn chặn tác hại trước khi nó xảy ra và giúp đảm bảo sự bảo vệ nhanh hơn cho trẻ em khi rủi ro xuất hiện,” OpenAI cho biết.