เทคยักษ์ใหญ่อย่าง Google, Meta, OpenAI, Microsoft และ Amazon ต่างให้คำมั่นสัญญาว่าจะทบทวนข้อมูลการฝึกอบรมปัญญาประดิษฐ์ (AI) เพื่อตรวจหาและกำจัดสื่อลามเด็ก (CSAM) ออกจากระบบป้องกันการนำไปใช้ในโมเดลปัญญาประดิษฐ์รุ่นต่อไป
บริษัทเหล่านี้ได้ร่วมลงนามในข้อตกลงชุดใหม่เพื่อจำกัดการแพร่กระจายของ CSAM โดยสัญญาว่าจะดำเนินการดังต่อไปนี้
- สร้างฐานข้อมูลฝึกอบรมที่ปลอดภัย: ตรวจสอบและยืนยันว่าฐานข้อมูลที่ใช้ในการฝึกอบรม AI ไม่มีเนื้อหา CSAM อยู่
- ลดความเสี่ยง: หลีกเลี่ยงการใช้ฐานข้อมูลที่มีความเสี่ยงสูงที่จะมีเนื้อหา CSAM แฝงอยู่
- กำจัดภาพและลิงค์ CSAM: ลบภาพล่วงละเมิดเด็กและลิงค์ที่เกี่ยวข้องออกจากแหล่งข้อมูลทั้งหมด
- ทดสอบและประเมินความปลอดภัย: ประเมินโมเดล AI อย่างเคร่งครัดเพื่อให้แน่ใจว่าไม่สร้างภาพ CSAM ปลอมแปลง และจะเผยแพร่โมเดลเฉพาะกรณีที่ผ่านการประเมิน ด้านความปลอดภัยสำหรับเด็กเท่านั้น
นอกจากนี้ ยังมีบริษัทอื่น ๆ ที่เข้าร่วมลงนามในข้อตกลงนี้ ได้แก่ Anthropic, Civitai, Metaphysic, Mistral AI และ Stability AI
เทคโนโลยีปัญญาประดิษฐ์ (AI) ที่สามารถสร้างสรรค์ภาพได้อย่างสมจริง ก่อให้เกิดความกังวลเกี่ยวกับการนำไปใช้ในทางที่ผิด เช่น การสร้างภาพลวงลึก (Deepfake) ลามเด็ก นักวิจัยจากมหาวิทยาลัยสแตนฟอร์ดเผยรายงานการวิจัยในเดือนธันวาคมที่ผ่านมา พบว่าฐานข้อมูลยอดนิยมที่ใช้ในการฝึกอบรมโมเดล AI บางรุ่น มีลิงค์ไปยังเว็บไซต์ที่มีเนื้อหา CSAM นอกจากนี้ ศูนย์ข้อมูลเพื่อต่อต้านการค้ามนุษย์แห่งชาติ (NCMEC) ซึ่งทำหน้าที่รับแจ้งเบาะแสเกี่ยวกับสื่อลามเด็กอยู่แล้ว ก็กำลังประสบปัญหากับปริมาณของภาพ CSAM ที่สร้างโดย AI ที่เพิ่มขึ้นอย่างรวดเร็ว
องค์กรไม่แสวงหาผลกำไรอย่าง Thorn ซึ่งร่วมมือกับ All Tech Is Human ในการสร้างข้อตกลงนี้ ชี้ให้เห็นว่า การสร้างภาพด้วย AI อาจส่งผลกระทบต่อการระบุตัวตนของเหยื่อ กระตุ้นความต้องการ CSAM สร้างรูปแบบการทารุณกรรมเด็กซ้ำซาก และง่ายต่อการเข้าถึงข้อมูลเกี่ยวกับวิธีแชร์สื่อลามเด็ก
ในบล็อกโพสต์ของ Google ระบุว่า นอกเหนือจากการลงนามในข้อตกลงแล้ว บริษัทยังได้เพิ่มเงินสนับสนุนโฆษณาให้องค์กร NCMEC เพื่อส่งเสริมโครงการต่าง ๆ Susan Jasper รองประธานฝ่ายความปลอดภัยของ Google กล่าวว่า การสนับสนุนแคมเปญเหล่านี้จะช่วยสร้างความตระหนักรู้ให้กับประชาชน และมอบเครื่องมือในการระบุและรายงานการทารุณกรรมเด็ก