นักพัฒนา AI ทำงานเพื่อจำกัดเนื้อหาที่ไม่เหมาะสม กำจัดการหาผลประโยชน์จากเด็ก และอุดช่องโหว่ในการป้องกันในปัจจุบัน
AI developers work to throttle exploitive material and plug holes in their current defenses
OpenAI, Meta และ Google ลงนามในมาตรการความปลอดภัยในการแสวงหาประโยชน์จากเด็กแบบใหม่
หลังจากเรื่องอื้อฉาวที่มีการเผยแพร่อย่างกว้างขวางที่เกี่ยวข้องกับ Deepfakes และสื่อการล่วงละเมิดทางเพศเด็ก (CSAM) ได้รบกวนอุตสาหกรรมปัญญาประดิษฐ์ บริษัท AI ชั้นนำได้รวมตัวกันและให้คำมั่นที่จะต่อสู้กับการแพร่กระจายของ CSAM ที่สร้างโดย AI
Thorn องค์กรไม่แสวงผลกำไรที่สร้างเทคโนโลยีเพื่อต่อสู้กับการล่วงละเมิดทางเพศเด็ก ได้ประกาศเมื่อวันอังคารว่า Meta, Google, Microsoft, CivitAI, Stability AI, Amazon, OpenAI และบริษัทอื่นๆ อีกหลายแห่งได้ลงนามในมาตรฐานใหม่ที่สร้างขึ้นโดยกลุ่มเพื่อพยายามแก้ไขปัญหานี้ . ก่อนหน้านี้บริษัทอย่างน้อยห้าแห่งได้ตอบสนองต่อรายงานที่ว่าผลิตภัณฑ์และบริการของตนได้ถูกนำมาใช้เพื่ออำนวยความสะดวกในการสร้างและเผยแพร่ Deepfake ที่มีเนื้อหาทางเพศอย่างโจ่งแจ้งซึ่งมีเด็กอยู่
CSAM และ Deepfakes ที่สร้างโดย AI กลายเป็นประเด็นร้อนในสภาคองเกรสและที่อื่นๆ ด้วยรายงานที่ให้รายละเอียดเรื่องราวของเด็กสาววัยรุ่นที่ตกเป็นเหยื่อที่โรงเรียนด้วยรูปภาพทางเพศที่โจ่งแจ้งซึ่งสร้างโดย AI ซึ่งมีความคล้ายคลึงกัน
ก่อนหน้านี้ มีข่าว Deepfakes ที่มีเนื้อหาทางเพศอย่างโจ่งแจ้ง โดยสร้างภาพใบหน้าเด็กที่มีตัวตนจริง เป็นหนึ่งในผลการค้นหายอดนิยมสำหรับคำต่างๆ เช่น “fake nudes” ค้นหาภาพเปลือยปลอมบน Bing ของ Microsoft รวมถึงในผลการค้นหาของ Google สำหรับดาราหญิงคนใดคนหนึ่ง และคำว่า “Deepfakes” ยังมีแคมเปญบนแพลตฟอร์ม Meta ในเดือนมีนาคม 2024 ที่ใช้แอป Deepfake สร้างภาพเปลือยของนักแสดงวัย 16 ปี
หลักการ “Safety by Design” ใหม่ที่บริษัทต่างๆ ลงนาม โดยให้คำมั่นที่จะบูรณาการเข้ากับเทคโนโลยีและผลิตภัณฑ์ของตน รวมถึงข้อเสนอที่บริษัทหลายแห่งประสบปัญหาอยู่แล้ว
หลักการหนึ่งคือ การพัฒนาเทคโนโลยีที่จะช่วยให้บริษัทต่างๆ ตรวจจับได้ว่ารูปภาพนั้นถูกสร้างขึ้นโดย AI หรือไม่ การทำซ้ำเทคโนโลยีนี้ในช่วงแรกๆ หลายครั้งมาในรูปแบบของลายน้ำ ซึ่งส่วนใหญ่สามารถปลดออกได้อย่างง่ายดาย
ในเดือนธันวาคม พ.ศ. 2566 นักวิจัยของมหาวิทยาลัยสแตนฟอร์ดค้นพบภาพการล่วงละเมิดทางเพศเด็กมากกว่า 1,000 ภาพในฐานข้อมูลโอเพ่นซอร์สยอดนิยมของภาพที่ใช้ในการฝึก Stable Diffusion 1.5 ของ Stability AI ซึ่งเป็นเวอร์ชันหนึ่งของโปรแกรมสร้างภาพ AI ที่ได้รับความนิยมมากที่สุด ชุดข้อมูลซึ่งไม่ได้สร้างหรือจัดการโดย Stability AI ถูกลบออกในขณะนั้น
Stability AI กล่าวว่าแบบจำลองของมันได้รับการฝึกอบรมเกี่ยวกับ “ชุดย่อยที่กรองแล้ว” ของชุดข้อมูลที่พบภาพการล่วงละเมิดทางเพศเด็ก
“นอกจากนี้ เรายังปรับแต่งแบบจำลองเหล่านี้อย่างละเอียดในภายหลังเพื่อลดพฤติกรรมที่ตกค้าง” คำแถลงดังกล่าวระบุ
หลักการใหม่ของ Thorn ยังกล่าวด้วยว่าบริษัทต่างๆ ควรเผยแพร่โมเดลต่างๆ หลังจากได้รับการตรวจสอบความปลอดภัยของเด็กแล้วเท่านั้น บริษัทควรโฮสต์โมเดลของตนอย่างมีความรับผิดชอบ และบริษัทควรให้การรับรองว่าโมเดลของพวกเขาจะไม่ถูกใช้ในทางที่ผิด
ยังไม่ชัดเจนว่าบริษัทต่างๆ จะนำมาตรฐานดังกล่าวไปใช้อย่างไร และบางแห่งก็ถูกวิพากษ์วิจารณ์อย่างมากเกี่ยวกับวิธีการนำไปใช้และชุมชนโดยรอบ
ตัวอย่างเช่น CivitAI เป็น marketplace ที่ใครๆ ก็สามารถสร้างภาพของปลอมจากคนจริงได้
ปัจจุบันมี ผู้ใช้จำนวนมากต้องการสร้างภาพปลอมของผู้หญิงที่มีชื่อเสียง โดยบางรายต้องการสร้างภาพที่ล่วงละเมิดทางเพศที่โจ่งแจ้ง CivitAI กล่าวว่า “เนื้อหาที่แสดงภาพหรือตั้งใจที่จะพรรณนาถึงบุคคลจริงหรือผู้เยาว์ (อายุต่ำกว่า 18 ปี) ในบริบทสำหรับผู้ใหญ่” เป็นสิ่งต้องห้าม ในหน้าของ CivitAI ที่แสดงโมเดล AI รูปภาพที่สร้างโดย AI และวิดีโอที่สร้างโดย AI บางรายการมีการพรรณนาถึงสิ่งที่ดูเหมือนจะเป็นหญิงสาวที่มีการชี้นำทางเพศ
ในการเปิดตัวหลักการใหม่ Safety by Design ปลอดภัยตั้งแต่ขั้นตอนการออกแบบ Thorn ยังยอมรับว่า AI ล้ำหน้าไป จนภาคส่วนการบังคับใช้กฎหมายรับมือไม่ทันอยู่แล้ว รายงานที่เผยแพร่เมื่อวันจันทร์โดย Stanford Internet Observatory พบว่ามีเพียงระหว่าง 5% ถึง 8% ของรายงานที่ส่งไปยัง National Center for Missing and Exploited Children เกี่ยวกับภาพการล่วงละเมิดทางเพศเด็กที่นำไปสู่การจับกุม และ การปลดล็อกศักยภาพของ AI ใหม่มากมาย นำไปสู่สร้างเนื้อหาการล่วงละเมิดทางเพศเด็ก
Thorn สร้างเทคโนโลยีที่ บริษัทเทคโนโลยีและหน่วยงานบังคับใช้กฎหมายสามารถนำไปใช้ ซึ่งมีจุดประสงค์เพื่อตรวจจับการแสวงหาประโยชน์จากเด็กและการค้ามนุษย์ทางเพศ บริษัทด้านเทคโนโลยีต่างชื่นชมเทคโนโลยีและผลงานของ Thorn โดยหลายบริษัทร่วมมือกับกลุ่มเพื่อนำเทคโนโลยีของตนไปใช้งานบนแพลตฟอร์มของตน
อย่างไรก็ตาม Thorn ได้รับความสนใจอย่างมากจากการทำงานร่วมกับหน่วยงานบังคับใช้กฎหมาย หนึ่งในผลิตภัณฑ์หลักของบริษัทรวบรวมการชักชวนทางเพศทางออนไลน์และเผยแพร่ต่อตำรวจ ซึ่งเป็นแนวทางปฏิบัติที่ Forbes รายงานว่า ตกอยู่ภายใต้การตรวจสอบอย่างละเอียดจากผู้เชี่ยวชาญด้านการต่อต้านการค้ามนุษย์และผู้สนับสนุนผู้ให้บริการทางเพศ