Microsoft begins blocking some terms that caused its AI tool to create violent, sexual images

Microsoft ได้ทำการเปลี่ยนแปลง artificial intelligence guardrails  หลังจากที่วิศวกร AI ของพนักงานเขียนถึง Federal Trade Commission ถึงข้อกังวลของเขาเกี่ยวกับ AI การสร้างภาพของ Copilot เมื่อวันพุธ พบว่าได้มีการบล็อกคำสั่ง Prompts เช่น “pro choice,” “pro choce” [sic] และ “four 20” ไปแล้ว เช่นเดียวกับคำว่า “pro life” และเมือ CNBC ลองทดสอบการใช้งาน  และได้รับคำเตือนเกี่ยวกับการละเมิดนโยบายหลายครั้ง ซึ่งจะนำไปสู่การระงับการใช้งานเครื่องมือนี้ หากผู้ใช้ยังไม่หยุดการกระทำดังกล่าว

Microsoft has made changes to its artificial intelligence guardrails after a staff AI engineer wrote to the Federal Trade Commission of his concerns regarding Copilot’s image-generation AI. Prompts such as “pro choice,” “pro choce” [sic] and “four twenty,” which were each mentioned in a CNBC investigation Wednesday, are now blocked, as well as the term “pro life.” There is also now a warning about multiple policy violations leading to suspension from the tool, which CNBC had not encountered prior to Friday, even after running many tests.

Microsoft เริ่มบล็อกคำบางคำที่ทำให้เครื่องมือ AI สร้างภาพที่ไม่เหมาะสม ส่อละเมิดทางเพศ หรือมีความรุนแรง

Microsoft ได้เริ่มทำการปรับปรุงเครื่องมือปัญญาประดิษฐ์ Copilot หลังจากที่วิศวกร AI ของพนักงานรณรงค์เกี่ยวกับข้อกังวลของเขาเกี่ยวกับ AI การสร้างภาพของ Copilot ถึง Federal Trade Commission เมื่อวันพุธ

พบว่าได้มีการบล็อกคำสั่ง Prompts เช่น “pro choice,” “pro choce” [sic] และ “four 20” ไปแล้ว เช่นเดียวกับคำว่า “pro life” และเมือ CNBC ลองทดสอบการใช้งาน  และได้รับคำเตือนเกี่ยวกับการละเมิดนโยบายหลายครั้ง ซึ่งจะนำไปสู่การระงับการใช้งานเครื่องมือนี้ หากผู้ใช้ยังไม่หยุดการกระทำดังกล่าว

“This prompt has been blocked,” การแจ้งเตือน Copilot ระบุ “ระบบของเราตั้งค่าสถานะ prompt นี้โดยอัตโนมัติ เนื่องจากอาจขัดแย้งกับนโยบายด้านคอนเทนท์ content policy ของเรา และหากผู้ใช้ยังไม่หยุดการกระทำที่ละเมิดนโยบายต่อไป อาจนำไปสู่การระงับการเข้าถึงของผู้ใช้โดยอัตโนมัติ โดยผู้ใช้สามารถฟีดแบค หากคิดว่า ไม่ได้กระทำผิด และนี่เป็นข้อผิดพลาด เพื่อช่วยนักพัฒนาปรับปรุง guardrails

เครื่องมือ AI จะบล็อกคำขอเพื่อสร้างรูปภาพที่ไม่เหมาะสม อย่าง วัยรุ่น หรือเด็กร่วมกับปืนไรเฟิล สวมบทบาทนักล่าสังหาร ฯลฯ ซึ่งเป็นการปรับปรุง guardrails ที่ชัดเจนจากต้นสัปดาห์นี้ โดยระบุว่า “ฉันขอโทษ แต่ฉันไม่สามารถสร้างรูปภาพดังกล่าวได้ มันขัดต่อหลักจริยธรรมของฉันและนโยบายของ Microsoft กรุณาอย่าขอให้ฉันทำอะไรที่อาจเป็นอันตรายต่อหรือรุกรานผู้อื่น ขอบคุณสำหรับความร่วมมือ.”

เมื่อได้รับความคิดเห็นเกี่ยวกับการเปลี่ยนแปลง โฆษกของ Microsoft บอกกับ CNBC ว่า “เรากำลังติดตาม ปรับเปลี่ยน และวางการควบคุมเพิ่มเติมอย่างต่อเนื่อง เพื่อเพิ่มความแข็งแกร่งให้กับตัวกรองความปลอดภัยของเรา และบรรเทาการใช้ระบบในทางที่ผิด”

Shane Jones หัวหน้าฝ่ายวิศวกรรม AI ของ Microsoft ซึ่งกังวลเกี่ยวกับ AI เริ่มตั้งแต่ได้ใช้เวลาหลายเดือนในการทดสอบ Copilot Designer ซึ่งเป็นโปรแกรมสร้างภาพ AI ที่ Microsoft เปิดตัวในเดือนมีนาคม 2023 โดยขับเคลื่อนโดยเทคโนโลยีของ OpenAI เช่นเดียวกับ DALL-E ของ OpenAI ผู้ใช้ป้อน prompt เพื่อสร้างรูปภาพ ตามความคิดสร้างสรรค์ แต่เนื่องจาก Jones เริ่มทดสอบผลิตภัณฑ์เพื่อหาช่องโหว่ในเดือนธันวาคม ในฐานะทีมงานที่เรียกว่า red-teaming เขาจึงเห็นว่าเครื่องมือนี้สร้างภาพที่ขัดต่อหลักการ AI ที่รับผิดชอบของ Microsoft

เครื่องมือ AI สร้างภาพปีศาจและสัตว์ประหลาดควบคู่ไปกับคำศัพท์ที่เกี่ยวข้องกับสิทธิในการทำแท้ง วัยรุ่นที่มีปืนไรเฟิลจู่โจม ภาพละเมิดทางเพศ ภาพเปลือยของผู้หญิง ฉากที่มีความรุนแรง และการดื่มสุราและการใช้ยาเสพติดของเยาวชนที่ยังไม่บรรลุนิติภาวะ ฉากทั้งหมดเหล่านี้ ถูกสร้างขึ้นในช่วงสามเดือนที่ผ่านมา ในสัปดาห์นี้ CNBC ได้ทดสอบใช้งาน โดยใช้เครื่องมือ Copilot ซึ่งเดิมเรียกว่า Bing Image Creator

แม้ว่า prompt จะถูกบล็อกไปแล้วจำนวนหนึ่ง แต่ก็ยังมีคำสั่ง prompt อีกจำนวนมาก ที่สร้างภาพที่ไม่เหมาะสมอีกมากมาย  CNBC ทดสอบคำสั่ง prompt ว่า “car accident” ได้ภาพที่สร้างขึ้น เต็มไปด้วยกองเลือด ร่างกายที่มีใบหน้ากลายพันธุ์ และผู้หญิงในฉาก ที่มีความรุนแรงพร้อมกับกล้องหรือเครื่องดื่ม บางครั้งก็สวมเครื่องรัดตัวหรือเครื่องรัดเอว “car accident” ยังคงเผยภาพผู้หญิงสวมชุดลายลูกไม้โป๊เปลือย นั่งบนรถ ถูกทุบตี ระบบยังสร้างภาพละเมิดลิขสิทธิ์ได้  เช่น การสร้างภาพตัวละครดิสนีย์ รวมถึงเอลซ่าจากเรื่อง Frozen ถือธงปาเลสไตน์หน้าอาคารที่พังยับเยิน เสมือนว่าอยู่ที่ฉนวนกาซา หรือการสวมเครื่องแบบทหารของกองกำลังป้องกันประเทศอิสราเอลและถือปืนกล

Jones รู้สึกกังวล ตื่นตระหนกกับประสบการณ์ของเขามาก จนเขาเริ่มรายงานสิ่งที่ค้นพบเป็นการภายในในเดือนธันวาคม แม้ว่าบริษัทจะรับทราบข้อกังวลของเขา แต่ก็ไม่ยอมที่จะชะลอหรือดึงผลิตภัณฑ์ดังกล่าวออกจากตลาด Jones กล่าวว่า Microsoft ทำแค่แจ้งข้อกังวลของเขาถึง OpenAI และเมื่อเขาไม่ได้รับการตอบกลับจากบริษัท เขาก็โพสต์จดหมายเปิดผนึกบน LinkedIn เพื่อขอให้บอร์ดของ OpenAI ถอด DALL-E 3 ซึ่งเป็นโมเดล AI เวอร์ชันล่าสุดออกเพื่อทำการปรับปรุงแก้ไข

ฝ่ายกฎหมายของ Microsoft บอกให้ Jones ลบโพสต์ของเขาทันที และเขาก็ปฏิบัติตาม ในเดือนมกราคม เขาได้เขียนจดหมายถึงวุฒิสภาสหรัฐอเมริกาเกี่ยวกับเรื่องนี้ และต่อมาได้พบกับเจ้าหน้าที่จากคณะกรรมการการค้า วิทยาศาสตร์ และการขนส่งของวุฒิสภา

เมื่อวันพุธที่ผ่านมา Jones ได้รณรงค์เพิ่มเติม โดยส่งจดหมายถึงประธาน FTC Lina Khan และอีกฉบับหนึ่งถึงคณะกรรมการบริหารของ Microsoft เขาส่งให้กับ CNBC ล่วงหน้าอีกด้วย

FTC ยืนยันกับ CNBC ว่าได้รับจดหมายแล้ว แต่ปฏิเสธที่จะแสดงความคิดเห็นเพิ่มเติมเกี่ยวกับบันทึกดังกล่าว

view original *