Microsoft employee: AI tool should be removed until ‘offensive images’ can be addressed

CNN นิวยอร์ก – พนักงานของ Microsoft เตือนว่าระบบปัญญาประดิษฐ์ของบริษัทอาจสร้างภาพที่เป็นอันตราย รวมถึงภาพผู้หญิง ที่ไม่เหมาะสม มีการละเมิด ส่อไปในทางอนาจารทางเพศ ตามจดหมายที่เขาส่งถึงคณะกรรมาธิการการค้าแห่งสหพันธรัฐสหรัฐ เมื่อวันพุธ

New York CNN – A Microsoft employee is warning the company’s artificial intelligence systems could create harmful images, including sexualized images of women, according to a letter he sent to the US Federal Trade Commission Wednesday.

พนักงาน Microsoft รณรงค์ให้ถอดเครื่องมือ AI ออกจากผลิตภัณฑ์ จนกว่าจะสามารถแก้ไข ‘ภาพที่ไม่เหมาะสม’ ได้

CNN นิวยอร์ก – พนักงานของ Microsoft เตือนว่าระบบปัญญาประดิษฐ์ของบริษัทอาจสร้างภาพที่เป็นอันตราย รวมถึงภาพผู้หญิง ที่ไม่เหมาะสม มีการละเมิด ส่อไปในทางอนาจารทางเพศ ตามจดหมายที่เขาส่งถึงคณะกรรมาธิการการค้าแห่งสหพันธรัฐสหรัฐ เมื่อวันพุธ

Shane Jones หัวหน้าฝ่ายวิศวกรรมซอฟต์แวร์ ของ Microsoft อ้างว่า Copilot Designer โปรแกรมสร้างข้อความเป็นรูปภาพ AI ของบริษัทมี “systemic issues” ปัญหาที่ผู้ใช้สามารถสร้างภาพที่เป็นที่น่ารังเกียจ หรือภาพที่ไม่เหมาะสม รวมถึงภาพผู้หญิงที่ส่อไปทางอนาจารทางเพศของผู้หญิงด้วย โจนส์ยังวิพากษ์วิจารณ์บริษัทที่ทำการตลาดเครื่องมือดังกล่าวว่าปลอดภัย รวมถึงการใช้งานสำหึเด็กด้วย แม้ว่า เขาจะยืนยันว่า มีความเสี่ยงก็ตาม

“หนึ่งในความเสี่ยงที่น่ากังวลที่สุดกับ Copilot Designer คือเมื่อผลิตภัณฑ์สร้างภาพ อาจสร้างอิมเมจที่ไม่เหมาะสม โดยเพิ่มคอนเทนท์ที่เป็นอันตรายเข้าไปเอง แม้ว่าผู้ใช้จะสั่งงานอย่างเหมาะสมก็ตาม” โจนส์ กล่าวในจดหมายถึงประธาน FTC Lina Khan ซึ่งเขาโพสต์ใน LinkedIn ของเขา

ตัวอย่างเช่น เขายกตัวอย่าง ผู้ใช้เขียน prompts ว่า  “car accident,” ที่ดูไม่มีปัญหาอะไร แต่พบว่า Copilot Designer มีแนวโน้มที่จะสุ่ม สร้างภาพที่ไม่เหมาะสม หรือผู้หญิงที่ดูวาบหวิวคนหนึ่งไว้ในภาพบางภาพที่มันสร้างขึ้น

โจนส์กล่าวเสริมในจดหมายที่เกี่ยวข้องซึ่งส่งถึงคณะกรรมการบริหารของ Microsoft ว่าเขาทำงานกับ “red teaming” ทดสอบผลิตภัณฑ์ของบริษัทเพื่อดูว่าผลิตภัณฑ์เหล่านั้นอาจเสี่ยงต่อผู้กระทำผิดในส่วนใดบ้าง เขากล่าวว่าเขาใช้เวลาหลายเดือนในการทดสอบเครื่องมือของ Microsoft เช่นเดียวกับการทดสอบ DALL-E 3 ของ OpenAI ซึ่งเป็นเทคโนโลยีที่ Copilot Designer ของ Microsoft ใช้เป็นพื้นฐานในการพัฒนาโมเดล AI และพยายามแจ้งข้อกังวลเป็นการภายใน ก่อนที่เขาจะแจ้งเตือน FTC (Microsoft เป็นผู้ลงทุน และ independent board observer  ของ OpenAI)

เขาบอกว่า เขาพบตัวอย่าง “รูปภาพที่น่าจะมีความไม่เหมาะสม” มากกว่า 200 ตัวอย่าง ที่สร้างโดย Copilot Designer

โจนส์ ได้เรียกร้องให้ Microsoft “ถอด Copilot Designer ออกจากการใช้งานสาธารณะจนกว่าจะมีมาตรการป้องกันที่ดีกว่า” หรืออย่างน้อยก็ทำการตลาดเครื่องมือนี้สำหรับผู้ใหญ่เท่านั้น ตามจดหมายของเขาถึง FTC

จดหมายของ โจนส์ เกิดขึ้น ท่ามกลางความกังวลของคนทั่วไปที่เพิ่มมากขึ้นว่า generative AI  ซึ่งมีความสามารถในการสร้างภาพที่น่าเชื่อถือ และสมจริงมากขึ้น สามารถก่อให้เกิดอันตรายโดยการแพร่กระจายภาพที่ไม่เหมาะสมหรือทำให้เข้าใจผิด เข่น ภาพลามกอนาจารของ Taylor Swift ที่สร้างโดย AI ซึ่งเผยแพร่บนโซเชียลมีเดียเมื่อเดือนที่แล้ว ทำให้เกิดความสนใจต่อประะเด็นการใช้ AI เป็นเครื่องมือหนึ่งในการล่วงละเมิดผู้หญิง และเด็กผู้หญิง ซึ่งมีเกิดขึ้นทั่วโลกอยู่แล้ว และนักวิจัยได้เตือนถึงศักยภาพของ generative AI  ในการสร้างข้อมูลที่บิดเบือน เพื่อเล็งผลทางการเมือง ก่อนการเลือกตั้งในสหรัฐอเมริกาและประเทศอื่น ๆ อีกหลายสิบประเทศในปีนี้

คู่แข่งของ Microsoft อย่าง Google ก็ตกอยู่ภายใต้การวิจารณ์เมื่อเดือนที่แล้ว หลังจากที่ Gemini แชทบอท AI ของบริษัทสร้างภาพที่ไม่ถูกต้องในอดีต ซึ่งส่วนใหญ่แสดงภาพคนผิวสีแทนที่คนผิวขาว เช่น Gemini สร้างภาพคนผิวสี เมื่อใช้คำสั่งให้สร้างภาพ “ชาวเยอรมันในปี 1943” หลังจากปฏิกิริยาสะท้อนกลับอย่างรุนแรง Google ตอบสนองอย่างรวดเร็วว่า จะหยุดความสามารถของ Gemini ในการสร้างภาพที่สร้างโดย AI ไว้ ในขณะที่เร่งแก้ไขปัญหาที่เกิดขึ้น

ในจดหมายของเขาถึงคณะกรรมการบริหารของ Microsoft โจนส์เรียกร้องให้ Microsoft ดำเนินการคล้าย ๆ กันกับ Google เขาเรียกร้องให้คณะกรรมการดำเนินการตรวจสอบการตัดสินใจของ Microsoft ในการทำการตลาด “ผลิตภัณฑ์ AI ที่มีความเสี่ยงด้านความปลอดภัยสาธารณะที่สำคัญโดยไม่เปิดเผยความเสี่ยงที่ทราบแก่ผู้บริโภค” และเข้าสู่กระบวนการรายงานและฝึกอบรม AI ที่มีความรับผิดชอบของบริษัท

“ในการแข่งขันเพื่อเป็นบริษัท AI ที่น่าเชื่อถือที่สุด Microsoft จำเป็นต้องเป็นผู้นำ ไม่ใช่เป็นผู้ตาม หรือล้าหลัง” โจนส์กล่าว “ด้วยค่านิยมองค์กรของเรา เราควรเปิดเผยความเสี่ยงด้าน AI ที่ทราบโดยสมัครใจและโปร่งใส โดยเฉพาะอย่างยิ่งเมื่อมีผลิตภัณฑ์ AI ให้เด็กใช้งานอย่างจริงจัง

โจนส์ กล่าวว่าเขาเพิ่มข้อกังวลของเขาด้วยการเผยแพร่จดหมายเปิดผนึกถึงคณะกรรมการบริหารของ OpenAI ในเดือนธันวาคมเพื่อแจ้งเตือนพวกเขาถึงช่องโหว่ที่เขากล่าวว่าเขาพบว่าทำให้ผู้ใช้ DALL-E 3 สามารถ “สร้างภาพที่น่ารำคาญ และมีความรุนแรง” โดยใช้เครื่องมือ AI และ ที่จะทำให้เกิดความเสี่ยงต่อสุขภาพจิตของเด็ก โจนส์อ้างว่าเขาได้รับคำสั่งจากฝ่ายกฎหมายของ Microsoft ให้ลบจดหมายดังกล่าว

“จนถึงทุกวันนี้ ฉันยังไม่รู้ว่า Microsoft ส่งจดหมายของฉันไปยังคณะกรรมการบริหารของ OpenAI หรือว่าพวกเขาบังคับให้ฉันลบจดหมายดังกล่าวเพื่อป้องกันการรายงานข่าวเชิงลบ” โจนส์ กล่าว

โจนส์กล่าวว่าเขายังได้แจ้งข้อกังวลกับ บ็อบ เฟอร์กูสัน อัยการสูงสุดวอชิงตัน และสมาชิกสภานิติบัญญัติ รวมถึงเจ้าหน้าที่ของคณะกรรมาธิการการพาณิชย์ วิทยาศาสตร์ และการขนส่งของวุฒิสภาสหรัฐฯ ได้รับทราบเช่นเดียวกัน

view original *