Microsoft lays off team that taught employees how to make AI tools responsibly.

Microsoft ได้เลิกจ้างทีมจริยธรรมและสังคมทั้งหมด ในทีมพัฒนา AI ซึ่งมีหน้าที่รับผิดชอบในการตรวจสอบให้แน่ใจว่าหลักจริยธรรม ความรับผิดชอบต่อสังคม ได้รับความใส่ใจในการออกแบบผลิตภัณฑ์ AI การปรับโครงสร้างครั้งนี้ ทำให้ Microsoft ขาดทีมงานเชี่ยวชาญด้านจริยธรรมโดยเฉพาะ ซึ่งทำหน้าที่ให้แน่ใจว่าผลิตภัณฑ์ AI ของไมโครซอฟท์ได้รับการผลิตอย่างมีความรับผิดชอบ ในช่วงเวลาที่บริษัทกำลังจะเปิดตัวเครื่องมือ AI แก่ผู้ใช้ทั่วโลก ทีมงานด้านจริยธรรมและสังคมมีบทบาทสำคัญในการทำให้แน่ใจว่าหลักการ AI ที่มีความรับผิดชอบต่อสังคมของบริษัท จะสะท้อนให้เห็นในการออกแบบผลิตภัณฑ์ AI ที่กำลังจะทะยอยเปิดตัว

Microsoft has laid off its entire ethics and society team within its artificial intelligence (AI) organisation, which was responsible for ensuring its AI principles were closely tied to product design. The move leaves Microsoft without a dedicated team to ensure its AI products are made responsibly at a time when the company is making AI tools available to the mainstream. The ethics and society team played a critical role in ensuring that the company’s responsible AI principles were reflected in the design of the products that ship.

Microsoft เลิกจ้างทีมจริยธรรมที่ช่วยนักพัฒนาผลิตภัณฑ์ AI เพื่อสร้างเครื่องมืออย่างมีความรับผิดชอบต่อสังคม

ในขณะที่บริษัทเร่งผลักดันผลิตภัณฑ์ AI ทีมงานด้านจริยธรรมและสังคม กำลังถูกเลิกจ้าง

Microsoft เลิกจ้างทีมจริยธรรมและสังคมทั้งหมดภายในส่วนงานปัญญาประดิษฐ์ ซึ่งเป็นส่วนหนึ่งของการปลดพนักงานล่าสุดที่ส่งผลกระทบต่อพนักงาน 10,000 คนทั่วทั้งบริษัท

การเลิกจ้างครั้งนี้ ทำให้ Microsoft ไม่มีทีมงานที่เชี่ยวชาญเฉพาะด้านจริยธรรมและสังคม ทำงานร่วมกับการออกแบบผลิตภัณฑ์ AI ของ Microsoft ในขณะที่บริษัทตั้งเป้าเป็นผู้นำในด้าน AI สำหรับผู้ใช้ทั่วโลก

ทีมจริยธรรมและสังคม เคยมีขนาดใหญ่ที่สุดในปี 2020 มีพนักงานประมาณ 30 คน แต่ถูกลดเหลือประมาณ 7 คนในเดือนตุลาคม 2020 ซึ่งเป็นส่วนหนึ่งของการปรับโครงสร้างองค์กร สมาชิกส่วนใหญ่ของทีมถูกย้ายไปที่อื่นภายใน Microsoft สมาชิกในทีมที่เหลือได้รับแจ้งเมื่อวันที่ 6 มีนาคมว่าทีมของพวกเขากำลังถูกคัดออก พนักงานคนหนึ่งกล่าวว่าการย้ายครั้งนี้ทำให้เกิดช่องว่างพื้นฐานเกี่ยวกับประสบการณ์ของผู้ใช้และการออกแบบผลิตภัณฑ์ AI แบบองค์รวม

Microsoft ยังคงรักษา Office of Responsible AI ที่ใช้งานอยู่ ซึ่งมีหน้าที่สร้างกฎและหลักการเพื่อควบคุมความคิดริเริ่ม AI ของบริษัท บริษัทกล่าวว่าการลงทุนโดยรวมในงานที่รับผิดชอบเพิ่มขึ้นแม้จะมีการปลดพนักงานเมื่อเร็วๆ นี้ ในการตอบคำถาม John Montgomery รองประธานองค์กรของ AI กล่าวว่าทีมจะไม่ถูกกำจัด แต่จะพัฒนาไปสู่การเพิ่มพลังงานให้กับทีมผลิตภัณฑ์แต่ละทีมที่กำลังสร้างบริการและซอฟต์แวร์

ความเคลื่อนไหวดังกล่าวเน้นย้ำถึงความตึงเครียดที่เกิดขึ้นอย่างต่อเนื่อง สำหรับยักษ์ใหญ่ด้านเทคโนโลยีที่สร้างหน่วยงานที่อุทิศตน เพื่อทำให้ผลิตภัณฑ์ของตนมีความรับผิดชอบต่อสังคมมากขึ้น อย่างดีที่สุด พวกเขาช่วยทีมพัฒนาผลิตภัณฑ์ เพื่อคาดการณ์การใช้เทคโนโลยีในทางที่ผิดที่อาจเกิดขึ้น และแก้ไขปัญหาใดๆ ก่อนเปิดตัว พวกเขามีหน้าที่ในการ “ยับยั้ง” หรือ “ชะลอการทำงาน” เพื่อจำกัดความเสี่ยงที่อาจนำไปสู่ความปวดหัวทางกฎหมายสำหรับบริษัท หากพบในการค้นพบการละเมิดทางกฎหมาย หรือไม่เหมาะสมทางจริยธรรม ตลอดจนความรับผิดชอบต่อสังคม แต่นั่น เป็นสิ่งที่องค์กรมักไม่ต้องการได้ยิน

ในปี 2020 Google เลิกจ้าง Timnit Gebru นักวิจัยด้าน AI ที่เคร่งครัดด้านจริยธรรม หลังจากที่เธอตีพิมพ์บทความวิจารณ์โมเดล LLM สร้างความเดือดดาลให้แก่ผู้นำระดับสูงหลายคน ถึงกับลาออกจากแผนก และลดความน่าเชื่อถือของบริษัทเกี่ยวกับปัญหา AI ที่รับผิดชอบ

Satya Nadella, chairman and chief executive officer of Microsoft Corp., speaks during the virtual Meta Connect event in New York on Oct. 11, 2022.

Microsoft มุ่งเอาชนะ Google search

สมาชิกของทีมจริยธรรมและสังคมกล่าวว่าโดยทั่วไปแล้วพวกเขาพยายามสนับสนุนการพัฒนาผลิตภัณฑ์ แต่พวกเขากล่าวว่าเมื่อ Microsoft เริ่มให้ความสำคัญกับการเปิดตัวเครื่องมือ AI อย่างรวดเร็วกว่าคู่แข่ง ความเป็นผู้นำของบริษัทจึงเริ่มให้ความสำคัญกับการคิดอย่างระมัดระวัง ถึงผลระยะยาว จากทีมผู้เชี่ยวชาญด้านจริยธรรมน้อยลง

เป็นความเปลี่ยนแปลงที่ต้องตรวจสอบอย่างใกล้ชิด ในแง่หนึ่ง Microsoft อาจมีโอกาสครั้งเดียวในยุค ที่จะเอาชนะ Google search ซอฟต์แวร์เพิ่มประสิทธิภาพ การประมวลผลแบบคลาวด์ และพื้นที่อื่นๆ ที่ยักษ์ใหญ่แข่งขันกัน เมื่อเปิดตัว Bing ด้วย AI อีกครั้ง บริษัทได้บอกกับนักลงทุนว่าทุกๆ 1 เปอร์เซ็นต์ของส่วนแบ่งการตลาดที่ Google สามารถแย่งชิงไปจากการค้นหาจะส่งผลให้มีรายได้ 2 พันล้านดอลลาร์ต่อปี

ศักยภาพดังกล่าวอธิบายได้ว่าทำไม Microsoft ถึงลงทุน 11,000 ล้านดอลลาร์ใน OpenAI และขณะนี้กำลังแข่งขันเพื่อรวมเทคโนโลยีของสตาร์ทอัพเข้ากับทุกมุมของอาณาจักร ดูเหมือนว่าจะประสบความสำเร็จในช่วงต้น บริษัทกล่าวเมื่อสัปดาห์ที่แล้วว่า Bing มีผู้ใช้งาน 100 ล้านรายต่อวัน โดยหนึ่งในสามเป็นรายใหม่ตั้งแต่เสิร์ชเอ็นจิ้นเปิดตัวใหม่ด้วยเทคโนโลยีของ OpenAI

ในทางกลับกัน ทุกคนที่เกี่ยวข้องกับการพัฒนา AI ต่างเห็นพ้องต้องกันว่าเทคโนโลยีดังกล่าวก่อให้เกิดความเสี่ยงที่อาจเกิดขึ้นได้ ทั้งที่ทราบและไม่ทราบ ยักษ์ใหญ่ด้านเทคโนโลยีพยายามอย่างมากที่จะส่งสัญญาณว่าพวกเขากำลังรับความเสี่ยงเหล่านั้นอย่างจริงจัง — Microsoft ตั้งทีมทำงานที่แตกต่างกันสามกลุ่มที่ทำงานเกี่ยวกับปัญหาจริยธรรมนี้ หลังจาก ทีมจริยธรรมและสังคมออกจากทีมพัฒนาไปแล้วก็ตาม แต่เมื่อพิจารณาถึงความเสี่ยงแล้ว การตัดทีมที่เน้นงานที่รับผิดชอบต่อสังคมโดยเฉพาะออก เป็นเรื่องที่น่าจับตามอง

การปลดทีมจริยธรรมและสังคม เกิดขึ้นในขณะที่ ทีมพัฒนา AI ได้เทรนนิ่งดาต้าเซ็ต Generative AI ที่ท้าทายที่ยิ่งใหญ่ที่สุดของพวกเขา: คุณคาดว่าจะเกิดอะไรขึ้นเมื่อ Microsoft เปิดตัวเครื่องมือที่ขับเคลื่อนโดย OpenAI แก่ผู้ใช้ทั่วโลก

ปีที่แล้ว ทีมงานได้เขียนบันทึกรายละเอียดความเสี่ยงของแบรนด์ที่เกี่ยวข้องกับ Bing Image Creator ซึ่งใช้ระบบ DALL-E ของ OpenAI เพื่อสร้างภาพตามข้อความแจ้ง เครื่องมือรูปภาพเปิดตัวในไม่กี่ประเทศในเดือนตุลาคม ทำให้เป็นหนึ่งในความร่วมมือสาธารณะครั้งแรกของ Microsoft กับ OpenAI

แม้ว่าเทคโนโลยีการแปลงข้อความเป็นรูปภาพจะได้รับความนิยมอย่างมาก แต่นักวิจัยของ Microsoft ก็คาดการณ์ได้อย่างถูกต้องว่าเทคโนโลยีนี้อาจละเมิดลิขสิทธิ์ของศิลปิน ด้วยการอนุญาตให้ใครก็ตามลอกเลียนแบบสไตล์ของพวกเขาได้อย่างง่ายดาย “ในการทดสอบ Bing Image Creator พบว่า คำสั่ง Prompt ง่ายๆ ที่อ้างถึงชื่อศิลปินและสื่อ (ภาพวาด ภาพพิมพ์ ภาพถ่าย หรือประติมากรรม) ภาพที่สร้างขึ้น อาจลอกเลียนแบบ ผลงานของศิลปิน จนแทบจะเป็นไปไม่ได้เลยที่จะแยกแยะความแตกต่างจากผลงานต้นฉบับ” นักวิจัยกล่าวใน บันทึก

“ความเสี่ยงของความเสียหายต่อแบรนด์ … เป็นเรื่องจริงและสำคัญมากพอที่จะทำให้ต้องมีการแก้ไข”
พวกเขากล่าวเสริมว่า: “ความเสี่ยงของความเสียหายต่อแบรนด์ ทั้งต่อศิลปิน และผู้มีส่วนได้ส่วนเสียทางการเงินของพวกเขา และการประชาสัมพันธ์เชิงลบต่อ Microsoft ซึ่งเป็นผลมาจากการร้องเรียนของศิลปินและปฏิกิริยาเชิงลบของสาธารณชนนั้นเป็นเรื่องจริงและมีความสำคัญเพียงพอที่จะต้องมีการแก้ไขก่อนที่จะสร้างความเสียหายต่อแบรนด์ของ Microsoft”

นอกจากนี้ เมื่อปีที่แล้ว OpenAI ได้ปรับปรุงข้อกำหนดในการให้บริการ เพื่อให้ผู้ใช้ DALL-E มีสิทธิ์เป็นเจ้าของภาพที่คุณสร้างขึ้นด้วย Generative AI การกระทำดังกล่าวทำให้ทีมจริยธรรมและสังคมของ Microsoft กังวล พร้อมให้ความเห็นว่า “หาก Generative AI จำลองภาพทางคณิตศาสตร์จากผลงานอันมีลิขสิทธิ์ เป็นเรื่องที่น่าสงสัยในทางจริยธรรมว่า ผู้ใช้ Generative AI สร้างลงานด้วยการสั่งผ่าน Prompt นั้นมีสิทธิ์เป็นเจ้าของภาพที่สร้างขึ้นโดยสมบูรณ์ได้หรือ”

นักวิจัยของ Microsoft ได้ร่างกลไกลดผลกระทบด้านลิขสิทธิ์ รวมถึงการบล็อกผู้ใช้ Bing Image Creator ไม่ให้ใช้ผลงานของศิลปินที่มีชีวิต โดยไม่ให้ใส่ชื่อศิลปินนั้นใน prompt และไม่ให้สร้างผลงานเชิงพาณิชย์ จากผลงานที่มีลิขสิทธิ์ พนักงานบอกว่า Microsoft ไม่ได้นำกลยุทธ์เหล่านี้ไปใช้ และ Bing Image Creator ก็เปิดตัวทดสอบออกมา โดยไม่มีกลไกนี้

แต่ Microsoft ยืนยันว่า เครื่องมือนี้ได้รับการแก้ไขก่อนเปิดตัวเพื่อแก้ไขข้อกังวลที่เกิดขึ้น แต่คำถามทางกฎหมายเกี่ยวกับเทคโนโลยี Generative AI ยังคงอยู่ ในเดือนกุมภาพันธ์ พ.ศ. 2566 Getty Images ยื่นฟ้อง Stability AI ผู้ผลิต Stable Diffusion ผลิตภัณฑ์ AI art generator โดย Getty กล่าวหาว่า การเริ่มต้นของ AI ได้ใช้ภาพมากกว่า 12 ล้านภาพ เพื่อเทรนนิ่งระบบอย่างไม่เหมาะสม

ข้อกล่าวหาดังกล่าว สะท้อนถึงข้อกังวลของนักจริยธรรมด้าน AI ของ Microsoft เอง “มีแนวโน้มว่าจะมีศิลปินเพียงไม่กี่คนที่ยินยอมให้ผลงานของพวกเขาถูกใช้เป็นดาต้าเซ็ตเพื่อเทรนนิ่ง AI และเป็นไปได้ว่าหลายคนยังคงไม่รู้ว่าเทคโนโลยี Generative AI สามารถสร้างภาพออนไลน์ในรูปแบบต่างๆ ของงานของพวกเขาได้อย่างไรในไม่กี่วินาที”

view original*