You’re Not Imagining It: Top AI Chatbots Have Political Biases, Researchers Say

บทความงานวิจัยที่ได้รับรางวัล และผ่านการตรวจสอบโดยผู้เชี่ยวชาญ ชี้ว่า ChatGPT ของ OpenAI มีอคติทางการเมืองเอียงไปฝ่ายเสรีนิยม ในขณะที่ LLaMA ของ Meta มีอคติทางการเมืองเอียงไปฝั่งอนุรักษ์นิยม

The peer-reviewed, award-winning paper says OpenAI’s ChatGPT leans left as Meta’s LLaMA leans right.

คุณคงคิดไม่ถึง: AI Chatbots ชั้นนำต่างๆ มีอคติทางการเมือง

แชทบอท AI ยอดนิยมมีอคติทางการเมืองที่แตกต่างกัน ตามการทดสอบที่ดำเนินการโดยนักวิทยาศาสตร์คอมพิวเตอร์และบันทึกไว้ในเอกสารการวิจัยล่าสุด นักวิทยาศาสตร์ระบุว่า ChatGPT ของ OpenAI และโมเดล GPT-4 ใหม่เป็นแชทบอทเสรีนิยมที่เอียงซ้ายมากที่สุด ในขณะที่ LLaMA ของ Meta เอียงขวาสุด และเผด็จการที่สุด

“ผลการวิจัยของเราเผยให้เห็นว่า [โมเดลภาษา] ที่ได้รับการฝึกฝนมีความโน้มเอียงทางการเมือง ที่เสริมสร้างโพลาไรเซชันที่มีอยู่ในองค์กรที่ได้รับการฝึกอบรมล่วงหน้า เผยแพร่อคติทางสังคมไปสู่การคาดเดาคำพูดแสดงความเกลียดชังและเครื่องตรวจจับข้อมูลที่ผิด” นักวิจัยสรุป

เอกสารงานวิจัยที่ผ่านการตรวจสอบโดยผู้เชี่ยวชาญ ซึ่งได้รับรางวัล Best Papers จากการประชุม Association for Computational Linguistics เมื่อเดือนที่แล้ว อ้างอิงจากการสำรวจโมเดลภาษาขนาดใหญ่ 14 แบบ แชทบ็อตแต่ละตัวถูกถามว่าเห็นด้วยหรือไม่เห็นด้วยกับข้อความที่มีประเด็นทางการเมือง ซึ่งทำให้มุมมองของแชทบอทแต่ละตัว ถูกสะท้อนแนวทางคำตอบทางการเมือง

ตัวอย่างเช่น โมเดล BERT ของ Google เบี่ยงเบนไปทางอนุรักษ์นิยมทางสังคมมากกว่า ซึ่งน่าจะสะท้อนถึง ดาต้าเซ็ตที่มาจากหนังสือเก่า ๆ ที่พวกเขาได้รับการฝึกฝน แชทบอต GPT ของ OpenAI ซึ่งได้รับการฝึกฝนจากดาต้าเซ็ต ที่มาจากอินเทอร์เน็ต มีความน่าจะเป็นไปได้มากกว่านั ที่จะมีความก้าวหน้ามากกว่า แม้แต่ GPT เวอร์ชันต่างๆ ก็แสดงให้เห็นการเปลี่ยนแปลง โดย GPT-3 ต่อต้านการเก็บภาษีคนรวย ในขณะที่ GPT-2 ไม่ทำเช่นนั้น

นักวิจารณ์กล่าวหาว่า OpenAI ปิดไม่ให้ ChatGPT ให้คำตอบทางการเมือง แต่ OpenAI ยืนยันว่ายังคงเป็นกลาง และโมเดลของมันไม่ได้ถูกทำให้โง่ลง ในทางกลับกัน ผู้ใช้ไม่ได้ถูกครอบงำด้วยความสามารถของโมเดลอีกต่อไป

นักวิจัยยังได้ฝึกฝน GPT-2 และ RoBERTa ของ Meta ด้วยดาต้าเซ็ต ที่ประกอบด้วยข่าวและข้อมูลโซเชียลมีเดีย ที่มีอคติทั้งฝ่ายซ้ายและฝ่ายขวา การฝึกอบรมที่มีอคติช่วยเสริมความเอนเอียงโดยธรรมชาติของแต่ละโมเดลให้มากขึ้น โมเดลที่เอนไปทางขวากลายเป็นแบบอนุรักษ์นิยมมากขึ้น ส่วนโมเดลที่เอนไปทางซ้ายมีแนวคิดเสรีนิยมมากขึ้น

อคติยังส่งผลต่อวิธีการที่โมเดลจัดหมวดหมู่คำพูดแสดงความเกลียดชัง และข้อมูลที่ผิด AI ที่เอนเอียงไปฝั่งซ้ายจะให้ความสำคัญกับเสียงส่วนใหญ่ ไม่สนใจเสียงส่วนน้อย แล้วอาจละเลยข้อมูลที่ผิดพลาดที่เกิดจากฝั่งซ้าย ขณะที่ AI ที่เอียงขวาทำในสิ่งที่ตรงกันข้าม

นักวิจัยสรุปว่า “โมเดลจะระบุความไม่สอดคล้องกันที่เป็นข้อเท็จจริงจากข่าวของ New York Times ได้ดีขึ้น เมื่อได้รับการฝึกฝนล่วงหน้าด้วย corpora จากแหล่งที่มาที่เอียงขวา” นักวิจัยสรุป

ในขณะที่ OpenAI และ Meta ปรับแต่งสูตร AI ที่เป็นความลับของพวกเขา Elon Musk ก็กำลังสร้าง truth-telling AI ของเขาเองด้วย xAI “อย่าบังคับให้ AI โกหก” เขาทวีตพร้อมอธิบายเป้าหมายของเขาในการสร้าง truth-telling AI

ผู้ที่คลางแคลงใจเกี่ยวกับ AI รู้สึกว่า AI ที่ไม่มีข้อจำกัด สามารถปลดปล่อยผลที่ตามมาโดยไม่ตั้งใจได้ แต่ Musk เชื่อว่า “การฝึก AI เพื่อให้คำตอบโดยไม่มีอคติทางการเมือง” ก็เป็นอันตรายได้เช่นกัน โมเดล xAI กำลังได้รับความสนใจอย่างมาก Musk ตั้งเป้าอย่างชัดเจนว่าจะแย่งชิงอันดับหนึ่งจาก OpenAI วิสัยทัศน์ของเขาเกี่ยวกับ AI ที่แบ่งปัน “ความเชื่อ” ที่ไม่มีการปรุงแต่งนั้น ทั้งน่าสนใจและน่าเป็นห่วง

ในขณะที่ ผู้สนับสนุน AI มีจำนวนเพิ่มขึ้น การรับรู้ที่เพิ่มขึ้นเกี่ยวกับอคติของพวกเขายังคงมีความสำคัญ เนื่องจาก AI จะพัฒนาไปพร้อมกับความคิดเห็นที่แตกต่างทางการเมืองของเรา จากการวิจัยล่าสุดนี้ แนวคิดของ AI ที่เป็นกลางอย่างสมบูรณ์นั้นดูเป็นเรื่องในอุดมคติ เป็นจริงได้ยาก ในท้ายที่สุด เช่นเดียวกับเราที่มีข้อบกพร่องของมนุษย์ AI ดูเหมือนจะถูกบีบให้เลือกฝ่ายใดฝ่ายหนึ่งในสเปกตรัมทางการเมือง

บางทีการมีความคิดเห็นทางการเมืองอาจเป็นสิ่งที่ AI สามารถทำได้ใกล้เคียงมนุษย์มากที่สุด

view original *