Geoffrey Hinton’s misguided views on AI

แม้เขาจะมีส่วนสำคัญในการพัฒนาปัญญาประดิษฐ์ แต่นั่นไม่ได้หมายความว่าเขารู้ว่ามันจะไปในทิศทางใด

He may have made important contributions to artificial intelligence, but that doesn’t mean he knows where it’s going.

ทัศนะที่ผิดพลาดของ Geoffrey Hinton เกี่ยวกับ AI

คงไม่ใช่เรื่องน่าประหลาดใจสำหรับคุณที่ผมไม่ใช่แฟนตัวยงของ Geoffrey Hinton ผู้ได้รับการขนานนามว่าเป็น “บิดาแห่ง AI” และต้องบอกว่าผมรู้สึกตกใจมากเมื่อเขาได้รับรางวัลโนเบลสาขาฟิสิกส์ — ซึ่งดูเหมือนตัวเขาเองก็รู้สึกเช่นกัน หลังจากการประกาศรางวัลไม่นาน ผมได้รับการติดต่อให้เขียนบทความสั้นๆ เกี่ยวกับเรื่องนี้ให้กับ Toronto Star และพวกเขาอนุญาตให้ผมแบ่งปันมันกับคุณได้

Paris Marx นักวิจารณ์เทคโนโลยี คอลัมนิสต์ของ Disconnect พิธีกรของ Tech Won’t Save Us และผู้เขียนหนังสือ “Road to Nowhere: What Silicon Valley Gets Wrong About the Future of Transportation” มองในมุมที่แตกต่าง

ผมคิดว่ามุมมองเกี่ยวกับ AI ที่ Hinton แบ่งปัน — ซึ่งมักจะถูกเรียกอย่างให้เกียรติว่าเป็นมุมมองด้าน “ความปลอดภัยของ AI” (หรือถ้าพูดแบบไม่ให้เกียรติก็คือ เขาเป็นพวกมองโลกในแง่ร้าย) — ไม่เป็นประโยชน์เลยในการจัดการกับความเป็นจริงและอนาคตอันใกล้ที่อาจเกิดขึ้นของ AI — ความเสียหายต่อคนงานและสังคมในวงกว้างที่ไม่เกี่ยวข้องกับความฝันแบบไซไฟเรื่องปัญญาเหนือมนุษย์ แต่ผมก็อยากพูดถึงแง่บวกเกี่ยวกับตัวเขา

Hinton เข้าร่วมกับ University of Toronto ในปี 1987 และเป็นพลเมืองแคนาดา เขาได้เห็นเหตุการณ์มากมายที่เกิดขึ้นในแคนาดาในช่วงหลายทศวรรษที่ผ่านมา เมื่อต้นสัปดาห์นี้ เขาเปิดเผยว่าได้บริจาคเงินครึ่งหนึ่งของส่วนแบ่งรางวัลจำนวน 1.45 ล้านดอลลาร์แคนาดาจากคณะกรรมการรางวัลโนเบลให้กับ Water First องค์กรในรัฐ Ontario ที่ฝึกอบรมชนพื้นเมืองในการพัฒนาระบบน้ำที่ปลอดภัย

ในช่วงไม่กี่ปีที่ผ่านมา แคนาดากำลังเผชิญกับการชำระประวัติศาสตร์การฆ่าล้างเผ่าพันธุ์ทางวัฒนธรรมที่กระทำต่อชนพื้นเมืองภายในพรมแดนของตน ตั้งแต่การขาดแคลนน้ำดื่มสะอาดไปจนถึงความน่าสะพรึงกลัวของโรงเรียนประจำ ในการแถลงข่าว Hinton กล่าวว่า “ผมคิดว่าเป็นเรื่องดีที่พวกเขากำลังยอมรับ (ว่าใครอาศัยอยู่บนผืนแผ่นดินนี้ก่อน) แต่มันก็ไม่ได้หยุดเด็กๆ ชนพื้นเมืองจากการเป็นโรคท้องร่วง” เขาอาจจะมีความเข้าใจผิดเกี่ยวกับ AI แต่เขาก็ทำเรื่องดีๆ ในเรื่องนี้

ต่อไปนี้คือบทความของผมเกี่ยวกับรางวัลโนเบลของ Hinton ซึ่งตีพิมพ์ครั้งแรกโดย Toronto Star

ในช่วงกลางทศวรรษ 1960 นักวิทยาศาสตร์คอมพิวเตอร์จาก MIT Joseph Weizenbaum ได้พัฒนาโปรแกรมที่เรียกว่า ELIZA เป็นแชทบอทรุ่นแรกๆ ที่เรียบง่ายกว่า ChatGPT ออกแบบมาเพื่อจำลองนักจิตบำบัด อย่างไรก็ตาม เมื่อได้เห็นว่าผู้คนมีปฏิสัมพันธ์กับมันอย่างไร ความมองโลกในแง่ดีของ Weizenbaum ต่อเทคโนโลยีก็เริ่มเสื่อมถอยลง

โปรแกรมนี้ไม่มีความเข้าใจในสิ่งที่ผู้ใช้ป้อนเข้าไปเลย แต่ถึงกระนั้น Weizenbaum พบว่าผู้คนต้องการเชื่อว่ามันเข้าใจ เลขานุการของเขาถึงกับขอให้เขาออกจากห้องในขณะที่เธอตอบคำถามของระบบ ปัจจุบัน นักวิจัยเรียกสิ่งนี้ว่าผลกระทบ ELIZA: การฉายภาพลักษณะของมนุษย์ลงบนโปรแกรมคอมพิวเตอร์และประเมินความสามารถของมันเกินจริง

ปรากฏการณ์นี้ผุดขึ้นมาในความคิดของผมเมื่อเร็วๆ นี้ เมื่อได้ยินข่าวว่า Geoffrey Hinton ได้รับเกียรติด้วยรางวัลโนเบลสาขาฟิสิกส์ปี 2024 ร่วมกับ John Hopfield แม้ว่า Hinton จะช่วยผลักดันสาขาของเขาให้ก้าวหน้า แต่คำกล่าวอ้างของเขาเกี่ยวกับความเสี่ยงของปัญญาประดิษฐ์อาจทำให้เราเบี่ยงเบนความสนใจไปจากผลกระทบที่แท้จริง

คุณอาจเคยได้ยินคนเรียก Hinton ว่าเป็น “บิดาแห่ง AI” ผลงานของเขามีความสำคัญต่อการพัฒนาเครือข่ายประสาทเทียมและอัลกอริธึมที่เป็นพื้นฐานของแชทบอทอย่าง ChatGPT Hinton เป็นศาสตราจารย์กิตติคุณที่ University of Toronto และแบ่งเวลาระหว่างมหาวิทยาลัยกับ Google จนกระทั่งลาออกจากบริษัทในเดือนพฤษภาคม 2023

ไม่มีข้อสงสัยว่า Hinton มีส่วนสำคัญต่อสาขาของเขา แต่นับตั้งแต่การเติบโตของ Gen AI ในช่วงปลายปี 2023 Hinton กลับเป็นที่รู้จักในวงการเทคโนโลยีด้วยเหตุผลอื่น: เขาส่งเสริมแนวคิดที่ว่าระบบ AI กำลังใกล้จะมีระดับความฉลาดเทียบเท่ามนุษย์ และด้วยเหตุนี้จึงเป็นภัยคุกคามต่อการอยู่รอดของมนุษย์ เขาไม่ได้คิดเช่นนี้เพียงคนเดียว

แต่ก็มีนักวิจัยจำนวนมากที่คัดค้านแนวคิดนั้นและกล่าวหาว่าเขาตกเป็นเหยื่อของผลกระทบ ELIZA

Hinton กล่าวอ้างว่าเนื่องจากเครือข่ายประสาทเทียมถูกสร้างแบบจำลองมาจากสมองทางชีววิทยา พวกมันจึงต้องทำงานคล้ายกัน นั่นหมายความว่าเครื่องมืออย่าง ChatGPT ไม่ได้แค่ใช้อัลกอริธึมที่ซับซ้อนในการสร้างผลลัพธ์ที่น่าเชื่อถือ แต่มันได้พัฒนาระดับความเข้าใจที่จะเติบโตต่อไปจนเกินระดับสติปัญญาของมนุษย์ เขากล่าวว่านี่จะเป็น “ภัยคุกคามต่อการดำรงอยู่” ของมนุษยชาติ — แม้ว่าจะยอมรับกับ BBC ว่าเมื่อไม่กี่ปีก่อน ผู้เชี่ยวชาญส่วนใหญ่ “คิดว่ามันเป็นแค่นิยายวิทยาศาสตร์”

แต่ทุกวันนี้ก็ยังเป็นเช่นนั้น

หลังจากทฤษฎีอย่างของ Hinton เริ่มได้รับความสนใจมากขึ้นพร้อมกับกระแสความตื่นเต้นรอบ ChatGPT นักเขียนนิยายวิทยาศาสตร์ Ted Chiang ก็เริ่มวิจารณ์ความตื่นเต้นนี้ โดยเรียกเทคโนโลยีนี้ว่าเป็น “autocomplete บนสเตียรอยด์” Emily M. Bender นักภาษาศาสตร์คอมพิวเตอร์จาก University of Washington ก็ได้วิพากษ์วิจารณ์คนอย่าง Hinton ที่สับสนระหว่างความสามารถของแชทบอทในการสร้างข้อความกับแนวคิดที่ว่ามีความหมายอะไรอยู่เบื้องหลัง

พูดให้เข้าใจง่ายๆ: สิ่งอย่าง ChatGPT ดูเหมือนฉลาดก็เพราะมันถูกออกแบบมาให้เลียนแบบภาษามนุษย์ในระดับที่น่าเชื่อถือพอสมควร ผู้สร้างของมันต้องการเชื่อว่าพวกเขากำลังสร้างเครื่องจักรที่ฉลาด ดังนั้นนั่นจึงเป็นสิ่งที่พวกเขาเลือกที่จะมอง

เมื่อฉันได้พูดคุยกับ Bender เมื่อปีที่แล้ว เธอบอกว่าคนอย่าง Hinton “ชอบที่จะคิดถึงตัวร้ายในนิยายวิทยาศาสตร์ที่พวกเขาสามารถต่อสู้ด้วย มากกว่าที่จะมองดูบทบาทของตัวเองในความเสียหายที่กำลังเกิดขึ้นในปัจจุบัน” โมเดล Gen AI สร้างความกังวลมากมายนอกเหนือจากประเด็นที่อาจเป็นอันตรายต่อการดำรงอยู่และเรื่องในนิยายวิทยาศาสตร์ที่ Hinton หมกมุ่นอยู่ ซึ่งรวมถึงทุกอย่างตั้งแต่ผลกระทบต่อสิ่งแวดล้อมไปจนถึงการถูกนำไปใช้ต่อต้านประชากรชายขอบในปัจจุบัน แต่เมื่อ CNN ถาม Hinton เกี่ยวกับความกังวลเหล่านั้นในเดือนพฤษภาคม 2023 เขากลับตอบว่าสิ่งเหล่านั้น “ไม่ได้ร้ายแรงถึงขั้นคุกคามการดำรงอยู่” และจึงไม่คู่ควรกับเวลาของเขา

สำหรับผลงานที่มีต่อวงการของเขา Hinton สมควรได้รับการยอมรับ และเขาก็ได้รับมามากมายแล้ว แต่การที่เขาประสบความสำเร็จในการพัฒนาโมเดล Gen AI ไม่ได้หมายความว่าเราจำเป็นต้องหันไปพึ่งเขาเพื่อหาคำตอบเกี่ยวกับผลกระทบในวงกว้างต่อสังคม Hinton อาจเป็นคนฉลาด แต่เราไม่ควรคิดเช่นเดียวกันกับเทคโนโลยีที่เขาช่วยสร้างขึ้นมา

view original *