4 dangers that most worry AI pioneer Geoffrey Hinton

นี่คือข้อกังวลที่ใหญ่ที่สุดของ Hinton เกี่ยวกับอนาคตของ AI … และมนุษยชาติ

Here’s a look at Hinton’s biggest concerns about the future of AI … and humanity.

4 ข้อกังวลที่สุด ในมุมมอง Geoffrey Hinton ผู้บุกเบิก AI

ซานฟรานซิสโก (AP) — เจฟฟรีย์ ฮินตัน นักวิทยาศาสตร์คอมพิวเตอร์มือรางวัลที่รู้จักกันในนาม “เจ้าพ่อแห่งปัญญาประดิษฐ์” กำลังมีความคิดที่สองอย่างจริงจังเกี่ยวกับผลจากการทำงานของเขา

Hinton ช่วยบุกเบิกเทคโนโลยี AI ซึ่งมีความสำคัญต่อแชทบอทรุ่นใหม่ที่มีความสามารถสูง เช่น ChatGPT แต่ในการให้สัมภาษณ์เมื่อเร็วๆ นี้ เขาบอกว่าเขาเพิ่งลาออกจากงานที่มีชื่อเสียงที่ Google โดยเฉพาะเพื่อแบ่งปันความกังวลของเขาว่าการพัฒนา AI ที่ไม่ได้ตรวจสอบอาจเป็นอันตรายต่อมนุษยชาติ

“ผมเปลี่ยนมุมมองทันทีว่าสิ่งเหล่านี้จะฉลาดกว่าเราหรือไม่” เขากล่าวในการให้สัมภาษณ์กับ MIT Technology Review “ฉันคิดว่าตอนนี้พวกมันใกล้จะถึงแล้ว และพวกมันจะฉลาดกว่าเราอีกมากในอนาคต…. เราจะเอาชีวิตรอดได้อย่างไร”

ฮินตันไม่ได้กังวลอยู่คนเดียว ไม่นานหลังจากที่ OpenAI สตาร์ทอัพที่ได้รับการสนับสนุนจาก Microsoft ได้เปิดตัวโมเดล AI ล่าสุดที่เรียกว่า GPT-4 ในเดือนมีนาคม นักวิจัยและนักเทคโนโลยีมากกว่า 1,000 คน ได้ลงนามในจดหมายเรียกร้องให้หยุดการพัฒนา AI ชั่วคราวเป็นเวลา 6 เดือน เนื่องจากพวกเขากล่าวว่า “มีความเสี่ยงอย่างมากต่อ สังคมและมนุษยชาติ”

นี่คือข้อกังวลที่ใหญ่ที่สุดของ Hinton เกี่ยวกับอนาคตของ AI … และมนุษยชาติ

ทั้งหมดคือ NEURAL NETWORKS

สมองของมนุษย์เราสามารถแก้สมการแคลคูลัส ขับรถ และติดตามตัวละครใน “Succession” ได้ด้วยพรสวรรค์โดยกำเนิดในการจัดระเบียบและจัดเก็บข้อมูล และหาเหตุผลในการแก้ปัญหาที่ยุ่งยากซับซ้อน เซลล์ประสาทประมาณ 86 พันล้านเซลล์อัดแน่นอยู่ในกะโหลกศีรษะของเรา และที่สำคัญกว่านั้น การเชื่อมต่อ 100 ล้านล้านเซลล์ที่เซลล์ประสาทเหล่านั้นหลอมรวมเข้าด้วยกัน ทำให้มันเป็นไปได้
ในทางตรงกันข้าม เทคโนโลยีที่สนับสนุน ChatGPT มีการเชื่อมต่อระหว่าง 5 แสนล้านถึงล้านล้านครั้ง Hinton กล่าวในการสัมภาษณ์ แม้ว่าสิ่งนี้ดูเหมือนจะทำให้เสียเปรียบอย่างมากเมื่อเทียบกับเรา แต่ Hinton ตั้งข้อสังเกตว่า GPT-4 ซึ่งเป็นโมเดล AI ล่าสุดจาก OpenAI นั้นรู้ “มากกว่ามนุษย์คนเดียวหลายร้อยเท่า” เขาอาจจะแนะนำว่า มันมี “อัลกอริธึมการเรียนรู้ที่ดีกว่าเรามาก” ทำให้มันมีประสิทธิภาพมากขึ้นในงานด้านความรู้ความเข้าใจ

AI อาจฉลาดกว่าเราแล้ว

นักวิจัยตั้งข้อสังเกตมานานแล้วว่าเครือข่ายประสาทเทียมใช้เวลาในการดูดซับและนำความรู้ใหม่ไปใช้มากกว่าที่คนทั่วไปทำ เนื่องจากการฝึกอบรมต้องใช้ทั้งพลังงานและข้อมูลจำนวนมหาศาล นี่ไม่ใช่กรณีอีกต่อไป Hinton โต้แย้ง โดยสังเกตว่าระบบอย่าง GPT-4 สามารถเรียนรู้สิ่งใหม่ๆ ได้อย่างรวดเร็วเมื่อได้รับการฝึกฝนอย่างเหมาะสมจากนักวิจัย นั่นไม่ต่างจากวิธีที่นักฟิสิกส์มืออาชีพที่ผ่านการฝึกอบรมสามารถรวบรวมสมองของเธอเกี่ยวกับการค้นพบการทดลองใหม่ ๆ ได้เร็วกว่าที่นักเรียนวิทยาศาสตร์ระดับมัธยมปลายทั่วไปจะทำได้

นั่นทำให้ Hinton สรุปว่าระบบ AI อาจฉลาดกว่าเราอยู่แล้ว ไม่เพียงแต่ระบบ AI จะเรียนรู้สิ่งต่าง ๆ ได้เร็วขึ้นเท่านั้น แต่ยังสามารถแบ่งปันสำเนาความรู้ให้กันและกันได้ในทันทีอีกด้วย
“มันเป็นรูปแบบหนึ่งของความฉลาดที่แตกต่างไปจากเดิมอย่างสิ้นเชิง” เขาบอกกับสิ่งพิมพ์ “รูปแบบใหม่และดีกว่าของหน่วยสืบราชการลับ”

ใช้ก่อสงคราม

ระบบ AI ที่ฉลาดกว่ามนุษย์จะทำอะไรได้บ้าง? ความเป็นไปได้ที่น่าตกใจประการหนึ่งคือบุคคล กลุ่ม หรือรัฐชาติที่ประสงค์ร้ายอาจร่วมมือกันเลือกพวกเขาเพื่อมุ่งสู่จุดจบของตนเอง ฮินตันกังวลเป็นพิเศษว่าเครื่องมือเหล่านี้อาจได้รับการฝึกฝนเพื่อโน้มน้าวการเลือกตั้งและแม้แต่ทำสงคราม

ตัวอย่างเช่น ข้อมูลที่ไม่ถูกต้องเกี่ยวกับการเลือกตั้งที่แพร่กระจายผ่านแชทบอท AI อาจเป็นข้อมูลเท็จเกี่ยวกับการเลือกตั้งในอนาคตที่แพร่กระจายผ่านทาง Facebook และแพลตฟอร์มโซเชียลมีเดียอื่นๆ
และนั่นอาจเป็นเพียงจุดเริ่มต้น “อย่าคิดเลยสักนิดว่าปูตินจะไม่สร้างหุ่นยนต์อัจฉริยะที่มีเป้าหมายเพื่อสังหารชาวยูเครน” ฮินตันกล่าวในบทความ “เขาจะไม่ลังเลเลย”

ขาดข้อตกลงในการนำมาใช้ร่วมกัน

สิ่งที่ยังไม่ชัดเจนคือจะมีใครหยุดยั้งมหาอำนาจอย่างรัสเซียจากการใช้เทคโนโลยี AI เพื่อครอบงำเพื่อนบ้านหรือพลเมืองของตนเองได้อย่างไร Hinton แนะนำว่า ข้อตกลงระดับโลกที่คล้ายกับอนุสัญญาห้ามอาวุธเคมีปี 1997 อาจเป็นก้าวแรกที่ดีในการกำหนดกฎระหว่างประเทศเพื่อต่อต้าน AI ที่ติดอาวุธ

แม้ว่าจะเป็นที่น่าสังเกตเช่นกันว่าอาวุธเคมีดังกล่าวไม่ได้หยุดยั้งสิ่งที่ผู้สอบสวนพบว่าน่าจะเป็นการโจมตีของซีเรียโดยใช้ก๊าซคลอรีนและสารทำลายประสาท sarin ต่อพลเรือนในปี 2560 และ 2561 ในช่วงสงครามกลางเมืองนองเลือดของประเทศ

view original *