Flashback: Stephen Hawking warned AI could mean the ‘end of the human race’ in years leading up to his death

นักวิทยาศาสตร์ระบุถึงอันตรายของ AI ในหนังสือที่ตีพิมพ์หลังจากเขาเสียชีวิตได้ไม่นาน

Scientist noted dangers of AI in book published shortly after his death

รำลึกความหลัง: Stephen Hawking เตือนว่า AI อาจหมายถึง ‘จุดจบของเผ่าพันธุ์มนุษย์’ ในช่วงหลายปีที่เขาเสียชีวิต

นานมาแล้วก่อนที่ Elon Musk และ Steve Wozniak ผู้ร่วมก่อตั้ง Apple จะลงนามในจดหมายเตือนว่าปัญญาประดิษฐ์ก่อให้เกิด “ความเสี่ยงอย่างลึกซึ้ง” ต่อมนุษยชาติ Stephen Hawking นักฟิสิกส์เชิงทฤษฎีชาวอังกฤษได้ส่งเสียงเตือนเกี่ยวกับเทคโนโลยีที่กำลังพัฒนาอย่างรวดเร็ว

“การพัฒนาปัญญาประดิษฐ์อย่างเต็มรูปแบบสามารถเป็นจุดเริ่มต้นของจุดจบของเผ่าพันธุ์มนุษย์ได้” ฮอว์คิงบอกกับบีบีซีในการให้สัมภาษณ์ในปี 2557

ฮอว์คิงซึ่งป่วยเป็นโรคเส้นโลหิตตีบด้านข้าง (amyotrophic lateral sclerosis หรือ ALS) มานานกว่า 55 ปี เสียชีวิตในปี 2018 ด้วยวัย 76 ปี แม้ว่าเขาจะมีคำวิพากษ์วิจารณ์เกี่ยวกับ AI แต่เขายังใช้เทคโนโลยีรูปแบบพื้นฐานในการสื่อสารเนื่องจาก โรคของเขาซึ่งทำให้กล้ามเนื้ออ่อนแรงและทำให้ฮอว์คิงต้องใช้รถเข็น
ฮอว์คิงไม่สามารถพูดได้ในปี 1985 และอาศัยวิธีต่างๆ ในการสื่อสาร รวมถึงอุปกรณ์สร้างเสียงพูดที่ดำเนินการโดย Intel ซึ่งทำให้เขาสามารถใช้การเคลื่อนไหวของใบหน้าเพื่อเลือกคำหรือตัวอักษรที่สังเคราะห์เป็นคำพูดได้

Stephen Hawking ในปี 2550 (Bruno Vincent / Getty Images / File)

ความคิดเห็นของ Hawking ต่อ BBC ในปี 2014 ว่า AI สามารถ “เป็นจุดเริ่มต้นของการสิ้นสุดของเผ่าพันธุ์มนุษย์” เพื่อตอบคำถามเกี่ยวกับการปรับปรุงเทคโนโลยีเสียงที่เขาใช้ เขาบอกกับบีบีซีว่ารูปแบบพื้นฐานของ AI ได้พิสูจน์แล้วว่าทรงพลัง แต่การสร้างระบบที่แข่งขันกับสติปัญญาของมนุษย์หรือเหนือกว่านั้นอาจเป็นหายนะสำหรับเผ่าพันธุ์มนุษย์
“AI จะก้าวไปสู่การดำรงอยู่ด้วยตัวเอง และพัฒนาก้าวหน้าในอัตราที่เพิ่มมากขึ้นเรื่อยๆ” เขากล่าว

“มนุษย์ซึ่งถูกจำกัดด้วยวิวัฒนาการทางชีววิทยาที่ช้า ไม่สามารถแข่งขันได้และจะถูกแทนที่” ฮอว์คิงกล่าวเสริม

Stephen Hawking แสดงเมื่อวันที่ 10 ตุลาคม พ.ศ. 2522 ในเมืองพรินซ์ตัน รัฐนิวเจอร์ซีย์ (Santi Visalli / Getty Images)

หลายเดือนหลังจากการตายของเขา หนังสือเล่มสุดท้ายของฮอว์คิงก็ออกสู่ตลาด ชื่อ ” “Brief Answers to the Big Questions” หนังสือของเขาให้คำตอบแก่ผู้อ่านสำหรับคำถามที่พบบ่อย หนังสือวิทยาศาสตร์ได้ตัดประเด็นข้อโต้แย้งของ Hawking ที่ต่อต้านการมีอยู่ของพระเจ้า ว่าวันหนึ่งมนุษย์จะมีชีวิตอยู่ในอวกาศได้อย่างไร และความกลัวของเขาเกี่ยวกับพันธุวิศวกรรมและภาวะโลกร้อน

ปัญญาประดิษฐ์ยังครองตำแหน่งสูงสุดในรายการ “คำถามใหญ่” ของเขา โดยโต้แย้งว่าคอมพิวเตอร์ “มีแนวโน้มที่จะแซงหน้ามนุษย์ในด้านสติปัญญา” ภายใน 100 ปี

“เราอาจเผชิญกับ การก้าวกระโดดของสติปัญญาของ AI ซึ่งท้ายที่สุดแล้วส่งผลให้มีเครื่องจักรที่มีสติปัญญาเหนือกว่ามนุษย์ ที่สติปัญญาก้าวไปช้าๆ เหมือนหอยทาก” เขาเขียน

เขาแย้งว่าคอมพิวเตอร์จำเป็นต้องได้รับการฝึกฝนให้สอดคล้องกับเป้าหมายของมนุษย์ และเสริมว่าการไม่เสี่ยงที่เกี่ยวข้องกับ AI อย่างจริงจังอาจเป็น “ความผิดพลาดที่เลวร้ายที่สุดของเรา”

view original *