นักวิทยาศาสตร์ระบุถึงอันตรายของ AI ในหนังสือที่ตีพิมพ์หลังจากเขาเสียชีวิตได้ไม่นาน
Scientist noted dangers of AI in book published shortly after his death
รำลึกความหลัง: Stephen Hawking เตือนว่า AI อาจหมายถึง ‘จุดจบของเผ่าพันธุ์มนุษย์’ ในช่วงหลายปีที่เขาเสียชีวิต
นานมาแล้วก่อนที่ Elon Musk และ Steve Wozniak ผู้ร่วมก่อตั้ง Apple จะลงนามในจดหมายเตือนว่าปัญญาประดิษฐ์ก่อให้เกิด “ความเสี่ยงอย่างลึกซึ้ง” ต่อมนุษยชาติ Stephen Hawking นักฟิสิกส์เชิงทฤษฎีชาวอังกฤษได้ส่งเสียงเตือนเกี่ยวกับเทคโนโลยีที่กำลังพัฒนาอย่างรวดเร็ว
“การพัฒนาปัญญาประดิษฐ์อย่างเต็มรูปแบบสามารถเป็นจุดเริ่มต้นของจุดจบของเผ่าพันธุ์มนุษย์ได้” ฮอว์คิงบอกกับบีบีซีในการให้สัมภาษณ์ในปี 2557
ฮอว์คิงซึ่งป่วยเป็นโรคเส้นโลหิตตีบด้านข้าง (amyotrophic lateral sclerosis หรือ ALS) มานานกว่า 55 ปี เสียชีวิตในปี 2018 ด้วยวัย 76 ปี แม้ว่าเขาจะมีคำวิพากษ์วิจารณ์เกี่ยวกับ AI แต่เขายังใช้เทคโนโลยีรูปแบบพื้นฐานในการสื่อสารเนื่องจาก โรคของเขาซึ่งทำให้กล้ามเนื้ออ่อนแรงและทำให้ฮอว์คิงต้องใช้รถเข็น
ฮอว์คิงไม่สามารถพูดได้ในปี 1985 และอาศัยวิธีต่างๆ ในการสื่อสาร รวมถึงอุปกรณ์สร้างเสียงพูดที่ดำเนินการโดย Intel ซึ่งทำให้เขาสามารถใช้การเคลื่อนไหวของใบหน้าเพื่อเลือกคำหรือตัวอักษรที่สังเคราะห์เป็นคำพูดได้
Stephen Hawking ในปี 2550 (Bruno Vincent / Getty Images / File)
ความคิดเห็นของ Hawking ต่อ BBC ในปี 2014 ว่า AI สามารถ “เป็นจุดเริ่มต้นของการสิ้นสุดของเผ่าพันธุ์มนุษย์” เพื่อตอบคำถามเกี่ยวกับการปรับปรุงเทคโนโลยีเสียงที่เขาใช้ เขาบอกกับบีบีซีว่ารูปแบบพื้นฐานของ AI ได้พิสูจน์แล้วว่าทรงพลัง แต่การสร้างระบบที่แข่งขันกับสติปัญญาของมนุษย์หรือเหนือกว่านั้นอาจเป็นหายนะสำหรับเผ่าพันธุ์มนุษย์
“AI จะก้าวไปสู่การดำรงอยู่ด้วยตัวเอง และพัฒนาก้าวหน้าในอัตราที่เพิ่มมากขึ้นเรื่อยๆ” เขากล่าว
“มนุษย์ซึ่งถูกจำกัดด้วยวิวัฒนาการทางชีววิทยาที่ช้า ไม่สามารถแข่งขันได้และจะถูกแทนที่” ฮอว์คิงกล่าวเสริม
Stephen Hawking แสดงเมื่อวันที่ 10 ตุลาคม พ.ศ. 2522 ในเมืองพรินซ์ตัน รัฐนิวเจอร์ซีย์ (Santi Visalli / Getty Images)
หลายเดือนหลังจากการตายของเขา หนังสือเล่มสุดท้ายของฮอว์คิงก็ออกสู่ตลาด ชื่อ ” “Brief Answers to the Big Questions” หนังสือของเขาให้คำตอบแก่ผู้อ่านสำหรับคำถามที่พบบ่อย หนังสือวิทยาศาสตร์ได้ตัดประเด็นข้อโต้แย้งของ Hawking ที่ต่อต้านการมีอยู่ของพระเจ้า ว่าวันหนึ่งมนุษย์จะมีชีวิตอยู่ในอวกาศได้อย่างไร และความกลัวของเขาเกี่ยวกับพันธุวิศวกรรมและภาวะโลกร้อน
ปัญญาประดิษฐ์ยังครองตำแหน่งสูงสุดในรายการ “คำถามใหญ่” ของเขา โดยโต้แย้งว่าคอมพิวเตอร์ “มีแนวโน้มที่จะแซงหน้ามนุษย์ในด้านสติปัญญา” ภายใน 100 ปี
“เราอาจเผชิญกับ การก้าวกระโดดของสติปัญญาของ AI ซึ่งท้ายที่สุดแล้วส่งผลให้มีเครื่องจักรที่มีสติปัญญาเหนือกว่ามนุษย์ ที่สติปัญญาก้าวไปช้าๆ เหมือนหอยทาก” เขาเขียน
เขาแย้งว่าคอมพิวเตอร์จำเป็นต้องได้รับการฝึกฝนให้สอดคล้องกับเป้าหมายของมนุษย์ และเสริมว่าการไม่เสี่ยงที่เกี่ยวข้องกับ AI อย่างจริงจังอาจเป็น “ความผิดพลาดที่เลวร้ายที่สุดของเรา”