Musk, experts urge pause on training of AI systems that can outperform GPT-4

Elon Musk และกลุ่มผู้เชี่ยวชาญด้าน AI และผู้บริหารในอุตสาหกรรม ซึ่งรวมถึง Steve Wozniak และ Emad Mostaque ได้เรียกร้องให้หยุดการเทรนนิ่งระบบ AI ที่มีประสิทธิภาพมากกว่า GPT-4 เป็นเวลา 6 เดือน โดยอ้างถึงความเสี่ยงที่อาจเกิดขึ้นกับสังคมและมนุษยชาติ พวกเขาได้ออกจดหมายเปิดผนึกผ่าน Future of Life Institute ที่ไม่แสวงหาผลกำไร โดยเรียกร้องให้หยุดการพัฒนา AI ขั้นสูงชั่วคราว จนกว่าจะมีการพัฒนา ดำเนินการ และตรวจสอบโปรโตคอลด้านความปลอดภัยที่ใช้ร่วมกันสำหรับการออกแบบดังกล่าว ดำเนินการ และตรวจสอบโดยผู้เชี่ยวชาญอิสระ จดหมายยังเรียกร้องให้นักพัฒนาทำงานร่วมกับผู้กำหนดนโยบายด้านธรรมาภิบาลและหน่วยงานกำกับดูแลเพื่อจัดการความเสี่ยงที่อาจเกิดขึ้นกับสังคมและอารยธรรมด้วยระบบ AI ที่แข่งขันกันโดยมนุษย์

Elon Musk and a group of AI experts and industry executives, including Steve Wozniak and Emad Mostaque, have called for a six-month pause in training AI systems more powerful than GPT-4, citing potential risks to society and humanity. They have issued an open letter through the non-profit Future of Life Institute, calling for a pause on advanced AI development until shared safety protocols for such designs are developed, implemented, and audited by independent experts. The letter also calls for developers to work with policymakers on governance and regulatory authorities to manage potential risks to society and civilization by human-competitive AI systems.

Musk และผู้เชี่ยวชาญต่างๆ เรียกร้องให้หยุดการเทรนนิ่งระบบ AI ที่มีประสิทธิภาพเหนือกว่า GPT-4

Elon Musk และกลุ่มผู้เชี่ยวชาญด้านปัญญาประดิษฐ์ และผู้บริหารในอุตสาหกรรมเรียกร้องให้หยุดการเทรนนิ่งระบบที่มีประสิทธิภาพมากกว่า GPT-4 เป็นเวลา 6 เดือน พวกเขากล่าวในจดหมายเปิดผนึก โดยอ้างถึงความเสี่ยงที่อาจเกิดขึ้นกับสังคมและมนุษยชาติ

จดหมายดังกล่าวออกในนาม Future of Life Institute ที่ไม่แสวงหาผลกำไร และลงนามโดยบุคคลมากกว่า 1,000 คน รวมถึง Musk, Steve Wozniak ผู้ร่วมก่อตั้ง Apple และ Emad Mostaque CEO ของ Stability AI เรียกร้องให้หยุดการพัฒนา AI ขั้นสูงชั่วคราว จนกว่าจะมีโปรโตคอลความปลอดภัยร่วมกันสำหรับสิ่งนั้น  การออกแบบได้รับการพัฒนา ดำเนินการ และตรวจสอบโดยผู้เชี่ยวชาญอิสระ

“ระบบ AI ที่ทรงพลังควรได้รับการพัฒนาก็ต่อเมื่อเรามั่นใจว่าผลกระทบจะเป็นไปในเชิงบวกและความเสี่ยงจะถูกจัดการได้” จดหมายระบุ

 จดหมายฉบับนี้ยังระบุถึงความเสี่ยงที่อาจเกิดขึ้นกับสังคมและอารยธรรมจากระบบ AI ที่แข่งขันโดยมนุษย์ในรูปแบบของการหยุดชะงักทางเศรษฐกิจและการเมือง และเรียกร้องให้นักพัฒนาทำงานร่วมกับผู้กำหนดนโยบายด้านธรรมาภิบาลและหน่วยงานกำกับดูแล

จดหมายฉบับนี้มีขึ้น ในขณะที่ EU police force Europol ได้เข้าร่วมงานด้านจริยธรรม และกฎหมายเกี่ยวกับ AI ขั้นสูงอย่าง ChatGPT ในวันจันทร์ที่ 25 มีนาคม ที่ผ่านมา โดยเตือนเกี่ยวกับการใช้ระบบในทางที่ผิดในความพยายามฟิชชิง ข้อมูลบิดเบือน และอาชญากรรมทางไซเบอร์

นับตั้งแต่เปิดตัวเมื่อปีที่แล้ว ChatGPT ของ OpenAI ที่ได้รับการสนับสนุนจาก Microsoft แล้วได้รับความสนใจ อย่างรวดเร็ว จึงได้กระตุ้นคู่แข่งให้เปิดตัวผลิตภัณฑ์ที่คล้ายคลึงกัน และให้บริษัทต่างๆ ผนวกเทคโนโลยีที่คล้ายคลึงกันเข้ากับแอปและผลิตภัณฑ์ของตน อย่างมากมาย

view original *