OpenAI is forming a team to rein in superintelligent AI

การแถลงข่าวดังกล่าวของ OpenAI มีขึ้นในขณะที่รัฐบาลกำลังถกเถียงกันว่าจะควบคุมเทคโนโลยี AI ได้อย่างไร

The announcement comes as governments debate how to regulate AI technologies.

OpenAI แถลงข่าวกำลังจัดตั้งทีมเพื่อควบคุม superintelligent AI ที่จะฉลาดเหนือกว่ามนุษย์ในอนาคต

OpenAI กำลังจัดตั้งทีมเฉพาะเพื่อจัดการความเสี่ยงของ superintelligent artificial intelligence superintelligence คือโมเดล AI ที่มีสมมุติฐานว่า ฉลาดกว่ามนุษย์ที่มีพรสวรรค์และฉลาดที่สุด และเชี่ยวชาญในหลายๆ ด้านแทนที่จะเป็นโดเมนเดียวเหมือนโมเดลรุ่นก่อนหน้าบางรุ่น OpenAI เชื่อว่าโมเดล AI ดังกล่าว จะเกิดขึ้นจริงก่อนสิ้นทศวรรษนี้ “

superintelligence จะเป็นเทคโนโลยีที่มีผลกระทบมากที่สุดเท่าที่มนุษยชาติเคยคิดค้นมา และสามารถช่วยเราแก้ปัญหาที่สำคัญที่สุดของโลกได้หลายอย่าง” OpenAI กล่าว “แต่พลังมหาศาลของ superintelligence ก็อาจเป็นอันตรายได้เช่นกัน และอาจนำไปสู่การลดอำนาจของมนุษยชาติหรือแม้แต่การสูญพันธุ์ของมนุษย์”

ทีมใหม่นี้จะเป็นผู้นำร่วมกันโดย Chief Scientist  ของ OpenAI Ilya Sutskever OpenAI และ Jan Leike, the research lab’s head of alignment นอกจากนี้ OpenAI ยังกล่าวว่าจะอุทิศ 20 เปอร์เซ็นต์ของพลังการประมวลผลในปัจจุบันให้กับโครงการใหม่นี้ โดยมีเป้าหมายเพื่อพัฒนา automated alignment researcher ระบบดังกล่าวในทางทฤษฎีจะช่วย OpenAI ในการสร้างความมั่นใจว่า superintelligence นั้นปลอดภัยต่อการใช้งานและสอดคล้องกับคุณค่าของมนุษย์ “ นี่จะเป็นเป้าหมายที่ทะเยอทะยานอย่างไม่น่าเชื่อ แม้เราไม่รับประกันว่าจะสำเร็จ แต่เรามองในแง่ดีว่าความพยายามที่ให้ความสำคัญ และร่วมมือกันสามารถแก้ปัญหานี้ได้” OpenAI กล่าว “มีแนวคิดมากมายที่แสดงให้เห็นถึงโอกาสใหม่ในการทดลองเบื้องต้น เรามีความคืบหน้าที่มีประโยชน์มากขึ้นเรื่อยๆ และเราสามารถใช้แบบจำลองในปัจจุบันเพื่อศึกษาปัญหาเหล่านี้ในเชิงประจักษ์” OpenAI แชร์แผนงานในอนาคต

OpenAI แถลงข่าวเมื่อวันพุธ ในขณะที่รัฐบาลทั่วโลกกำลังพิจารณาว่าจะควบคุมอุตสาหกรรม AI ที่เพิ่งเกิดขึ้นได้อย่างไร ในสหรัฐอเมริกา Sam Altman ซีอีโอของ OpenAI ได้พบกับสมาชิกสภานิติบัญญัติของรัฐบาลกลางอย่างน้อย 100 คน ในช่วงหลายเดือนที่ผ่านมา Altman กล่าวต่อสาธารณะว่ากฎระเบียบของ AI นั้น “จำเป็น” และ OpenAI นั้น “กระตือรือร้น” ที่จะทำงานร่วมกับผู้กำหนดนโยบาย แต่เราควรตั้งคำถามกับแนวคิดดังกล่าวของ OpenAI อย่างเช่นความพยายามจัดตั้งทีม Superalignment บอกสาธารณชนเกี่ยวกับความเสี่ยง บนสมมุติฐานในอนาคต ที่อาจไม่มีวันเกิดขึ้นจริงในอนาคต แทนที่จะเป็นที่นี่และเดี๋ยวนี้ ซึ่งกำลังมีปัญหาเร่งด่วนมาก เกี่ยวกับ AI เช่น การเข้ามาแย่งงานของมนุษย์ การให้ข้อมูลที่ไม่ถูกต้อง ปัญหาเกี่ยวกับการละเมิดสิทธิ์ ซึ่งผู้กำหนดนโยบายกฎหมายควบคุม AI จำเป็นต้องจัดการในวันนี้ ไม่ใช่วันพรุ่งนี้

view original *