OpenAI co-founder on company’s past approach to openly sharing research: ‘We were wrong’

บทความนี้กล่าวถึงบทสัมภาษณ์ของ Ilya Sutskever หัวหน้านักวิทยาศาสตร์ของ OpenAI ซึ่งเปิดเผยว่าบริษัทกำลังทำงานเกี่ยวกับการพัฒนา GPT-4 ซึ่งเป็นตัวต่อจากโมเดลภาษาที่ประสบความสำเร็จอย่างสูง GPT-3 Sutskever ระบุว่าการวิจัยและพัฒนา GPT-4 จะดำเนินการในสภาพแวดล้อมแบบปิด โดยการเข้าถึงจะจำกัดเฉพาะกลุ่มนักวิจัยและผู้ทำงานร่วมกันที่ได้รับการคัดเลือกเท่านั้น บทความนี้ยังสำรวจผลกระทบที่อาจเกิดขึ้นของ GPT-4 ในอุตสาหกรรมและแอปพลิเคชันต่างๆ เช่น การประมวลผลภาษาธรรมชาติ แชทบอท และการสร้างเนื้อหา สุดท้ายนี้ บทความนี้กล่าวถึงข้อกังวลด้านจริยธรรมและความท้าทายบางประการที่เกี่ยวข้องกับการพัฒนาโมเดล AI ที่ทรงพลังดังกล่าว รวมถึงประเด็นอคติ ความเป็นส่วนตัว และการควบคุม

The article discusses an interview with Ilya Sutskever, the chief scientist at OpenAI, who revealed that the company is working on the development of GPT-4, a successor to their highly successful language model GPT-3. Sutskever stated that the research and development of GPT-4 will be conducted in a closed environment, with access limited to a select group of researchers and collaborators. The article also explores the potential impact of GPT-4 on various industries and applications, such as natural language processing, chatbots, and content generation. Finally, the article touches on some of the ethical concerns and challenges associated with the development of such powerful AI models, including issues of bias, privacy, and control.

เมื่อวานนี้ OpenAI ได้ประกาศ GPT-4 ซึ่งเป็นโมเดลภาษา AI รุ่นต่อไปที่รอคอยมานาน ความสามารถของระบบยังคงได้รับการประเมิน แต่ในขณะที่นักวิจัยและผู้เชี่ยวชาญกำลังศึกษาเนื้อหาที่เกี่ยวข้อง หลายคนแสดงความผิดหวังกับคุณสมบัติเฉพาะอย่างหนึ่ง นั่นคือ แม้จะมีชื่อของบริษัทแม่ แต่ GPT-4 ไม่ใช่โมเดล AI แบบเปิด

OpenAI ได้แบ่งปันเกณฑ์มาตรฐานและผลการทดสอบมากมายสำหรับ GPT-4 รวมถึงการสาธิตที่น่าสนใจบางอย่าง แต่โดยพื้นฐานแล้วไม่ได้ให้ข้อมูลเกี่ยวกับข้อมูลที่ใช้ในการฝึกอบรมระบบ ต้นทุนด้านพลังงาน หรือฮาร์ดแวร์หรือวิธีการเฉพาะที่ใช้ในการสร้างระบบ .

การวิจัย AI ควรเปิดหรือปิด? ผู้เชี่ยวชาญไม่เห็นด้วย

หลายคนในชุมชน AI วิจารณ์การตัดสินใจนี้ โดยสังเกตว่ามันบ่อนทำลายหลักการก่อตั้งบริษัทในฐานะองค์กรวิจัย และทำให้ผู้อื่นลอกเลียนแบบงานได้ยากขึ้น บางทีที่สำคัญกว่านั้น บางคนบอกว่ามันทำให้ยากที่จะพัฒนาการป้องกันภัยคุกคามประเภทต่างๆ ที่เกิดจากระบบ AI เช่น GPT-4 โดยข้อร้องเรียนเหล่านี้เกิดขึ้นในเวลาที่ความตึงเครียดเพิ่มขึ้นและความก้าวหน้าอย่างรวดเร็วในโลกของ AI

“ฉันคิดว่าเราสามารถเรียกมันว่าปิดได้เมื่อ ‘เปิด’ AI: กระดาษ 98 หน้าที่แนะนำ GPT-4 ประกาศอย่างภาคภูมิใจว่าพวกเขากำลังเปิดเผย ไม่มีอะไร เกี่ยวกับเนื้อหาของชุดการฝึกอบรมของพวกเขา” ทวีต Ben Schmidt รองประธานฝ่ายการออกแบบข้อมูลที่ Nomic AI ในเธรดในหัวข้อ

ที่นี่ Schmidt อ้างถึงส่วนในรายงานทางเทคนิค GPT-4 ซึ่งมีข้อความดังนี้:

เมื่อพิจารณาทั้งแนวการแข่งขันและผลกระทบด้านความปลอดภัยของโมเดลขนาดใหญ่ เช่น GPT-4 รายงานนี้จึงไม่มีรายละเอียดเพิ่มเติมเกี่ยวกับสถาปัตยกรรม (รวมถึงขนาดโมเดล) ฮาร์ดแวร์ การคำนวณการฝึกอบรม การสร้างชุดข้อมูล วิธีการฝึกอบรม หรือที่คล้ายกัน

ในการให้สัมภาษณ์กับ The Verge Ilya Sutskever หัวหน้านักวิทยาศาสตร์และผู้ร่วมก่อตั้ง OpenAI ได้ขยายความเกี่ยวกับประเด็นนี้ Sutskever กล่าวว่าเหตุผลของ OpenAI ที่ไม่แบ่งปันข้อมูลเพิ่มเติมเกี่ยวกับ GPT-4 — กลัวการแข่งขันและกลัวเรื่องความปลอดภัย — นั้น “ชัดเจนในตัวเอง”:

Sutskever กล่าวว่า “ในแนวหน้าของการแข่งขัน – มีการแข่งขันที่นั่น” “GPT-4 ไม่ใช่เรื่องง่ายในการพัฒนา OpenAI เกือบทั้งหมดต้องทำงานร่วมกันเป็นเวลานานมากเพื่อสร้างสิ่งนี้ และมีหลายบริษัทที่ต้องการทำสิ่งเดียวกัน ดังนั้นจากด้านการแข่งขัน คุณมองได้ว่าสิ่งนี้เป็นการพัฒนาของสาขานี้”

“ในด้านความปลอดภัย ผมจะบอกว่าความปลอดภัยยังไม่เป็นเหตุผลสำคัญเท่ากับด้านการแข่งขัน แต่มันจะเปลี่ยนไป และโดยพื้นฐานจะเป็นดังนี้ โมเดลเหล่านี้มีศักยภาพสูงและมีศักยภาพมากขึ้นเรื่อยๆ เมื่อถึงจุดๆ หนึ่ง มันจะค่อนข้างง่าย ถ้าใครต้องการ ที่จะสร้างความเสียหายอย่างใหญ่หลวงกับโมเดลเหล่านั้น และเมื่อความสามารถสูงขึ้น มันก็สมเหตุสมผลแล้วที่คุณไม่ต้องการเปิดเผย”

“ผมคาดหวังอย่างเต็มที่ว่าในอีกไม่กี่ปี ทุกคนจะเห็นได้ชัดว่า AI แบบโอเพ่นซอร์สนั้นไม่ฉลาดเลย”

วิธีการแบบปิดเป็นการเปลี่ยนแปลงที่ชัดเจนสำหรับ OpenAI ซึ่งก่อตั้งขึ้นในปี 2558 โดยกลุ่มเล็ก ๆ รวมถึง Sam Altman ซีอีโอคนปัจจุบัน, Elon Musk ซีอีโอของ Tesla (ซึ่งลาออกจากคณะกรรมการในปี 2561) และ Sutskever ในบล็อกโพสต์เบื้องต้น Sutskever และคนอื่นๆ กล่าวว่าเป้าหมายขององค์กรคือ “สร้างคุณค่าให้กับทุกคนมากกว่าผู้ถือหุ้น” และจะ “ทำงานร่วมกันอย่างอิสระ” กับคนอื่นๆ ในสาขาที่จะทำเช่นนั้น OpenAI ก่อตั้งขึ้นในฐานะองค์กรไม่แสวงหากำไร แต่ต่อมาได้กลายเป็น “กำไรต่อยอด” เพื่อรักษาความปลอดภัยของการลงทุนหลายพันล้าน โดยหลักแล้วมาจาก Microsoft ซึ่งขณะนี้มีใบอนุญาตธุรกิจเฉพาะตัว

เมื่อถามว่าทำไม OpenAI ถึงเปลี่ยนวิธีการแบ่งปันงานวิจัย Sutskever ตอบง่ายๆ ว่า “เราคิดผิด เลิกกันเถอะ เราผิดเอง หากคุณเชื่อเช่นเดียวกับที่เราเชื่อว่า ณ จุดหนึ่ง AI หรือ AGI จะมีศักยภาพสูงอย่างไม่น่าเชื่อ ดังนั้นการใช้โอเพ่นซอร์สจึงไม่สมเหตุสมผล เป็นความคิดที่ไม่ดีนัก… ฉันคาดหวังอย่างเต็มที่ว่าในอีกไม่กี่ปี ทุกคนจะเห็นได้ชัดว่า AI แบบโอเพ่นซอร์สนั้นไม่ฉลาดเลย”

ความคิดเห็นในชุมชน AI ในเรื่องนี้แตกต่างกันไป โดยเฉพาะอย่างยิ่ง การเปิดตัว GPT-4 เกิดขึ้นเพียงไม่กี่สัปดาห์หลังจากโมเดลภาษา AI อื่นที่พัฒนาโดย Meta เจ้าของ Facebook ชื่อ LLaMA รั่วไหลทางออนไลน์ ทำให้เกิดการอภิปรายที่คล้ายกันเกี่ยวกับภัยคุกคามและประโยชน์ของการวิจัยโอเพ่นซอร์ส ปฏิกิริยาเริ่มต้นส่วนใหญ่ต่อโมเดลปิดของ GPT-4 นั้นเป็นไปในเชิงลบ

Schmidt จาก Nomic AI พูดกับ The Verge ผ่านทาง DM อธิบายว่าการไม่สามารถมองเห็นข้อมูลที่ได้รับการฝึกฝน GPT-4 นั้นทำให้ยากที่จะรู้ว่าระบบจะใช้งานได้อย่างปลอดภัยที่ไหนและหาทางแก้ไขได้

“เพื่อให้ผู้คนตัดสินใจอย่างรอบรู้ว่าโมเดลนี้ใช้ไม่ได้ผลตรงไหน พวกเขาจำเป็นต้องเข้าใจมากขึ้นว่าโมเดลนี้ทำอะไรและตั้งสมมติฐานอะไรบ้าง” ชมิดต์กล่าว “ฉันจะไม่ไว้ใจรถขับเองที่ได้รับการฝึกฝนโดยไม่มีประสบการณ์ในสภาพอากาศที่มีหิมะตก เป็นไปได้ว่าอาจมีช่องโหว่หรือปัญหาอื่น ๆ ที่อาจเกิดขึ้นเมื่อใช้ในสถานการณ์จริง”

William Falcon ซีอีโอของ Lightning AI และผู้สร้างเครื่องมือโอเพ่นซอร์ส PyTorch Lightning บอกกับ VentureBeat ว่าเขาเข้าใจการตัดสินใจจากมุมมองทางธุรกิจ

เคย (“คุณมีสิทธิ์ทุกประการที่จะทำเช่นนั้นในฐานะบริษัท”) แต่เขายังกล่าวด้วยว่า การเคลื่อนไหวดังกล่าวได้กำหนด “แบบอย่างที่ไม่ดี” สำหรับชุมชนในวงกว้างและอาจส่งผลเสียได้

“ถ้ารูปแบบนี้ผิดพลาด…ชุมชนควรจะตอบสนองอย่างไร”

“หากแบบจำลองนี้ผิดพลาด และจะเกิดขึ้นจริง คุณเห็นภาพหลอนและให้ข้อมูลเท็จแก่คุณแล้ว ชุมชนควรจะตอบสนองอย่างไร” ฟอลคอนกล่าว “นักวิจัยที่มีจริยธรรมควรจะไปเสนอวิธีแก้ปัญหาจริง ๆ แล้วพูดว่าวิธีนี้ใช้ไม่ได้หรืออาจปรับแต่งเพื่อทำอย่างอื่น”

อีกเหตุผลหนึ่งที่บางคนแนะนำให้ OpenAI ซ่อนรายละเอียดของการก่อสร้าง GPT-4 คือความรับผิดทางกฎหมาย โมเดลภาษา AI ได้รับการฝึกฝนบนชุดข้อมูลข้อความขนาดใหญ่ โดยมาก (รวมถึงระบบ GPT รุ่นก่อนหน้า) จะคัดลอกข้อมูลจากเว็บ ซึ่งเป็นแหล่งที่น่าจะมีเนื้อหาที่ได้รับการคุ้มครองลิขสิทธิ์ เครื่องกำเนิดภาพ AI ที่ได้รับการฝึกฝนเกี่ยวกับเนื้อหาจากอินเทอร์เน็ตพบว่าตัวเองกำลังเผชิญกับความท้าทายทางกฎหมายด้วยเหตุผลนี้ โดยปัจจุบันหลายบริษัทถูกฟ้องร้องโดยศิลปินอิสระและเว็บไซต์ภาพสต็อก Getty Images

เมื่อถูกถามว่านี่เป็นสาเหตุหนึ่งที่ทำให้ OpenAI ไม่เปิดเผยข้อมูลการฝึกอบรมหรือไม่ Sutskever กล่าวว่า “มุมมองของฉันคือข้อมูลการฝึกอบรมเป็นเทคโนโลยี มันอาจจะดูไม่เป็นแบบนี้ แต่มันคือ และเหตุผลที่เราไม่เปิดเผยข้อมูลการฝึกอบรมก็ค่อนข้างมีเหตุผลเดียวกับที่เราไม่เปิดเผยจำนวนพารามิเตอร์” Sutskever ไม่ตอบเมื่อถูกถามว่า OpenAI สามารถระบุได้อย่างชัดเจนว่าข้อมูลการฝึกอบรมนั้นไม่มีเนื้อหาที่ละเมิดลิขสิทธิ์หรือไม่

Sutskever เห็นด้วยกับนักวิจารณ์ของ OpenAI ว่ามี “ข้อดี” สำหรับแนวคิดที่ว่าโมเดลโอเพ่นซอร์สช่วยพัฒนาการป้องกัน “หากมีคนศึกษาแบบจำลองเหล่านั้นมากขึ้น เราก็จะได้เรียนรู้เกี่ยวกับพวกเขามากขึ้น ซึ่งนั่นคงจะดี” เขากล่าว แต่ OpenAI ให้สถาบันการศึกษาและการวิจัยบางแห่งสามารถเข้าถึงระบบได้ด้วยเหตุผลเหล่านี้

การอภิปรายเกี่ยวกับการแบ่งปันการวิจัยเกิดขึ้นในช่วงเวลาแห่งการเปลี่ยนแปลงอย่างรวดเร็วสำหรับโลก AI โดยมีแรงกดดันจากหลายด้าน ในด้านองค์กร ยักษ์ใหญ่ด้านเทคโนโลยีอย่าง Google และ Microsoft กำลังเร่งรีบในการเพิ่มคุณสมบัติ AI ลงในผลิตภัณฑ์ของตน โดยมักมองข้ามข้อกังวลด้านจริยธรรมก่อนหน้านี้ (Microsoft เพิ่งเลิกจ้างทีมงานที่ทุ่มเทเพื่อให้แน่ใจว่าผลิตภัณฑ์ AI ของตนเป็นไปตามหลักเกณฑ์ด้านจริยธรรม) ในด้านการวิจัย ตัวเทคโนโลยีเองดูเหมือนจะพัฒนาขึ้นอย่างรวดเร็ว ทำให้เกิดความกลัวว่า AI กำลังกลายเป็นภัยคุกคามที่ร้ายแรงและใกล้เข้ามา

Jess Whittlestone หัวหน้าฝ่ายนโยบาย AI ของ UK Think Tank The Center for Long-Term Resilience กล่าวว่า การสร้างสมดุลระหว่างแรงกดดันต่างๆ เหล่านี้ถือเป็นความท้าทายด้านธรรมาภิบาลที่ร้ายแรง และสิ่งหนึ่งที่เธอกล่าวว่าน่าจะต้องอาศัยหน่วยงานกำกับดูแลบุคคลที่สามเข้ามาเกี่ยวข้อง

“ไม่ควรขึ้นอยู่กับแต่ละบริษัทในการตัดสินใจเหล่านี้”

“เราเห็นความสามารถด้าน AI เหล่านี้เคลื่อนไหวเร็วมาก และโดยทั่วไปฉันกังวลว่าความสามารถเหล่านี้จะก้าวหน้าเร็วกว่าที่เราจะปรับตัวให้เข้ากับสังคมได้” Whittlestone กล่าวกับ The Verge เธอกล่าวว่าเหตุผลของ OpenAI ที่จะไม่เปิดเผยรายละเอียดเพิ่มเติมเกี่ยวกับ GPT-4 นั้นดี แต่ก็มีข้อกังวลที่ถูกต้องเกี่ยวกับการรวมศูนย์อำนาจในโลกของ AI

“ไม่ควรขึ้นอยู่กับแต่ละบริษัทในการตัดสินใจเหล่านี้” วิทเทิ้ลสโตนกล่าว “ตามหลักการแล้ว เราจำเป็นต้องรวบรวมแนวทางปฏิบัติที่นี่ จากนั้นให้บุคคลที่สามที่เป็นอิสระมีบทบาทมากขึ้นในการพิจารณาความเสี่ยงที่เกี่ยวข้องกับโมเดลบางรุ่น และพิจารณาว่าเหมาะสมหรือไม่ที่จะเผยแพร่สู่โลก”