Google, Microsoft, OpenAI and Anthropic announce industry group to promote safe AI development

ซีเอ็นเอ็น – บริษัทด้านปัญญาประดิษฐ์ชั้นนำของโลก เปิดตัวองค์กรอุตสาหกรรมใหม่เพื่อทำงานร่วมกันและกับผู้กำหนดนโยบายและนักวิจัย เพื่อหาวิธีควบคุมการพัฒนา AI ที่ทันสมัย

CNN – Some of the world’s top artificial intelligence companies are launching a new industry body to work together — and with policymakers and researchers — on ways to regulate the development of bleeding-edge AI.

Google, Microsoft, OpenAI และ Anthropic เปิดตัวกลุ่มอุตสาหกรรม Frontier Model Forum เพื่อส่งเสริมการพัฒนา AI อย่างปลอดภัย

ซีเอ็นเอ็น – บริษัทด้านปัญญาประดิษฐ์ชั้นนำของโลก เปิดตัวองค์กรอุตสาหกรรมใหม่เพื่อทำงานร่วมกันและกับผู้กำหนดนโยบายและนักวิจัย เพื่อหาวิธีควบคุมการพัฒนา AI ที่ทันสมัย

องค์กรใหม่ที่รู้จักกันในชื่อ Frontier Model Forum ได้รับการประกาศเมื่อวันพุธโดย Google, Microsoft, OpenAI และ Anthropic บริษัทต่างๆ กล่าวว่าภารกิจของฟอรัมนี้คือการพัฒนาแนวปฏิบัติที่ดีที่สุดสำหรับความปลอดภัยของ AI ส่งเสริมการวิจัยเกี่ยวกับความเสี่ยงของ AI และแบ่งปันข้อมูลต่อสาธารณะกับรัฐบาลและภาคประชาสังคม

การประกาศในวันพุธนี้สะท้อนให้เห็นว่านักพัฒนา AI กำลังรวมตัวกันเพื่อเป็นแนวป้องกันโดยสมัครใจสำหรับเทคโนโลยี ก่อนการผลักดันที่คาดไว้โดยฝ่ายนิติบัญญัติของสหรัฐฯ และสหภาพยุโรปในฤดูใบไม้ร่วงนี้ เพื่อสร้างกฎหมายที่มีผลผูกพันสำหรับอุตสาหกรรมนี้

ข่าวของฟอรัมมีขึ้นหลังจากบริษัท AI สี่แห่ง พร้อมด้วยบริษัทอื่น ๆ อีกหลายแห่ง รวมถึง Amazon และ Meta ให้คำมั่นต่อฝ่ายบริหารของ Biden ว่าจะนำระบบ AI ของพวกเขาไปทดสอบโดย third-party testing ก่อนที่จะเผยแพร่สู่สาธารณะ และ label AI-generated content ติดฉลากเนื้อหาที่สร้างโดย AI อย่างชัดเจน

ฟอรัมที่เป็นผู้นำในอุตสาหกรรมซึ่งเปิดให้บริษัทอื่นๆ ที่ออกแบบโมเดล AI ขั้นสูงสุด วางแผนที่จะทำการประเมินทางเทคนิคและเกณฑ์มาตรฐานผ่านห้องสมุดสาธารณะที่เข้าถึงได้ บริษัททั้งสองกล่าวในแถลงการณ์ร่วม

“บริษัทที่สร้างเทคโนโลยี AI มีหน้าที่รับผิดชอบในการรับรองว่าปลอดภัย มั่นคง และอยู่ภายใต้การควบคุมของมนุษย์” แบรด สมิธ ประธานไมโครซอฟท์กล่าว “ความคิดริเริ่มนี้เป็นขั้นตอนสำคัญในการนำภาคส่วนเทคโนโลยีมารวมกันเพื่อพัฒนา AI อย่างมีความรับผิดชอบและจัดการกับความท้าทายต่างๆ เพื่อให้เป็นประโยชน์ต่อมวลมนุษยชาติ”

การประกาศดังกล่าวมีขึ้นหนึ่งวันหลังจากผู้เชี่ยวชาญด้าน AI เช่น Dario Amodei ซีอีโอของ Anthropic และผู้บุกเบิกด้าน AI Yoshua Bengio เตือนฝ่ายนิติบัญญัติถึงความเสี่ยงทางสังคมที่อาจร้ายแรง แม้กระทั่ง “หายนะ” ที่เกิดจากการพัฒนา AI อย่างไม่หยุดยั้ง

“โดยเฉพาะอย่างยิ่ง ผมกังวลว่าระบบ AI อาจถูกนำไปใช้ในทางที่ผิดในขอบเขตของความปลอดภัยทางไซเบอร์ เทคโนโลยีนิวเคลียร์ เคมี และโดยเฉพาะอย่างยิ่งชีววิทยา” Amodei กล่าวในคำให้การที่เป็นลายลักษณ์อักษรของเขา

ภายใน 2-3 ปี Amodei กล่าวว่า AI สามารถมีพลังมากพอที่จะช่วยเหลือผู้ประสงค์ร้ายสร้างอาวุธชีวภาพที่ใช้งานได้ ซึ่งในปัจจุบันผู้กระทำเหล่านั้นอาจขาดความรู้เฉพาะทางที่จำเป็นในการดำเนินการให้เสร็จสิ้น

วิธีที่ดีที่สุดในการป้องกันอันตรายร้ายแรง Bengio บอกกับคณะผู้พิจารณาวุฒิสภา คือการจำกัดการเข้าถึงระบบ AI; พัฒนาระเบียบการทดสอบที่เป็นมาตรฐานและมีประสิทธิภาพเพื่อให้แน่ใจว่าระบบเหล่านั้นสะท้อนถึงคุณค่าทางสังคมที่มีร่วมกัน จำกัดจำนวนของโลกที่ระบบ AI ใด ๆ สามารถเข้าใจได้อย่างแท้จริง และจำกัดผลกระทบที่ระบบ AI อาจมีต่อโลกแห่งความจริง

สหภาพยุโรปกำลังเดินหน้าไปสู่การออกกฎหมายที่สามารถสรุปได้ภายในปีนี้ ซึ่งจะห้ามการใช้ AI สำหรับการตรวจรักษาแบบคาดการณ์ล่วงหน้า และจำกัดการใช้งานในสถานการณ์ที่มีความเสี่ยงต่ำ

ฝ่ายนิติบัญญัติของสหรัฐยังตามหลังอยู่มาก ในขณะที่ร่างกฎหมายที่เกี่ยวข้องกับ AI จำนวนหนึ่งได้รับการแนะนำในสภาคองเกรสแล้ว แรงผลักดันส่วนใหญ่สำหรับร่างกฎหมาย AI ที่ครอบคลุมนั้นอยู่ที่ชัค ชูเมอร์ ผู้นำเสียงข้างมากในวุฒิสภา ซึ่งให้ความสำคัญกับการทำให้สมาชิกเร่งความเร็วในพื้นฐานของอุตสาหกรรมผ่านซีรีส์ต่างๆ ของการบรรยายสรุปในฤดูร้อนนี้

ตั้งแต่เดือนกันยายน ชูเมอร์กล่าวว่า วุฒิสภาจะจัดชุดคณะกรรมการเพิ่มเติมอีก 9 ชุดเพื่อให้สมาชิกได้เรียนรู้ว่า AI สามารถส่งผลกระทบต่องาน ความมั่นคงของชาติ และทรัพย์สินทางปัญญาได้อย่างไร

view original *