AI Safety: UK and US sign landmark agreement

สหราชอาณาจักรและสหรัฐอเมริกาได้ลงนามข้อตกลงครั้งสำคัญ เพื่อทำงานร่วมกันในการทดสอบปัญญาประดิษฐ์ขั้นสูง 

The UK and US have signed a landmark deal to work together on testing advanced artificial intelligence (AI).

AI Safety: สหราชอาณาจักรและสหรัฐอเมริกา ลงนามข้อตกลงสำคัญ

สหราชอาณาจักรและสหรัฐอเมริกาได้ลงนามข้อตกลงครั้งสำคัญ เพื่อทำงานร่วมกันในการทดสอบปัญญาประดิษฐ์ขั้นสูง 

ข้อตกลงที่ลงนามเมื่อวันจันทร์ ระบุว่าทั้งสองประเทศจะทำงานร่วมกันในการพัฒนาวิธีการที่ “แข็งแกร่ง” ในการประเมินความปลอดภัยของเครื่องมือ AI และระบบที่สนับสนุน

เป็นข้อตกลงทวิภาคีฉบับแรกในลักษณะเดียวกัน

มิเชล โดเนแลน รัฐมนตรีกระทรวงเทคโนโลยีของสหราชอาณาจักร กล่าวว่านี่คือ “ความท้าทายในการกำหนดทิศทางด้านเทคโนโลยีในยุคนี้”

“เราชัดเจนมาโดยตลอดว่าการพัฒนา AI อย่างปลอดภัยนั้นเป็นประเด็นระดับโลกที่มีร่วมกัน” เธอกล่าว

“การทำงานร่วมกันเท่านั้นที่เราสามารถจัดการกับความเสี่ยงของเทคโนโลยีได้โดยตรง และใช้ศักยภาพมหาศาลของมันเพื่อช่วยให้เราทุกคนมีชีวิตที่ง่ายขึ้นและมีสุขภาพดีขึ้น”

เลขาธิการแห่งรัฐด้านวิทยาศาสตร์ นวัตกรรม และเทคโนโลยี กล่าวเพิ่มเติมว่าข้อตกลงดังกล่าวสร้างขึ้นจากข้อผูกพันที่ทำไว้ในการประชุมสุดยอดด้านความปลอดภัยของ AI ซึ่งจัดขึ้นที่ Bletchley Park ในเดือนพฤศจิกายน 2023

งานนี้มีผู้นำด้าน AI เข้าร่วมมากมาย เช่น Sam Altman จาก OpenAI, Demis Hassabis จาก Google DeepMind และมหาเศรษฐีด้านเทคโนโลยีอย่าง Elon Musk ได้เห็นทั้งสหราชอาณาจักรและสหรัฐอเมริกาสร้างสถาบันความปลอดภัย AI ซึ่งมีเป้าหมายเพื่อประเมินระบบ AI แบบโอเพ่นซอร์สและแบบปิด

แม้ว่าสิ่งต่างๆ ด้านความปลอดภัยของ AI จะดูนิ่งๆ ไป นับตั้งแต่การประชุมสุดยอด แต่อุตสาหกรรมภาค AI เองก็มีความเคลื่อนไหวอย่างมากมาย

การแข่งขันระหว่างแชทบอท AI ที่ใหญ่ที่สุด เช่น ChatGPT, Gemini, Claude ยังคงดุเดือด

จนถึงขณะนี้บริษัทที่ตั้งอยู่ในสหรัฐฯ เกือบทั้งหมดที่อยู่เบื้องหลังกิจกรรมทั้งหมดนี้ยังคงให้ความร่วมมือกับแนวคิดเรื่องกฎระเบียบ แต่หน่วยงานกำกับดูแลยังไม่ได้จำกัดทุกสิ่งที่บริษัทเหล่านี้พยายามจะพัฒนานวัตกรรมใหม่

ในทำนองเดียวกัน หน่วยงานกำกับดูแลไม่ได้เรียกร้อง ที่จะเข้าถึงข้อมูลที่บริษัท AI ไม่เต็มใจที่จะเปิดเผย เช่น ข้อมูลที่ใช้ในการฝึกอบรมเครื่องมือของตน หรือต้นทุนด้านสิ่งแวดล้อมในการดำเนินการ

กฎหมาย AI ของสหภาพยุโรปกำลังจะถูกบังคับใช้ นักพัฒนาระบบ AI จะต้องแสดงข้อมูลบางอย่าง ที่มีความเสี่ยงอย่างตรงไปตรงมา และแบ่งปันข้อมูลเกี่ยวกับดาต้าเซ็ตที่ใช้เทรนนิ่งโมเดล AI

นี่เป็นสิ่งสำคัญ หลังจากที่ OpenAI กล่าวเมื่อเร็วๆ นี้ว่าจะไม่ปล่อยเครื่องมือโคลนเสียงที่พัฒนาขึ้นเนื่องจาก “ความเสี่ยงร้ายแรง” ที่เทคโนโลยี AI จะสร้างขึ้น โดยเฉพาะอย่างยิ่งในปีการเลือกตั้ง

ในเดือนมกราคม robocall ปลอมที่สร้างโดย AI โดยอ้างว่า เป็นเสียงของประธานาธิบดีโจ ไบเดนพูดเรียกร้องให้ผู้มีสิทธิเลือกตั้งข้ามการเลือกตั้งขั้นต้นในรัฐนิวแฮมป์เชียร์

ปัจจุบัน บริษัท AI ส่วนใหญ่ในสหรัฐอเมริกา และสหราชอาณาจักร ควบคุมดูแลความเหมาะสมและรักษาความปลอดภัยด้วยตนเอง

ข้อกังวลเกี่ยวกับ AI

ในปัจจุบัน ระบบ AI ส่วนใหญ่สามารถทำงานได้อย่างชาญฉลาดเพียงงานเดียวเท่านั้น 

งานเหล่านี้รู้จักกันในชื่อ “narrow” AI โดยมีตั้งแต่การวิเคราะห์ข้อมูลอย่างรวดเร็วหรือการตอบสนองตามคำสั่ง prompt 

แต่ intelligent “general” AI tools  ที่ชาญฉลาดกว่า ซึ่งสามารถทำงานหลายอย่างได้เทียบเท่ากับมนุษย์ ถูกกังวลว่า อาจเป็นอันตรายต่อมนุษยชาติ

“AI เช่นเดียวกับวิทยาศาสตร์เคมี วิทยาศาสตร์นิวเคลียร์ และวิทยาศาสตร์ชีวภาพ สามารถใช้เป็นอาวุธและนำไปใช้ในทางดีหรือไม่ดีได้” ศาสตราจารย์ เซอร์ ไนเจล แชดโบลต์ กล่าวกับรายการทูเดย์ของบีบีซี

แต่ศาสตราจารย์แห่งมหาวิทยาลัยอ็อกซ์ฟอร์ดกล่าวว่า ความกลัวเกี่ยวกับความเสี่ยงที่มีอยู่ของ AI “บางครั้งก็เกินจริงไปบ้าง”

“เราต้องสนับสนุนและชื่นชมความพยายามอย่างมาก ในการทำให้พลัง AI ที่ยอดเยี่ยม จนต้องพิจารณาเกี่ยวกับอันตรายจาก AI” เขากล่าว

“เราจำเป็นต้องเข้าใจว่าโมเดลเหล่านี้มีความอ่อนไหวเพียงใด และต้องเข้าใจว่าโมเดลเหล่านี้มีประสิทธิภาพเพียงใด”

Gina Raimondo รัฐมนตรีกระทรวงพาณิชย์ของสหรัฐฯ กล่าวว่าข้อตกลงดังกล่าวจะช่วยให้รัฐบาลเข้าใจระบบ AI ได้ดีขึ้น ซึ่งจะช่วยให้พวกเขาสามารถให้คำแนะนำได้ดีขึ้น

“สิ่งนี้จะช่วยเร่งการทำงานของสถาบันทั้งสองของเราให้ครอบคลุมความเสี่ยงทั้งหมด ไม่ว่าจะต่อความมั่นคงของชาติหรือต่อสังคมในวงกว้างของเรา” เธอกล่าว

“ความร่วมมือของเราทำให้ชัดเจนว่าเราไม่ได้หนีจากข้อกังวลเหล่านี้ – เรากำลังเผชิญหน้าเพื่อหลีกเลี่ยงข้อกังวลเกี่ยวกับ AI”

view original *