รัฐบาลสหราชอาณาจักรได้เปิดตัวแพลตฟอร์มดิจิทัลมาตรฐานสำหรับการตรวจสอบความปลอดภัยของ AI ในสัปดาห์นี้ โดยคาดการณ์ว่าจะมีมูลค่าตลาด 6.5 พันล้านปอนด์ภายในปี 2035
The U.K. government unveiled a standardized digital platform for AI safety verification this week, projecting a 6.5 billion-pound market by 2035.
Anthropic เรียกร้องให้มีการควบคุมดูแลด้าน AI ขณะที่อังกฤษเปิดตัวแพลตฟอร์มทดสอบ AI
รัฐบาลสหราชอาณาจักรได้เปิดตัวแพลตฟอร์มดิจิทัลมาตรฐานสำหรับการตรวจสอบความปลอดภัยของ AI ในสัปดาห์นี้ โดยคาดการณ์ว่าจะมีมูลค่าตลาด 6.5 พันล้านปอนด์ภายในปี 2035
ในขณะที่ Anthropic ผู้พัฒนา AI เตือนว่ารัฐบาลมีเวลาเพียง 18 เดือนในการนำกฎระเบียบที่มีประสิทธิภาพมาใช้ก่อนที่ความเสี่ยงจะเพิ่มสูงขึ้น การเรียกร้องให้มีการกำกับดูแลอย่างรวดเร็วนี้เกิดขึ้นในขณะที่ Brooks Tech Policy Institute เสนอกรอบการกำกับดูแลใหม่ที่เรียกว่า “SETO Loop” ซึ่งออกแบบมาเพื่อช่วยผู้กำหนดนโยบายจัดการกับความกังวลที่เพิ่มขึ้นเกี่ยวกับการกำกับดูแล AI
Anthropic เรียกร้องให้มีการกำกับดูแล AI อย่างรวดเร็ว
บริษัท AI อย่าง Anthropic กำลังเรียกร้องให้รัฐบาลดำเนินการออกกฎระเบียบที่มีเป้าหมายชัดเจนภายใน 18 เดือนข้างหน้า โดยเตือนว่าโอกาสในการป้องกันความเสี่ยงเชิงรุกกำลังจะหมดลง ในขณะที่ความสามารถของ Gen AI พัฒนาขึ้นอย่างรวดเร็ว
“การลังเลอาจนำไปสู่สถานการณ์ที่แย่ที่สุด: การออกกฎระเบียบแบบรีบร้อนที่ขาดการออกแบบที่ดี ซึ่งจะขัดขวางความก้าวหน้าในขณะที่ไม่สามารถป้องกันความเสี่ยงได้อย่างมีประสิทธิภาพ” บริษัทระบุในเอกสารนโยบาย
บริษัทรายงานการพัฒนาที่ก้าวกระโดดในความสามารถของ AI โดยประสิทธิภาพในงานวิศวกรรมซอฟต์แวร์เพิ่มขึ้นจาก 1.96% (Claude 2, ตุลาคม 2023) เป็น 49% (Claude 3.5 Sonnet, ตุลาคม 2024) ทีม Frontier Red Team ภายในบริษัทพบว่าโมเดลปัจจุบันสามารถช่วยในงานที่เกี่ยวข้องกับการโจมตีทางไซเบอร์ได้ ในขณะเดียวกัน การทดสอบโดย U.K. AI Safety Institute แสดงให้เห็นว่าบางโมเดลมีความเชี่ยวชาญระดับปริญญาเอกในด้านชีววิทยาและเคมี
ผู้พัฒนา AI สนับสนุนแนวทางการกำกับดูแลสามประการ: ความโปร่งใสเกี่ยวกับนโยบายความปลอดภัย แรงจูงใจสำหรับแนวปฏิบัติด้านความปลอดภัยที่ดีขึ้น และกฎระเบียบที่เรียบง่ายและมีจุดมุ่งหมายชัดเจน บริษัทชี้ให้เห็นถึง Responsible Scaling Policy ของตนเอง ซึ่งมีผลบังคับใช้ตั้งแต่กันยายน 2023 ว่าอาจเป็นต้นแบบได้
แม้ว่ากฎหมายระดับรัฐบาลกลางจะเป็นสิ่งที่ดีที่สุด Anthropic แนะนำว่าการออกกฎระเบียบระดับรัฐอาจจำเป็นหากสภาคองเกรสดำเนินการช้าเกินไป โดยอ้างถึงความพยายามก่อนหน้านี้ของ California ในการออก Safe and Secure Innovation for Frontier Artificial Intelligence Models Act
สหราชอาณาจักรเปิดตัวแพลตฟอร์มความปลอดภัยด้าน AI
รัฐบาลสหราชอาณาจักรได้เปิดตัวแพลตฟอร์มดิจิทัลแบบครบวงจรที่มอบเครื่องมือมาตรฐานให้ภาคธุรกิจใช้ทดสอบระบบ AI เพื่อตรวจสอบอคติ ความเสี่ยงด้านความเป็นส่วนตัว และความกังวลด้านความปลอดภัย ถือเป็นแนวทางรวมศูนย์ครั้งแรกของอังกฤษในการตรวจสอบ AI
“AI มีศักยภาพที่น่าทึ่งในการปรับปรุงบริการสาธารณะ เพิ่มผลผลิต และฟื้นฟูเศรษฐกิจของเรา แต่เพื่อให้ได้ประโยชน์สูงสุด เราจำเป็นต้องสร้างความเชื่อมั่นในระบบเหล่านี้ซึ่งกำลังเข้ามาเป็นส่วนหนึ่งของชีวิตประจำวันของเรามากขึ้น” Peter Kyle รัฐมนตรีว่าการกระทรวงวิทยาศาสตร์และเทคโนโลยีกล่าวในข่าวประชาสัมพันธ์
แพลตฟอร์มนี้เปิดตัวขณะที่เจ้าหน้าที่คาดการณ์ว่าตลาดระดับประเทศสำหรับการรับรอง AI จะเติบโตขึ้นหกเท่าเป็น 6.5 พันล้านปอนด์ภายในปี 2035 ปัจจุบันมีบริษัท 524 แห่งดำเนินงานในภาคการรับรอง AI ของอังกฤษ จ้างงานกว่า 12,000 คน และสร้างรายได้มากกว่า 1 พันล้านปอนด์
พร้อมกับการเปิดตัวแพลตฟอร์ม รัฐบาลได้เปิดการรับฟังความคิดเห็นสาธารณะที่มุ่งเน้นการทำให้การตรวจสอบ AI เข้าถึงได้สำหรับวิสาหกิจขนาดกลางและขนาดย่อมผ่านเครื่องมือประเมินตนเอง โครงการนี้เกิดขึ้นพร้อมกับความร่วมมือใหม่ระหว่าง U.K. AI Safety Institute และสิงคโปร์ ซึ่งลงนามที่ลอนดอนโดย Kyle และ Josephine Teo รัฐมนตรีกระทรวงการพัฒนาดิจิทัลและสารสนเทศของสิงคโปร์
สถาบันได้เปิดตัวโครงการให้ทุนวิจัยด้านความปลอดภัย AI มูลค่า 200,000 ปอนด์ และจะเข้าร่วมการประชุมครั้งแรกของ International Network of AI Safety Institutes ที่ San Francisco ในเดือนนี้
คณะทำงานเสนอกรอบการกำกับดูแล AI รูปแบบใหม่
นักวิจัยได้พัฒนากรอบการทำงานใหม่สำหรับการกำกับดูแล AI โดยมีเป้าหมายเพื่อช่วยผู้กำหนดนโยบายจัดการกับความกังวลที่เพิ่มขึ้นเกี่ยวกับการกำกับดูแล AI
แนวทางที่พัฒนาโดย Cornell Brooks School Tech Policy Institute ของ Cornell University ที่เรียกว่า “SETO Loop” แบ่งการกำกับดูแล AI ออกเป็นสี่ขั้นตอนหลัก: การระบุสิ่งที่ต้องปกป้อง การประเมินกฎระเบียบที่มีอยู่ การเลือกเครื่องมือที่เหมาะสม และการกำหนดองค์กรที่ควรบังคับใช้
“การกำหนดกฎระเบียบ AI ต้องเริ่มจากการระบุปัญหาทางสังคม เศรษฐกิจ และการเมืองที่เกิดจากเทคโนโลยี เป้าหมายควรเป็นการป้องกันการใช้ AI ในทางที่ผิด แทนที่จะก่อให้เกิดความล้มเหลวของตลาดโดยการขัดขวางการให้บริการ” รายงานระบุ
กรอบการทำงานที่พัฒนาโดยนักวิจัย Sarah Kreps และ Adi Rao เกิดขึ้นในขณะที่ Gen AI กำลังเปลี่ยนแปลงหลายภาคส่วน โดยศึกษากรณีตัวอย่างหลายกรณี รวมถึงระบบอาวุธอัตโนมัติ เทคโนโลยีการจดจำใบหน้า และหุ่นยนต์ด้านสุขภาพและการผ่าตัด
รายงานสนับสนุนแนวทาง “technoprudential” ที่สร้างความสมดุลระหว่างประโยชน์และความเสี่ยงของ AI โดยเน้นย้ำถึงความจำเป็นในการมีกฎระเบียบที่ปรับตัวได้ตามการเปลี่ยนแปลงทางเทคโนโลยีที่รวดเร็ว ในขณะที่ประสานงานระหว่างระดับนานาชาติ ระดับรัฐบาลกลาง และระดับท้องถิ่น