Anthropic Pushes for Regulations as Britain Launches AI Testing Platform 

รัฐบาลสหราชอาณาจักรได้เปิดตัวแพลตฟอร์มดิจิทัลมาตรฐานสำหรับการตรวจสอบความปลอดภัยของ AI ในสัปดาห์นี้ โดยคาดการณ์ว่าจะมีมูลค่าตลาด 6.5 พันล้านปอนด์ภายในปี 2035 

The U.K. government unveiled a standardized digital platform for AI safety verification this week, projecting a 6.5 billion-pound market by 2035.

Anthropic เรียกร้องให้มีการควบคุมดูแลด้าน AI  ขณะที่อังกฤษเปิดตัวแพลตฟอร์มทดสอบ AI

รัฐบาลสหราชอาณาจักรได้เปิดตัวแพลตฟอร์มดิจิทัลมาตรฐานสำหรับการตรวจสอบความปลอดภัยของ AI ในสัปดาห์นี้ โดยคาดการณ์ว่าจะมีมูลค่าตลาด 6.5 พันล้านปอนด์ภายในปี 2035 

ในขณะที่ Anthropic ผู้พัฒนา AI เตือนว่ารัฐบาลมีเวลาเพียง 18 เดือนในการนำกฎระเบียบที่มีประสิทธิภาพมาใช้ก่อนที่ความเสี่ยงจะเพิ่มสูงขึ้น การเรียกร้องให้มีการกำกับดูแลอย่างรวดเร็วนี้เกิดขึ้นในขณะที่ Brooks Tech Policy Institute เสนอกรอบการกำกับดูแลใหม่ที่เรียกว่า “SETO Loop” ซึ่งออกแบบมาเพื่อช่วยผู้กำหนดนโยบายจัดการกับความกังวลที่เพิ่มขึ้นเกี่ยวกับการกำกับดูแล AI

Anthropic เรียกร้องให้มีการกำกับดูแล AI อย่างรวดเร็ว

บริษัท AI อย่าง Anthropic กำลังเรียกร้องให้รัฐบาลดำเนินการออกกฎระเบียบที่มีเป้าหมายชัดเจนภายใน 18 เดือนข้างหน้า โดยเตือนว่าโอกาสในการป้องกันความเสี่ยงเชิงรุกกำลังจะหมดลง ในขณะที่ความสามารถของ Gen AI พัฒนาขึ้นอย่างรวดเร็ว

“การลังเลอาจนำไปสู่สถานการณ์ที่แย่ที่สุด: การออกกฎระเบียบแบบรีบร้อนที่ขาดการออกแบบที่ดี ซึ่งจะขัดขวางความก้าวหน้าในขณะที่ไม่สามารถป้องกันความเสี่ยงได้อย่างมีประสิทธิภาพ” บริษัทระบุในเอกสารนโยบาย

บริษัทรายงานการพัฒนาที่ก้าวกระโดดในความสามารถของ AI โดยประสิทธิภาพในงานวิศวกรรมซอฟต์แวร์เพิ่มขึ้นจาก 1.96% (Claude 2, ตุลาคม 2023) เป็น 49% (Claude 3.5 Sonnet, ตุลาคม 2024) ทีม Frontier Red Team ภายในบริษัทพบว่าโมเดลปัจจุบันสามารถช่วยในงานที่เกี่ยวข้องกับการโจมตีทางไซเบอร์ได้ ในขณะเดียวกัน การทดสอบโดย U.K. AI Safety Institute แสดงให้เห็นว่าบางโมเดลมีความเชี่ยวชาญระดับปริญญาเอกในด้านชีววิทยาและเคมี

ผู้พัฒนา AI สนับสนุนแนวทางการกำกับดูแลสามประการ: ความโปร่งใสเกี่ยวกับนโยบายความปลอดภัย แรงจูงใจสำหรับแนวปฏิบัติด้านความปลอดภัยที่ดีขึ้น และกฎระเบียบที่เรียบง่ายและมีจุดมุ่งหมายชัดเจน บริษัทชี้ให้เห็นถึง Responsible Scaling Policy ของตนเอง ซึ่งมีผลบังคับใช้ตั้งแต่กันยายน 2023 ว่าอาจเป็นต้นแบบได้

แม้ว่ากฎหมายระดับรัฐบาลกลางจะเป็นสิ่งที่ดีที่สุด Anthropic แนะนำว่าการออกกฎระเบียบระดับรัฐอาจจำเป็นหากสภาคองเกรสดำเนินการช้าเกินไป โดยอ้างถึงความพยายามก่อนหน้านี้ของ California ในการออก Safe and Secure Innovation for Frontier Artificial Intelligence Models Act

สหราชอาณาจักรเปิดตัวแพลตฟอร์มความปลอดภัยด้าน AI

รัฐบาลสหราชอาณาจักรได้เปิดตัวแพลตฟอร์มดิจิทัลแบบครบวงจรที่มอบเครื่องมือมาตรฐานให้ภาคธุรกิจใช้ทดสอบระบบ AI เพื่อตรวจสอบอคติ ความเสี่ยงด้านความเป็นส่วนตัว และความกังวลด้านความปลอดภัย ถือเป็นแนวทางรวมศูนย์ครั้งแรกของอังกฤษในการตรวจสอบ AI

“AI มีศักยภาพที่น่าทึ่งในการปรับปรุงบริการสาธารณะ เพิ่มผลผลิต และฟื้นฟูเศรษฐกิจของเรา แต่เพื่อให้ได้ประโยชน์สูงสุด เราจำเป็นต้องสร้างความเชื่อมั่นในระบบเหล่านี้ซึ่งกำลังเข้ามาเป็นส่วนหนึ่งของชีวิตประจำวันของเรามากขึ้น” Peter Kyle รัฐมนตรีว่าการกระทรวงวิทยาศาสตร์และเทคโนโลยีกล่าวในข่าวประชาสัมพันธ์

แพลตฟอร์มนี้เปิดตัวขณะที่เจ้าหน้าที่คาดการณ์ว่าตลาดระดับประเทศสำหรับการรับรอง AI จะเติบโตขึ้นหกเท่าเป็น 6.5 พันล้านปอนด์ภายในปี 2035 ปัจจุบันมีบริษัท 524 แห่งดำเนินงานในภาคการรับรอง AI ของอังกฤษ จ้างงานกว่า 12,000 คน และสร้างรายได้มากกว่า 1 พันล้านปอนด์

พร้อมกับการเปิดตัวแพลตฟอร์ม รัฐบาลได้เปิดการรับฟังความคิดเห็นสาธารณะที่มุ่งเน้นการทำให้การตรวจสอบ AI เข้าถึงได้สำหรับวิสาหกิจขนาดกลางและขนาดย่อมผ่านเครื่องมือประเมินตนเอง โครงการนี้เกิดขึ้นพร้อมกับความร่วมมือใหม่ระหว่าง U.K. AI Safety Institute และสิงคโปร์ ซึ่งลงนามที่ลอนดอนโดย Kyle และ Josephine Teo รัฐมนตรีกระทรวงการพัฒนาดิจิทัลและสารสนเทศของสิงคโปร์

สถาบันได้เปิดตัวโครงการให้ทุนวิจัยด้านความปลอดภัย AI มูลค่า 200,000 ปอนด์ และจะเข้าร่วมการประชุมครั้งแรกของ International Network of AI Safety Institutes ที่ San Francisco ในเดือนนี้

คณะทำงานเสนอกรอบการกำกับดูแล AI รูปแบบใหม่

นักวิจัยได้พัฒนากรอบการทำงานใหม่สำหรับการกำกับดูแล AI โดยมีเป้าหมายเพื่อช่วยผู้กำหนดนโยบายจัดการกับความกังวลที่เพิ่มขึ้นเกี่ยวกับการกำกับดูแล AI

แนวทางที่พัฒนาโดย Cornell Brooks School Tech Policy Institute ของ Cornell University ที่เรียกว่า “SETO Loop” แบ่งการกำกับดูแล AI ออกเป็นสี่ขั้นตอนหลัก: การระบุสิ่งที่ต้องปกป้อง การประเมินกฎระเบียบที่มีอยู่ การเลือกเครื่องมือที่เหมาะสม และการกำหนดองค์กรที่ควรบังคับใช้

“การกำหนดกฎระเบียบ AI ต้องเริ่มจากการระบุปัญหาทางสังคม เศรษฐกิจ และการเมืองที่เกิดจากเทคโนโลยี เป้าหมายควรเป็นการป้องกันการใช้ AI ในทางที่ผิด แทนที่จะก่อให้เกิดความล้มเหลวของตลาดโดยการขัดขวางการให้บริการ” รายงานระบุ

กรอบการทำงานที่พัฒนาโดยนักวิจัย Sarah Kreps และ Adi Rao เกิดขึ้นในขณะที่ Gen AI กำลังเปลี่ยนแปลงหลายภาคส่วน โดยศึกษากรณีตัวอย่างหลายกรณี รวมถึงระบบอาวุธอัตโนมัติ เทคโนโลยีการจดจำใบหน้า และหุ่นยนต์ด้านสุขภาพและการผ่าตัด

รายงานสนับสนุนแนวทาง “technoprudential” ที่สร้างความสมดุลระหว่างประโยชน์และความเสี่ยงของ AI โดยเน้นย้ำถึงความจำเป็นในการมีกฎระเบียบที่ปรับตัวได้ตามการเปลี่ยนแปลงทางเทคโนโลยีที่รวดเร็ว ในขณะที่ประสานงานระหว่างระดับนานาชาติ ระดับรัฐบาลกลาง และระดับท้องถิ่น

view original *