White House sends hackers against the most powerful AIs

ทีมงานของ Biden มีคำถามค้างคาใจ เกี่ยวกับการพัฒนาเทคโนโลยีครั้งใหญ่ที่สุดในรอบหลายปีว่า สามารถรับมือกับภัยคุกคามความปลอดภัยได้แค่ไหน?

For the Biden administration, a question hangs over the biggest tech development in years: How big a security threat is it?

ทำเนียบขาวส่งทีมแฮ็กเกอร์ทดสอบโจมตี AI ที่ทรงพลังที่สุด

ในวันศุกร์ ในโรงแรมทั่วลาสเวกัส ระบบปัญญาประดิษฐ์ที่ทรงพลังที่สุดในโลกบางระบบจะถูกโจมตีพร้อมๆ กันโดยกลุ่มแฮ็กเกอร์กลุ่มเล็กๆ ที่พยายามค้นหาข้อบกพร่องที่ซ่อนอยู่

ทำเนียบขาวไม่เพียงรับรู้ถึงการโจมตีในที่สาธารณะเท่านั้น แต่ยังให้การรับรองอีกด้วย

ในเดือนพฤษภาคม ฝ่ายบริหารของ Biden ให้การสนับสนุนอยู่เบื้องหลังการทดสอบการโจมตีระบบ AI โดยเจตนาและประสานงานกัน ซึ่งเรียกว่า red-teaming ซึ่งจะจัดขึ้นในช่วงสามวันในการประชุมแฮ็กเกอร์ประจำปีในสุดสัปดาห์นี้ บริษัท AI ชั้นนำหลายแห่ง รวมถึง OpenAI, Google และ Meta ตกลงที่จะให้ระบบ AI ล่าสุดและทรงพลังที่สุดของพวกเขารับมือกับการโจมตีเพื่อการฝึกนี้

การโจมตีของแฮ็กเกอร์เน้นย้ำถึงสิ่งที่กลายเป็นหนึ่งในข้อกังวลหลักของทำเนียบขาวเกี่ยวกับโมเดล AI ใหม่ที่ทรงพลังและเติบโตอย่างรวดเร็ว: พวกมันมีความปลอดภัยจริง ๆ เพียงใด และพวกมันอาจเป็นภัยคุกคามต่อพลเมืองอเมริกันหรือต่อความมั่นคงของชาติทั่วโลกหรือไม่

Alan Mislove เจ้าหน้าที่อาวุโสของสำนักงานนโยบายวิทยาศาสตร์และเทคโนโลยีแห่งทำเนียบขาวกล่าวว่า “กรอบของเรา และสิ่งนี้มาจากประธานาธิบดี นั่นคือการที่จะควบคุมโอกาสของ AI เราต้องจัดการความเสี่ยงก่อนเช่นกัน” ช่วยผู้จัดงานท้าทายการแฮ็กพัฒนาแบบทดสอบ DEFCON red-teaming สุดสัปดาห์นี้ “สำหรับสิ่งต่างๆ เช่น โมเดลภาษาขนาดใหญ่ ความเสี่ยงเหล่านั้นค่อนข้างกว้าง ในหลายกรณีอาจมีความชัดเจนน้อยกว่าระบบอื่นๆ” และ “ครอบคลุมสังคมของเรา เศรษฐกิจของเรา ความมั่นคงของชาติ” เขากล่าว

ในขณะที่สภาคองเกรสกำลังดิ้นรนเพื่อระบุว่ากฎหมายใหม่ใดที่จะส่งผ่านเกี่ยวกับ AI และหน่วยงานของรัฐบาลกลางก็ยืดหยุ่นอำนาจที่มีอยู่ของตนเหนือเทคโนโลยีที่เกิดขึ้นใหม่ ทำเนียบขาวของ Biden จึงกลายเป็นผู้เล่นที่มีบทบาทมากที่สุดในนโยบาย AI ได้ร่างกรอบกฎหมายว่าด้วยสิทธิของ AI ประชุมซีอีโอด้านเทคโนโลยี และจัดงานแถลงข่าวเกี่ยวกับภัยคุกคามและโอกาสต่างๆ ที่นำเสนอโดยเทคโนโลยี

แม้ว่าภัยคุกคามเหล่านี้จะแผ่ขยายไปทั่วทั้งสังคม ตั้งแต่การตกงาน การเลือกปฏิบัติ ไปจนถึงการให้ข้อมูลที่ไม่ถูกต้อง แต่หลายขั้นตอนที่จับต้องได้ที่สุดของทำเนียบขาวได้มุ่งเน้นไปที่ปัญหาด้านความปลอดภัย Ben Buchanan ที่ปรึกษาพิเศษคนใหม่สำหรับ AI มีความมั่นคงของชาติมากกว่าพื้นฐานทางเทคนิค เมื่อทำเนียบขาวเรียกประชุมผู้นำด้าน AI เพื่อประกาศข้อผูกพันโดยสมัครใจเมื่อเดือนที่แล้ว “ความปลอดภัย” อยู่ในอันดับต้น ๆ และความปลอดภัยก็มีบทบาทสำคัญผ่านเอกสาร

ลำดับความสำคัญสูงในด้านการรักษาความปลอดภัยสะท้อนให้เห็นถึงความวิตกกังวล — ในหมู่ผู้เชี่ยวชาญ หน่วยงานกำกับดูแล และอุตสาหกรรมเอง — ที่ระบบ AI ใหม่ที่ซับซ้อนนำเสนอปัญหาใหม่ ๆ มากมายที่ไม่เข้าใจอย่างถ่องแท้ ตั้งแต่ศักยภาพที่จะถูกแฮ็กและถูกชี้นำโดยผู้ไม่หวังดี ไปจนถึงแนวคิดที่ว่า พวกมันสามารถเปิดเผยข้อมูลผู้ใช้ ไปจนถึงการใช้งานด้านมืด เช่น การสร้างอาวุธชีวภาพ

“เป็นไปได้ที่โมเดลเหล่านี้จะทำสิ่งที่นักออกแบบและผู้จำหน่ายไม่คาดคิดหรือไม่ต้องการให้ทำได้ ใช่ ฉันคิดว่ามีข้อพิจารณาด้านความปลอดภัยที่แท้จริง” Arati Prabhakar ผู้อำนวยการสำนักงานนโยบายวิทยาศาสตร์เทคโนโลยีของทำเนียบขาวกล่าว

AI ยังสามารถเป็นเครื่องมือในการปรับปรุงการรักษาความปลอดภัย: สัปดาห์นี้เพนตากอนได้ประกาศความท้าทายสองปีสำหรับนักพัฒนาในการใช้ AI เพื่อเสริมความปลอดภัยทางไซเบอร์ที่สำคัญของอเมริกา

สำหรับความท้าทายของ DEFCON red-teaming ในสุดสัปดาห์นี้ ทำเนียบขาวได้ร่วมมือกับ AI Village ที่ DEFCON ซึ่งเป็นการประชุมประจำปีที่ผู้จัดงานจะจัดเวทีแฮ็คเกมสงครามและผู้เชี่ยวชาญด้านความปลอดภัยทางไซเบอร์เปิดเผยช่องโหว่ล่าสุดในเทคโนโลยีที่แพร่หลาย หน่วยงานรัฐบาลอย่างเพนตากอนได้หันไปหาชุมชนแฮ็กเกอร์เพื่อค้นหาช่องโหว่ด้านความปลอดภัยทางไซเบอร์ก่อนหน้านี้: ที่ความท้าทายในการแฮ็ก DEFCON เมื่อปีที่แล้ว ผู้เข้าร่วมคนหนึ่งพบข้อบกพร่องที่ปิดการใช้งานได้ในไมโครกริดไฟฟ้าของกองทัพหลังจากให้ข้อมูลสภาพอากาศที่ผิดพลาด

แต่เวอร์ชันปีนี้ถือว่าไม่ธรรมดาสำหรับทั้งระดับการซื้อของรัฐบาลและการมีส่วนร่วมของภาคอุตสาหกรรม เดิมทีบริษัทในอุตสาหกรรมเทคโนโลยีมักลังเลที่จะเปิดเผยซอฟต์แวร์ที่เป็นกรรมสิทธิ์ต่อสาธารณชนเพื่อการทดสอบ แต่ในปีนี้ เรียกร้องโดยทำเนียบขาว บริษัทเทคโนโลยีอย่าง OpenAI, Anthropic, Google, Hugging Face, NVIDIA, Meta, Cohere และ Stability ได้เสนอโมเดลภาษาขนาดใหญ่สำหรับการตรวจสอบข้อเท็จจริง

พวกเขาจะจัดหาโมเดลของตนในเวอร์ชัน gated-off เพื่อโจมตีโดยแฮ็กเกอร์กลุ่มต่างๆ ตั้งแต่ผู้เข้าร่วมประชุมที่มีประสบการณ์ตามปกติไปจนถึงนักศึกษาวิทยาลัยชุมชนที่บินมาเพื่อความท้าทายโดยเฉพาะ

Prabhakar จาก OSTP กล่าวว่าแนวคิดสำหรับการมีส่วนร่วมของทำเนียบขาวในการฝึก DEFCON เกิดขึ้นในการประชุมเทคโนโลยีก่อนหน้านี้: South by Southwest (SXSW) ในเมืองออสติน รัฐเท็กซัส หลังจากการประชุมครั้งแรกที่ SXSW ผู้จัดงาน AI Village ได้พบกับเจ้าหน้าที่ทำเนียบขาวเพื่อหารือเกี่ยวกับความเป็นไปได้ในการขยายการฝึกแบบทีมแดงที่ DEFCON เพื่อนำเสนอรูปแบบภาษาขนาดใหญ่ที่ได้รับความนิยมสูงสุดในตลาด “เราคิดว่าเป็นความคิดที่ยอดเยี่ยม เป็นวิธีที่ดีในการปลูกฝังสิ่งที่สำคัญจริงๆ” Prabhakar กล่าว

บริษัทตกลงแม้ว่าจะมีข้อแม้: ผลลัพธ์จากการซ้อมรบ DEFCON red-teaming จะไม่เปิดเผยต่อสาธารณะจนกว่าจะถึงเดือนกุมภาพันธ์ ดังนั้นพวกเขาจึงสามารถแก้ไขช่องโหว่หรือปัญหาด้านความปลอดภัยก่อนที่จะถูกเอารัดเอาเปรียบ ด้วย AI กระบวนการนี้ซับซ้อน Chris Rohlf นักวิจัยด้านความปลอดภัยของ Meta กล่าวว่า “มันไม่ง่ายเหมือนแค่การแพทช์เหมือนข้อบกพร่องของซอฟต์แวร์

สำหรับอุตสาหกรรม เดิมพันรวมถึงการได้รับความไว้วางใจจากสาธารณชนสำหรับเทคโนโลยีเกิดใหม่ที่จุดประกายทั้งความวิตกกังวลและความตื่นเต้นอย่างกว้างขวาง “แสดงให้เห็นว่าโมเดลเหล่านี้ผ่านการทดสอบแล้ว” Rohlf จาก Meta กล่าว “จะสร้างความไว้วางใจกับชุมชนในระยะยาว” ในขณะเดียวกัน Michael Sellitto หัวหน้าฝ่ายภูมิรัฐศาสตร์และนโยบายความมั่นคงของ Anthropic หวังว่าแบบทดสอบดังกล่าวจะจุดประกายการแข่งขันด้านความปลอดภัยในอุตสาหกรรมเทคโนโลยี “สิ่งหนึ่งที่เราต้องการเห็นคือการแข่งขันที่ปลอดภัยเพื่อไปสู่จุดสูงสุด” เขากล่าว

แม้จะมีการประโคมข่าว แต่แบบทดสอบเองก็ไม่น่าจะเปิดเผยวิธีทั้งหมดที่ระบบ AI สามารถทำงานผิดพลาดได้ โดยเฉพาะอย่างยิ่งเนื่องจากผู้เข้าร่วมแต่ละคนมีเวลาจำกัดมากในการแฮ็กเข้าสู่โมเดลภาษาขนาดใหญ่ (ตามลำดับ 15 นาทีต่อครั้ง) และถูกจำกัด ไปจนถึงอุปกรณ์ทางเทคนิคที่มีอยู่ในงาน Sellitto จาก Anthropic กล่าว

Mislove — เจ้าหน้าที่อาวุโสของทำเนียบขาวที่เกี่ยวข้องกับกระบวนการวางแผนการจัด DEFCON red-teaming — กล่าวว่าทีมงานของ Biden เห็นว่าการฝึก DEFCON นี้เป็นแบบอย่างสำหรับอนาคต ส่วนหนึ่งมีจุดประสงค์เพื่อหาวิธีที่ดีที่สุดในการเรียกใช้แบบทดสอบ Red teaming ขนาดใหญ่บน AI วัตถุประสงค์ของทำเนียบขาวกับ DEFCON คือการสร้างต้นแบบ: “สิ่งที่เราต้องการไปให้ถึงคืออนาคตที่หลายฝ่ายจะทำงานร่วมกันกับ red-teaming” Prabhakar กล่าว

view original *