Exclusive: Google lays out its vision for securing AI

Google มีแผนใหม่เพื่อช่วยให้องค์กรสามารถควบคุมความปลอดภัยขั้นพื้นฐานให้กับระบบปัญญาประดิษฐ์ และปกป้องพวกเขาจากภัยคุกคามทางไซเบอร์ระลอกใหม่

Google has a new plan to help organizations apply basic security controls to their artificial intelligence systems and protect them from a new wave of cyber threats.

รายงานพิเศษ: Google กำหนดวิสัยทัศน์ของ Securing AI

Google มีแผนใหม่เพื่อช่วยให้องค์กรสามารถควบคุมความปลอดภัยขั้นพื้นฐานให้กับระบบปัญญาประดิษฐ์ และปกป้องพวกเขาจากภัยคุกคามทางไซเบอร์ระลอกใหม่

เหตุใดจึงสำคัญ: กรอบแนวคิดใหม่สามารถช่วยบริษัทต่างๆ รักษาความปลอดภัยระบบ AI ได้อย่างรวดเร็วจากแฮ็กเกอร์ที่พยายามควบคุมโมเดล AI หรือขโมยข้อมูลที่โมเดลได้รับการฝึกอบรม

มองภาพใหญ่: บ่อยครั้งเมื่อเทรนด์เทคโนโลยีใหม่ๆ เกิดขึ้น ความปลอดภัยในโลกไซเบอร์และความเป็นส่วนตัวของข้อมูลเป็นสิ่งสำคัญที่ต้องคำนึงถึงสำหรับธุรกิจและผู้บริโภค ไม่ได้ถูกเตรียมความพร้อมไว้ล่วงหน้า

ตัวอย่างหนึ่งคือ โซเชี่ยลมีเดียที่ผู้ใช้กระตือรือร้นที่จะเชื่อมต่อกันบนแพลตฟอร์มใหม่ๆ จนแทบไม่ต้องตรวจสอบอย่างละเอียดถึงวิธีการรวบรวม แชร์ หรือปกป้องข้อมูลของผู้ใช้

Google กังวลว่าสิ่งเดียวกันนี้เกิดขึ้นกับระบบ AI เนื่องจากบริษัทต่าง ๆ สร้างและรวมโมเดลเหล่านี้เข้ากับเวิร์กโฟลว์อย่างรวดเร็ว

Phil Venables, CISO at Google Cloud

What they’re saying: “เราต้องการให้ผู้คนตระหนักว่า ความเสี่ยงหลายอย่างของ AI สามารถจัดการได้ด้วยองค์ประกอบพื้นฐานเหล่านี้” Phil Venables, Chief Information Security Officer (CISO)  ของ Google Cloud กล่าว

“ขณะที่ผู้คนกำลังค้นหาวิธีการขั้นสูงมากขึ้น ผู้คนควรคำนึงไว้เสมอว่าคุณต้องมีพื้นฐานที่ถูกต้องเช่นกัน”

รายละเอียด: Google’s Secure AI framework ช่วยให้องค์กรต่างๆ นำแนวคิด 6 ประการ ไปปฏิบัติ:

*เทคโนโลยีความปลอดภัยที่มีอยู่ ซึ่งสามารถนำไปใช้กับระบบ AI ใหม่ได้อย่างง่ายดาย เช่น การเข้ารหัสข้อมูล (data encryption)

*พัฒนาการศึกษางานวิจัย threat intelligence research ที่มีอยู่ เพื่อป้องกันภัยคุกคาม โดยเฉพาะภัยคุกคามที่กำหนดเป้าหมายระบบ AI

*นำระบบ cyber defenses อัตโนมัติมาใช้ในการป้องกันทางไซเบอร์ของบริษัทเพื่อตอบสนองต่อกิจกรรมผิดปกติใดๆ ที่พุ่งเป้าไปที่ระบบ AI อย่างรวดเร็ว

*ดำเนินการตรวจสอบมาตรการรักษาความปลอดภัยที่ใช้กับโมเดล AI อย่างสม่ำเสมอ

*ทดสอบความปลอดภัยของระบบ AI เหล่านี้อย่างต่อเนื่อง ผ่านการทดสอบการเจาะระบบ และทำการเปลี่ยนแปลงตามผลการวิจัยเหล่านั้น

*และสุดท้าย ให้สร้างทีมที่เข้าใจความเสี่ยงที่เกี่ยวข้องกับ AI เพื่อช่วยหาว่าความเสี่ยงของ AI ควรอยู่ในตำแหน่งใดในกลยุทธ์โดยรวมขององค์กร เพื่อลดความเสี่ยงทางธุรกิจ

เคล็ดลับ: แนวทางปฏิบัติด้านความปลอดภัยจำนวนมากเหล่านี้เป็นแนวทางที่องค์กรที่มีความพร้อม ได้นำไปใช้ในทุกหน่วยงานแล้ว Venables กล่าว “เราตระหนักได้ทันทีว่า วิธีส่วนใหญ่ที่คุณจัดการความปลอดภัยเกี่ยวกับการใช้และการพัฒนา AI ค่อนข้างสอดคล้องกับวิธีที่คุณคิดเกี่ยวกับการจัดการการเข้าถึงข้อมูล” เขากล่าวเสริม

แรงจูงใจ: เพื่อจูงใจให้มีการนำหลักการเหล่านี้ไปใช้ Google กำลังทำงานร่วมกับลูกค้าและภาครัฐบาล เพื่อค้นหาวิธีนำแนวคิดไปใช้

บริษัทกำลังจัดให้มีกิจกรรมการแข่งขันชิงรางวัล bug bounty program เพื่อเปิดรับการค้นพบใหม่ ๆ ที่ช่วยเปิดเผยข้อบกพร่องด้านความปลอดภัยที่เกี่ยวข้องกับความปลอดภัยและความปลอดภัยของ AI

แผนขั้นต่อไป: Google วางแผนที่จะขอความคิดเห็นเกี่ยวกับกรอบการทำงานจากพันธมิตรในอุตสาหกรรมและหน่วยงานภาครัฐ Venables กล่าว

“เราคิดว่า เราค่อนข้างก้าวหน้าในหัวข้อเหล่านี้ ในการทำงานหนักของเราที่ผ่านมา แต่เราไม่หยิ่งผยองที่จะละเลยคำแนะนำจากผู้คนและภาคส่วนต่างๆ เพื่อนำไปใช้ในการปรับปรุงของเราได้” Venables กล่าว

view original *