AI governance gap: 95% of firms haven’t implemented frameworks

การกำกับดูแลที่แข็งแกร่งมีความสำคัญในการลดความเสี่ยงด้าน AI และรักษาระบบที่มีความรับผิดชอบ แต่บริษัทส่วนใหญ่ยังไม่ได้นำกรอบการทำงานไปใช้

Robust governance is essential to mitigate AI risks and maintain responsible systems, but the majority of firms are yet to implement a framework.

ช่องว่างในการกำกับดูแล AI: 95% ของบริษัทยังไม่ได้นำกรอบการทำงานไปใช้

การกำกับดูแลที่แข็งแกร่งมีความสำคัญในการลดความเสี่ยงด้าน AI และรักษาระบบที่มีความรับผิดชอบ แต่บริษัทส่วนใหญ่ยังไม่ได้นำกรอบการทำงานไปใช้

รายงานที่จัดทำโดย Prove AI และดำเนินการโดย Zogby Analytics ได้สำรวจความคิดเห็นของ CEO, CIO และ CTO กว่า 600 คนจากบริษัทขนาดใหญ่ในสหรัฐอเมริกา สหราชอาณาจักร และเยอรมนี ผลการศึกษาพบว่า 96% ขององค์กรกำลังใช้ generative AI เพื่อสนับสนุนการดำเนินธุรกิจ และมีแผนที่จะเพิ่มงบประมาณด้าน AI ในปีหน้าในสัดส่วนเดียวกัน

แรงจูงใจหลักในการลงทุนด้าน AI ได้แก่ การเพิ่มผลผลิต (82%) การปรับปรุงประสิทธิภาพการดำเนินงาน (73%) การเพิ่มประสิทธิภาพการตัดสินใจ (65%) และการประหยัดต้นทุน (60%) การใช้งาน AI ที่พบมากที่สุดได้แก่ การบริการลูกค้าและการสนับสนุน การวิเคราะห์เชิงคาดการณ์ และการเพิ่มประสิทธิภาพด้านการตลาดและโฆษณา

แม้จะมีการลงทุนด้าน AI เพิ่มขึ้น ผู้นำธุรกิจตระหนักดีถึงความเสี่ยงเพิ่มเติมที่ AI นำมาสู่องค์กรของตน ความถูกต้องและความปลอดภัยของข้อมูลกลายเป็นปัจจัยสำคัญที่ขัดขวางการนำโซลูชัน AI ใหม่ๆ มาใช้

ผู้บริหารยังรายงานถึงปัญหาด้านประสิทธิภาพของ AI ต่างๆ รวมถึง:

– ปัญหาคุณภาพข้อมูล (เช่น ความไม่สอดคล้องหรือความไม่ถูกต้อง): 41%

– ความท้าทายในการตรวจจับและบรรเทาอคติในอัลกอริธึม AI ซึ่งนำไปสู่ผลลัพธ์ที่ไม่เป็นธรรมหรือเลือกปฏิบัติ: 37%

– ความยากลำบากในการวัดผลตอบแทนจากการลงทุน (ROI) ของโครงการ AI: 28%

ในขณะที่ 95% ของผู้ตอบแบบสอบถามแสดงความมั่นใจในแนวทางการจัดการความเสี่ยงด้าน AI ขององค์กรในปัจจุบัน รายงานเผยให้เห็นช่องว่างที่สำคัญในการนำการกำกับดูแล AI ไปใช้

มีเพียง 5% ของผู้บริหารที่รายงานว่าองค์กรของตนได้นำกรอบการกำกับดูแล AI ไปใช้ อย่างไรก็ตาม 82% ระบุว่าการนำโซลูชันการกำกับดูแล AI ไปใช้เป็นเรื่องเร่งด่วนในระดับหนึ่งหรือเร่งด่วนมาก โดย 85% มีแผนที่จะนำโซลูชันดังกล่าวไปใช้ภายในช่วงฤดูร้อนปี 2025

รายงานยังพบว่า 82% ของผู้เข้าร่วมสนับสนุนคำสั่งบริหารเกี่ยวกับการกำกับดูแล AI เพื่อให้มีการกำกับดูแลที่เข้มงวดขึ้น นอกจากนี้ 65% แสดงความกังวลเกี่ยวกับการละเมิดทรัพย์สินทางปัญญาและความปลอดภัยของข้อมูล

Mrinal Manohar, CEO ของ Prove AI กล่าวว่า “ผู้บริหารแสดงจุดยืนชัดเจน: ประสิทธิผลระยะยาวของ AI รวมถึงการให้ผลตอบแทนที่มีความหมายจากการลงทุนขนาดใหญ่ที่องค์กรกำลังทำอยู่ในปัจจุบัน ขึ้นอยู่กับความสามารถในการพัฒนาและปรับปรุงกลยุทธ์การกำกับดูแล AI ที่ครอบคลุม

“คลื่นของกฎหมายที่เน้น AI ที่กำลังมีผลบังคับใช้ทั่วโลกกำลังเพิ่มความเร่งด่วนยิ่งขึ้น เพื่อให้คลื่นนวัตกรรมในปัจจุบันดำเนินต่อไปอย่างมีความรับผิดชอบ เราจำเป็นต้องนำแนวทางที่ชัดเจนมาใช้ในการจัดการและติดตามข้อมูลที่ให้ข้อมูลแก่ระบบ AI”

ในขณะที่กฎระเบียบระดับโลกอย่าง EU AI Act กำลังจะมีผลบังคับใช้ รายงานนี้เน้นย้ำถึงความสำคัญของการลดความเสี่ยงด้าน AI และงานที่ยังต้องทำอีกมาก การนำกลยุทธ์การกำกับดูแล AI โดยเฉพาะไปใช้และเพิ่มประสิทธิภาพได้กลายเป็นลำดับความสำคัญสูงสุดสำหรับธุรกิจที่ต้องการใช้ประโยชน์จากพลังของ AI ในขณะที่ลดความเสี่ยงที่เกี่ยวข้อง

ผลการศึกษาในรายงานนี้เป็นสัญญาณเตือนให้องค์กรต่างๆ จัดลำดับความสำคัญการกำกับดูแล AI ในขณะที่ยังคงลงทุนและนำเทคโนโลยี AI มาใช้ การนำไปใช้อย่างมีความรับผิดชอบและกรอบการกำกับดูแลที่แข็งแกร่งจะเป็นกุญแจสำคัญในการปลดล็อกศักยภาพทั้งหมดของ AI ในขณะที่รักษาความไว้วางใจและการปฏิบัติตามกฎระเบียบ

view original *