Narrowing the confidence gap for wider AI adoption

ปัญญาประดิษฐ์เข้าสู่ตลาดด้วยกระแสความสนใจอย่างสูง และการนำไปใช้ที่กว้างขวาง แต่ในปัจจุบัน การเติบโตของ AI กำลังชะลอตัวลง

Artificial intelligence entered the market with a splash, driving massive buzz and adoption. But now the pace is faltering.

ลดช่องว่างระหว่างกระแสความสนใจ ด้าน AI และการนำ  AI มาใช้งานจริงในวงกว้าง

ปัญญาประดิษฐ์เข้าสู่ตลาดด้วยกระแสความสนใจอย่างสูง และการนำไปใช้ที่กว้างขวาง แต่ในปัจจุบัน การเติบโตของ AI กำลังชะลอตัวลง

ผู้นำธุรกิจยังคงกล่าวถึงการนำ AI มาใช้อย่างต่อเนื่อง เพราะพวกเขาต้องการได้รับประโยชน์ที่ McKinsey ประเมินว่า Gen AI อาจช่วยให้บริษัทต่าง ๆ ประหยัดต้นทุนได้สูงถึง 2.6 ล้านล้านดอลลาร์ในหลากหลายด้านของการดำเนินงาน อย่างไรก็ตาม พวกเขายังไม่สามารถนำไปปฏิบัติได้จริง จากการสำรวจผู้นำด้านการวิเคราะห์ข้อมูลและ IT ระดับสูง พบว่า มีเพียง 20% ของแอปพลิเคชัน Gen AI เท่านั้นที่อยู่ในขั้นตอนการผลิตในปัจจุบัน

ทำไมช่องว่างระหว่างความสนใจ และความเป็นจริงในการนำไปใช้งาน ถึงกว้างนัก?

คำตอบมีหลายปัจจัย ทั้งความกังวลเกี่ยวกับความปลอดภัยและความเป็นส่วนตัวของข้อมูล ความเสี่ยงด้านการปฏิบัติตามข้อกำหนด และการจัดการข้อมูล นอกจากนี้ ยังมีความวิตกกังวลเกี่ยวกับความไม่โปร่งใสของ AI รวมถึงความกังวลเรื่อง ROI ต้นทุน และช่องว่างทักษะ ในบทความนี้ เราจะสำรวจอุปสรรคในการนำ AI มาใช้ และแบ่งปันมาตรการที่ผู้นำธุรกิจสามารถดำเนินการเพื่อเอาชนะปัญหาเหล่านี้

จัดการข้อมูลให้ได้

“ข้อมูลที่มีคุณภาพสูงเป็นรากฐานสำคัญของโมเดล AI ที่แม่นยำและเชื่อถือได้ ซึ่งจะช่วยให้การตัดสินใจและผลลัพธ์ดีขึ้น” Rob Johnson รองประธานและหัวหน้าฝ่ายวิศวกรรมโซลูชันระดับโลกของ SolarWinds กล่าว พร้อมเสริมว่า “ข้อมูลที่เชื่อถือได้ช่วยสร้างความมั่นใจใน AI ให้กับผู้เชี่ยวชาญด้าน IT และเร่งให้เกิดการนำและผสานเทคโนโลยี AI ในวงกว้างมากขึ้น”

ในปัจจุบัน มีเพียง 43% ของผู้เชี่ยวชาญด้าน IT ที่แสดงความมั่นใจในความสามารถของตนในการตอบสนองความต้องการข้อมูลของ AI เนื่องจากข้อมูลมีความสำคัญอย่างมากต่อความสำเร็จของ AI จึงไม่น่าแปลกใจที่ความท้าทายด้านข้อมูลจะถูกอ้างถึงบ่อยครั้งว่าเป็นปัจจัยที่ทำให้การนำ AI มาใช้งานล่าช้า

วิธีที่ดีที่สุดในการแก้ไขปัญหานี้คือการย้อนกลับไปที่พื้นฐานของข้อมูล องค์กรจำเป็นต้องสร้างกลยุทธ์การกำกับดูแลข้อมูลที่แข็งแกร่งตั้งแต่ต้น พร้อมด้วยการควบคุมอย่างเข้มงวดเพื่อรักษาคุณภาพและความสมบูรณ์ของข้อมูล

ใส่ใจเรื่องจริยธรรมและการกำกับดูแลอย่างจริงจัง

เมื่อข้อบังคับเพิ่มจำนวนขึ้น การปฏิบัติตามข้อกำหนดก็กลายเป็นปัญหาหนักใจสำหรับหลายองค์กร AI เพิ่มพื้นที่เสี่ยงใหม่ ๆ ข้อกำหนดมากขึ้น และปัญหาด้านการกำกับดูแลจริยธรรมที่ทำให้ผู้นำธุรกิจต้องกังวลอย่างมาก จนกระทั่งความเสี่ยงด้านความปลอดภัยและการปฏิบัติตามข้อกำหนดกลายเป็นความกังวลที่ถูกอ้างถึงมากที่สุดในรายงาน Cloudera’s State of Enterprise AI and Modern Data Architecture

แม้การเพิ่มขึ้นของข้อบังคับด้าน AI อาจดูน่ากังวลในตอนแรก แต่ผู้บริหารควรมองว่าเป็นโอกาสที่จะใช้กรอบงานเหล่านี้ในการสนับสนุนการสร้างโครงสร้างควบคุมความเสี่ยงและแนวทางด้านจริยธรรมขององค์กร

การพัฒนานโยบายปฏิบัติตามข้อกำหนด การแต่งตั้งทีมดูแลการกำกับดูแล AI และการรับรองว่ามนุษย์ยังคงมีอำนาจตัดสินใจเหนือผลลัพธ์ที่ขับเคลื่อนด้วย AI เป็นขั้นตอนสำคัญในการสร้างระบบจริยธรรมและการกำกับดูแล AI ที่ครอบคลุม

เสริมความควบคุมด้านความปลอดภัยและความเป็นส่วนตัว

ความกังวลเกี่ยวกับความปลอดภัยและความเป็นส่วนตัวของข้อมูลยังคงเป็นประเด็นสำคัญสำหรับทุกธุรกิจ และเป็นเรื่องที่สมควรกังวล การศึกษาของ Cisco ใน 2024 Data Privacy Benchmark Study พบว่า 48% ของพนักงานยอมรับว่าตนได้ป้อนข้อมูลของบริษัทที่ไม่เปิดเผยลงในเครื่องมือ GenAI (และยังมีอีกจำนวนหนึ่งที่ไม่ยอมรับ) ทำให้องค์กร 27% ห้ามการใช้เครื่องมือดังกล่าว

วิธีที่ดีที่สุดในการลดความเสี่ยงคือการจำกัดการเข้าถึงข้อมูลที่สำคัญ ซึ่งรวมถึงการเพิ่มการควบคุมการเข้าถึงและจัดการการเข้าถึงสิทธิ์ที่เพิ่มขึ้น และการเก็บข้อมูลให้ห่างจาก LLM ที่โฮสต์ในที่สาธารณะ Avi Perez, CTO ของ Pyramid Analytics อธิบายว่า โครงสร้างพื้นฐาน AI ของซอฟต์แวร์วิเคราะห์ธุรกิจของเขาถูกออกแบบมาโดยเฉพาะเพื่อเก็บข้อมูลให้ห่างจาก LLM โดยแบ่งปันเฉพาะข้อมูลเมตาที่อธิบายปัญหาและเชื่อมต่อกับ LLM ในฐานะวิธีที่ดีที่สุดสำหรับเอนจินที่โฮสต์ในพื้นที่เพื่อทำการวิเคราะห์

“ปัญหานี้มีหลากหลายประเด็น ไม่ใช่แค่ความเป็นส่วนตัว แต่ยังรวมถึงผลลัพธ์ที่อาจทำให้เข้าใจผิด ดังนั้นในกรอบงานนี้ ปัญหาความเป็นส่วนตัวของข้อมูลและปัญหาที่เกี่ยวข้องถือเป็นเรื่องใหญ่ในมุมมองของผม มันเป็นตัวหยุดเกม” Perez กล่าว

อย่างไรก็ตาม ด้วยการตั้งค่าของ Pyramid “LLM สร้างสูตรการทำงาน แต่ไม่ได้เข้าถึงข้อมูลโดยตรง และไม่ได้ดำเนินการคำนวณทางคณิตศาสตร์ […] ซึ่งช่วยกำจัดปัญหาด้านความเสี่ยงของความเป็นส่วนตัวของข้อมูลได้ถึงประมาณ 95%”

เพิ่มความโปร่งใสและความสามารถในการอธิบาย

อุปสรรคสำคัญอีกประการหนึ่งในการนำ AI มาใช้คือความไว้วางใจในผลลัพธ์ของ AI ที่ยังขาดแคลน เรื่องราวที่เป็นที่รู้จักของเครื่องมือคัดเลือกพนักงานที่ขับเคลื่อนด้วย AI ของ Amazon ซึ่งแสดงพฤติกรรมเลือกปฏิบัติต่อผู้หญิง กลายเป็นบทเรียนสำคัญที่ทำให้หลายคนรู้สึกกลัว AI วิธีที่ดีที่สุดในการจัดการกับความกลัวนี้คือการเพิ่มความสามารถในการอธิบายและความโปร่งใส

“ความโปร่งใสของ AI คือการอธิบายเหตุผลที่อยู่เบื้องหลังผลลัพธ์อย่างชัดเจน ทำให้กระบวนการตัดสินใจเข้าถึงได้และเข้าใจง่าย” Adnan Masood หัวหน้าสถาปนิก AI แห่ง UST และผู้อำนวยการภูมิภาคของ Microsoft กล่าว “สุดท้ายแล้ว มันคือการกำจัดความลึกลับของกล่องดำของ AI และให้ความกระจ่างเกี่ยวกับวิธีการและเหตุผลที่ AI ตัดสินใจ”

น่าเสียดายที่ผู้บริหารหลายคนมองข้ามความสำคัญของความโปร่งใส การศึกษาของ IBM รายงานว่ามีเพียง 45% ของ CEO ที่กล่าวว่าพวกเขาได้พัฒนาความสามารถด้านความเปิดเผย AI ให้เป็นรูปธรรม ผู้สนับสนุน AI ควรให้ความสำคัญกับการพัฒนานโยบายการกำกับดูแล AI ที่เข้มงวดเพื่อป้องกันไม่ให้เกิดกล่องดำ และลงทุนในเครื่องมืออธิบาย เช่น SHapley Additive exPlanations (SHAPs) ชุดเครื่องมือด้านความยุติธรรม เช่น Google’s Fairness Indicators และระบบตรวจสอบการปฏิบัติตามข้อกำหนดอัตโนมัติ เช่น AI Auditing Framework ของ Institute of Internal Auditors

กำหนดคุณค่าทางธุรกิจที่ชัดเจน

ต้นทุนเป็นหนึ่งในอุปสรรคของ AI เช่นเคย การสำรวจของ Cloudera พบว่า 26% ของผู้ตอบแบบสอบถามกล่าวว่าเครื่องมือ AI มีราคาแพงเกินไป และ Gartner ได้รวม “คุณค่าทางธุรกิจที่ไม่ชัดเจน” เป็นหนึ่งในปัจจัยที่ทำให้โครงการ AI ล้มเหลว อย่างไรก็ตาม รายงานเดียวกันของ Gartner ระบุว่า GenAI ได้เพิ่มรายได้เฉลี่ยและช่วยลดต้นทุนมากกว่า 15% ในกลุ่มผู้ใช้ ซึ่งพิสูจน์ว่า AI สามารถสร้างมูลค่าทางการเงินได้หากนำไปใช้อย่างถูกต้อง

นี่คือเหตุผลว่าทำไมการจัดการ AI จึงต้องเหมือนกับโครงการธุรกิจอื่น ๆ คือการระบุพื้นที่ที่สามารถสร้าง ROI ได้อย่างรวดเร็ว กำหนดประโยชน์ที่คาดว่าจะได้รับ และตั้งค่า KPI ที่ชัดเจนเพื่อพิสูจน์คุณค่า “แม้ว่าการสร้างกลยุทธ์และแผนงาน AI จะต้องมีหลายองค์ประกอบ แต่ขั้นตอนแรกที่สำคัญคือการระบุกรณีการใช้งาน AI ที่มีคุณค่าและเปลี่ยนแปลงได้มากที่สุดเพื่อมุ่งเน้น” Michael Robinson ผู้อำนวยการฝ่ายการตลาดผลิตภัณฑ์ของ UiPath กล่าว

จัดตั้งโปรแกรมการฝึกอบรมที่มีประสิทธิภาพ

ช่องว่างด้านทักษะยังคงเป็นอุปสรรคสำคัญต่อการนำ AI มาใช้ แต่ดูเหมือนว่าความพยายามในการแก้ไขปัญหานี้ยังมีไม่มากนัก รายงานจาก Worklife ระบุว่าช่วงแรกของการนำ AI มาใช้ได้แรงหนุนจากกลุ่มผู้เริ่มต้นใช้งานเทคโนโลยีใหม่ ๆ แต่ในขณะนี้การนำ AI มาใช้ขึ้นอยู่กับกลุ่มที่ล้าหลัง ซึ่งโดยธรรมชาติแล้วมักมีความสงสัยและความมั่นใจใน AI และเทคโนโลยีใหม่ ๆ ต่ำกว่า

นี่ทำให้การฝึกอบรมมีความสำคัญมาก อย่างไรก็ตาม จากการศึกษาของ Asana’s State of AI at Work พบว่า 82% ของผู้เข้าร่วมระบุว่าองค์กรของพวกเขายังไม่ได้จัดการฝึกอบรมเกี่ยวกับการใช้งาน Gen AI ไม่ได้มีหลักฐานบ่งชี้ว่าการฝึกอบรมไม่ได้ผล แต่ปัญหาคือการฝึกอบรมยังไม่ได้ถูกจัดทำอย่างเหมาะสม

ข้อสรุปที่ชัดเจนคือการเสนอการฝึกอบรมที่ครอบคลุมในด้านการตั้งคำสั่ง (quality prompting) และทักษะที่เกี่ยวข้อง การศึกษาชิ้นเดียวกันยังแสดงให้เห็นว่าการใช้งาน AI แม้ไม่มีการฝึกอบรม ก็ช่วยเพิ่มทักษะและความมั่นใจของผู้ใช้ได้ ดังนั้นจึงเป็นความคิดที่ดีที่จะเริ่มต้นด้วยเครื่องมือ low-code และ no-code ที่ช่วยให้พนักงานที่ไม่มีทักษะด้าน AI สามารถเรียนรู้ในระหว่างการทำงานได้

อุปสรรคในการนำ AI มาใช้ไม่ใช่ปัญหาที่แก้ไม่ได้

แม้การนำ AI มาใช้อาจชะลอตัวลง แต่ไม่มีหลักฐานบ่งชี้ว่า AI กำลังเผชิญความเสี่ยงในระยะยาว อุปสรรคมากมายที่ขัดขวางการนำเครื่องมือ AI มาใช้สามารถแก้ไขได้โดยไม่ยากเกินไป หลายขั้นตอน เช่น การเสริมคุณภาพข้อมูลและการกำกับดูแลจริยธรรม ควรดำเนินการอยู่แล้วไม่ว่าจะพิจารณา AI หรือไม่ก็ตาม ในขณะที่ขั้นตอนอื่น ๆ ที่ดำเนินการจะคืนทุนด้วยรายได้ที่เพิ่มขึ้นและผลผลิตที่ AI สามารถสร้างได้


View original *