Microsoft Launches Measures to Keep Users From Tricking AI Chatbots

Microsoft เปิดตัวเครื่องมือ เพื่อป้องกันไม่ให้ผู้ใช้หลอก AI Chatbots เพื่อจุดประสงค์อันมุ่งร้าย

Microsoft unveiled tools to prevent users from tricking artificial intelligence chatbots for malevolent purposes

Microsoft เปิดตัวมาตรการเพื่อป้องกันไม่ให้ผู้ใช้หลอกลวง AI Chatbots

Microsoft เปิดตัวเครื่องมือ เพื่อป้องกันไม่ให้ผู้ใช้หลอก AI Chatbots เพื่อจุดประสงค์อันมุ่งร้าย

ยักษ์ใหญ่ด้านเทคโนโลยีได้เปิดตัวชุดเครื่องมือสำหรับระบบ Azure AI ของตน รวมถึงเครื่องมือในการบล็อกการโจมตีที่เรียกว่า “prompt injection” attacks

“prompt injection attacks การโจมตีแชตบอทกลายเป็นความท้าทายที่สำคัญ โดยผู้ประสงค์ร้ายพยายามจัดการระบบ AI ให้ทำบางสิ่งนอกวัตถุประสงค์ที่ตั้งใจไว้ เช่น การสร้างเนื้อหาที่เป็นอันตราย หรือกรองข้อมูลที่เป็นความลับ” Sarah Bird ประธานเจ้าหน้าที่ฝ่ายผลิตภัณฑ์ของ Responsible AI ที่ Microsoft  เขียนโพสต์

“นอกเหนือจากการลดความเสี่ยงด้านความปลอดภัยแล้ว องค์กรต่างๆ ยังกังวลเกี่ยวกับคุณภาพและความน่าเชื่อถืออีกด้วย” Bird กล่าวเสริมในโพสต์ “พวกเขาต้องการให้แน่ใจว่าระบบ AI ของพวกเขาไม่สร้างข้อผิดพลาด หรือเพิ่มข้อมูลที่ไม่ได้รับการตรวจสอบความถูกต้องกับแหล่งข้อมูลของแอปพลิเคชัน ซึ่งสามารถทำลายความไว้วางใจของผู้ใช้”

ในบรรดาเครื่องมือที่มีอยู่ในขณะนี้ หรือที่จะเปิดตัวเร็ว ๆ นี้ ได้แก่ ป้องกันเพื่อตรวจจับและบล็อกการโจมตีแบบ prompt injection attacks เช่นเดียวกับการตรวจจับ “groundedness” เพื่อตรวจจับ “hallucinations” ของ AI ตามโพสต์

Microsoft จะเปิดตัว safety system messages ในเร็วๆ นี้ “เพื่อควบคุมพฤติกรรมของโมเดลของคุณไปสู่ผลลัพธ์ที่ปลอดภัยและมีความรับผิดชอบ” และขณะนี้กำลังดูตัวอย่างการประเมินความปลอดภัยเพื่อระบุช่องโหว่ของแอปพลิเคชันต่อการโจมตีด้วยการ jailbreak attacks และสร้างความเสี่ยงด้านเนื้อหา

PYMNTS เมื่อต้นสัปดาห์ที่ผ่านมาได้พิจารณาถึงบทบาทของ Microsoft ในการแข่งขันด้าน generative AI ซึ่งเริ่มต้นจากความสำเร็จของ ChatGPT ซึ่งพัฒนาโดย OpenAI ซึ่งเป็นพันธมิตรของ Microsoft

แม้ว่าบริษัทเทคโนโลยีชั้นนำอย่าง Microsoft และ Google จะมีความได้เปรียบเหนือคู่แข่ง แต่การแข่งขันเพื่อเป็นผู้ชนะในอุตสาหกรรม AI นั้นเกี่ยวข้องกับมากกว่า Big Tech

โครงการโอเพ่นซอร์ส ความร่วมมือ และการให้ความสำคัญกับหลักจริยธรรมและการเข้าถึงได้กลายมาเป็นปัจจัยในการต่อสู้เพื่อโค่นล้ม OpenAI การขยายขอบเขตของ AI มักต้องอาศัยการลงทุนในด้านพลังการคำนวณและความสามารถในการวิจัย

“อุปสรรคสำหรับการสร้างโมเดลพื้นฐานแบบกว้างๆ ก็คือการฝึกอบรมชุดข้อมูลที่มีขนาดใหญ่มากขึ้นนั้นมีราคาแพงเป็นพิเศษ” Gil Luria นักวิเคราะห์ซอฟต์แวร์อาวุโสของ D.A. Davidson & Co. กล่าวในการให้สัมภาษณ์กับ PYMNTS “เหตุผลเดียวที่ OpenAI สามารถทำได้ก็คือการสนับสนุนของ Microsoft และทรัพยากร Azure ที่ทำให้ OpenAI พร้อมใช้งาน โมเดลแบบกว้างๆ เช่น แบบที่ ChatGPT ใช้ประโยชน์จากนั้น ได้นำเข้าความรู้ของมนุษย์ไปเป็นจำนวนมาก และยังคงฝึกฝนเนื้อหาใหม่ๆ ต่อไป ซึ่งทำให้โมเดลเหล่านี้มีความหลากหลายในขอบเขตความเชี่ยวชาญต่างๆ มากมาย”

view original*