Igor Jablokov, Pryon: Building a responsible AI future

ในขณะที่ปัญญาประดิษฐ์ยังคงก้าวหน้าอย่างรวดเร็ว ข้อกังวลด้านจริยธรรมเกี่ยวกับการพัฒนาและการปรับใช้นวัตกรรมที่เปลี่ยนแปลงโลกเหล่านี้จึงได้รับความสนใจมากขึ้น

As artificial intelligence continues to rapidly advance, ethical concerns around the development and deployment of these world-changing innovations are coming into sharper focus.

Igor Jablokov ซีอีโอ Pryon สร้างอนาคต AI ที่มีความรับผิดชอบ

ในขณะที่ปัญญาประดิษฐ์ยังคงก้าวหน้าอย่างรวดเร็ว ข้อกังวลด้านจริยธรรมเกี่ยวกับการพัฒนาและการปรับใช้นวัตกรรมที่เปลี่ยนแปลงโลกเหล่านี้จึงได้รับความสนใจมากขึ้น

ในการให้สัมภาษณ์ก่อนงาน AI & Big Data Expo North America Igor Jablokov ซีอีโอและผู้ก่อตั้งบริษัท AI Pryon ได้กล่าวถึงปัญหาเร่งด่วนเหล่านี้โดยตรง

ความท้าทายด้านจริยธรรมที่สำคัญใน AI

Jablokov กล่าวถึงความท้าทายด้านจริยธรรมที่สำคัญที่สุด เขาสรุปข้อผิดพลาดที่อาจเกิดขึ้นซึ่งต้องได้รับการแก้ไขอย่างระมัดระวัง ตั้งแต่ภาพหลอนของ AI และการปล่อยความเท็จ ไปจนถึงการละเมิดความเป็นส่วนตัวของข้อมูล และการรั่วไหลของทรัพย์สินทางปัญญาจากการฝึกอบรมเกี่ยวกับข้อมูลที่เป็นกรรมสิทธิ์

Jablokov ระบุถึงอคติ และเนื้อหาที่ไม่เหมาะสมในข้อมูลการฝึกอบรม เป็นอีกหนึ่งความกังวลที่สำคัญ ช่องโหว่ด้านความปลอดภัย เช่น embedded agents และ prompt injection attacks เป็นข้อกังวลที่เขาให้ความสำคัญในลำดับต้นๆ เช่นเดียวกับการใช้พลังงานที่มากมาย และผลกระทบต่อสภาพอากาศของโมเดลภาษาขนาดใหญ่

Pryon ย้อนกลับไปในช่วงสองทศวรรษที่แล้ว ก่อนที่ทั่วโลกจะตื่นตัวกับ  AI ยุคใหม่ ก่อนหน้านี้ Jablokov เป็นผู้นำทีม AI ขั้นสูงที่ IBM โดยพวกเขาได้ออกแบบ AI เวอร์ชันดั้งเดิม ที่จะพัฒนาเป็น Watson ในเวลาต่อมา 

ที่ IBM พวกเขาไม่ได้ไฟเขียว ให้ผมได้ทำงานอย่างเต็มที่เลย ฉันจึงตัดสินใจลาออก และก่อตั้งบริษัทขึ้นมา บริษัทดังกล่าวชื่อว่า Pryon ในขณะนั้น ได้กลายเป็นการเข้าซื้อกิจการที่เกี่ยวข้องกับ AI ครั้งแรกของ Amazon โดยกำเนิดสิ่งที่เรียกว่า Alexa ในปัจจุบัน

การเริ่มใหม่ของ Pryon ในปัจจุบัน มีเป้าหมายที่จะเผชิญหน้ากับปัญหาทางจริยธรรมของ AI ผ่านการออกแบบที่มีความรับผิดชอบซึ่งมุ่งเน้นไปที่โครงสร้างพื้นฐานที่สำคัญ และกรณีการใช้งานที่มีความสำคัญสูง “[เราต้องการ] สร้างโครงสร้างพื้นฐานที่มีความสำคัญอย่างยิ่ง” Jablokov อธิบาย

องค์ประกอบสำคัญคือ การเสนอความยืดหยุ่นและการควบคุมสภาพแวดล้อมข้อมูลขององค์กร “เราให้ทางเลือกแก่พวกเขาว่า ไม่ว่าพวกเขาจะใช้แพลตฟอร์มอย่างไร…จากคลาวด์สาธารณะที่มีผู้เช่าหลายราย ไปจนถึงคลาวด์ส่วนตัว ไปจนถึงในองค์กร” Jablokov กล่าว ช่วยให้องค์กรต่างๆ สามารถรักษาความปลอดภัยของข้อมูลที่ละเอียดอ่อนสูง หลังไฟร์วอลล์ของตนเองได้เมื่อจำเป็น

Pryon ยังเน้นย้ำถึง AI ที่อธิบายได้ และการระบุแหล่งที่มาของความรู้ที่ตรวจสอบได้ “เมื่อแพลตฟอร์มของเราเปิดเผยคำตอบ คุณสามารถแตะคำตอบได้ และมันจะไปที่หน้าหลักเสมอและเน้นย้ำอย่างชัดเจนว่าเรียนรู้ข้อมูลจากที่ใด” Jablokov อธิบาย สิ่งนี้ทำให้มนุษย์สามารถตรวจสอบแหล่งที่มาของความรู้ได้

ในบางขอบเขต เช่น พลังงาน การผลิต และการดูแลสุขภาพ Pryon ได้ดำเนินการกำกับดูแลแบบมนุษย์ในวง ก่อนที่คำแนะนำที่สร้างโดย AI จะถูกส่งไปยังผู้ปฏิบัติงานแนวหน้า Jablokov ชี้ให้เห็นตัวอย่างหนึ่งที่ “ผู้บังคับบัญชาสามารถตรวจสอบผลลัพธ์อีกครั้งและให้ตราสัญลักษณ์การอนุมัติ” ก่อนที่ข้อมูลจะไปถึงช่างเทคนิค

สร้างความมั่นใจในการพัฒนา AI อย่างมีความรับผิดชอบ

Jablokov สนับสนุนอย่างแข็งขันสำหรับกรอบการกำกับดูแลใหม่เพื่อให้แน่ใจว่าการพัฒนาและการใช้งาน AI อย่างมีความรับผิดชอบ ในขณะที่ต้อนรับคำสั่งผู้บริหารล่าสุดของทำเนียบขาวเป็นจุดเริ่มต้น เขาได้แสดงความกังวลเกี่ยวกับความเสี่ยงเกี่ยวกับ AI ทั่วไป เช่น ภาพหลอน ข้อมูลการฝึกอบรมแบบคงที่ ช่องโหว่ของข้อมูลรั่วไหล การขาดการควบคุมการเข้าถึง ปัญหาลิขสิทธิ์ และอื่นๆ

Pryon มีส่วนร่วมอย่างแข็งขันในการอภิปรายด้านกฎระเบียบเหล่านี้ “เรากำลังถอยกลับไปสู่ความยุ่งเหยิงของหน่วยงานภาครัฐ” Jablokov กล่าว “เรากำลังมีส่วนร่วมอย่างกระตือรือร้นในแง่ของการมีส่วนร่วมในมุมมองของเราเกี่ยวกับสภาพแวดล้อมด้านกฎระเบียบในขณะที่มันเปิดตัว… เรากำลังแสดงตัวโดยแสดงความเสี่ยงบางประการที่เกี่ยวข้องกับการใช้งาน generative AI”

เกี่ยวกับศักยภาพของ “ความเสี่ยง AI” ที่ไม่สามารถควบคุมได้และมีอยู่จริง – ตามที่ผู้นำ AI บางคนเตือนไว้ – Jablokov พูดเกี่ยวกับแนวทางการควบคุมของ Pryon อย่างกระตือรือล้น “เราทำงานเพื่อระบุแหล่งที่มาที่ตรวจสอบได้เสมอ…แยกออกจากองค์กรของตัวเอง เนื้อหาเพื่อให้พวกเขาเข้าใจว่าวิธีแก้ปัญหามาจากไหน จากนั้นพวกเขาก็ตัดสินใจว่าจะตัดสินใจด้วยหรือไม่”

ซีอีโอพยายามทำให้ภารกิจของ Pryon ต่างจาก AI assistantsI ที่นิยมบางส่วน ได้ก่อให้เกิดความขัดแย้งเกี่ยวกับภาพหลอน และขาดข้อจำกัดด้านจริยธรรม

Jablokov กล่าวว่า “ฉันคิดว่า คงไม่มีใครรู้สึกสบายใจที่ต้องอยู่ในห้องฉุกเฉิน แล้วแพทย์ที่นั่นพิมพ์คำถามลงใน ChatGPT, Bing, และ Bard…”

เขาเน้นย้ำถึงความสำคัญของความเชี่ยวชาญเฉพาะด้านและความฉลาดทางอารมณ์เมื่อพูดถึงการตัดสินใจในโลกแห่งความเป็นจริงที่มีเดิมพันสูง “คุณต้องการใครสักคนที่มีประสบการณ์หลายปีในการรักษาสิ่งที่คล้ายกับอาการป่วยที่คุณกำลังเป็นอยู่ในปัจจุบัน และเดาอะไร? คุณชอบความจริงที่ว่ามีคุณสมบัติทางอารมณ์ที่พวกเขาใส่ใจในการทำให้คุณดีขึ้นเช่นกัน”

ที่งาน AI & Big Data Expo ที่กำลังจะมาถึง Pryon จะเปิดตัวกรณีการใช้งานระดับองค์กรใหม่ โดยจัดแสดงแพลตฟอร์มในอุตสาหกรรมต่างๆ เช่น พลังงาน เซมิคอนดักเตอร์ เภสัชภัณฑ์ และภาครัฐ Jablokov เน้นว่าพวกเขาจะเปิดเผย “วิธีต่างๆ ในการใช้งานแพลตฟอร์ม Pryon” นอกเหนือจากข้อเสนอระดับองค์กรแบบ end-to-end รวมถึงการเข้าถึงระดับล่างสำหรับนักพัฒนา

เนื่องจากขอบเขตของ AI ขยายอย่างรวดเร็วจากแอปพลิเคชันที่แคบไปสู่ความสามารถทั่วไปมากขึ้น การจัดการกับความเสี่ยงด้านจริยธรรมจึงมีความสำคัญมากขึ้นเท่านั้น การมุ่งเน้นอย่างต่อเนื่องของ Pryon ในเรื่องธรรมาภิบาล แหล่งความรู้ที่ตรวจสอบได้ การกำกับดูแลของมนุษย์ และความร่วมมือกับหน่วยงานกำกับดูแล อาจเป็นต้นแบบสำหรับการพัฒนา AI ที่มีความรับผิดชอบมากขึ้นในอุตสาหกรรมต่างๆ

view original *