สตอกโฮล์ม / บรัสเซลส์ / ลอนดอน, 1 ธ.ค. (รอยเตอร์) – ผู้ร่างกฎหมายของสหภาพยุโรปไม่สามารถตกลงเกี่ยวกับวิธีการควบคุมระบบเช่น ChatGPT ซึ่งเป็นภัยคุกคามต่อกฎหมายสำคัญที่มุ่งควบคุมการควบคุมปัญญาประดิษฐ์ (AI) แหล่งข่าวหกแหล่งกล่าวกับรอยเตอร์
STOCKHOLM/BRUSSELS/LONDON, Dec 1 (Reuters) – EU lawmakers cannot agree on how to regulate systems like ChatGPT, in a threat to landmark legislation aimed at keeping artificial intelligence (AI) in check, six sources told Reuters.
Generative AI อุปสรรคในการเจรจากฎหมายของสหภาพยุโรป
สตอกโฮล์ม / บรัสเซลส์ / ลอนดอน, 1 ธ.ค. (รอยเตอร์) – ผู้ร่างกฎหมายของสหภาพยุโรปไม่สามารถตกลงเกี่ยวกับวิธีการควบคุมระบบเช่น ChatGPT ซึ่งเป็นภัยคุกคามต่อกฎหมายสำคัญที่มุ่งควบคุมการควบคุมปัญญาประดิษฐ์ (AI) แหล่งข่าวหกแหล่งกล่าวกับรอยเตอร์
ในขณะที่ผู้เจรจาพบกันในวันศุกร์เพื่อหารือที่สำคัญก่อนการเจรจาขั้นสุดท้ายที่กำหนดไว้ในวันที่ 6 ธันวาคม ‘แบบจำลองพื้นฐาน’ หรือ AI กำเนิดได้กลายเป็นอุปสรรคหลักในการเจรจาเกี่ยวกับกฎหมาย AI ที่เสนอของสหภาพยุโรป แหล่งข่าวกล่าว ซึ่งปฏิเสธที่จะเป็น ระบุเนื่องจากการสนทนาเป็นความลับ
โมเดลพื้นฐานเช่นเดียวกับที่สร้างโดย OpenAI ที่สนับสนุนโดย Microsoft คือระบบ AI ที่ได้รับการฝึกอบรมเกี่ยวกับชุดข้อมูลขนาดใหญ่ โดยมีความสามารถในการเรียนรู้จากข้อมูลใหม่เพื่อทำงานต่างๆ
หลังจากการเจรจานาน 2 ปี ร่างกฎหมายดังกล่าวได้รับการอนุมัติจากรัฐสภายุโรปในเดือนมิถุนายน ร่างกฎ AI จำเป็นต้องได้รับความเห็นชอบผ่านการประชุมระหว่างตัวแทนของรัฐสภายุโรป สภา และคณะกรรมาธิการยุโรป
ผู้เชี่ยวชาญจากประเทศในสหภาพยุโรปจะพบกันในวันศุกร์เพื่อยุติจุดยืนของตนเกี่ยวกับโมเดลพื้นฐาน การเข้าถึงซอร์สโค้ด ค่าปรับ และหัวข้ออื่นๆ ในขณะที่ผู้ร่างกฎหมายจากรัฐสภายุโรปกำลังรวมตัวกันเพื่อสรุปจุดยืนของพวกเขา
หากไม่สามารถตกลงกันได้ การกระทำดังกล่าวอาจเสี่ยงที่จะถูกระงับเนื่องจากไม่มีเวลาก่อนการเลือกตั้งรัฐสภายุโรปในปีหน้า
ในขณะที่ผู้เชี่ยวชาญและผู้ร่างกฎหมายบางคนได้เสนอแนวทางแบบลำดับชั้นในการควบคุมโมเดลพื้นฐาน ซึ่งกำหนดไว้เป็นโมเดลที่มีผู้ใช้มากกว่า 45 ล้านคน แต่คนอื่นๆ ก็กล่าวว่าโมเดลขนาดเล็กอาจมีความเสี่ยงพอๆ กัน
แต่ความท้าทายที่ใหญ่ที่สุดในการบรรลุข้อตกลงมาจากฝรั่งเศส เยอรมนี และอิตาลี ซึ่งชอบปล่อยให้ผู้สร้างโมเดล generativeAI ควบคุมตนเอง แทนที่จะมีกฎเกณฑ์ที่เข้มงวด
ในการประชุมรัฐมนตรีเศรษฐกิจของประเทศต่างๆ เมื่อวันที่ 30 ต.ค. ที่กรุงโรม ฝรั่งเศสได้ชักชวนอิตาลีและเยอรมนีให้สนับสนุนข้อเสนอดังกล่าว แหล่งข่าวบอกกับรอยเตอร์
ก่อนหน้านั้น การเจรจาดำเนินไปอย่างราบรื่น โดยฝ่ายนิติบัญญัติประนีประนอมในพื้นที่ความขัดแย้งอื่นๆ หลายประการ เช่น การควบคุม AI ที่มีความเสี่ยงสูง แหล่งข่าวกล่าว
การควบคุมตนเอง?
สมาชิกรัฐสภายุโรป, Thierry Breton กรรมาธิการสหภาพยุโรป และนักวิจัย AI จำนวนมากได้วิพากษ์วิจารณ์การควบคุมตนเอง
ในจดหมายเปิดผนึกในสัปดาห์นี้ นักวิจัยเช่น เจฟฟรีย์ ฮินตัน เตือนว่าการควบคุมตนเอง “มีแนวโน้มที่จะขาดมาตรฐานที่จำเป็นสำหรับความปลอดภัยของแบบจำลองฐานรากอย่างมาก”
Mistral บริษัท AI ในฝรั่งเศส และ Aleph Alpha ของเยอรมนี วิพากษ์วิจารณ์แนวทางลำดับชั้นในการควบคุมโมเดลพื้นฐาน โดยได้รับการสนับสนุนจากประเทศของตน
แหล่งข่าวใกล้ชิดกับ Mistral กล่าวว่าบริษัทให้ความสำคัญกับกฎเกณฑ์ที่เข้มงวดสำหรับผลิตภัณฑ์ ไม่ใช่เทคโนโลยีที่ใช้ในการผลิต
“แม้ว่าผู้มีส่วนได้ส่วนเสียที่เกี่ยวข้องกำลังทำงานอย่างเต็มที่เพื่อให้การเจรจาเป็นไปตามแผน แต่ความไม่แน่นอนทางกฎหมายที่เพิ่มขึ้นนั้นไม่เป็นประโยชน์ต่ออุตสาหกรรมในยุโรป” Kirsten Rulf หุ้นส่วนและรองผู้อำนวยการของ Boston Consulting Group กล่าว
“ธุรกิจในยุโรปต้องการวางแผนสำหรับปีหน้า และหลายคนต้องการเห็นความแน่นอนบางประการเกี่ยวกับกฎหมาย AI ของสหภาพยุโรปที่จะเข้าสู่ปี 2024” เธอกล่าวเสริม
ปัญหาอื่นๆ ที่รอดำเนินการในการเจรจา ได้แก่ คำจำกัดความของ AI การประเมินผลกระทบด้านสิทธิขั้นพื้นฐาน ข้อยกเว้นด้านการบังคับใช้กฎหมาย และข้อยกเว้นด้านความมั่นคงของชาติ แหล่งข่าวกล่าวกับรอยเตอร์
ผู้ร่างกฎหมายยังถูกแบ่งแยกเกี่ยวกับการใช้ระบบ AI โดยหน่วยงานบังคับใช้กฎหมายเพื่อระบุตัวตนด้วยไบโอเมตริกซ์ของบุคคลในพื้นที่ที่เข้าถึงได้สาธารณะ และไม่สามารถตกลงกันในหลายหัวข้อเหล่านี้ในการประชุมเมื่อวันที่ 29 พ.ย. แหล่งข่าวกล่าว
สเปนซึ่งดำรงตำแหน่งประธานสหภาพยุโรปจนถึงสิ้นปี ได้เสนอการประนีประนอมเพื่อเร่งกระบวนการให้เร็วขึ้น
หากข้อตกลงไม่เกิดขึ้นในเดือนธันวาคม ตำแหน่งประธานาธิบดีคนต่อไปของเบลเยียมจะมีเวลาอีกสองสามเดือนก่อนที่ข้อตกลงดังกล่าวจะถูกยกเลิกก่อนการเลือกตั้งในยุโรป
“ถ้าคุณถามฉันเมื่อหกหรือเจ็ดสัปดาห์ก่อน ฉันคงจะบอกว่าเราเห็นการประนีประนอมเกิดขึ้นในประเด็นสำคัญทั้งหมด” มาร์ค เบรกเคิล ผู้อำนวยการฝ่ายนโยบายของ Future of Life Institute ซึ่งเป็นองค์กรไม่แสวงผลกำไรที่มุ่งลดความเสี่ยงจาก AI ขั้นสูง กล่าว
“ตอนนี้มันยากขึ้นมาก” เขากล่าว