ChatGPT’s artificial intelligence can produce artificial truth

สำหรับ ChatGPT ความสำเร็จคือการตอบสนองต่อคำขอของผู้ใช้ ไม่ใช่ความแม่นยำ

For ChatGPT, success is producing responses to the user’s request – not accuracy

ปัญญาประดิษฐ์ของ ChatGPT สามารถสร้างความจริงเทียมได้

ChatGPT กำลังถูกขนานนามว่าเป็น AI ที่ทรงพลังของนิยายวิทยาศาสตร์ โดยมีศักยภาพในการจุดไฟความไม่ซื่อสัตย์ทางวิชาการ ทำให้งานล้าสมัย และทำให้อคติทางการเมืองคงอยู่ต่อไป
ไม่น่าแปลกใจเลยที่รัฐบาลกำลังใช้มาตรการที่รุนแรงและรุนแรงเพื่อต่อสู้กับปัญหา AI ที่รับรู้นี้
การแบน ChatGPT ของอิตาลีเมื่อเร็วๆ นี้ทำให้หลายประเทศ เช่น ฝรั่งเศส ไอร์แลนด์ เยอรมนี และแคนาดา พิจารณานโยบายที่คล้ายคลึงกันที่ปิดกั้นโปรแกรมปัญญาประดิษฐ์ยอดนิยมของ OpenAI ตามที่หน่วยงานคุ้มครองข้อมูลของอิตาลี ChatGPT ไม่มี “พื้นฐานทางกฎหมายใด ๆ ที่พิสูจน์ถึงการรวบรวมและจัดเก็บข้อมูลส่วนบุคคลจำนวนมหาศาล” หน่วยงานให้เวลาบริษัท 20 วันในการตอบสนองต่อการเปลี่ยนแปลงหรือเผชิญกับค่าปรับจำนวนมากหลายล้านดอลลาร์ ในขณะเดียวกัน Elon Musk และผู้นำในอุตสาหกรรมต่างเรียกร้องให้ “AI หยุดชั่วคราว”

โลโก้ ChatGPT บนคอมพิวเตอร์แล็ปท็อปที่จัดใน Brooklyn เมื่อวันที่ 9 มีนาคม 2023 (Gabby Jones/Bloomberg ผ่าน Getty Images)

ยังเร็วเกินไปที่จะตัดสินว่า ChatGPT จะเป็นไปตามคำกล่าวอ้างเหล่านี้จริงหรือไม่ เนื่องจากผลกระทบระยะยาวยังไม่ชัดเจน ปฏิกิริยากระตุกเข่า เช่น การห้ามระดับชาติจึงก่อให้เกิดประโยชน์ต่อสังคมเพียงเล็กน้อย รัฐบาลของเราควรมุ่งเน้นไปที่การลดอันตรายของแชทบอทในทันที เช่น ข้อมูลที่ผิดและการใส่ร้าย

ใช่ AI เป็นภัยคุกคามทางไซเบอร์ ‘นิวเคลียร์’ นั่นเป็นเหตุผลที่บริษัทต่างๆ ต้องกล้าทำเช่นนี้
Chatbots ได้รับการฝึกฝนเกี่ยวกับโมเดลภาษาขนาดใหญ่ เช่น GPT-4 ของ OpenAI, Bard ของ Google และ Bing Chat ของ Microsoft อยู่ภายใต้ร่มขนาดใหญ่ของ generative AI ซึ่งใช้ระบบการเรียนรู้ของเครื่องเพื่อสร้างวิดีโอ เสียง รูปภาพ ข้อความ และสื่อรูปแบบอื่นๆ ในขณะที่หน่วยงานกำกับดูแลของสหรัฐฯ ต้องต่อสู้กับคำถามที่เกี่ยวข้องกับความลำเอียงของอัลกอริทึม ซึ่งมักจะอยู่ในบริบทของระบบการตัดสินใจที่ช่วยในการจ้างงานและให้กู้ยืม แต่ Generative AI กลับก่อให้เกิดคำถามและความท้าทายใหม่ๆ มากมาย

Dall-E 2 พบบนมือถือด้วยสมอง AI เมื่อวันที่ 22 มกราคม 2023 ในกรุงบรัสเซลส์ ประเทศเบลเยียม (โจนาธาน รา/NurPhoto ผ่าน Getty Images)

ตัวอย่างเช่น Dall-E สามารถสร้างภาพและงานศิลปะที่สมจริงตามคำแนะนำของผู้ใช้ ในฐานะโมเดลแมชชีนเลิร์นนิง Dall-E สร้างเนื้อหาใหม่โดย “เรียนรู้” จากข้อมูลจำนวนมาก ในบางครั้งโดยการจัดงานศิลปะและภาพมนุษย์ให้เหมาะสม อิตาลีกำลังพุ่งเป้าไปที่ข้อกังวลด้านความเป็นส่วนตัวนี้ แต่ท้ายที่สุดแล้ว ข้อห้ามใดๆ ก็ตามจะสันนิษฐานว่าปัญหาเกี่ยวกับเทคโนโลยีที่เกิดขึ้นใหม่และกำลังพัฒนาก่อนที่จะมีการกำหนดไว้อย่างสมบูรณ์ ประสิทธิผลของนโยบายขึ้นอยู่กับขอบเขตที่สมมติฐานเหล่านี้ถูกต้อง

ข้อห้ามระดับชาติละเลยที่จะคำนึงถึงการใช้งานในเชิงบวก เช่น การเพิ่มประสิทธิภาพและผลผลิตโดยทำให้งานที่น่าเบื่อง่ายขึ้น ผู้เชี่ยวชาญด้านสุขภาพคาดการณ์ว่า Generative AI สามารถใช้เพื่อวัตถุประสงค์ในการบริหารและปรับปรุง

ประสบการณ์ของผู้ป่วยได้ หากการห้ามดำเนินการสำเร็จ อิตาลีและประเทศอื่นๆ ที่ปฏิบัติตามจะกีดกันผู้ใช้จากการใช้โปรแกรมยอดนิยมและกีดกันนักวิจัยในประเทศจากการพัฒนาระบบ Generative AI สิ่งสำคัญคือต้องสังเกตว่าข้อจำกัดส่งผลกระทบต่อพลเมืองที่ปฏิบัติตามกฎหมาย ไม่ใช่ผู้ไม่ประสงค์ดีที่ใช้เทคโนโลยีเพื่อจุดประสงค์ที่เลวร้ายกว่า เช่น การหลอกลวงและการฉ้อฉล

ผู้ร่างกฎหมายในยุโรปมองหาผลกระทบที่เป็นอันตรายของ AI

แม้ว่าการแบนอาจไม่ใช่วิธีแก้ปัญหาสำหรับการจัดการกับเทคโนโลยีที่เพิ่งเกิดขึ้นใหม่ แต่กฎระเบียบที่สมเหตุสมผลและตรงเป้าหมายสามารถแก้ไขอันตรายในปัจจุบันได้ เกี่ยวกับ ChatGPT มีความไม่เท่าเทียมกันอย่างมากระหว่างการรับรู้ของสาธารณชนเกี่ยวกับแชทบอทกับความสามารถและความแม่นยำที่แท้จริง “การเรียนรู้” คล้ายกับการเลียนแบบและล้อเลียนมากกว่าความเข้าใจที่แท้จริง แม้ว่าโปรแกรมมีแนวโน้มที่จะสร้างการตอบสนองที่ดูเหมือนมนุษย์ แต่ก็ขาดความลึกซึ้งและที่แย่ที่สุดก็คือเป็นข้อเท็จจริงที่สร้างขึ้น แม้จะมีข้อบกพร่องเหล่านี้ แต่ผู้ใช้จำนวนมากไม่ได้ตรวจสอบความถูกต้องของการตอบกลับของ ChatGPT และถือว่าพวกเขาเป็นความจริงที่มาจากข้อมูลแทน

พิจารณาคำแนะนำง่ายๆ ที่ฉันให้ ChatGPT: คำพูดจากฝ่ายนิติบัญญัติเกี่ยวกับ AI มันดำเนินรายการการอ้างอิงที่น่าเชื่อถือ แต่ประดิษฐ์ขึ้นทั้งหมด ลิงก์ทั้งหมดเสียหรือไม่ถูกต้อง ในทำนองเดียวกัน SCOTUSblog ซึ่งเป็นเว็บไซต์วิเคราะห์กฎหมาย ได้ถามคำถาม ChatGPT 50 เกี่ยวกับศาลฎีกา และพบว่าโปรแกรมนี้ไม่ถูกต้องหรือทำให้เข้าใจผิดในคำตอบส่วนใหญ่ สำหรับแชทบอท ความสำเร็จคือการคาดเดาและสร้างการตอบสนองที่เหมาะสมต่อคำขอของผู้ใช้ ไม่ใช่ความแม่นยำ

ข้อมูลที่ไม่ถูกต้องอาจส่งผลร้ายแรงเมื่อเดิมพันสูง เช่น การหมิ่นประมาทซึ่งมีผลทางกฎหมายแม้ว่าจะยังไม่ชัดเจนว่าใครจะต้องรับผิดชอบต่อผู้พูด AI ในออสเตรเลีย นายกเทศมนตรีคนหนึ่งที่ถูก ChatGPT กล่าวหาว่าติดสินบนอย่างไม่ถูกต้องกำลังพิจารณาฟ้องร้อง OpenAI ซึ่งจะเป็นคดีหมิ่นประมาทแชทบอทคดีแรก

ฝ่ายนิติบัญญัติในสหรัฐอเมริกาและทั่วโลกควรประเมินว่าระบบ AI ที่เกิดขึ้นใหม่นั้นเชื่อมโยงกับกฎหมายอย่างไร การห้ามกวาดล้างจะช่วยอธิบายความคาดหวังทางกฎหมายที่คลุมเครือเหล่านี้ได้เพียงเล็กน้อย แต่ก็จะขัดขวางการพัฒนาโปรแกรมที่คนนับล้านพบว่ามีประโยชน์

view original *