มีทนายความเพียงไม่กี่คนที่ใช้ AI เขียนคำแถลงการณ์ต่อศาล แต่ก็มีคนทำไปแล้ว และผู้พิพากษา Brantley Starr กำลังดำเนินการเพื่อให้แน่ใจว่าเหตุการณ์แบบนี้จะไม่เกิดขึ้นซ้ำในห้องพิจารณาคดีของเขา
Few lawyers would be foolish enough to let an AI make their arguments, but one already did, and Judge Brantley Starr is taking steps to ensure that debacle isn’t repeated in his courtroom.
ไม่อนุญาต ChatGPT ในศาลของฉัน
ผู้พิพากษาของรัฐบาลกลางเท็กซัสได้เพิ่มข้อกำหนดว่าทนายความคนใดก็ตามที่ปรากฏตัวในศาลของเขาจะต้องยืนยันว่า “ไม่มีส่วนใดของเอกสารที่ถูกร่างขึ้นโดย Generative AI ” หรือหากเป็นเช่นนั้น ต้องมีการตรวจสอบ “โดยมนุษย์”
เมื่อสัปดาห์ที่แล้ว Steven Schwartz ทนายความได้ใช้ ChatGPT “เขียนส่วนเพิ่มเติมภาคผนวก” ในเอกสารงานวิจัยทางกฎหมายของเขา ในหัวข้องานวิจัยเกี่ยวกับการยื่นฟ้องของรัฐบาลกลางเมื่อเร็วๆ นี้ โดยอ้างอิงคดี 6 คดี เป็นเอกสารที่เกี่ยวข้อง ซึ่งคดีทั้งหมดล้วนไม่มีจริง นั่นคือ AI หลอน (hallucinated) ที่เป็นปัญหาของโมเดล large language model ตอนนี้เขา “เสียใจอย่างยิ่ง” ที่ทำเช่นนี้ และมีรายงานข่าวทั่วประเทศเกี่ยวกับการกระทำที่ไม่เหมาะสมนี้ อาจทำให้นักกฎหมายคนอื่น ๆ คิดที่จะลองคิดใหม่อีกครั้ง ผู้พิพากษา Starr จึงไม่อนุญาตให้เกิดเหตุการณ์เช่นนี้อีกต่อไป
รัฐบาลกลางในเขต Northern District ของเท็กซัส เป็นสิทธิ์ของผู้พิพากษา Starr และผู้พิพากษาคนอื่น ๆ ในการกำหนดกฎเกณฑ์เฉพาะสำหรับห้องพิจารณาคดีของเขา และเมื่อเร็ว ๆ นี้ กำหนดว่าต้องมีใบรับรอง “Mandatory Certification Regarding Generative Artificial Intelligence.” Eugene Volokh รายงาน
ทนายความทุกคนที่ปรากฎตัวต่อหน้าศาลจะต้องยื่นคำร้องในใบรับรองที่ยืนยันว่าไม่มีส่วนใดของเอกสารที่ร่างขึ้นโดย Generative AI (เช่น ChatGPT, Harvey.AI หรือ Google Bard) หรือภาษาใดๆ ที่ร่างขึ้นโดย Generative AI ได้รับการตรวจสอบความถูกต้องโดยใช้เอกสารอ้างอิง หรือฐานข้อมูลทางกฎหมายแบบดั้งเดิมโดยมนุษย์
จะมีแบบฟอร์มต่อท้ายให้นักกฎหมายลงนาม โดยระบุว่า “การอ้างคำพูด การอ้างอิง การถอดความยืนยัน และการวิเคราะห์ทางกฎหมาย” ล้วนอยู่ในข้อกำหนดนี้ คือการตรวจรับรองโดยนักกฎหมายที่มีความรับผิดชอบ เนื่องจาก Generative AI มักให้ข้อสรุปที่ดูน่าเชื่อถือ เหมือนมีการค้นหาและสรุปกรณีตัวอย่างหรือก่อนหน้านี้ ดูว่าอาจเป็นประโยชน์ในงานด้านกฎหมาย แต่จบลงด้วยการหลอน ให้ข้อมูลที่ไม่จริง
ใครก็ตามที่ร่างบันทึกข้อตกลงเกี่ยวกับเรื่องนี้ที่สำนักงานผู้พิพากษา Starr ต้องตระหนักถึงความรับผิดชอบ ข้อกำหนดในใบรับรองประกอบด้วยคำอธิบายเกี่ยวกับความจำเป็นที่ต้องรับผิดชอบความถูกต้อง
แพลตฟอร์ม AI เหล่านี้ มีประสิทธิภาพอย่างไม่น่าเชื่อ และมีประโยชน์มากมายในกฎหมาย ในงานเช่น แบบฟอร์มการหย่าร้าง ฯลฯ แต่ไม่ใช่ข้อสรุปทางกฎหมาย ที่พบข้อผิดพลาดที่แนะนำ การอ้างอิงข้อกฎหมาย และเอกสารอ้างอิงต่างๆ ที่ไม่มีอยู่จริง
แพลตฟอร์ม AI เหล่านี้ในสถานะปัจจุบันมีแนวโน้มที่จะเกิดภาพหลอนและมีอคติ ในภาพหลอน พวกเขาสร้างสิ่งต่างๆ ขึ้นมา แม้กระทั่งคำพูดและการอ้างอิง อีกประเด็นคือความน่าเชื่อถือหรืออคติ ในขณะที่ทนายความให้คำสาบานที่จะละทิ้งอคติ ความลำเอียง และความเชื่อส่วนบุคคลของตนที่จะรักษากฎหมายอย่างซื่อสัตย์และเป็นตัวแทนของลูกค้าของตน Generative AI เป็นผลิตภัณฑ์ของการเขียนโปรแกรมที่คิดค้นขึ้นโดยมนุษย์ซึ่งไม่จำเป็นต้องสาบานเช่นนั้น
ด้วยเหตุนี้ ระบบเหล่านี้จึงไม่มีคุณสมบัติใดๆ ที่นักกฎหมายยึดถือ หลักนิติธรรม หรือกฎหมายและรัฐธรรมนูญของสหรัฐอเมริกา (หรือแม้แต่ การยึดถือความจริง ความถูกต้อง ตามที่ระบุไว้ข้างต้น) ไม่ถูกผูกมัดด้วยสำนึกในหน้าที่ เกียรติยศ หรือความยุติธรรม โปรแกรมดังกล่าวทำงานตามรหัสคอมพิวเตอร์มากกว่าความเชื่อมั่น โดยยึดตามการเขียนโปรแกรมมากกว่าหลักการ ใครก็ตามที่เชื่อว่าแพลตฟอร์มมีความแม่นยำและความน่าเชื่อถือที่จำเป็นในทางกฎหมาย คุณเข้าใจผิด
แม้ว่านี่จะเป็นเพียงผู้พิพากษาคนหนึ่ง ในศาลเดียว ก็ไม่น่าแปลกใจหากคนในกระบวนการยุติธรรมอื่นจะยึดถือเป็นแนวทางปฏิบัติในอนาคต ในขณะที่ศาลกล่าวว่านี่เป็นเทคโนโลยีที่ทรงพลังและอาจเป็นประโยชน์ แต่อย่างน้อยที่สุดการใช้งานจะต้องมีนักกฎหมายที่มีคุณสมบัติ มีความรับผิดชอบ รับรอง และตรวจสอบความถูกต้อง