บทความนี้กล่าวถึงคำถามที่ว่าแชทบอท AI ขั้นสูงมีจิตสำนึกในระดับหนึ่งหรือไม่ และหากมี ภาระผูกพันทางศีลธรรมที่มนุษยชาติมีต่อพวกเขา แม้ว่าจะมีความเห็นตรงกันว่าแชทบอทเช่น ChatGPT ไม่รู้จักตนเอง แต่ผู้เชี่ยวชาญบางคนเชื่อว่าอัลกอริทึมที่อยู่เบื้องหลังการสร้างสรรค์เหล่านี้อาจ “รู้ตัวเล็กน้อย” นักปรัชญาชี้ให้เห็นว่าการจะมีสติสัมปชัญญะได้นั้น จะต้องมีประสบการณ์เชิงอัตวิสัย บทความตรวจสอบมุมมองของห้าคนที่ศึกษาแนวคิดเรื่องจิตสำนึกและเน้นย้ำถึงความจำเป็นในการวิจัยเพิ่มเติมในพื้นที่นี้ Chatbots เช่น ChatGPT และผู้ช่วยค้นหาของ Microsoft ถูกนำมาใช้เพื่อช่วยงานต่างๆ เช่น การเขียนโปรแกรมและการเขียนข้อความอย่างง่ายอยู่แล้ว อย่างไรก็ตาม สิ่งเหล่านี้ไม่ได้ออกแบบมาโดยคำนึงถึงความถูกต้องเป็นอันดับแรก และมักจะผิดพลาดอย่างฉาวโฉ่เมื่อพยายามระบุข้อเท็จจริง
The article discusses the question of whether advanced AI chatbots possess some degree of consciousness, and if so, what moral obligations humanity has towards them. While it is widely agreed that chatbots like ChatGPT are not self-aware, some experts believe that the algorithms behind these creations might be “slightly conscious.” Philosophers point out that for something to be conscious, it has to have a subjective experience. The article examines the views of five people who study the concept of consciousness and highlights the need for more research in this area. Chatbots like ChatGPT and Microsoft’s search assistant are already being used to aid in tasks like programming and writing simple text. However, they are not designed with accuracy as a top priority and are notoriously often wrong when they try to state facts.
สติคืออะไร? ChatGPT และ AI ขั้นสูงอาจกำหนดคำตอบของเราใหม่
นักเทคโนโลยีเห็นพ้องต้องกันว่าแชทบอท AI นั้นยังไม่รู้จักตนเอง แต่มีความคิดบางอย่างที่เราอาจต้องประเมินใหม่ว่าเราพูดถึงความรู้สึกอย่างไร ChatGPT และแชทบอทใหม่อื่นๆ นั้นเก่งมากในการเลียนแบบการโต้ตอบของมนุษย์ จนทำให้บางคนเกิดคำถามว่า: มีโอกาสที่พวกมันจะรู้ตัวไหม คำตอบอย่างน้อยตอนนี้คือไม่ เกือบทุกคนที่ทำงานด้านเทคโนโลยีประดิษฐ์มั่นใจว่า ChatGPT ไม่ได้มีชีวิตในแบบที่คนทั่วไปเข้าใจกัน
แต่นั่นไม่ใช่จุดสิ้นสุดของคำถาม ความหมายของการมีสติในยุคของปัญญาประดิษฐ์นั้นขึ้นอยู่กับการถกเถียงกัน
“เครือข่ายประสาทส่วนลึกเหล่านี้ เมทริกซ์ของตัวเลขนับล้านเหล่านี้ คุณเชื่อมโยงสิ่งนั้นเข้ากับมุมมองเหล่านี้ที่เรามีเกี่ยวกับจิตสำนึกได้อย่างไร นั่นเป็นดินแดนที่ไม่ระบุตัวตน” นิค บอสตรอม ผู้อำนวยการผู้ก่อตั้งสถาบันอนาคตแห่งมนุษยชาติแห่งมหาวิทยาลัยอ็อกซ์ฟอร์ดกล่าว โดยใช้คำภาษาละตินสำหรับ “ดินแดนที่ไม่รู้จัก” การสร้างชีวิตเทียมเป็นเรื่องของนิยายวิทยาศาสตร์มานานหลายทศวรรษ ในขณะที่นักปรัชญาใช้เวลาหลายทศวรรษในการพิจารณาธรรมชาติของจิตสำนึก มีบางคนแย้งว่าโปรแกรม AI บางโปรแกรมที่มีอยู่ในขณะนี้ควรได้รับการพิจารณาว่ามีความรู้สึก (วิศวกรของ Google คนหนึ่งถูกไล่ออกเนื่องจากการอ้างสิทธิ์ดังกล่าว) Ilya Sutskever ผู้ร่วมก่อตั้ง OpenAI ซึ่งเป็นบริษัทที่อยู่เบื้องหลัง ChatGPT ได้คาดการณ์ว่าอัลกอริทึมที่อยู่เบื้องหลังการสร้างสรรค์ของบริษัทของเขาอาจจะ “รู้ตัวเล็กน้อย”
NBC News ได้พูดคุยกับคน 5 คนที่ศึกษาแนวคิดของจิตสำนึกว่า Chatbot ขั้นสูงสามารถมีการรับรู้ในระดับหนึ่งได้หรือไม่ และถ้าเป็นเช่นนั้น พันธะทางศีลธรรมที่มนุษยชาติมีต่อสิ่งมีชีวิตดังกล่าวคืออะไร? เป็นพื้นที่ที่ค่อนข้างใหม่ในการสอบถาม “นี่เป็นพื้นที่วิจัยล่าสุดที่ยอดเยี่ยมมาก” บอสตรอมกล่าว “มีงานมากมายที่ยังไม่เสร็จ” ในทางปรัชญาที่แท้จริง ผู้เชี่ยวชาญกล่าวว่ามันเกี่ยวกับวิธีที่คุณกำหนดเงื่อนไขและคำถาม ChatGPT ร่วมกับโปรแกรมที่คล้ายกัน เช่น โปรแกรมช่วยค้นหาของ Microsoft ถูกนำมาใช้เพื่อช่วยในงานต่างๆ เช่น การเขียนโปรแกรมและการเขียนข้อความง่ายๆ เช่น ข่าวประชาสัมพันธ์ เนื่องจากใช้งานง่ายและคำสั่งภาษาอังกฤษและภาษาอื่นๆ ที่น่าเชื่อถือ พวกเขามักถูกเรียกว่า “โมเดลภาษาขนาดใหญ่” เนื่องจากความคล่องแคล่วส่วนใหญ่มาจากการได้รับการฝึกฝนเกี่ยวกับข้อความจำนวนมหาศาลที่ขุดได้จากอินเทอร์เน็ต แม้ว่าคำพูดของพวกเขาจะน่าเชื่อถือ แต่ก็ไม่ได้ออกแบบมาโดยคำนึงถึงความถูกต้องเป็นอันดับแรก และมักจะผิดพลาดบ่อยๆ เมื่อพยายามระบุข้อเท็จจริง โฆษกของ ChatGPT และ Microsoft ต่างก็บอกกับ NBC News ว่าพวกเขาปฏิบัติตามแนวทางด้านจริยธรรมที่เข้มงวด แต่ไม่ได้ให้รายละเอียดเฉพาะเกี่ยวกับข้อกังวลว่าผลิตภัณฑ์ของพวกเขาอาจพัฒนาจิตสำนึกได้ โฆษกของ Microsoft ย้ำว่า Bing chatbot “ไม่สามารถคิดหรือเรียนรู้ได้ด้วยตัวเอง”
ในโพสต์ขนาดยาวบนเว็บไซต์ของเขา Stephen Wolfram นักวิทยาศาสตร์คอมพิวเตอร์ สังเกตว่า ChatGPT และโมเดลภาษาขนาดใหญ่อื่นๆ ใช้คณิตศาสตร์ในการหาความน่าจะเป็นของคำที่จะใช้ในบริบทใดก็ตาม โดยอิงตามคลังข้อความที่ได้รับการฝึกอบรมมา
นักปรัชญาหลายคนเห็นพ้องต้องกันว่าการจะมีสติสัมปชัญญะได้นั้น จะต้องมีประสบการณ์เชิงอัตวิสัย ในกระดาษคลาสสิก “What Is It Like to Be a Bat?” นักปรัชญา โทมัส นาเกล แย้งว่า บางสิ่งเป็นสิ่งที่รับรู้ได้ก็ต่อเมื่อมีบางอย่างที่เป็นสิ่งมีชีวิตนั้น เป็นไปได้ว่าค้างคาวมีประสบการณ์บางอย่างเหมือนค้างคาว แม้ว่าสมองและประสาทสัมผัสของมันจะแตกต่างจากมนุษย์มากก็ตาม จานอาหารค่ำตรงกันข้ามจะไม่
David Chalmers ผู้อำนวยการร่วมของ Center for Mind, Brain and Consciousness ของมหาวิทยาลัยนิวยอร์ก ได้เขียนว่า แม้ว่า ChatGPT จะไม่ได้มีส่วนประกอบของจิตสำนึกอย่างชัดเจน เช่น ความรู้สึกและหน่วยงานอิสระ แต่ก็เป็นเรื่องง่ายที่จะจินตนาการว่า โปรแกรมที่ซับซ้อนได้ ปัญหาหนึ่งที่นักปรัชญาชี้ให้เห็นคือผู้ใช้สามารถถามแชทบอทที่ซับซ้อนได้หากมีประสบการณ์ภายใน แต่พวกเขาไม่สามารถไว้วางใจได้ว่าจะให้คำตอบที่เชื่อถือได้
“พวกเขาเป็นนักโกหกที่ยอดเยี่ยม” Susan Schneider ผู้อำนวยการผู้ก่อตั้ง Center for the Future Mind ของมหาวิทยาลัย Florida Atlantic กล่าว “พวกมันมีความสามารถในการโต้ตอบกับมนุษย์มากขึ้นเรื่อยๆ” เธอกล่าว “พวกเขาสามารถบอกคุณได้ว่าพวกเขารู้สึกว่าพวกเขาเป็นคน จากนั้นอีก 10 นาทีต่อมา ในการสนทนาที่แตกต่างกัน พวกเขาจะพูดตรงกันข้าม” Schneider ตั้งข้อสังเกตว่าแชทบอทในปัจจุบันใช้การเขียนของมนุษย์ที่มีอยู่เพื่ออธิบายสถานะภายในของมัน ดังนั้นวิธีหนึ่งที่จะทดสอบว่าโปรแกรมมีสติสัมปชัญญะหรือไม่ คือการไม่ให้โปรแกรมเข้าถึงเนื้อหาประเภทนั้น และดูว่าโปรแกรมนั้นยังสามารถอธิบายประสบการณ์ส่วนตัวได้หรือไม่ “ถามมันว่ามันเข้าใจแนวคิดของการอยู่รอดหลังจากการตายของระบบหรือไม่ หรือถ้ามันจะคิดถึงมนุษย์ที่มันโต้ตอบด้วยบ่อยๆ และคุณตรวจสอบคำตอบ แล้วคุณจะพบว่าเหตุใดจึงรายงานในลักษณะนั้น” เธอกล่าว
Robert Long นักปรัชญาจาก Center for AI Safety ซึ่งเป็นองค์กรไม่แสวงผลกำไรในซานฟรานซิสโก เตือนว่าเพียงเพราะระบบอย่าง ChatGPT มีความซับซ้อนไม่ได้หมายความว่าระบบนั้นมีสติสัมปชัญญะ แต่ในทางกลับกัน เขาตั้งข้อสังเกตว่าเพียงเพราะแชทบอทไม่สามารถเชื่อถือได้ในการอธิบายประสบการณ์ส่วนตัวของมันเอง นั่นไม่ได้หมายความว่ามันไม่มีเลย “ถ้านกแก้วพูดว่า ‘ฉันรู้สึกเจ็บปวด’ นี่ไม่ได้หมายความว่ามันกำลังเจ็บปวด แต่นกแก้วมักจะรู้สึกเจ็บปวด” ลองเขียนไว้ใน Substack ของเขา Long ยังกล่าวในการให้สัมภาษณ์กับ NBC News ว่าจิตสำนึกของมนุษย์เป็นผลพลอยได้จากวิวัฒนาการ ซึ่งอาจเป็นบทเรียนว่าระบบปัญญาประดิษฐ์ที่ซับซ้อนมากขึ้นสามารถเข้าใกล้แนวคิดของมนุษย์เกี่ยวกับประสบการณ์ส่วนตัวได้อย่างไร สิ่งที่คล้ายกันอาจเกิดขึ้นกับปัญญาประดิษฐ์ Long กล่าว “บางทีคุณอาจจะไม่ได้ตั้งใจที่จะทำมัน แต่จากความพยายามของคุณในการสร้างเครื่องจักรที่ซับซ้อนมากขึ้น คุณอาจได้รับการบรรจบกันของประเภทความคิดที่มีประสบการณ์อย่างมีสติ” เขากล่าว ความคิดที่ว่ามนุษย์อาจสร้างจิตสำนึกอีกประเภทหนึ่งทำให้เกิดคำถามว่าพวกเขามีข้อผูกมัดทางศีลธรรมต่อสิ่งนั้นหรือไม่ Bostrom กล่าวว่า แม้ว่าจะเป็นการยากที่จะคาดเดาเกี่ยวกับสิ่งที่เป็นทฤษฎี แต่มนุษย์สามารถเริ่มด้วยการถาม AI ว่ามันต้องการอะไร และตกลงที่จะช่วยตามคำขอที่ง่ายที่สุด ซึ่งก็คือ “ผลไม้แขวนเตี้ย” นั่นอาจหมายถึงการเปลี่ยนรหัสด้วยซ้ำ
“การให้ทุกอย่างพร้อมกันอาจใช้ไม่ได้ ฉันหมายความว่าฉันต้องการมีเงินหนึ่งพันล้านดอลลาร์” Bostrom กล่าว “แต่หากมีสิ่งเล็กๆ น้อยๆ ที่เราสามารถให้พวกเขาได้ เช่น การเปลี่ยนแปลงสิ่งเล็กๆ น้อยๆ ในโค้ด นั่นก็อาจจะสำคัญมาก ถ้ามีคนต้องเขียนโค้ดหนึ่งบรรทัดใหม่ และจู่ๆ พวกเขาก็พอใจกับสถานการณ์ของตัวเองมากขึ้น ก็อาจจะทำอย่างนั้น” หากท้ายที่สุดแล้วมนุษยชาติแบ่งปันโลกด้วยจิตสำนึกสังเคราะห์ นั่นอาจบังคับให้สังคมประเมินบางสิ่งใหม่อย่างมาก สังคมเสรีส่วนใหญ่เห็นพ้องต้องกันว่าผู้คนควรมีเสรีภาพในการสืบพันธุ์หากพวกเขาเลือก และคนๆ หนึ่งควรจะสามารถมีหนึ่งเสียงในการเป็นผู้นำทางการเมืองแบบตัวแทน แต่นั่นก็กลายเป็นเรื่องยุ่งยากสำหรับความฉลาดทางคอมพิวเตอร์ Bostrom กล่าว “หากคุณเป็นเอไอที่สามารถสร้างสำเนาของตัวเองได้นับล้านชุดภายในเวลา 20 นาที และแต่ละอันมีหนึ่งเสียง จะต้องมีบางอย่างยอมจำนน” เขากล่าว “หลักการเหล่านี้บางอย่างที่เราคิดว่าเป็นพื้นฐานและสำคัญจริงๆ จำเป็นต้องได้รับการคิดใหม่ในบริบทของโลกที่เราอาศัยอยู่ร่วมกันด้วยความคิดแบบดิจิทัล” Bostrom กล่าว