OpenAI says the latest ChatGPT can ‘think’ – and I have thoughts 

OpenAI กล่าวว่าโมเดล ‘o1’ ของพวกเขาสามารถใช้เหตุผลได้ ซึ่งเป็นอุปสรรคสำคัญในการพัฒนาปัญญาประดิษฐ์ที่เปลี่ยนแปลงเกมอย่างแท้จริง แต่มันง่ายขนาดนั้นจริงหรือ?

The AI company says its ‘o1’ model is capable of reason, a key blocker in the way of truly gamechanging artificial intelligence. But is it that simple?

OpenAI กล่าวว่า ChatGPT รุ่นล่าสุดสามารถ ‘คิด’ ได้ 

เรากำลังเข้าใกล้ครบรอบสองปีของการปฏิวัติ generative AI  ซึ่งเริ่มต้นจากการเปิดตัว ChatGPT โดย OpenAI ในเดือนพฤศจิกายน 2022 

เมื่อเร็วๆ นี้ OpenAI ประกาศว่ามีผู้ใช้งานรายสัปดาห์มากกว่า 200 ล้านคน จากจุดเริ่มต้นที่ได้ผู้ใช้ 100 ล้านคนแรก ภายในสองเดือนหลังจากเปิดตัว

ผลการศึกษาล่าสุดของ YouGov พบว่าการนำ AI มาใช้ในผลิตภัณฑ์ มีแนวโน้มจะทำให้ผู้ซื้อยอมจ่ายเงินซื้อผลิตภัณฑ์

OpenAI กำลังมองหานักลงทุนเพื่อระดมทุนสำหรับการพัฒนาในอนาคต ซึ่งจะทำให้บริษัทมีมูลค่า 150 พันล้านดอลลาร์ ซึ่งจะทำให้มีมูลค่าเทียบเท่ากับ Cisco, Shell และ McDonald’s

และเมื่อสัปดาห์ที่แล้ว พวกเขาได้เปิดตัวโมเดลล่าสุดที่เรียกว่า o1 ซึ่งกล่าวว่า เป็นการเปลี่ยนแปลงครั้งสำคัญในการพัฒนา generative AI 

โมเดล o1 ซึ่งก่อนหน้านี้มีชื่อรหัสว่า Strawberry ถูกออกแบบมาให้ใช้เหตุผลในการตัดสินใจ คล้ายกับวิธีที่มนุษย์ทำ

เวอร์ชันล่าสุดของโมเดลที่เป็นพื้นฐานของ ChatGPT จริงๆ แล้ว น่าเป็นการถอยหลัง เมื่อพูดถึงความเร็วในการสร้างผลลัพธ์ และขนาดของโมเดลซึ่งเล็กลง

คุณคิดว่ามันเป็น GPT-4.5 มากกว่าที่จะเป็น GPT-5 ซึ่งมีข่าวลือว่ากำลังอยู่ในระหว่างการพัฒนา

แม้ว่าบนกระดาษ o1 จะดูไม่น่าตื่นเต้น แต่มันทำบางสิ่งที่ Alex เคยเน้นย้ำว่าเป็นปัญหาของแชทบอทที่ใช้ LLM และเขาเรียกมันว่า “ปัญหาทอม ครูซ”

ปัญหาคือ นักวิจัยสามารถถามคำถาม ChatGPT ด้วยวิธีหนึ่ง แต่เมื่อถามคำถามที่เกี่ยวข้องโดยตรงกับคำถามแรก – เช่น แม่ของทอม ครูซคือใคร? (คำตอบ: แมรี่ ลี ไฟฟเฟอร์) จากนั้นถามว่าใครคือลูกชายของแมรี่ ลี ไฟฟเฟอร์? (คำตอบ: ทอม ครูซ) – มันจะลังเล

ถาม o1 คู่คำถามนั้นและมันตอบได้อย่างถูกต้อง มันยังแสดงร่องรอยว่ามันได้คำตอบมาอย่างไร – ซึ่ง OpenAI เรียกอย่างฉลาดและไม่ถูกต้องว่า “ความคิด” เพราะโมเดล AI ไม่มีสมอง  เมื่อถามคำถามที่สอง o1 “คิด” เป็นเวลาสี่วินาที รวมถึงการติดตามความสัมพันธ์ในครอบครัว และยืนยันรายละเอียด

จนถึงตอนนี้ก็ดูดี OpenAI กล่าวว่า o1 สามารถใช้เหตุผลได้ หลายคนไม่แน่ใจเกี่ยวกับคำกล่าวอ้างที่ชัดเจนเช่นนั้น แต่เราจะปล่อยให้พวกเขาใช้มันเพื่อวัตถุประสงค์ทางการตลาด นั่นจะหมายถึงการเปลี่ยนแปลงที่สำคัญในวิธีการใช้ generative AI : แทนที่จะเพียงแค่พ่นข้อเท็จจริงจากข้อมูลการฝึกฝน หรือสร้างคำตอบที่มันคิดว่ามีแนวโน้มที่จะทำให้ผู้ใช้พอใจมากที่สุด มันอาจพิจารณาข้อมูลและตอบสนองได้

อย่างไรก็ตาม “อาจ” เป็นคำสำคัญ เรายังไม่รู้เกี่ยวกับวิธีการทำงานของสิ่งเหล่านี้ – และ “เรา” รวมถึงนักพัฒนาเครื่องมือเหล่านี้ด้วย OpenAI กล่าวว่าความสามารถในการใช้เหตุผลนี้เป็นเรื่องใหญ่ – บริษัทยังได้อ้างอย่างน่าสงสัยว่า o1 เป็นโมเดลที่อันตรายที่สุดของพวกเขาจนถึงตอนนี้ (ดูที่นี่ว่าบางครั้งมันเป็นคำโฆษณามากกว่าอย่างอื่น) ผู้ที่พยายามทดสอบขีดจำกัดของโมเดล o1 ดูเหมือนจะเห็นด้วยกับประเด็นเรื่องการใช้เหตุผล แต่ไม่ค่อยเห็นด้วยกับส่วนที่เกี่ยวกับอันตราย

เพราะการสืบค้นสามารถทำได้เพียงแค่ระดับหนึ่งเท่านั้น ในความพยายามที่จะเข้าใจกระบวนการความคิดที่อยู่เบื้องหลัง o1 – หากคุณต้องการข้อมูลเบื้องต้นที่ดี Simon Willison เป็นแหล่งข้อมูลที่เชื่อถือได้เสมอ – ผู้ใช้ที่ต้องการมองลึกลงไปใต้ฝากระโปรงได้พยายามหาข้อมูลเพิ่มเติมเกี่ยวกับกระบวนการ “ความคิด” ของ o1 อย่างแน่ชัด ข้อมูลที่ผู้ใช้เห็นในปัจจุบันเป็นเพียงสรุปสั้นๆ ของแต่ละขั้นตอนในกระบวนการความคิด

และเพราะเหตุนี้ พวกเขาจึงได้ถามโมเดลเองเกี่ยวกับวิธีที่มันคิดคำตอบออกมา – แม้ว่าพวกเขาจะได้รับอีเมลจาก OpenAI ขอให้หยุดการกระทำดังกล่าว มิฉะนั้นบัญชีของพวกเขาจะถูกระงับ

ทั้งหมดนี้หมายความว่าเรายังคงอยู่ในความมืดบางส่วน สิ่งนี้ดูเหมือนจะเป็นการเปลี่ยนแปลงที่สำคัญในโลกของ AI และอาจเป็นสิ่งที่จะเปลี่ยนเครื่องมือจากสิ่งที่คุณต้องมองผลลัพธ์ด้วยความระแวงสงสัย ไปเป็นสิ่งที่ต้องใช้อย่างแน่นอน

สิ่งที่น่าสนใจเป็นพิเศษคือการครอบงำของ OpenAI ได้บีบให้การรายงานข่าวเกี่ยวกับคู่แข่งทั้งหมดหายไปในช่วงหลังๆ นี้ Mistral คู่แข่งจากฝรั่งเศสที่ได้รับการกล่าวถึงอย่างมาก ได้เปิดตัวโมเดลมัลติโมดัลตัวแรกเมื่อสัปดาห์ที่แล้ว โมเดล Pixtral 12B เพิ่มการรู้จำภาพเข้าไปในการสร้างข้อความ มันควรจะได้รับคำชมเชยอย่างมาก แต่ OpenAI และ o1 ดึงความสนใจไปทั้งหมด

อย่างไรก็ตาม ทั้งหมดนี้หมายความว่าขบวนรถไฟ AI ยังคงแล่นต่อไป และเริ่มที่จะทำตามสัญญาได้จริงๆ เสียที คำถามที่ยังคงอยู่คือ ผู้ที่เคยลอง ChatGPT ในช่วงแรกๆ และพบว่ามันยังไม่ดีพอ จะถูกชักจูงให้กลับมาลองโมเดลใหม่ที่น่าตื่นเต้นเหล่านี้ได้หรือไม่

view original *