มหาวิทยาลัยสแตนฟอร์ดได้ยุติการสาธิตโมเดล Alpaca generative AI บนเว็บแล้ว หลังจากเพียงไม่กี่วันหลังจากความกังวลเกี่ยวกับความปลอดภัย และค่าใช้จ่าย ทำให้ไม่สามารถดำเนินการต่อได้ โมเดล AI อิงตาม LLaMA ของ Meta ซึ่งพบว่ามีปัญหาก่อนหน้านี้
Stanford University has ended the web demo of its Alpaca generative AI model after only a few days after concerns about safety and cost made it untenable to continue. The AI model is based on Meta’s LLaMA (hence the name), which has a history of problems with its generative AI chatbots shutting down soon after their release.
อัลปาก้า เล็กกว่า ถูกกว่า
Meta สร้าง LLaMA โดยมีแผนสนับสนุนการวิจัย LLM โดยเฉพาะประเด็นการสร้างข้อความที่ไม่ถูกต้อง หรือไม่เหมาะสม LLaMA ได้รับการออกแบบมาเพื่อให้นักวิจัยเหล่านั้นไม่ต้องใช้ฮาร์ดแวร์ราคาแพง ในการเริ่มทำงาน มีโมเดล LLaMA สี่แบบที่แตกต่างกัน และ Meta อ้างว่า LLaMA-13B และพารามิเตอร์ 13 พันล้านตัวสามารถทำงานได้ดีกว่า GPT-3 ของ OpenAI ในเมตริกส่วนใหญ่ และต้องการเพียงตัวเดียวสำหรับ GPU Nvidia Tesla V100 (ยังคงเป็นระดับไฮเอนด์)
Stanford กล่าวว่า Alpaca มีราคาเพียง 600 เหรียญสหรัฐ ในการสร้างและปรับแต่งจาก LLaMa-7B รุ่น LLaMA ที่มีขนาดเล็กกว่า นั่นเป็นทางเลือกโดยเจตนาเพื่อพิสูจน์ต้นทุนที่ค่อนข้างต่ำในการจำลองสิ่งที่ OpenAI และคู่แข่งกำลังทำอยู่
“ตอนนี้ผู้ใช้จำนวนมากโต้ตอบกับโมเดลเหล่านี้เป็นประจำ และแม้แต่ใช้ในการทำงาน อย่างไรก็ตาม แม้ว่าจะมีการใช้งานอย่างแพร่หลาย แต่โมเดลตามคำแนะนำก็ยังมีข้อบกพร่องอยู่มาก: พวกมันสามารถสร้างข้อมูลเท็จ เผยแพร่แบบแผนทางสังคม และสร้างภาษาที่ไม่เหมาะสมได้” นักวิจัยอธิบายในเวลานั้น “เราฝึกโมเดล Alpaca ในการสาธิตตามคำสั่ง 52K ที่สร้างขึ้นในรูปแบบของการสอนด้วยตัวเองโดยใช้ text-davinci-003 ในชุดการประเมินแบบฝึกหัดด้วยตนเอง Alpaca แสดงพฤติกรรมหลายอย่างที่คล้ายกับ text-davinci-003 ของ OpenAI แต่ก็ยังมีขนาดเล็กจนน่าประหลาดใจและผลิตซ้ำได้ง่าย/ราคาถูก” แม้ว่าการสร้างจะมีราคาไม่แพง แต่ดูเหมือนว่า Alpaca ก็ไม่ได้ถูกนัก สำหรับค่าใช้จ่ายในการโฮสติ้ง
แม้อัลปาก้าออกแบบกลไกเพื่อช่วยในการระบุและดักจับข้อความที่ไม่เหมาะสม และปัญหาอื่นๆ ด้วย LLaMA แต่หลังจาก เปิดตัวเดโม่ให้ทดลองใช้งานไม่กี่วัน นักวิจัยตัดสินจะยุติการสาธิต เพราะ Alpaca ยังให้คำตอบที่มั่ว ( hallucinating) ไม่ถูกต้อง เช่น เมืองหลวงของแทนซาเนีย หรือเต็มใจที่จะเขียนข้อมูลที่ผิด โดยไม่มีการต่อต้าน
Stanford กล่าวในแถลงการณ์ว่า “เป้าหมายเดิมของการปล่อยตัวอย่างคือการเผยแพร่งานวิจัยของเราในแบบที่เข้าถึงได้” “เรารู้สึกว่าส่วนใหญ่เราบรรลุเป้าหมายนี้แล้ว และด้วยต้นทุนการโฮสต์และความไม่เพียงพอของตัวกรองเนื้อหาของเรา เราจึงตัดสินใจลดเดโมลง”
การตัดสินใจครั้งนี้ทำให้นึกถึงเมื่อครั้งที่ Meta พยายามแชร์ตัวอย่างโครงการ Generative AI การสาธิต Galactica Large Language Model ใช้เวลาเพียงสามวันในเดือนพฤศจิกายน ได้รับการออกแบบมาเพื่อแสดงให้เห็นว่า Generative AI สามารถเขียนเอกสารทางวิชาการได้อย่างไร Galactica ถูกเยาะเย้ยทางออนไลน์มากมาย เพราะสร้างบทความที่ไร้สาระ และเป็นปัญหา Meta สามารถตัดการเข้าถึงได้อย่างรวดเร็วเป็นผลให้ การแบ่งปัน LLaMA กับนักวิจัยเชิงวิชาการเท่านั้นอาจเป็นส่วนหนึ่งเพื่อหลีกเลี่ยงปัญหานั้น แต่เห็นได้ชัดว่าการวิจัยใดๆ เกี่ยวกับ Generative AI ต่อหน้าสาธารณชนอาจเป็นปัญหาได้ นั่นอาจเป็นเหตุผลว่าทำไม LLaMA จึงไม่ได้ใส่อะไรมากมาย แม้แต่ในวิธีการสาธิตที่ได้รับอนุมัติก็ตาม เมื่อเทียบกับตอนที่ Meta เปิดตัวกลไกสื่อสังเคราะห์ Make-A-Video