Falling costs of AI may leave its power in hands of a small group.

ราคาฮาร์ดแวร์ของ nVidia พลังการประมวลผลของ Large Language Model (LLM) กำลังลดลงอย่างรวดเร็ว ซึ่งคาดว่าจะผลักดันเทคโนโลยีไปสู่การใช้งานกระแสหลักได้เร็วกว่ามาก นี่เป็นข่าวดีสำหรับลูกค้า แต่จะกระทบแผนทำเงินของสตาร์ทอัพบางรายที่หวังว่าจะทำรายได้มหาศาล จากการเติบโตของ AI และอาจปล่อยให้อำนาจอยู่ในมือของคนกลุ่มเล็กๆ ผู้ผลิต LLM จำนวนหนึ่งได้ระดมทุนหรือกำลังพยายามระดมเงินสดเพื่อสนับสนุนความฝันของตนเอง ในขณะที่ต้นทุนด้านฮาร์ดแวร์ที่ลดลงจะเป็นประโยชน์ต่อผู้เข้าแข่งขันทุกคน แต่การเทรนนิ่ง LLM มีค่าใช้จ่ายหลายสิบล้านดอลลาร์ เอื้อผลประโยชน์ให้แก่คนจำนวนค่อนข้างน้อย ที่มีประสบการณ์ในการพัฒนาและเทรนนิ่งโมเดล

The price of the processing power of large language models (LLMs) is collapsing rapidly, which is expected to push the technology into mainstream use much more quickly. This is great news for customers, but it threatens the finances of some start-ups hoping to cash in on the AI boom and could leave power in the hands of a small group. A number of LLM makers have raised, or are trying to raise, cash to support their own ambitions. While plunging hardware costs benefit all contenders, training an LLM costs tens of millions of dollars, putting a premium on the relatively small number of people with experience of developing and training the models

ต้นทุนที่ลดลงของ AI อาจทำให้พลังของมันอยู่ในมือของคนกลุ่มเล็กๆ

หน่วยประมวลผลที่ทรงพลังเช่น Nvidia H100 เป็นสิ่งจำเป็นในการแข่งขันเพื่ออำนาจสูงสุดของ AI แต่สตาร์ทอัพอาจถูกทิ้งไว้ข้างหลัง

ขณะที่ สตาร์ทอัพพบว่าเป็นการยากที่จะทำรายได้มากๆ จาก AI และแข่งขันกับผู้เล่นหลักในอุตสาหกรรม

ราคาฮาร์ดแวร์ nVidia ต้นทุนสำคัญของเทคโนโลยีปัญญาประดิษฐ์ กำลังลดลงอย่างรวดเร็ว น่าจะช่วยให้ AI เติบโตเร็วขึ้น และได้รับการยอมรับไปใช้งานมากขึ้น แต่ในทางกลับกัน สตาร์ทอัพบางรายที่หวังทำรายได้จาก A.I. อย่างเป็นกอบเป็นกำ อาจทำเงินได้ไม่มากอย่างที่คาดหวัง เพราะต้นทุนที่ต่ำลง ทำให้อำนาจได้กระจายไปสู่มือของคนกลุ่มเล็กๆ

ต้นทุนที่เป็นปัญหา คือ พลังการประมวลผลของ Large Language Model หรือ LLM ซึ่งรองรับบริการต่างๆ เช่น ChatGPT และการตอบกลับในรูปแบบแชทใหม่ที่ Microsoft เพิ่งเปิดตัวสำหรับเครื่องมือค้นหา Bing

ต้นทุนการประมวลผลที่สูงจากการรันโมเดลเหล่านี้คุกคามการใช้งานอย่างมาก เมื่อไม่กี่สัปดาห์ก่อน การใช้ภาษาใหม่ AI เครื่องมือค้นหาค่าใช้จ่าย You.com มากกว่าการค้นหาทางอินเทอร์เน็ตแบบเดิมถึง 50 เปอร์เซ็นต์ ตามที่ผู้บริหารระดับสูง Richard Socher กล่าว แต่เมื่อปลายเดือนที่แล้ว ต้องขอบคุณการแข่งขันระหว่างบริษัท LLM อย่าง OpenAI, Anthropic และ Cohere ทำให้ช่องว่างด้านต้นทุนลดลงเหลือเพียงประมาณ 5 เปอร์เซ็นต์เท่านั้น วันต่อมา OpenAI ได้เปิดตัวบริการใหม่เพื่อให้นักพัฒนาสามารถเข้าถึง ChatGPT ได้โดยตรง และลดราคาสำหรับการใช้เทคโนโลยีนี้ลง 90 เปอร์เซ็นต์ สิ่งนี้ยอดเยี่ยมสำหรับลูกค้า แต่อาจเป็นหายนะสำหรับคู่แข่งของ OpenAI จำนวนหนึ่งรวมถึง Anthropic และ Inflection ได้ระดมทุนหรือกำลังอยู่ในกระบวนการพยายามระดมเงินเพื่อสนับสนุนเป้าหมาย LLM ของตนเอง ไม่ค่อยมีการเคลื่อนย้ายเทคโนโลยีโดยตรงจากการวิจัยสู่การใช้งานหลักอย่างรวดเร็ว กระตุ้นให้เกิดการแข่งขันเพื่อ “ทำให้เป็นอุตสาหกรรม” กระบวนการที่พัฒนาขึ้นเพื่อใช้ในห้องปฏิบัติการ ประสิทธิภาพที่เพิ่มขึ้นและการลดต้นทุนส่วนใหญ่มาจากการปรับปรุงในแพลตฟอร์มคอมพิวเตอร์พื้นฐานที่ LLM ใช้งาน รวมถึงจากการเทรนนิ่ง และใช้งานโมเดล

ในจุดหนึ่ง ต้นทุนฮาร์ดแวร์ที่ลดลงจะเป็นประโยชน์ต่อผู้พัฒนาทั้งหมด ซึ่งรวมถึงการเข้าถึงชิปล่าสุดที่ออกแบบมาเพื่อรองรับความต้องการของ AI รุ่นใหม่โดยเฉพาะ เช่น หน่วยประมวลผลกราฟิกหรือ GPU ของ Nvidia H100 Microsoft ซึ่งรันโมเดลของ OpenAI บนแพลตฟอร์มคลาวด์ Azure เสนอสิ่งอำนวยความสะดวกแบบเดียวกัน — และผลประโยชน์ด้านต้นทุน — ให้กับบริษัท LLM อื่น ๆ โมเดลขนาดใหญ่ยังมีศิลปะพอๆ กับวิทยาศาสตร์ OpenAI กล่าวว่า “ชุดของการเพิ่มประสิทธิภาพทั้งระบบ” ในวิธีที่ ChatGPT ประมวลผลการตอบสนองต่อการค้นหาทำให้ต้นทุนลดลง 90 เปอร์เซ็นต์ตั้งแต่เดือนธันวาคม ทำให้ราคาลดลงอย่างมากสำหรับผู้ใช้ การเทรนนิ่ง LLM มีค่าใช้จ่ายหลายสิบล้านดอลลาร์ และเทคนิคในการจัดการกับงานก็เปลี่ยนไปอย่างรวดเร็ว อย่างน้อยในระยะสั้น นั่นทำให้เบี้ยประกันภัยกับคนจำนวนค่อนข้างน้อยที่มีประสบการณ์ในการพัฒนาและเทรนนิ่งโมเดล เมื่อถึงเวลาที่เทคนิคที่ดีที่สุดได้รับการเข้าใจและนำไปใช้อย่างกว้างขวาง ผู้เข้าแข่งขันรายแรกอาจได้เปรียบ Scott Guthrie หัวหน้ากลุ่มคลาวด์และ AI ของ Microsoft ชี้ไปที่บริการใหม่ เช่น GitHub Copilot ซึ่งบริษัทเปิดตัวเมื่อฤดูร้อนที่แล้วเพื่อแนะนำแนวคิดการเขียนโค้ดแก่นักพัฒนาซอฟต์แวร์ บริการดังกล่าวปรับปรุงอย่างรวดเร็วเมื่อมีการใช้งานอย่างแพร่หลาย ในการประชุมนักลงทุน Morgan Stanley ในสัปดาห์นี้ เขากล่าวว่า “สัญญาณ” ที่มาจากผู้ใช้บริการเช่นนี้กลายเป็นจุดสำคัญของการสร้างความแตกต่างอย่างรวดเร็ว

ความหวังหลักสำหรับผู้ผลิต LLM ที่เป็นคู่แข่งนั้นมาจากการขายบริการพิเศษที่จำเป็นในการทำให้เทคโนโลยีง่ายขึ้นสำหรับนักพัฒนาและลูกค้าองค์กรขนาดใหญ่ รวมถึงจากการสร้างโมเดลที่กำหนดเป้าหมายให้แคบลงซึ่งเหมาะกับความต้องการทางธุรกิจโดยเฉพาะ ตัวอย่างเช่น เมื่อเปิดตัว LLM ล่าสุดในสัปดาห์นี้ AI21 Labs ซึ่งเป็นบริษัทสตาร์ทอัพของอิสราเอลยังประกาศชุด API หรือลิงก์การเขียนโปรแกรมสำหรับบริการระดับสูง เช่น การสรุปข้อความหรือการเขียนใหม่ Ori Goshen ผู้ร่วมของ AI21 กล่าวว่าแทนที่จะใช้โมเดลแบบกว้างๆ เช่น โมเดลที่อยู่เบื้องหลัง ChatGPT บริษัทส่วนใหญ่จะต้องการใช้โมเดลที่ได้รับการเทรนนิ่งเกี่ยวกับภาษาที่ใช้ในอุตสาหกรรมเฉพาะ เช่น การเงินหรือการดูแลสุขภาพ หรือจากข้อมูลของบริษัทเอง ผู้บริหารสูงสุด. ดังที่เขากล่าวไว้ Large Language Model ยังอยู่ในช่วงเริ่มต้น ยังมีงานอีกมากที่ต้องทำเพื่อลดแนวโน้มที่จะให้คำตอบเเท็จ และป้องกันไม่ให้สร้างความสับสน หรือสร้างคำตอบที่ฟังดูน่าเชื่อถือ แต่ไม่ตรงกับความเป็นจริง เพื่อให้ประสบความสำเร็จ บริษัท AI จะต้องอยู่ในแนวหน้าของการวิจัย

NVIDIA CEO Jensen Huang

กรณีที่ต้นทุนพื้นฐานของบริการ Generative AI เหล่านี้กำลังลดลง การลดราคาของ OpenAI เป็นสัญญาณว่าเทคโนโลยีใหม่กำลังเข้าสู่การยอมรับจำนวนมากอย่างรวดเร็วเพียงใด และเป็นสัญญาณเตือนว่านี่อาจเป็นธุรกิจที่มีผู้ผลิตเพียงไม่กี่ราย

view original*

.