Nvidia reveals new A.I. chip, says costs of running LLMs will ‘drop significantly’

Nvidia ประกาศชิปใหม่ที่ออกแบบมาเพื่อใช้งานโมเดลปัญญาประดิษฐ์เมื่อวันอังคาร GH200 ของ Nvidia มี GPU แบบเดียวกับ H100 ซึ่งเป็นชิป AI ระดับสูงสุดของ Nvidia แต่จับคู่กับหน่วยความจำล้ำสมัย 141 กิกะไบต์ รวมถึงโปรเซสเซอร์กลาง ARM 72 คอร์ “โปรเซสเซอร์นี้ได้รับการออกแบบมาเพิ่มศักยภาพดาต้าเซ็นเตอร์ของโลก” Jensen Huang ซีอีโอของ Nvidia กล่าวเมื่อวันอังคาร

Nvidia announced a new chip designed to run artificial intelligence models on Tuesday . Nvidia’s GH200 has the same GPU as the H100, Nvidia’s current highest-end AI chip, but pairs it with 141 gigabytes of cutting-edge memory, as well as a 72-core ARM central processor. “This processor is designed for the scale-out of the world’s data centers,” Nvidia CEO Jensen Huang said Tuesday.

Nvidia เปิดตัวชิป A.I. ใหม่ ช่วยลดค่าใช้จ่ายในการรัน LLMs อย่างมาก

Nvidia ประกาศชิปใหม่ที่ออกแบบมาเพื่อเรียกใช้โมเดลปัญญาประดิษฐ์ในวันอังคารเนื่องจากพยายามที่จะป้องกันคู่แข่งในพื้นที่ฮาร์ดแวร์ AI ซึ่งรวมถึง AMD, Google และ Amazon

ปัจจุบัน Nvidia ครองตลาดชิป AI ด้วยส่วนแบ่งตลาดมากกว่า 80% ตามการประมาณการบางอย่าง ความพิเศษของบริษัทคือหน่วยประมวลผลกราฟิกหรือ GPU ซึ่งกลายเป็นชิปที่ต้องการสำหรับโมเดล AI ขนาดใหญ่ที่เป็นรากฐานของซอฟต์แวร์ generative AI เช่น Bard ของ Google และ ChatGPT ของ OpenAI แต่ชิปของ Nvidia ขาดตลาด เนื่องจากยักษ์ใหญ่ด้านเทคโนโลยี ผู้ให้บริการคลาวด์ และบริษัทสตาร์ทอัพต่างแย่งชิงความสามารถของ GPU เพื่อพัฒนาโมเดล AI ของตนเอง

ชิปใหม่ของ Nvidia GH200 มี GPU แบบเดียวกับ H100 ซึ่งเป็นชิป AI ระดับสูงสุดในปัจจุบันของบริษัท แต่ GH200 นั้นจับคู่ GPU ที่มีหน่วยความจำล้ำสมัย 141 กิกะไบต์ รวมถึงโปรเซสเซอร์กลาง ARM 72 คอร์

“เรากำลังเพิ่มประสิทธิภาพโปรเซสเซอร์นี้” Jensen Huang ซีอีโอของ Nvidia กล่าวในการพูดคุยในการประชุมเมื่อวันอังคาร เขากล่าวเสริมว่า “โปรเซสเซอร์นี้ได้รับการออกแบบมาเพิ่มศักยภาพดาต้าเซ็นเตอร์ของโลก”

ชิปใหม่จะวางจำหน่ายจากผู้จัดจำหน่ายของ Nvidia ในไตรมาสที่สองของปีหน้า Huang กล่าว และน่าจะพร้อมสำหรับการทดสอบตัวอย่างภายในสิ้นปีนี้ ตัวแทนของ Nvidia ปฏิเสธที่จะให้ข้อมูลราคาในตอนนี้

บ่อยครั้ง กระบวนการทำงานกับโมเดล AI จะแบ่งออกเป็นสองส่วนเป็นอย่างน้อย: การฝึกอบรม (training) และการอนุมาน ( inference)

ประการแรก โมเดลได้รับการฝึกฝนโดยใช้ข้อมูลจำนวนมาก ซึ่งเป็นกระบวนการที่อาจใช้เวลาหลายเดือนและบางครั้งต้องใช้ GPU หลายพันตัว เช่น ในกรณีของ Nvidia ชิป H100 และ A100 จากนั้นโมเดลจะถูกใช้ในซอฟต์แวร์เพื่อทำการคาดการณ์หรือสร้างเนื้อหา โดยใช้กระบวนการที่เรียกว่า inference เช่นเดียวกับการฝึกอบรม inference มีค่าใช้จ่ายสูงในการคำนวณ และต้องใช้พลังการประมวลผลจำนวนมากทุกครั้งที่ซอฟต์แวร์ทำงาน เช่น เมื่อทำงานเพื่อสร้างข้อความหรือรูปภาพ แต่ไม่เหมือนกับการฝึกอบรม inferenceจะเกิดขึ้นเกือบตลอดเวลา ในขณะที่การฝึกอบรมจำเป็นเฉพาะเมื่อโมเดลจำเป็นต้องอัปเดตเท่านั้น

“คุณสามารถใช้โมเดลภาษาขนาดใหญ่ใดก็ได้ที่คุณต้องการ แล้วใส่ลงในสิ่งนี้ และมันจะ inference อย่างบ้าคลั่ง” Huang กล่าว “ค่าใช้จ่ายใน inference ของโมเดลภาษาขนาดใหญ่จะลดลงอย่างมาก”

GH200 ใหม่ของ Nvidia ได้รับการออกแบบมาสำหรับ inference เนื่องจากมีความจุหน่วยความจำมากขึ้น ทำให้โมเดล AI ขนาดใหญ่ขึ้นเพื่อให้พอดีกับระบบเดียว รองประธาน Nvidia Ian Buck กล่าวในการโทรกับนักวิเคราะห์และนักข่าวเมื่อวันอังคาร H100 ของ Nvidia มีหน่วยความจำ 80GB เทียบกับ 141GB ใน GH200 ใหม่ Nvidia ยังประกาศระบบที่รวมชิป GH200 สองตัวไว้ในคอมพิวเตอร์เครื่องเดียวสำหรับรุ่นที่ใหญ่กว่า

“การมีหน่วยความจำที่ใหญ่ขึ้นทำให้โมเดลยังคงอยู่ใน GPU ตัวเดียว และไม่จำเป็นต้องใช้ระบบหลายตัวหรือหลาย GPU เพื่อรัน” Buck กล่าว

AMD คู่แข่งผู้ผลิตชิป GPU ของ Nvidia เพิ่งประกาศเปิดตัวชิป AI ของตัวเอง, MI300X, ซึ่งสามารถรองรับหน่วยความจำ 192GB และกำลังวางตลาดสำหรับความจุสำหรับ AI inference บริษัทต่างๆ รวมถึง Google และ Amazon กำลังออกแบบ custom AI chips เพื่อใช้ inference เช่นกัน

view original *