เมื่อวันจันทร์ที่ผ่านมา Nvidia ได้เปิดตัว H200 ซึ่งเป็นหน่วยประมวลผลกราฟิกที่ออกแบบมาเพื่อการฝึกอบรมและการปรับใช้โมเดลปัญญาประดิษฐ์ประเภทต่างๆ ที่ขับเคลื่อนบูม generative AI H200 มีหน่วยความจำ “HBM3” รุ่นต่อไปขนาด 141GB ซึ่งจะช่วยสร้างข้อความ รูปภาพ หรือการคาดเดา โดยใช้โมเดล AI
ความสนใจใน GPU AI ของ Nvidia เพิ่มพลังให้กับบริษัท โดยคาดว่ายอดขายจะเพิ่มขึ้น 170% ในไตรมาสนี้
Nvidia on Monday unveiled the H200, a graphics processing unit designed for training and deploying the kinds of artificial intelligence models powering the generative AI boom. The H200 includes 141GB of next-generation “HBM3” memory that will help it generate text, images or predictions using AI models. Interest in Nvidia’s AI GPUs has supercharged the company, with sales expected to surge 170% this quarter.
Nvidia เปิดตัว H200 ชิประดับไฮเอนด์ใหม่ล่าสุดสำหรับการฝึกโมเดล AI
เมื่อวันจันทร์ที่ผ่านมา Nvidia ได้เปิดตัว H200 ซึ่งเป็นหน่วยประมวลผลกราฟิกที่ออกแบบมา เพื่อการฝึกอบรมและการปรับใช้โมเดลปัญญาประดิษฐ์ประเภทต่าง ๆ ที่ขับเคลื่อนการเติบโตของ generative AI
GPU ใหม่เป็นการอัปเกรดจาก H100 ซึ่งเป็นชิป OpenAI ที่ใช้ในการฝึกโมเดลภาษาขนาดใหญ่ที่ทันสมัยที่สุด GPT-4 บริษัทขนาดใหญ่ บริษัทสตาร์ทอัพ และหน่วยงานภาครัฐต่างก็แย่งชิงชิปที่มีจำนวนจำกัด
ชิป H100 มีราคาระหว่าง 25,000 ถึง 40,000 เหรียญสหรัฐ ตามการประมาณการของ Raymond James และชิปหลายพันตัวที่ทำงานร่วมกันมีความจำเป็นเพื่อสร้างโมเดลที่ใหญ่ที่สุดในกระบวนการที่เรียกว่า “การฝึกอบรม”
ความตื่นเต้นกับ AI GPU ของ Nvidia ได้เพิ่มพลังให้กับหุ้นของบริษัท ซึ่งเพิ่มขึ้นมากกว่า 230% จนถึงปี 2023 Nvidia คาดว่าจะมีรายรับประมาณ 16 พันล้านดอลลาร์ในไตรมาสที่สามของปีงบประมาณ เพิ่มขึ้น 170% จากปีที่แล้ว
การปรับปรุงที่สำคัญของ H200 คือการรวมหน่วยความจำ “HBM3” รุ่นต่อไปขนาด 141GB ซึ่งจะช่วยให้ชิปทำการ “inference” หรือใช้โมเดลขนาดใหญ่หลังจากฝึกฝนให้สร้างข้อความ รูปภาพ หรือการคาดเดาแล้ว
Nvidia กล่าวว่า H200 จะสร้างเอาต์พุตได้เร็วกว่า H100 เกือบสองเท่า นั่นขึ้นอยู่กับการทดสอบโดยใช้ Llama 2 LLM ของบริษัท Meta
H200 ซึ่งคาดว่าจะวางจำหน่ายในไตรมาสที่สองของปี 2024 จะแข่งขันกับ GPU MI300X ของ AMD เอเอ็มดี ชิปซึ่งคล้ายกับ H200 มีหน่วยความจำเพิ่มเติมมากกว่ารุ่นก่อน ซึ่งช่วยให้พอดีกับโมเดลขนาดใหญ่บนฮาร์ดแวร์เพื่อทำการ inference
Nvidia กล่าวว่า H200 จะเข้ากันได้กับ H100 ซึ่งหมายความว่าบริษัท AI ที่ได้รับการฝึกอบรมด้วยชิปรุ่นก่อนหน้าอยู่แล้วไม่จำเป็นต้องเปลี่ยนระบบเซิร์ฟเวอร์หรือซอฟต์แวร์เพื่อใช้เวอร์ชันใหม่
Nvidia กล่าวว่าจะสามารถใช้งานได้ในการกำหนดค่าเซิร์ฟเวอร์ 4 GPU หรือ 8 GPU บนระบบ HGX ของบริษัท รวมถึงในชิปที่เรียกว่า GH200 ซึ่งจับคู่ GPU H200 กับโปรเซสเซอร์แบบ Arm
อย่างไรก็ตาม H200 อาจครองตำแหน่งชิป Nvidia AI ที่เร็วที่สุดได้ไม่นาน
แม้ว่าบริษัทอย่าง Nvidia จะเสนอการกำหนดค่าชิปที่แตกต่างกันมากมาย แต่เซมิคอนดักเตอร์ใหม่ๆ มักจะก้าวไปข้างหน้าอย่างมากทุกๆ สองปี เมื่อผู้ผลิตเปลี่ยนไปใช้สถาปัตยกรรมที่แตกต่างกันซึ่งจะปลดล็อกประสิทธิภาพที่เพิ่มขึ้นอย่างมีนัยสำคัญมากกว่าการเพิ่มหน่วยความจำหรือการเพิ่มประสิทธิภาพเล็กๆ น้อยๆ อื่นๆ ทั้ง H100 และ H200 ใช้สถาปัตยกรรม Hopper ของ Nvidia
ในเดือนตุลาคม Nvidia บอกกับนักลงทุนว่าจะย้ายจากรูปแบบสถาปัตยกรรมสองปีไปเป็นรูปแบบการเปิดตัวหนึ่งปีเนื่องจากมีความต้องการ GPU สูง บริษัทแสดงสไลด์โดยบอกว่าจะประกาศและเปิดตัวชิป B100 ที่ใช้สถาปัตยกรรม Blackwell ที่กำลังจะมีขึ้นในปี 2567