Microsoft announces custom AI chip that could compete with Nvidia

Microsoft กำลังเปิดตัวชิปตัวแรกสำหรับปัญญาประดิษฐ์ พร้อมด้วยชิปแบบ Arm สำหรับงานคอมพิวเตอร์ทั่วไป ทั้งสองจะมาที่ Azure cloud ของ Microsoft Microsoft กล่าวในการประชุม Ignite ในซีแอตเทิล ชิป Graviton Arm ที่ผู้นำระบบคลาวด์ Amazon Web Services เปิดตัวเมื่อห้าปีก่อนได้รับการยอมรับอย่างกว้างขวาง

Microsoft is introducing its first chip for artificial intelligence, along with an Arm-based chip for general-purpose computing jobs. Both will come to Microsoft’s Azure cloud, Microsoft said at its Ignite conference in Seattle. The Graviton Arm chip that cloud leader Amazon Web Services introduced five years ago has gained broad adoption.

Microsoft ประกาศชิป custom AI chip เพื่อแข่งขันกับ Nvidia

Microsoft เปิดตัวชิปสองตัวในการประชุม Ignite ในซีแอตเทิลเมื่อวันพุธ ตัวแรกคือชิปปัญญาประดิษฐ์ Maia 100 เพื่อแข่งขันกับ Nvidia หน่วยประมวลผลกราฟิก AI เป็นที่ต้องการอย่างสูง ชิปตัวที่สองคือ ชิป Cobalt 100 Arm มุ่งเป้าไปที่งานประมวลผลทั่วไป เพื่อแข่งขันกับโปรเซสเซอร์ Intel

Microsoft เป็นบริษัทเทคโนโลยีชั้นนำ ที่มีเงินสดพร้อมลงทุนจำนวนมาก ได้เริ่มให้ทางเลือกแก่ลูกค้ามากขึ้นสำหรับโครงสร้างพื้นฐานคลาวด์ที่พวกเขาสามารถใช้เพื่อรันแอปพลิเคชันได้ Alibaba, Amazon และ Google ทำสิ่งนี้มาหลายปีแล้ว ณ สิ้นเดือนตุลาคม Microsoft มีเงินสดประมาณ 144 พันล้านดอลลาร์ มีส่วนแบ่งตลาดคลาวด์ 21.5% ในปี 2565

Virtual-machine instances ที่ทำงานบนชิป Cobalt 100 Arm จะพร้อมใช้งานเชิงพาณิชย์ผ่านคลาวด์ Azure ของ Microsoft ในปี 2567 Rani Borkar รองประธานองค์กรกล่าวกับ CNBC ในการให้สัมภาษณ์ เธอไม่ได้ระบุไทม์ไลน์ในการเปิดตัว Maia 100

ตั้งแต่ ปี 2016 Google เปิดตัว tensor processing unit สำหรับ AI และ Amazon Web Services เปิดตัวชิปที่ใช้ Graviton Arm และโปรเซสเซอร์ Inferentia AI ในปี 2018 และเปิดตัวชิป Trainium สำหรับใช้ฝึกโมเดล AI ในปี 2020

ชิป AI พิเศษจากผู้ให้บริการระบบคลาวด์อาจสามารถช่วยตอบสนองความต้องการได้เมื่อ GPU ขาดแคลน แต่ Microsoft และบริษัทในเครือที่ให้บริการด้านการประมวลผลแบบคลาวด์ ไม่ได้วางแผนที่จะปล่อยให้บริษัทต่างๆ ซื้อเซิร์ฟเวอร์ที่มีชิปของตน ซึ่งแตกต่างจาก Nvidia หรือ AMD บริษัทสร้างชิปสำหรับการประมวลผล AI ตามความคิดเห็นของลูกค้า Borkar อธิบาย

Microsoft กำลังทดสอบว่าชิป Maia 100 สามารถตอบสนองความต้องการของแชทบอท AI ของเครื่องมือค้นหา Bing ได้เป็นอย่างไร (ปัจจุบันเรียกว่า Copilot แทน Bing Chat), ผู้ช่วยเขียนโค้ด GitHub Copilot และ GPT-3.5-Turbo ซึ่งเป็นโมเดลภาษาขนาดใหญ่จาก OpenAI ที่สนับสนุนโดย Microsoft Borkar กล่าวว่า OpenAI ฝึกโมเดลภาษาด้วยข้อมูลจำนวนมากจากอินเทอร์เน็ต และสามารถสร้างข้อความอีเมล สรุปเอกสาร และตอบคำถามด้วยคำสั่งของมนุษย์เพียงไม่กี่คำ

GPT-3.5-Turbo ใช้งานได้ในตัวช่วย ChatGPT ของ OpenAI ซึ่งได้รับความนิยมหลังจากวางจำหน่ายเมื่อปีที่แล้วไม่นาน จากนั้นบริษัทต่างๆ ก็ดำเนินการอย่างรวดเร็วเพื่อเพิ่มความสามารถในการแชทที่คล้ายกันให้กับซอฟต์แวร์ของตน ส่งผลให้ความต้องการ GPU เพิ่มขึ้น

“เราทำงานกันอย่างทั่วถึงกับซัพพลายเออร์ที่แตกต่างกันทั้งหมดของเราเพื่อช่วยปรับปรุงตำแหน่งการจัดหาของเราและสนับสนุนลูกค้าหลายรายของเราและความต้องการที่พวกเขาวางไว้ตรงหน้าเรา” Colette Kress หัวหน้าฝ่ายการเงินของ Nvidia กล่าวในการประชุม Evercore ที่นิวยอร์กเมื่อเดือนกันยายน

ก่อนหน้านี้ OpenAI เคยฝึกโมเดลด้วย Nvidia GPU ใน Azure

นอกเหนือจากการออกแบบชิป Maia แล้ว Microsoft ยังได้คิดค้นฮาร์ดแวร์ระบายความร้อนด้วยของเหลวแบบกำหนดเองที่เรียกว่า Sidekicks ซึ่งพอดีกับชั้นวางถัดจากชั้นวางที่มีเซิร์ฟเวอร์ Maia บริษัทสามารถติดตั้งชั้นวางเซิร์ฟเวอร์และชั้นวาง Sidekick ได้โดยไม่จำเป็นต้องติดตั้งเพิ่มเติม โฆษกกล่าว

ด้วย GPU การใช้พื้นที่ศูนย์ข้อมูลที่จำกัดให้เกิดประโยชน์สูงสุดอาจทำให้เกิดความท้าทายได้ บางครั้งบริษัทต่างๆ จะวางเซิร์ฟเวอร์บางตัวที่มี GPU ไว้ที่ด้านล่างของแร็ค เช่น “orphans” เพื่อป้องกันความร้อนสูงเกินไป แทนที่จะเติมเซิร์ฟเวอร์เต็มแร็คจากบนลงล่าง Steve Tuck ผู้ร่วมก่อตั้งและซีอีโอของ Oxide Computer บริษัทสตาร์ทอัพเซิร์ฟเวอร์กล่าว บางครั้งบริษัทต่างๆ ก็เพิ่มระบบทำความเย็นเพื่อลดอุณหภูมิ Tuck กล่าว

Microsoft อาจเห็นการนำโปรเซสเซอร์ Cobalt มาใช้เร็วกว่าชิป Maia AI หากประสบการณ์ของ Amazon เป็นแนวทาง Microsoft กำลังทดสอบแอป Teams และบริการฐานข้อมูล Azure SQL บน Cobalt จนถึงตอนนี้ พวกเขาทำงานได้ดีกว่าชิป Arm-based ที่มีอยู่ของ Azure ถึง 40% ซึ่งมาจากสตาร์ทอัพ Ampere Microsoft กล่าว

ในช่วงครึ่งปีที่ผ่านมา เนื่องจากราคาและอัตราดอกเบี้ยสูงขึ้น บริษัทหลายแห่งจึงมองหาวิธีการทำให้การใช้จ่ายบนคลาวด์มีประสิทธิภาพมากขึ้น และสำหรับลูกค้า AWS Graviton ก็เป็นหนึ่งในนั้น ขณะนี้ลูกค้า 100 อันดับแรกของ AWS ทั้งหมดใช้ชิปแบบ Arm ซึ่งสามารถให้ประสิทธิภาพด้านราคาที่ดีขึ้น 40% Dave Brown รองประธานกล่าว

การย้ายจาก GPU ไปยังชิป AWS Trainium AI อาจซับซ้อนกว่าการย้ายจาก Intel Xeons ไปยัง Gravitons AI แต่ละโมเดลมีลักษณะเฉพาะของตัวเอง หลายๆ คนได้ทำงานเพื่อทำให้เครื่องมือต่างๆ ทำงานบน Arm ได้ เนื่องจากแพร่หลายในอุปกรณ์เคลื่อนที่ และนั่นก็ไม่ค่อยจริงในซิลิคอนสำหรับ AI Brown กล่าว แต่เมื่อเวลาผ่านไป เขากล่าวว่าเขาคาดหวังว่าองค์กรต่างๆ จะได้เห็นประสิทธิภาพด้านราคาที่เพิ่มขึ้นด้วย Trainium ที่ใกล้เคียงกันเมื่อเปรียบเทียบกับ GPU

“เราได้แบ่งปันข้อกำหนดเหล่านี้กับระบบนิเวศและกับพันธมิตรจำนวนมากของเราในระบบนิเวศ ซึ่งเป็นประโยชน์ต่อลูกค้า Azure ทั้งหมดของเรา” เธอกล่าว

Borkar กล่าวว่าเธอไม่มีรายละเอียดเกี่ยวกับประสิทธิภาพของ Maia เมื่อเปรียบเทียบกับทางเลือกอื่น เช่น H100 ของ Nvidia เมื่อวันจันทร์ที่ผ่านมา Nvidia กล่าวว่า H200 จะเริ่มจัดส่งได้ในไตรมาสที่สองของปี 2024

view original*