Amazon Web Services ประกาศเปิดตัว Trainium2 ซึ่งเป็นชิปสำหรับฝึกโมเดลปัญญาประดิษฐ์ และยังให้การเข้าถึงหน่วยประมวลผลกราฟิก H200 Tensor Core รุ่นต่อไปของ Nvidia อีกด้วย AWS จะโฮสต์คลัสเตอร์การประมวลผลพิเศษเพื่อให้ลูกค้าและ Nvidia ใช้งาน ในตอนนี้ ลูกค้า AWS สามารถเริ่มทดสอบชิป Graviton4 อเนกประสงค์ตัวใหม่ได้
Amazon Web Services announced Trainium2, a chip for training artificial intelligence models, and it will also offer access to Nvidia’s next-generation H200 Tensor Core graphics processing units. AWS will host a special computing cluster for customers and Nvidia to use. For now, AWS customers can start testing new general-purpose Graviton4 chips.
Amazon ประกาศชิป AI ใหม่เนื่องจากกระชับความสัมพันธ์ของ Nvidia ให้ลึกซึ้งยิ่งขึ้น
หน่วยคลาวด์ AWS ของ Amazon ได้ประกาศชิปใหม่สำหรับลูกค้าเพื่อสร้างและรันแอปพลิเคชันปัญญาประดิษฐ์ รวมถึงแผนที่จะเสนอการเข้าถึงชิปล่าสุดของ Nvidia
Amazon Web Services พยายามที่จะก้าวเป็นผู้นำในฐานะผู้ให้บริการคลาวด์ที่มีตัวเลือกที่คุ้มค่ามากมาย ไม่เพียงแต่จะขายผลิตภัณฑ์แบรนด์ Amazon ราคาถูกเท่านั้น เช่นเดียวกับในตลาดค้าปลีกออนไลน์ คลาวด์ของ Amazon จะมีผลิตภัณฑ์ชั้นนำจากผู้ขายรายอื่นๆ รวมถึง GPU ที่เป็นที่ต้องการอย่างมากจากผู้ผลิตชิป AI ชั้นนำอย่าง Nvidia
ความต้องการ GPU Nvidia เพิ่มขึ้นอย่างรวดเร็วนับตั้งแต่สตาร์ทอัพ OpenAI เปิดตัว Chatbot ChatGPT เมื่อปีที่แล้ว ทำให้ผู้คนประทับใจด้วยความสามารถในการสรุปข้อมูลและเขียนข้อความที่เหมือนมนุษย์ มันนำไปสู่การขาดแคลนชิปของ Nvidia เนื่องจากบริษัทต่างๆ ต่างเร่งรีบที่จะรวมเทคโนโลยี AI เจนเนอเรชั่นที่คล้ายคลึงกันเข้ากับผลิตภัณฑ์ของตน
แนวทางสองทางของ Amazon ในการสร้างชิปของตัวเองและการให้ลูกค้าเข้าถึงชิปล่าสุดของ Nvidia อาจช่วยได้เมื่อเทียบกับคู่แข่งด้านการประมวลผลแบบคลาวด์ชั้นนำอย่าง Microsoft เมื่อต้นเดือนที่ผ่านมา Microsoft ใช้แนวทางที่คล้ายกันโดยเปิดเผยชิป AI รุ่นแรก Maia 100 และยังบอกว่า Azure cloud จะมี GPU Nvidia H200
การประกาศดังกล่าวมีขึ้นที่การประชุม Reinvent ในลาสเวกัสเมื่อวันอังคาร โดยเฉพาะอย่างยิ่ง AWS กล่าวว่าจะให้การเข้าถึงของ Nvidia หน่วยประมวลผลกราฟิก H200 AI ล่าสุด นอกจากนี้ยังได้ประกาศชิปปัญญาประดิษฐ์ Trainium2 ใหม่และโปรเซสเซอร์ Graviton4 อเนกประสงค์
Nvidia GPU ใหม่เป็นการอัพเกรดจาก H100 ซึ่งเป็นชิป OpenAI ที่ใช้ในการฝึกโมเดลภาษาขนาดใหญ่ที่ทันสมัยที่สุด GPT-4 บริษัทขนาดใหญ่ บริษัทสตาร์ทอัพ และหน่วยงานภาครัฐต่างก็แย่งชิงชิปที่มีจำนวนจำกัด ซึ่งหมายความว่ามีความต้องการให้เช่าชิปจากผู้ให้บริการคลาวด์อย่าง Amazon เช่นกัน Nvidia ได้กล่าวว่า H200 จะสร้างเอาต์พุตได้เร็วกว่า H100 เกือบสองเท่า
ชิป Trainium2 ของ Amazon สร้างขึ้นเพื่อฝึกฝนโมเดล AI รวมถึงประเภทที่แชทบอท AI เช่น ChatGPT ของ OpenAI และคู่แข่งทำงานอยู่ Startup Databricks และ Anthropic ที่ได้รับการสนับสนุนจาก Amazon ซึ่งเป็นคู่แข่งของ OpenAI วางแผนที่จะสร้างโมเดลด้วยชิป Trainium2 ใหม่ ซึ่งจะมีประสิทธิภาพที่ดีกว่ารุ่นเดิมถึงสี่เท่า Amazon กล่าว
โปรเซสเซอร์ Graviton4 ใช้สถาปัตยกรรม Arm และใช้พลังงานน้อยกว่าชิปจาก Intel หรือ AMD Graviton4 รับประกันประสิทธิภาพที่ดีกว่าชิป Graviton3 ที่มีอยู่ถึง 30% ช่วยให้สิ่งที่ AWS กล่าวว่าให้ผลลัพธ์ที่ดีกว่าในราคา อัตราเงินเฟ้อสูงกว่าปกติ กระตุ้นให้นายธนาคารกลางขึ้นอัตราดอกเบี้ย องค์กรที่ต้องการใช้ AWS ต่อไปแต่ลดต้นทุนระบบคลาวด์ลงเพื่อจัดการกับเศรษฐกิจได้ดีขึ้น อาจพิจารณาย้ายไปใช้ Graviton
ลูกค้า AWS มากกว่า 50,000 รายใช้ชิป Graviton อยู่แล้ว Amazon กล่าว
ในที่สุด ในฐานะส่วนหนึ่งของความสัมพันธ์ที่ลึกซึ้งกับ Nvidia ทาง AWS กล่าวว่าจะใช้งาน Nvidia GH200 Grace Hopper Superchips มากกว่า 16,000 ตัว ซึ่งประกอบด้วย Nvidia GPU และโปรเซสเซอร์เอนกประสงค์ที่ใช้ Arm ของ Nvidia กลุ่มวิจัยและพัฒนาของ Nvidia และลูกค้า AWS จะสามารถใช้ประโยชน์จากโครงสร้างพื้นฐานนี้ได้
AWS ได้เปิดตัวผลิตภัณฑ์คลาวด์มากกว่า 200 รายการตั้งแต่ปี 2549 เมื่อเปิดตัวบริการ EC2 และ S3 สำหรับการประมวลผลและจัดเก็บข้อมูล ไม่ใช่ทั้งหมดที่ได้รับความนิยม บางรายการไม่มีการอัปเดตเป็นเวลานาน และบางรายการถูกยกเลิก ทำให้ Amazon มีอิสระในการจัดสรรทรัพยากรใหม่ อย่างไรก็ตาม บริษัทยังคงลงทุนในโปรแกรม Graviton และ Trainium ต่อไป โดยบอกว่า Amazon รับรู้ถึงความต้องการ
AWS ไม่ได้ประกาศวันวางจำหน่ายสำหรับอินสแตนซ์เครื่องเสมือนที่มีชิป Nvidia H200 หรืออินสแตนซ์ที่ใช้ซิลิคอน Trainium2 ลูกค้าสามารถเริ่มทดสอบอินสแตนซ์เครื่องเสมือน Graviton4 ได้เลยก่อนที่จะวางจำหน่ายเชิงพาณิชย์ในอีกไม่กี่เดือนข้างหน้า