การวิเคราะห์ทางเทคนิค
Vera CPU คือการประกาศอิสรภาพและการบูรณาการทางเทคนิค เป้าหมายการออกแบบหลักของมันไม่ใช่เพื่อให้ทำงานได้ดีกว่าเซิร์ฟเวอร์ CPU x86 รุ่นล่าสุดในการประมวลผลทั่วไป แต่เพื่อทำหน้าที่เป็นโฮสต์และตัวควบคุมการจราจรที่เหมาะสมที่สุดสำหรับตัวเร่งความเร็วและเส้นทางข้อมูลที่เป็นกรรมสิทธิ์ของ Nvidia ในการฝึกอบรมและอนุมาน AI สมัยใหม่ โดยเฉพาะอย่างยิ่งสำหรับเวิร์กโหลดรุ่นต่อไปที่เกี่ยวข้องกับโมเดล Transformer ขนาดใหญ่ การประมวลผลหลายรูปแบบแบบเรียลไทม์ และเอเจนต์ AI ที่ซับซ้อน การเคลื่อนย้ายข้อมูล ไม่ใช่แค่การคำนวณ กลายเป็นจุดคอขวดที่สำคัญ ความล่าช้าและความไม่มีประสิทธิภาพในการเคลื่อนย้ายข้อมูลระหว่างหน่วยความจำ CPU หน่วยความจำ GPU (ผ่าน NVLink หรือ PCIe) และข้ามเครือข่าย (ผ่าน Spectrum-X) สามารถทำให้ทรัพยากร GPU ที่มีราคาแพงถูกใช้งานไม่เต็มศักยภาพอย่างมาก
ด้วยการควบคุมตัวควบคุมหน่วยความจำ ลำดับชั้นแคช และระบบย่อย I/O ของ CPU Nvidia สามารถสร้างระบบที่บูรณาการอย่างลึกซึ้ง Vera CPU สามารถถูกออกแบบด้วยการรองรับ NVLink แบบเนทีฟเป็นอินเตอร์คอนเนกต์หลัก โดยมอง GPU ที่เชื่อมต่อไม่ใช่เป็นอุปกรณ์ต่อพ่วง แต่เป็นหน่วยประมวลผลระดับเดียวกัน มันสามารถมีโปรไฟล์แบนด์วิธและความล่าช้าของหน่วยความจำที่ปรับให้เหมาะสมสำหรับการสับเปลี่ยนพารามิเตอร์จำนวนมหาศาลของโมเดล AI ยิ่งไปกว่านั้น มันสามารถให้การบูรณาการที่แน่นหนาในระดับต่ำกับสแต็กเครือข่าย Spectrum-X ช่วยให้มีคุณสมบัติขั้นสูง เช่น การคำนวณในเครือข่ายหรือการเข้าถึงหน่วยความจำโดยตรงระยะไกล (RDMA) แบบไร้รอยต่อที่ข้ามโอเวอร์เฮดของ CPU ไปโดยสิ้นเชิง การปรับให้เหมาะสมแบบองค์รวมนี้เปลี่ยนเซิร์ฟเวอร์แบบดั้งเดิม ซึ่งมักเป็นชุดของส่วนประกอบที่ดีที่สุดที่แตกต่างกัน ให้กลายเป็นอุปกรณ์เฉพาะทางสำหรับ AI ที่เป็นหนึ่งเดียว
ผลกระทบต่ออุตสาหกรรม
การมาถึงของ Vera CPU ส่งคลื่นกระแทกผ่านระบบนิเวศฮาร์ดแวร์ AI สำหรับผู้ผลิตเซิร์ฟเวอร์อย่าง Dell, HPE และ Supermicro มันนำเสนอภาวะกลืนไม่เข้าคายไม่ออกเชิงกลยุทธ์ การนำ Vera มาใช้หมายถึงการเสนอระบบ AI ของ Nvidia ที่พร้อมใช้และอาจเหนือกว่า แต่ด้วยต้นทุนของความยืดหยุ่นที่ลดลงและการพึ่งพาผู้ขายรายเดียวที่เพิ่มขึ้น มันท้าทายโมเดลเซิร์ฟเวอร์สินค้าโภคภัณฑ์แบบ "Intel/AMD CPU + Nvidia GPU" แบบดั้งเดิมที่ครองตลาดมาหลายทศวรรษ ผู้ให้บริการคลาวด์ (CSP) อย่าง AWS, Google Cloud และ Microsoft Azure ซึ่งลงทุนอย่างหนักในการออกแบบชิปเฉพาะของตัวเอง (เช่น Trainium, TPU และ Azure Maia) อาจมองว่า Vera เป็นทั้งภัยคุกคามทางการแข่งขันและการยืนยันความถูกต้องของแนวทางการบูรณาการแนวตั้ง มันกดดันให้พวกเขาต้องทุ่มเทให้กับความพยายามด้านชิปของตัวเองให้ลึกซึ้งยิ่งขึ้น หรือเจรจาจากตำแหน่งที่มีอำนาจต่อรองอ่อนลงเล็กน้อย
สำหรับ Intel และ AMD แล้ว Vera คือการโจมตีโดยตรงต่อธุรกิจหลักในศูนย์ข้อมูลของพวกเขา แม้ว่าพวกเขาจะยังคงขับเคลื่อนเซิร์ฟเวอร์อเนกประสงค์ส่วนใหญ่ต่อไป แต่แนวหน้าของเซิร์ฟเวอร์ที่ปรับให้เหมาะสมกับ AI ซึ่งมีอัตรากำไรสูงและเติบโตสูง ตอนนี้มีคู่แข่งที่บูรณาการและน่าเกรงขามแล้ว การตอบสนองของพวกเขาน่าจะเกี่ยวข้องกับการเสริมสร้างเรื่องราวการบูรณาการ CPU-GPU ของตัวเอง (เช่น AMD Instinct MI300A APU) และสร้างพันธมิตรด้านซอฟต์แวร์และแพลตฟอร์มที่ลึกซึ้งยิ่งขึ้นเพื่อรักษาความเกี่ยวข้องในเวิร์กโหลด AI
แนวโน้มในอนาคต
Vera CPU ประกาศเริ่มต้นเฟสใหม่ของการแข่งขันที่กำหนดโดยการบูรณาการแนวตั้งและสแต็กเต็มรูปแบบ