Nvidia เข้มงวดการครอบงำ Cloud AI ด้วยข้อตกลงชิป AWS ครั้งใหญ่

Decrypt

สรุปโดยย่อ

  • AWS วางแผนที่จะติดตั้ง GPU Nvidia ประมาณ 1 ล้านชิ้นภายในปี 2027
  • การขยายระบบครอบคลุมการคำนวณ เครือข่าย และระบบสำหรับการรัน AI ในระดับใหญ่
  • ผู้สังเกตการณ์กล่าวว่าความต้องการ inference ที่เพิ่มขึ้นกำลังเปลี่ยนแปลงโครงสร้างพื้นฐานและการแข่งขัน

Nvidia จะจัดหา GPU ขนาดใหญ่ให้กับ Amazon Web Services จนถึงปี 2027 ขณะที่ผู้ให้บริการคลาวด์เร่งพัฒนาสิ่งอำนวยความสะดวกด้าน AI และมุ่งหวังตอบสนองความต้องการที่เพิ่มขึ้น AWS ประกาศเมื่อสัปดาห์นี้ว่ามีแผนที่จะติดตั้ง GPU Nvidia ประมาณ 1 ล้านชิ้นเป็นส่วนหนึ่งของการขยายโครงสร้างพื้นฐานด้าน AI ซึ่งผู้บริหาร Nvidia ยืนยันกับ Reuters เมื่อวันพฤหัสบดีว่าการเปิดตัวนี้คาดว่าจะดำเนินไปจนถึงสิ้นปี 2027 เริ่มตั้งแต่ปีนี้ในภูมิภาคคลาวด์ทั่วโลกของ AWS จะมีการเปิดตัวพร้อมกับการขยายความร่วมมือกับ Nvidia ในด้านเครือข่ายและโครงสร้างพื้นฐานอื่น ๆ เพื่อสร้างระบบ “สามารถคิด วิเคราะห์ และดำเนินการโดยอัตโนมัติในเวิร์กโฟลว์ที่ซับซ้อน” AWS กล่าว พร้อมชี้ให้เห็นถึงงานด้านระบบ AI ตัวแทน

 AWS ยังคงพัฒนาชิป AI สำหรับการฝึกสอนและ inference ความร่วมมือนี้ชี้ให้เห็นว่าความต้องการอาจเปลี่ยนแปลงไปในแต่ละชั้นของ AI ในขณะที่กิจกรรมที่เกี่ยวข้องกับการรันโมเดลในบริการสดก็เพิ่มขึ้น ดีลนี้เกิดขึ้นในขณะที่อัยการสหรัฐดำเนินคดีอ้างว่า Nvidia ชิปถูกลักลอบนำเข้าไปยังจีน ซึ่งทำให้การจัดหาและการควบคุมทั่วโลกของบริษัทอยู่ภายใต้การตรวจสอบอีกครั้ง ตั้งแต่ปี 2022 ชิปที่ล้ำหน้าที่สุดของ Nvidia ถูกควบคุมอย่างเข้มงวดเป็นส่วนหนึ่งของกลยุทธ์ของสหรัฐในการจำกัดความก้าวหน้าของจีนในด้านคอมพิวติ้งขั้นสูงและ AI

ความคืบหน้าที่ใกล้บ้านในวันพฤหัสบดีอาจทำให้ช่องว่างนั้นกว้างขึ้นอีก การเปลี่ยนแปลงในจังหวะ ผู้สังเกตการณ์กล่าวว่ารูปแบบของดีลนี้ให้เบาะแสเกี่ยวกับความต้องการที่กำลังเติบโตและการเปลี่ยนแปลงของโครงสร้างพื้นฐานที่รวดเร็วขึ้นเรื่อย ๆ “Nvidia กำลังกลายเป็นชั้นโครงสร้างพื้นฐานใต้ผู้ให้บริการคลาวด์ ไม่ใช่แค่ผู้ขายชิปให้พวกเขา” Dermot McGrath ผู้ร่วมก่อตั้งสตูดิโอกลยุทธ์และการเติบโต ZenGen Labs กล่าวกับ Decrypt ชิปในดีลนี้มุ่งเน้นไปที่การรันโมเดล AI ในระดับใหญ่ โดยเน้นลดต้นทุนการใช้งาน McGrath กล่าว โดยชี้ให้เห็นว่า inference ขณะนี้คิดเป็นประมาณสองในสามของการคำนวณ AI เพิ่มขึ้นจากประมาณหนึ่งในสามในปี 2023 ตลาดของชิปที่เน้น inference คาดว่าจะเกิน 50 พันล้านดอลลาร์ภายในปี 2026 เขากล่าวอ้างอิงจากประมาณการของ Deloitte AWS สามารถใช้ทั้ง Nvidia และชิปของตัวเองในระบบเดียวกัน ทำให้ลูกค้ามีทางเลือกมากกว่าคู่แข่งที่เก็บรักษาไว้เป็นความลับ McGrath อธิบาย พร้อมเสริมว่าความยืดหยุ่นนี้ “เป็นจุดแตกต่าง” “ตอนนี้ Nvidia ก็ทำสิ่งเดียวกันในระดับล่างกว่า ด้วยเครือข่ายและสถาปัตยกรรมแร็ค แทนที่จะเป็นโมเดลการเขียนโปรแกรม” เขากล่าว ชิป inference เป็นโปรเซสเซอร์ที่ออกแบบมาเพื่อรันโมเดล AI ที่ฝึกสอนแล้วในเวลาจริง โดยไม่ต้องฝึกซ้ำ

ความต้องการ inference “เป็นแรงผลักดันให้เกิดความผูกพันระยะยาว” สำหรับพลังการคำนวณที่มากขึ้น และสร้างความสัมพันธ์ใกล้ชิดระหว่างผู้ให้บริการคลาวด์และผู้ผลิตชิป Pichapen Prateepavanich นักกลยุทธ์ด้านนโยบายและผู้ก่อตั้งบริษัทโครงสร้างพื้นฐาน Gather Beyond กล่าวกับ Decrypt “ผู้ให้บริการคลาวด์ต้องการความเป็นอิสระในระยะยาว แต่ในระยะสั้นพวกเขายังต้องการให้ Nvidia คงความสามารถในการแข่งขัน” เธอกล่าว พร้อมชี้ให้เห็นว่าสิ่งนี้สร้างกลไกที่ความร่วมมือและการแข่งขันเกิดขึ้นพร้อมกัน อย่างไรก็ตาม การควบคุมโครงสร้างพื้นฐาน AI ก็เปลี่ยนแปลงเช่นกัน สิ่งที่เกิดขึ้นคือ “การพลิกโครงสร้างพื้นฐาน” เบอร์นา มิซา หุ้นส่วนดีลที่ Boardy Ventures ซึ่งเป็นกองทุนลงทุนด้าน AI กล่าวกับ Decrypt Nvidia “ฝังสแต็กเต็มของตนไว้ในด้านคอมพิวติ้ง เครือข่าย และ inference ภายในศูนย์ข้อมูล AWS ที่เคยใช้เครื่องมือของตนเองมานาน” เธอกล่าว แต่ในขณะที่ AWS พัฒนาชิป AI ของตัวเอง การเปลี่ยนแปลงนี้ “ไม่ได้เปลี่ยนคณิตศาสตร์” เธออธิบาย โดยชี้ให้เห็นว่าการ inference ขึ้นอยู่กับหลายส่วนในสแต็ก โดย Nvidia เป็นผู้จัดหาเกือบทั้งหมด “เมื่อคุณอยู่ลึกขนาดนั้นในสแต็กของลูกค้า การเปลี่ยนต้นทุนและบริบทที่ออกมาจากมันกลายเป็นแนวป้องกัน” เธอกล่าว

ดูต้นฉบับ
news.article.disclaimer
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น