ฉันยังไม่ได้สั่งสับเรื่องนี้
มันยังตามหาฉันเพราะมันเป็นการเดิมพันที่ชัดเจนที่สุดสำหรับผู้ที่สนใจ แต่ผมไม่ได้ลงทุนเลย
ไม่ มันไม่ใช่ฆาตกรของ Solana ต่อไป หรือ memecoin ที่มีหมาสวมหมวกตลก
มันคือ… NVIDIA
ราคาหุ้น NVDA ตลอดปีนี้ แหล่งที่มา: Google
ในเพียงหนึ่งปี NVDA 3x’d, เติบเต็มจากทุนตลาด 1 ล้านล้านเหรียญสูงสุดถึง 3 ล้านล้านเหรียญ มันได้แสดงผลดีกว่าบิตคอยน์ในช่วงเวลาเดียวกัน
แน่นอนว่าบางส่วนของมันเป็นการตบตาให้กับ AI แต่ส่วนสำคัญอย่างมากเป็นเรื่องจริง บริษัท NVIDIA รายงานรายได้ในปีงบประมาณ 2024 ที่มีมูลค่า 60 พันล้านดอลลาร์ โดยเติบโตอย่างน่าตื่นตาตื่นใจถึง 126% จากปี 2023 การเติบโตนี้เกิดจากการซื้อ GPU ของ Big Tech ในการแข่งขัน AI ระดับโลกเพื่อ AGI
ดังนั้นทำไมฉันพลาดมัน?
เป็นเวลาสองปี ฉันมุ่งเน้นไปที่คริปโตและไม่ได้มองด้านนอกไปที่เกิดขึ้นกับ AI นั่นเป็นข้อผิดพลาดที่ใหญ่ และยังคงทำให้ฉันรู้สึกผิด
แต่ฉันไม่ทำความผิดเดียวกันอีกครั้ง
วันนี้ คริปโต AI รู้สึกเหมือนกับเดิม เราอยู่บนขอบของการระเบิดนวัตกรรม ความคล้ายคลึงกับการเริ่มต้นของ Gold Rush ในแคลิฟอร์เนียในคริสต์ศตวรรษที่ 19 ยากที่จะไม่สนใจ - อุตสาหกรรมและเมืองก็เพิ่งเกิดขึ้นในตอนกลางคืน โครงสร้างพื้นฐานก็ก้าวหน้าด้วยความเร็วทะลุแท็ก และมีทรัพย์สินที่ถูกสร้างขึ้นโดยผู้ที่กล้ากระโดด
เหมือน NVIDIA ในวันก่อน คริปโต AI จะรู้สึกได้ถึงในภายหลัง
ในส่วนที่ I ของวิทยานิพนธ์ของฉัน, ฉันได้อธิบายว่าทำไม Crypto AI เป็นโอกาสที่น่าตื่นเต้นที่สุดสำหรับนักลงทุนและผู้สร้างวันนี้
นี่คือสรุปอย่างสั้น ๆ:
ที่แกนศูนย์ของมัน คริปโต AI คือ AI ที่มีโครงสร้างคริปโตชั้นบน ซึ่งหมายความว่ามันมีโอกาสมากกว่าที่จะติดตามแนวโน้มการเจริญเติบโตแบบกำลังสองของ AI มากกว่าตลาดคริปโตทั่วไป ดังนั้น เพื่อที่จะอยู่ข้างหน้า คุณต้องตั้งค่าให้เข้ากับการวิจัย AI ล่าสุดบน Arxiv และพูดคุยกับผู้ก่อตั้งที่เชื่อว่าพวกเขากำลังสร้างสิ่งใหญ่ถัดไป
ในส่วนที่ 2 ของวิทยานิพนธ์ของฉัน ฉันจะลงไปในสี่ส่วนย่อยที่มีความมั่นใจมากที่สุดใน Crypto AI:
ชิ้นงานนี้เป็นผลสรุปของการวิจัยอย่างละเอียดเป็นสัปดาห์และการสนทนากับผู้ก่อตั้งและทีมงานใน Crypto AI landscape มันไม่ได้ถูกออกแบบเพื่อเป็นการลงทุนลึกลงไปในทุกๆ ภาคส่วน - นั่นคือรู่รอกสำหรับวันอื่น
แทนที่นั่น พิจารณาให้เป็นแผนที่ระดับสูงที่ออกแบบมาเพื่อกระตุ้นความอยากรู้ความคิดเชิงวิจัยและคำแนะนำในการลงทุน
ฉันวาดภาพของระบบ AI แบบกระจายเป็นระบบนอกเลนส์: มันเริ่มต้นด้วยการคำนวณแบบกระจายและเครือข่ายข้อมูลเปิดบนด้านหนึ่ง ซึ่งเป็นพลังงานให้การฝึกฝนโมเดล AI แบบกระจาย
ทุกการอย่างจะถูกตรวจสอบจากในสู่นอก โดยใช้การบูรณาการของกลุ่มเข้ารหัส สิ่งกระตุ้นทางเศรษฐศาสตร์ทางคริปโต และเครือข่ายการประเมิน ผลลัพธ์ที่ถูกตรวจสอบเหล่านี้จะไหลเข้าสู่ตัวแทน AI ที่สามารถดำเนินการอิสระบนเชือกโซ่ รวมทั้งแอปพลิเคชัน AI สำหรับผู้บริโภคและองค์กร ที่ผู้ใช้สามารถเชื่อถือได้จริงๆ
เครือข่ายการประสานงานเชื่อมโยงทุกอย่างเข้าด้วยกันให้สื่อสารและร่วมมือได้อย่างราบรื่นทั่วระบบ
ในวิสัฉนานี้ ผู้ใดก็สามารถสร้างใน AI และสามารถเข้าถึงหนึ่งหรือมากกว่าหนึ่งชั้นของสแตกนี้ ขึ้นอยู่กับความต้องการที่เฉพาะเจาะจงของพวกเขา ไม่ว่าจะเป็นการใช้การคำนวณแบบกระจายสำหรับการฝึกโมเดลหรือใช้เครือข่ายการประเมินเพื่อให้มั่นใจว่าผลลัพธ์มีคุณภาพสูง สแตกนี้มีตัวเลือกหลากหลาย
ด้วยความสามารถในการประกอบกันของบล็อกเชนเอง ฉันเชื่อว่าเรากำลังเคลื่อนที่ไปในทิศทางของอนาคตแบบโมดูลาร์อย่างธรรมชาติ แต่ละชั้นกำลังกลายเป็นการเชี่ยวชาญอย่างเฉพาะเจาะจง ด้วยโปรโตคอลที่ถูกปรับแต่งให้เหมาะสมกับฟังก์ชันที่แตกต่างกัน ไม่ใช่การเข้าใจแบบ all-in-one
ต้นฉบับ: topology.vc
มีการระเบิดของ Cambrian ของสตาร์ทอัพที่กำลังสร้างขึ้นที่ทุกชั้นของระบบ AI แบบกระจาย ซึ่งมีบริษัทที่สร้างขึ้นมาในระยะเวลาเพียง 1 - 3 ปีที่ผ่านมาเท่านั้น มันชัดเจน: เรายังคงอยู่ในช่วงเริ่มต้น
แผนที่ที่ครอบคลุมและอัปเดตล่าสุดของ Crypto AI startup landscape ที่ฉันเคยเห็นคือการบำรุงรักษาโดย Casey และทีมของเธอที่ topology.vc. นั่นเป็นทรัพยากรที่มีค่าอันได้รับความนิยมสำหรับผู้ที่ติดตามพื้นที่ในทุกกรณี
เมื่อฉันลงตัวเข้าไปในพื้นที่ย่อยของ AI ในโลกคริปโต ฉันเสมอถามตัวเองว่าโอกาสที่นี่มีขนาดใหญ่ขนาดไหน? ฉันไม่สนใจการเดิมพันขนาดเล็ก ฉันกำลังมองหาตลาดที่สามารถขยายตัวไปสู่ร้อยล้านหรือพันล้านบาท
เรามาเริ่มต้นกับขนาดของตลาดกันเถอะ ขณะที่ฉันกำลังประเมินภาคย่อย ฉันถามตัวเองว่ามันกำลังสร้างตลาดใหม่หรือทำให้ตลาดที่มีอยู่ถูกทวีต?
ในทางกลับกัน เช่น ใช้การคำนวณแบบไม่มีกฎหมาย นี่เป็นหนึ่งในหมวดหมู่ที่ก่อให้เกิดการเปลี่ยนแปลงที่รุนแรง ซึ่งศักยภาพของมันสามารถประเมินได้โดยการมองไปที่ตลาดคอมพิวเตอร์คลาวด์ที่มีค่าประมาณ ~$680B วันนี้และคาดว่าจะถึง 2.5 ล้านล้านเหรียญในปี 2032
ตลาดใหม่ที่ไม่มีตัวอย่างเช่นเอเอไอเอเจนต์ยากมากที่จะประเมินค่าได้ โดยไม่มีข้อมูลประวัติศาสตร์การตลาดให้เป็นแนวคิดการเดาและการตรวจสอบผลสรุปในปัญหาที่พวกเขากำลังแก้ไข และข้อสรุปคือบางครั้งสิ่งที่ดูเหมือนเป็นตลาดใหม่นั้นคือเพียงแค่การหาสิ่งที่แก้ปัญหา
เวลาเป็นสิ่งที่สำคัญทุกอย่าง เทคโนโลยีมักจะดีขึ้นและถูกลงมาตามเวลา แต่ความก้าวหน้าของความคืบหน้านั้นแตกต่างกันไป
เทคโนโลยีมีความเป็นผู้ใหญ่เพียงใดในส่วนย่อยที่กําหนด? มันพร้อมที่จะขยายขนาดหรือยังอยู่ในขั้นตอนการวิจัยโดยมีการใช้งานจริงหลายปี? เวลาเป็นตัวกําหนดว่าภาคส่วนใดสมควรได้รับความสนใจทันทีหรือควรทิ้งไว้ในหมวดหมู่ “รอดู”
ในขณะนี้เรายังพบว่าเทคโนโลยีการเข้ารหัสแบบ Fully Homomorphic Encryption (FHE) ยังมีความเร็วที่ช้าเกินไปสำหรับการใช้งานทั่วไป น่าจะต้องใช้เวลาอีกหลายปีจึงจะเห็นความสามารถในการใช้งานได้แบบแพร่หลาย โดยการให้ความสำคัญกับการขยายขอบเขตในกลุ่มอุตสาหกรรมที่มีโอกาสในการเติบโตก่อนเป็นต้น ฉันสามารถใช้เวลาและพลังงานในจุดที่มีการเคลื่อนไหวและโอกาสในการเติบโต
หากฉันจะทำแผนที่หมวดหมู่เหล่านี้บนแผนภูมิขนาดเทียบกับเวลา มันจะดูเหมือนอย่างใดบางอย่างแบบนี้ โปรดทราบว่านี่มีลักษณะทางความคิดมากกว่าเป็นคู่มือที่แน่นอน มีความละเอียดมากมาย เช่นภายในการสรุปที่สามารถการันตีได้ วิธีการที่แตกต่างเช่น zkML และ opML อยู่ในระดับความพร้อมใช้งานที่แตกต่างกัน
ที่กล่าวว่าฉันเชื่อว่าขนาดของ AI จะใหญ่มากจนแม้แต่สิ่งที่ดูเหมือน “เฉพาะกลุ่ม” ในปัจจุบันก็สามารถพัฒนาเป็นตลาดที่สําคัญได้
ควรระวังว่าความคืบหน้าทางเทคโนโลยีไม่ได้เป็นเส้นตรงเสมอไป มันมักเกิดขึ้นอย่างกระโดดกระเด็น มุมมองของฉันต่อเวลาและขนาดตลาดจะเปลี่ยนไปเมื่อการพัฒนาที่เกิดขึ้นอย่างรุนแรง
โดยมีกรอบความคิดนี้ในใจ ให้เราแยกแยะแต่ละภาคย่อย
หลายทีม Crypto AI กำลังจัดตั้งตัวเพื่อใช้ประโยชน์จากขาดแคลนของ GPU ต่อความต้องการโดยการสร้างเครือข่ายที่กระจายอยู่ทั่วโลกเพื่อใช้พลังคอมพิวเตอร์ที่ถูกปิดกั้น
คุณค่าหลักของตลาด GPU คือ 3 สิ่ง
เพื่อจัดการด้านการจัดหาของตลาดนี้ เว็บไซต์ตลาดเหล่านี้จะนำเสนอบริการคำนวณจาก:
ในทางกลับกันด้านอุปสงค์สําหรับการประมวลผลแบบกระจายอํานาจในปัจจุบันมาจาก:
สิ่งสำคัญที่จำไว้: นักพัฒนามักจัดลำดับความสำคัญให้กับต้นทุนและความเชื่อถือ
Startups in this space often tout the size of their GPU supply networks as a sign of success. But this is misleading—it is a vanity metric at best.
ข้อจำกัดจริงๆ ไม่ได้อยู่ที่การจัดหาวัสดุอุปกรณ์ แต่อยู่ที่ความต้องการ ตัวชี้วัดสำคัญที่จะต้องตรวจสอบไม่ใช่จำนวน GPU ที่มีอยู่ แต่เป็นอัตราการใช้งานและจำนวน GPU ที่เช่าจริงๆ
โทเค็นเป็นเรื่องยอดเยี่ยมในการเริ่มต้นข้างบนของด้านการจัดหาวัตถุดิบ เพื่อสร้างสิ่งส่งเสริมที่จำเป็นในการขยายมากขึ้นอย่างรวดเร็ว อย่างไรก็ตาม โทเค็นไม่ได้แก้ปัญหาด้านความต้องการอย่างตรงต่อเนื่อง การทดสอบจริงคือการนำสินค้าไปสู่สถานะที่เพียงพอดี ซึ่งทำให้ความต้องการที่ซ่อนอยู่เผยแพร่ออกมา
Haseeb Qureshi (Dragonfly) พูดถึงเรื่องดีที่สุด:
นับตรงกับความเชื่อที่ได้รับความนิยม ความยากลำบากที่สุดสำหรับตลาด GPU กระจาย web3 ในปัจจุบันคือการทำให้พวกเขาทำงานได้อย่างเหมาะสม
นี่ไม่ใช่ปัญหาที่เล็กน้อย
การประสาน GPU ทั่วทั้งเครือข่ายแบบกระจายนั้นซับซ้อน โดยมีความท้าทายหลายชั้น เช่น การจัดสรรทรัพยากร การปรับขนาดปริมาณงานแบบไดนามิก การปรับสมดุลโหลดข้ามโหนดและ GPU การจัดการเวลาแฝง การถ่ายโอนข้อมูล ความทนทานต่อข้อผิดพลาด และการจัดการฮาร์ดแวร์ที่หลากหลายที่กระจัดกระจายไปทั่วภูมิภาคต่างๆ ผมสามารถไปต่อได้
การบรรลุความสำเร็จนี้ต้องใช้วิศวกรรมอย่างจริงจังและโครงสร้างเครือข่ายที่ออกแบบอย่างแข็งแรงและเหมาะสม
เพื่อให้เข้าใจได้ดี คุณสามารถพิจารณา Kubernetes ของ Google มันถูกพิจารณาว่าเป็นมาตรฐานทองสำหรับการจัดการคอนเทนเนอร์ ทำให้กระบวนการเช่นการทดสอบโหลดและปรับขนาดในสภาพแวดล้อมที่กระจาย-ที่มีความท้าทายที่คล้ายกันกับที่พบในเครือข่าย GPU ที่กระจาย Kubernetes เองถูกสร้างขึ้นบนประสบการณ์ของ Google มากกว่า 10 ปี และแม้แต่นั้นก็ใช้เวลาหลายปีของการทำซ้ำอย่างไม่รู้จบเพื่อให้ได้ถูกต้อง
บางส่วนของตลาดคอมพิวเตอร์ GPU ที่มีอยู่ในปัจจุบันสามารถจัดการกับโหลดงานขนาดเล็กได้ แต่เริ่มมีปัญหาเมื่อพยายามขยายมากขึ้น ฉันเชื่อว่าสาเหตุเกิดจากสถาปัตยกรรมที่ออกแบบไม่ดี
โอกาส/ความท้าทายอีกอย่างสำหรับเครือข่ายคอมพิวต์ที่แบ่งออกเป็นส่วนต่าง ๆ คือการให้ความเชื่อถือ: การยืนยันว่าแต่ละโหนดจริง ๆ กำลังให้พลังคำนวณตามที่อ้างอิง ปัจจุบัน การนี้ขึ้นอยู่กับชื่อเสียงของเครือข่าย และในบางกรณี ผู้ให้บริการคอมพิวต์ถูกจัดอันดับโดยคะแนนชื่อเสียง บล็อกเชนดูเหมือนจะเข้ากันได้เป็นธรรมชาติกับระบบการยืนยันโดยไม่มีการเชื่อถือ สตาร์ทอัพเช่นGensynและSpheronกำลังพยายามสร้างวิธีการที่ไม่ต้องเชื่อมั่นในการแก้ไขปัญหานี้
วันนี้ ทีม web3 มีทีมหลายทีมยังคงต้องนำผ่านอุปสรรค์เหล่านี้ ซึ่งหมายความว่าโอกาสยังมีอยู่อย่างแพร่หลาย
ขนาดของตลาดสำหรับเครือข่ายคำนวณที่ไม่ centralised มีขนาดเท่าไร?
ในปัจจุบันน่าจะเป็นเพียงเศษเล็กน้อยของอุตสาหกรรมคอมพิวเตอร์คลาวด์มูลค่า $680 พันล้านถึง $2.5 ล้านล้านเท่านั้น แต่ถึงอย่างไรก็ตาม ถ้าต้นทุนยังคงต่ำกว่าผู้ให้บริการแบบดั้งเดิม ก็จะมีความต้องการบ้างเสมอ
ฉันเชื่อว่าค่าใช้จ่ายจะยังคงต่ำในระยะเวลาใกล้ชิดถึงกลางระยะเวลาเนื่องจากมีการสนับสนุนโทเค็นและปลดล็อคการจัดหาจากผู้ใช้ที่ไม่สนใจราคา (ตัวอย่างเช่น หากฉันสามารถเช่าเล่นเกมของฉันเพื่อรับเงินเพิ่ม ฉันก็ดีใจไม่ว่าจะเป็น $20 หรือ $50 ต่อเดือน)
แต่โอกาสในการเติบโตจริงๆ สำหรับเครือข่ายคอมพิวเตอร์ที่ไม่มีการจัดกลุ่มและการขยายตัวจริงๆ ของ TAM ของพวกเขา จะเกิดขึ้นเมื่อ:
การคำนวณที่ไม่ต้องมีสิทธิ์ประกอบธุรกิจ ที่เป็นพื้นฐานสำหรับระบบโครงสร้างพื้นฐานที่มีการแจกแจงระบบ AI เพื่อให้เป็นไปตามหลักการแบบกระจาย
ถึงแม้ว่าจะมีการขยายตัวอย่างต่อเนื่องในโซ่อุปทานสำหรับซิลิคอน (เช่น GPU) ฉันเชื่อว่าเรายังอยู่ในยุคอัจฉริยะของมนุษย์เพียงแต่เริ่มต้นเท่านั้น จะมีความต้องการสูงสุดที่ไม่เพียงพอสำหรับการคำนวณ
เฝ้ารอจุดสัมผัสที่อาจเป็นสาเหตุให้เกิดการปรับราคาใหม่ของตลาด GPU ที่ทำงานอยู่ทั้งหมด น่าจะเกิดขึ้นเร็ว ๆ นี้
สมมติว่า: โมเดล AI ที่ใหญ่มากที่เปลี่ยนแปลงโลก ไม่ได้ถูกพัฒนาขึ้นในห้องปฏิบัติการที่ลับ ๆ แต่ถูกนำมาสู่ชีวิตโดยล้าน ๆ คนทั่ว ๆ ไป นักเล่นเกมที่ GPU ของพวกเขาโดยทั่วไปจะสร้างการระเบิดฉายเฉลี่ยของ Call of Duty ตอนนี้จะให้ฮาร์ดแวร์ของพวกเขาสู่สิ่งที่ยิ่งใหญ่ขึ้น - โมเดล AI แบบเปิดซอร์สที่เป็นเจ้าของร่วมกันโดยไม่มีผู้ควบคุมที่เป็นศูนย์กลาง
ในอนาคตนี้ รูปแบบขนาดพื้นฐานไม่ใช่แค่ของห้องปฏิบัติการ AI ชั้นนำ
แต่ให้เรามาเชื่อมโยงวิสัยทัศน์นี้กับความเป็นจริงในปัจจุบัน ตอนนี้การฝึกอบรม AI หนักของส่วนใหญ่ยังคงอยู่ภายในศูนย์ข้อมูลที่มีศูนย์กลาง และน่าจะเป็นปกติสำหรับระยะเวลาหนึ่ง
บริษัทเช่น OpenAI กำลังขยายขนาดคลัสเตอร์ขนาดใหญ่ของพวกเขา อีลอน มัสก์เร็วประกาศว่า xAI กำลังจะเสร็จสิ้นศูนย์ข้อมูลที่มีประสิทธิภาพเทียบเท่ากับ 200,000 H100 GPUs
แต่มันไม่ได้เกี่ยวกับจำนวน GPU ที่เพียงอย่างเดียว Model FLOPS utilization (MFU)—ค่าเมตริกที่ถูกนำเข้าในกระดาษ PaLM ของ Googleในปี 2022 - ติดตามว่าการใช้งานความจุสูงสุดของ GPU อย่างไรบ้างโดยมีการใช้งานอย่างมีประสิทธิภาพ น่าแปลกใจที่ MFU มักจะอยู่ที่ระดับประมาณ 35-40%
ทำไมต่ำอย่างนี้? ในขณะที่ประสิทธิภาพ GPU ได้เพิ่มขึ้นอย่างมากในระยะเวลาหลายปีตามกฏของ Moore แต่การปรับปรุงเครือข่าย หน่วยความจำ และการเก็บข้อมูลยังคงหลงเหลืออย่างมาก ทำให้เกิดปัญหาขีดจำกัด ในทางผลกระทบ GPU มักนั่งเงยหรือว่างเหลือรอข้อมูล
การฝึกอบรม AI ยังคงมีการจัดกลุ่มอยู่สูงอยู่ในปัจจุบันเพราะข้อเดียวหนึ่ง - ประสิทธิภาพ
การฝึกอบรมโมเดลขนาดใหญ่ขึ้นอยู่กับเทคนิค เช่น:
• ความแบ่งเบาของข้อมูล: แบ่งชุดข้อมูลบน GPU หลายตัวเพื่อดำเนินการพร้อมกันเพื่อเร่งกระบวนการฝึกอบรม
• การแบ่งขนาดตัวแบบ: การกระจายส่วนของตัวแบบไปยัง GPU เพื่อหลีกเลี่ยงปัญหาข้อจำกัดของหน่วยความจำ
วิธีเหล่านี้ต้องการ GPU เพื่อแลกเปลี่ยนข้อมูลอย่างต่อเนื่อง ทำให้ความเร็วในการเชื่อมต่อ - อัตราที่ข้อมูลถูกส่งผ่านระหว่างคอมพิวเตอร์ในเครือข่าย - เป็นสิ่งที่สำคัญอย่างยิ่ง
เมื่อการฝึกอบรมโมเดล AI ด้านด้านหน้าสามารถทำให้ค่าใช้จ่ายเกิน 1 พันล้านเหรียญ ทุกความมีประสิทธิภาพมีความสำคัญ
ด้วยการเชื่อมต่อแบบสูงความเร็วศูนย์กลางศูนย์ข้อมูลช่วยให้การถ่ายโอนข้อมูลระหว่าง GPU เร็วขึ้นและสร้างความประหยัดในต้นทุนในเวลาการฝึกอบรมที่ระบบกระจายไม่สามารถเทียบเท่าได้…แต่ในขณะนี้
หากคุณพูดคุยกับคนที่ทำงานในพื้นที่ AI มากมายจะบอกคุณว่าการฝึกอบรมแบบกระจายก็ไม่สามารถทำงานได้
ในการตั้งค่าแบบกระจายอํานาจคลัสเตอร์ GPU ไม่ได้อยู่ร่วมกันทางกายภาพดังนั้นการถ่ายโอนข้อมูลระหว่างกันจึงช้ากว่ามากและกลายเป็นคอขวด การฝึกอบรมต้องใช้ GPU เพื่อซิงค์และแลกเปลี่ยนข้อมูลในแต่ละขั้นตอน ยิ่งห่างกันมากเท่าไหร่เวลาแฝงก็จะยิ่งสูงขึ้นเท่านั้น เวลาแฝงที่สูงขึ้นหมายถึงความเร็วในการฝึกอบรมที่ช้าลงและค่าใช้จ่ายที่สูงขึ้น
สิ่งที่อาจใช้เวลาไม่กี่วันในศูนย์ข้อมูลที่มีการควบคุมจากศูนย์กลาง อาจจะใช้เวลายาวถึงสองสัปดาห์ในกรณีที่ใช้วิธีการกระจายอย่างไม่มีการควบคุม โดยราคาที่สูงขึ้น ซึ่งเป็นสิ่งที่ไม่เป็นไปตามหลักการ
แต่สิ่งนี้กำลังจะเปลี่ยนแปลง
ข่าวดีคือมีการเพิ่มขึ้นอย่างมากในการสนใจในการวิจัยเกี่ยวกับการฝึกอบรมแบบกระจาย นักวิจัยกำลังสำรวจวิธีการหลายวิธีพร้อมกัน ตามที่เห็นได้จากการศึกษาและงานวิจัยที่ตีพิมพ์ออกมาเป็นจำนวนมาก ความก้าวหน้าเหล่านี้จะสะสมและเพิ่มขึ้นเรื่อยๆ ทำให้ความคืบหน้าในพื้นที่นี้เร่งขึ้น
มันเกี่ยวกับการทดสอบในการใช้งานจริงและเห็นว่าเราสามารถดันขีดจำกัดได้มากน้อยเพียงใด
บางเทคนิคการฝึกอบรมแบบกระจายที่สามารถจัดการกับโมเดลขนาดเล็กในสภาพแวดล้อมการเชื่อมต่อที่ช้าได้แล้ว ตอนนี้ งานวิจัยด้านหน้ากำลังผลักดันให้เมธอดเหล่านี้ขยายตัวไปสู่โมเดลที่ใหญ่ขึ้นเรื่อย ๆ
ความท้าทายอีกอย่างคือการจัดการกับหลากหลายของฮาร์ดแวร์ GPU ที่รวมถึง GPU ระดับผู้บริโภคที่มีหน่วยความจำจำกัดซึ่งเป็นที่พบขึ้นในเครือข่ายแบบกระจาย การใช้เทคนิคเช่นการแบ่งโมเดลตามพาราเลล (การแบ่งชั้นโมเดลในอุปกรณ์ต่าง ๆ) สามารถช่วยทำให้เป็นไปได้
วิธีการฝึกอบรมแบบกระจายปัจจุบันยังจำกัดขนาดโมเดลที่ต่ำกว่าทางหน้า (GPT-4 รายงานว่าใกล้เคียงกับพารามิเตอร์หนึ่งล้านล้าน ใหญ่กว่าโมเดลของ Prime Intellect 10B 100 เท่า) เพื่อขยายขนาดอย่างแท้จริงเราจะต้องมีการพัฒนาโมเดลที่เป็นบุคคลที่สำคัญ พื้นฐานการเชื่อมต่อเครือข่ายที่ดีขึ้น และการแบ่งงานอย่างฉลาดในอุปกรณ์
และเราสามารถฝันใหญ่ จินตนาการถึงโลกที่การฝึกอบรมแบบกระจายสามารถรวมพลังการคำนวณ GPU ได้มากกว่าศูนย์ข้อมูลที่ใหญ่ที่สุดที่เคยรวมพลังได้อีกด้วย
Pluralis Research (ทีมที่เฉียบคมในการฝึกอบรมแบบกระจายอํานาจ ที่ต้องจับตามองอย่างใกล้ชิด) ให้เหตุผลว่านี่ไม่ใช่เพียงความเป็นไปได้—มันหลีกเลี่ยงไม่ได้ ศูนย์ข้อมูลแบบรวมศูนย์ถูกผูกมัดด้วยข้อ จํากัด ทางกายภาพเช่นพื้นที่และ ความพร้อมใช้งานของพลังงาน, ในขณะที่เครือข่ายที่ไม่มีศูนย์กลางสามารถเข้าถึงทรัพยากรทั่วโลกที่ไมีขีดจำกัดอย่างมีประสิทธิภาพ
นอกจากนี้ แม้ว่าเจนเซน ฮวัง ของ NVIDIA ยังได้รับการรับรองการฝึกอบรมแบบกระจายแบบ asyncสามารถปลดล็อกศักยภาพจริงของการสเกล AI ได้ Distributed training networks ยังมีความทนทานต่อข้อผิดพลาดมากกว่า
ดังนั้น ในอนาคตที่เป็นไปได้หนึ่ง โมเดล AI ที่ทรงพลิกศพที่สุดของโลกจะถูกฝึกอบรมในลักษณะที่กระจาย
เป็นแนวคิดที่น่าตื่นเต้น แต่ฉันยังไม่ได้เชื่ออย่างสมบูรณ์ ต้องมีหลักฐานที่แข็งแกร่งกว่านี้ว่าการฝึกอบรมแบบกระจายของโมเดลที่ใหญ่ที่สุดเป็นเรื่องที่เป็นไปได้ทั้งจากด้านเทคนิคและเศรษฐศาสตร์
นี่คือจุดที่ฉันเห็นว่ามีความสัญจร: จุดที่น่าสนใจของการฝึกอบรมแบบกระจายอาจอยู่ในโมเดลเล็ก ๆ ที่เชี่ยวชาญ เปิดเผยแบบซอร์ซที่ออกแบบมาสำหรับกรณีการใช้เป้าหมาย ไม่ใช่การแข่งขันกับโมเดลแหล่งข้อมูลขนาดใหญ่มากมายที่ใช้ AGI แบบต่างๆ สถาปัตยกรรมบางประเภทโดยเฉพาะโมเดลที่ไม่ใช่ตัวแปร ได้พิสูจน์อยู่แล้วว่าเหมาะสมอย่างธรรมชาติสำหรับการตั้งค่าแบบกระจาย
และยังมีอีกส่วนหนึ่งของปริศนานี้: โทเค็น หลังจากที่การฝึกอบรมแบบกระจายเป็นไปได้ในมาตราส่วนใหญ่ โทเค็นอาจมีบทบาทสำคัญในการแรงบันดาลใจและรางวัลผู้มีส่วนร่วม ทำให้เกิดเครือข่ายเหล่านี้ในที่สุด
ทางสู่วิสัยนี้ยาว แต่ความคืบหน้ามีความหวังอย่างยิ่ง การก้าวหน้าในการฝึกอบรมแบบกระจายจะเป็นประโยชน์ต่อทุกคน แม้แต่บริษัทเทคโนโลยีชั้นนำและห้องปฏิบัติการวิจัย AI ระดับยอด เนื่องจากขนาดของโมเดลในอนาคตจะเพิ่มขึ้นเหนือความจุของศูนย์ข้อมูลเดียว
อนาคตถูกกระจายไปทั่ว และเมื่อเทคโนโลยีที่ถือความเป็นไปได้ที่กว้างขวางเช่นนี้ ประวัติศาสตร์แสดงให้เห็นว่ามันจะดีขึ้นเร็วกว่าใครๆคาด
ขณะนี้ พลังการคำนวณส่วนใหญ่ใน AI กำลังถูกนำเข้าไปในการฝึกโมเดลขนาดใหญ่ ห้องปฏิบัติการ AI ชั้นนำกำลังอยู่ในกรณีการแข่งขันเพื่อพัฒนาโมเดลรากฐานที่ดีที่สุดและในที่สุดเรียกได้ว่าได้ AGI
แต่นี่คือความคิดของฉัน: การใส่ใจอย่างสุดครีบต่อการฝึกอบรมจะเปลี่ยนแปลงเป็นการอบรมในอีกไม่กี่ปีข้างหน้า ภายในเวลาที่ AI เริ่มเข้าไปในแอปพลิเคชันที่เราใช้ในชีวิตประจำวัน - ตั้งแต่ด้านสุขภาพจนถึงด้านบันเทิง - ทรัพยากรคอมพิวเตอร์ที่ต้องใช้ในการสนับสนุนอบรมจะเป็นไปอย่างน่าทึ่ง
และมันไม่ได้เพียงแค่การคาดเดา การปรับปริมาณการคำนวณในเวลาที่ต้องการเป็นคำที่ฮอตใน AI ล่าสุด OpenAI ได้ปล่อยตัวอย่าง/เวอร์ชันมินิของโมเดลล่าสุดของตัวเอง o1 (ชื่อเรหัส: Strawberry) และการเปลี่ยนแปลงที่ใหญ่? มันใช้เวลาในการคิดโดยการถามตัวเองก่อนว่าขั้นตอนที่ควรทำเพื่อตอบคำถามคืออะไร จากนั้นผ่านขั้นตอนแต่ละขั้น
โมเดลนี้ถูกออกแบบสำหรับงานที่ซับซ้อนมากขึ้น และต้องการการวางแผนอย่างมาก เช่น การแก้ปัญหาบทบาท—และจัดการกับปัญหาที่ต้องการความคิดที่ลึกซึ้งมากขึ้น คุณจะรู้สึกได้ว่ามันช้าลง ใช้เวลามากขึ้นในการสร้างคำตอบ แต่ผลลัพธ์ที่ได้นั้นมีความคิดหลักและถ่วงหนักมากขึ้น นอกจากนี้ การเรียกใช้งานก็มีราคาสูงมากขึ้น25 เท่าของต้นทุน GPT-4)
การเปลี่ยนแนวคิดชัดเจน: กระโดดข้ามในประสิทธิภาพ AI ครั้งถัดไปจะไม่เกิดจากการฝึกโมเดลขนาดใหญ่เท่านั้น แต่ยังเกิดจากการขยายการใช้งานคอมพิวเตอร์ในขณะที่เป็นการอนุมาน
If you want to read more, several research เอกสารแสดงให้เห็น:
เมื่อโมเดลที่มีพลังงานสูงถูกฝึกฝูง งานที่เกิดขึ้นในขณะที่โมเดลทำสิ่งต่างๆ สามารถถูกโอนออกไปที่เครือข่ายการคำนวณแบบกระจาย นี่ทำให้มีความหมายมากเพราะ:
คิดถึงการสรุปข้อมูลแบบกระจายเหมือน CDN (เครือข่ายการส่งเนื้อหา) สำหรับ AI: แทนที่จะส่งเว็บไซต์อย่างรวดเร็วโดยการเชื่อมต่อกับเซิร์ฟเวอร์ใกล้เคียง การสรุปข้อมูลแบบกระจายนำไปสู่การใช้พลังการคำนวณในพื้นที่เพื่อส่งคำตอบของ AI ได้เร็วที่สุด ด้วยการยอมรับการสรุปข้อมูลแบบกระจาย แอป AI กลายเป็นเร็ว ตอบสนองได้ และเชื่อถือได้มากขึ้น
แนวโน้มชัดเจน ชิป M4 Pro ใหม่ของ Apple เปรียบเทียบกับ NVIDIA ของคู่แข่งRTX 3070 Ti—a GPU that, until recently, was the domain of hardcore gamers. The hardware we already have is increasingly capable of handling advanced AI workloads.
เพื่อให้เครือข่ายการออกแบบแบบกระจายสำเร็จ จะต้องมีแรงจูงใจทางเศรษฐศาสตร์ที่น่าสนใจสำหรับการเข้าร่วม โหนดในเครือข่ายจำเป็นต้องได้รับค่าตอบแทนสำหรับการมีส่วนร่วมของพวกเขาในการคำนวณ ระบบจะต้องรับประกันการกระจายของรางวัลที่ถูกต้องและมีประสิทธิภาพ ความหลากหลายทางภูมิภาคเป็นสิ่งสำคัญ ลดค่าคลื่นไปยังงานคำนวณและเพิ่มความทนทานต่อข้อผิดพลาด
และวิธีที่ดีที่สุดในการสร้างเครือข่ายที่กระจายศูนย์กลาง? คริปโต
โทเค็นเป็นกลไกที่มีประสิทธิภาพในการจัดตําแหน่งความสนใจของผู้เข้าร่วมเพื่อให้แน่ใจว่าทุกคนกําลังทํางานเพื่อเป้าหมายเดียวกัน: ปรับขนาดเครือข่ายและเพิ่มมูลค่าของโทเค็น
โทเค็นยังเพิ่มความเร็วในการเติบโตของเครือข่าย พวกเขาช่วยแก้ปัญหาไก่ตัวเดียวกับไข่ตัวเดียวที่ทำให้เครือข่ายส่วนใหญ่หยุดชะงักโดยการระบายเงินตอบแทนผู้ใช้ในระบบและส่งเสริมการเข้าร่วมตั้งแต่วันแรก
ความสำเร็จของ Bitcoin และ Ethereum พิสูจน์ให้เห็นว่าพวกเขาได้รวบรวมกลุ่มของพลังคอมพิวเตอร์ที่ใหญ่ที่สุดบนโลกแล้ว
เครือข่ายการวินิจฉัยที่ไม่มีศูนย์กลางคืออันดับถัดไป ด้วยความหลากหลายทางภูมิภาคพวกเขาลดความล่าช้า เพิ่มความคลาดเคลื่อนและนำ AI ใกล้กับผู้ใช้มากขึ้น และด้วยสิทธิ์และแรงกระตุ้นจากคริปโตพวกเขาจะขยายตัวได้เร็วกว่าเครือข่ายทั่วไป และดีกว่าที่เคยได้
ฉันยังไม่ได้สั่งสับเรื่องนี้
มันยังตามหาฉันเพราะมันเป็นการเดิมพันที่ชัดเจนที่สุดสำหรับผู้ที่สนใจ แต่ผมไม่ได้ลงทุนเลย
ไม่ มันไม่ใช่ฆาตกรของ Solana ต่อไป หรือ memecoin ที่มีหมาสวมหมวกตลก
มันคือ… NVIDIA
ราคาหุ้น NVDA ตลอดปีนี้ แหล่งที่มา: Google
ในเพียงหนึ่งปี NVDA 3x’d, เติบเต็มจากทุนตลาด 1 ล้านล้านเหรียญสูงสุดถึง 3 ล้านล้านเหรียญ มันได้แสดงผลดีกว่าบิตคอยน์ในช่วงเวลาเดียวกัน
แน่นอนว่าบางส่วนของมันเป็นการตบตาให้กับ AI แต่ส่วนสำคัญอย่างมากเป็นเรื่องจริง บริษัท NVIDIA รายงานรายได้ในปีงบประมาณ 2024 ที่มีมูลค่า 60 พันล้านดอลลาร์ โดยเติบโตอย่างน่าตื่นตาตื่นใจถึง 126% จากปี 2023 การเติบโตนี้เกิดจากการซื้อ GPU ของ Big Tech ในการแข่งขัน AI ระดับโลกเพื่อ AGI
ดังนั้นทำไมฉันพลาดมัน?
เป็นเวลาสองปี ฉันมุ่งเน้นไปที่คริปโตและไม่ได้มองด้านนอกไปที่เกิดขึ้นกับ AI นั่นเป็นข้อผิดพลาดที่ใหญ่ และยังคงทำให้ฉันรู้สึกผิด
แต่ฉันไม่ทำความผิดเดียวกันอีกครั้ง
วันนี้ คริปโต AI รู้สึกเหมือนกับเดิม เราอยู่บนขอบของการระเบิดนวัตกรรม ความคล้ายคลึงกับการเริ่มต้นของ Gold Rush ในแคลิฟอร์เนียในคริสต์ศตวรรษที่ 19 ยากที่จะไม่สนใจ - อุตสาหกรรมและเมืองก็เพิ่งเกิดขึ้นในตอนกลางคืน โครงสร้างพื้นฐานก็ก้าวหน้าด้วยความเร็วทะลุแท็ก และมีทรัพย์สินที่ถูกสร้างขึ้นโดยผู้ที่กล้ากระโดด
เหมือน NVIDIA ในวันก่อน คริปโต AI จะรู้สึกได้ถึงในภายหลัง
ในส่วนที่ I ของวิทยานิพนธ์ของฉัน, ฉันได้อธิบายว่าทำไม Crypto AI เป็นโอกาสที่น่าตื่นเต้นที่สุดสำหรับนักลงทุนและผู้สร้างวันนี้
นี่คือสรุปอย่างสั้น ๆ:
ที่แกนศูนย์ของมัน คริปโต AI คือ AI ที่มีโครงสร้างคริปโตชั้นบน ซึ่งหมายความว่ามันมีโอกาสมากกว่าที่จะติดตามแนวโน้มการเจริญเติบโตแบบกำลังสองของ AI มากกว่าตลาดคริปโตทั่วไป ดังนั้น เพื่อที่จะอยู่ข้างหน้า คุณต้องตั้งค่าให้เข้ากับการวิจัย AI ล่าสุดบน Arxiv และพูดคุยกับผู้ก่อตั้งที่เชื่อว่าพวกเขากำลังสร้างสิ่งใหญ่ถัดไป
ในส่วนที่ 2 ของวิทยานิพนธ์ของฉัน ฉันจะลงไปในสี่ส่วนย่อยที่มีความมั่นใจมากที่สุดใน Crypto AI:
ชิ้นงานนี้เป็นผลสรุปของการวิจัยอย่างละเอียดเป็นสัปดาห์และการสนทนากับผู้ก่อตั้งและทีมงานใน Crypto AI landscape มันไม่ได้ถูกออกแบบเพื่อเป็นการลงทุนลึกลงไปในทุกๆ ภาคส่วน - นั่นคือรู่รอกสำหรับวันอื่น
แทนที่นั่น พิจารณาให้เป็นแผนที่ระดับสูงที่ออกแบบมาเพื่อกระตุ้นความอยากรู้ความคิดเชิงวิจัยและคำแนะนำในการลงทุน
ฉันวาดภาพของระบบ AI แบบกระจายเป็นระบบนอกเลนส์: มันเริ่มต้นด้วยการคำนวณแบบกระจายและเครือข่ายข้อมูลเปิดบนด้านหนึ่ง ซึ่งเป็นพลังงานให้การฝึกฝนโมเดล AI แบบกระจาย
ทุกการอย่างจะถูกตรวจสอบจากในสู่นอก โดยใช้การบูรณาการของกลุ่มเข้ารหัส สิ่งกระตุ้นทางเศรษฐศาสตร์ทางคริปโต และเครือข่ายการประเมิน ผลลัพธ์ที่ถูกตรวจสอบเหล่านี้จะไหลเข้าสู่ตัวแทน AI ที่สามารถดำเนินการอิสระบนเชือกโซ่ รวมทั้งแอปพลิเคชัน AI สำหรับผู้บริโภคและองค์กร ที่ผู้ใช้สามารถเชื่อถือได้จริงๆ
เครือข่ายการประสานงานเชื่อมโยงทุกอย่างเข้าด้วยกันให้สื่อสารและร่วมมือได้อย่างราบรื่นทั่วระบบ
ในวิสัฉนานี้ ผู้ใดก็สามารถสร้างใน AI และสามารถเข้าถึงหนึ่งหรือมากกว่าหนึ่งชั้นของสแตกนี้ ขึ้นอยู่กับความต้องการที่เฉพาะเจาะจงของพวกเขา ไม่ว่าจะเป็นการใช้การคำนวณแบบกระจายสำหรับการฝึกโมเดลหรือใช้เครือข่ายการประเมินเพื่อให้มั่นใจว่าผลลัพธ์มีคุณภาพสูง สแตกนี้มีตัวเลือกหลากหลาย
ด้วยความสามารถในการประกอบกันของบล็อกเชนเอง ฉันเชื่อว่าเรากำลังเคลื่อนที่ไปในทิศทางของอนาคตแบบโมดูลาร์อย่างธรรมชาติ แต่ละชั้นกำลังกลายเป็นการเชี่ยวชาญอย่างเฉพาะเจาะจง ด้วยโปรโตคอลที่ถูกปรับแต่งให้เหมาะสมกับฟังก์ชันที่แตกต่างกัน ไม่ใช่การเข้าใจแบบ all-in-one
ต้นฉบับ: topology.vc
มีการระเบิดของ Cambrian ของสตาร์ทอัพที่กำลังสร้างขึ้นที่ทุกชั้นของระบบ AI แบบกระจาย ซึ่งมีบริษัทที่สร้างขึ้นมาในระยะเวลาเพียง 1 - 3 ปีที่ผ่านมาเท่านั้น มันชัดเจน: เรายังคงอยู่ในช่วงเริ่มต้น
แผนที่ที่ครอบคลุมและอัปเดตล่าสุดของ Crypto AI startup landscape ที่ฉันเคยเห็นคือการบำรุงรักษาโดย Casey และทีมของเธอที่ topology.vc. นั่นเป็นทรัพยากรที่มีค่าอันได้รับความนิยมสำหรับผู้ที่ติดตามพื้นที่ในทุกกรณี
เมื่อฉันลงตัวเข้าไปในพื้นที่ย่อยของ AI ในโลกคริปโต ฉันเสมอถามตัวเองว่าโอกาสที่นี่มีขนาดใหญ่ขนาดไหน? ฉันไม่สนใจการเดิมพันขนาดเล็ก ฉันกำลังมองหาตลาดที่สามารถขยายตัวไปสู่ร้อยล้านหรือพันล้านบาท
เรามาเริ่มต้นกับขนาดของตลาดกันเถอะ ขณะที่ฉันกำลังประเมินภาคย่อย ฉันถามตัวเองว่ามันกำลังสร้างตลาดใหม่หรือทำให้ตลาดที่มีอยู่ถูกทวีต?
ในทางกลับกัน เช่น ใช้การคำนวณแบบไม่มีกฎหมาย นี่เป็นหนึ่งในหมวดหมู่ที่ก่อให้เกิดการเปลี่ยนแปลงที่รุนแรง ซึ่งศักยภาพของมันสามารถประเมินได้โดยการมองไปที่ตลาดคอมพิวเตอร์คลาวด์ที่มีค่าประมาณ ~$680B วันนี้และคาดว่าจะถึง 2.5 ล้านล้านเหรียญในปี 2032
ตลาดใหม่ที่ไม่มีตัวอย่างเช่นเอเอไอเอเจนต์ยากมากที่จะประเมินค่าได้ โดยไม่มีข้อมูลประวัติศาสตร์การตลาดให้เป็นแนวคิดการเดาและการตรวจสอบผลสรุปในปัญหาที่พวกเขากำลังแก้ไข และข้อสรุปคือบางครั้งสิ่งที่ดูเหมือนเป็นตลาดใหม่นั้นคือเพียงแค่การหาสิ่งที่แก้ปัญหา
เวลาเป็นสิ่งที่สำคัญทุกอย่าง เทคโนโลยีมักจะดีขึ้นและถูกลงมาตามเวลา แต่ความก้าวหน้าของความคืบหน้านั้นแตกต่างกันไป
เทคโนโลยีมีความเป็นผู้ใหญ่เพียงใดในส่วนย่อยที่กําหนด? มันพร้อมที่จะขยายขนาดหรือยังอยู่ในขั้นตอนการวิจัยโดยมีการใช้งานจริงหลายปี? เวลาเป็นตัวกําหนดว่าภาคส่วนใดสมควรได้รับความสนใจทันทีหรือควรทิ้งไว้ในหมวดหมู่ “รอดู”
ในขณะนี้เรายังพบว่าเทคโนโลยีการเข้ารหัสแบบ Fully Homomorphic Encryption (FHE) ยังมีความเร็วที่ช้าเกินไปสำหรับการใช้งานทั่วไป น่าจะต้องใช้เวลาอีกหลายปีจึงจะเห็นความสามารถในการใช้งานได้แบบแพร่หลาย โดยการให้ความสำคัญกับการขยายขอบเขตในกลุ่มอุตสาหกรรมที่มีโอกาสในการเติบโตก่อนเป็นต้น ฉันสามารถใช้เวลาและพลังงานในจุดที่มีการเคลื่อนไหวและโอกาสในการเติบโต
หากฉันจะทำแผนที่หมวดหมู่เหล่านี้บนแผนภูมิขนาดเทียบกับเวลา มันจะดูเหมือนอย่างใดบางอย่างแบบนี้ โปรดทราบว่านี่มีลักษณะทางความคิดมากกว่าเป็นคู่มือที่แน่นอน มีความละเอียดมากมาย เช่นภายในการสรุปที่สามารถการันตีได้ วิธีการที่แตกต่างเช่น zkML และ opML อยู่ในระดับความพร้อมใช้งานที่แตกต่างกัน
ที่กล่าวว่าฉันเชื่อว่าขนาดของ AI จะใหญ่มากจนแม้แต่สิ่งที่ดูเหมือน “เฉพาะกลุ่ม” ในปัจจุบันก็สามารถพัฒนาเป็นตลาดที่สําคัญได้
ควรระวังว่าความคืบหน้าทางเทคโนโลยีไม่ได้เป็นเส้นตรงเสมอไป มันมักเกิดขึ้นอย่างกระโดดกระเด็น มุมมองของฉันต่อเวลาและขนาดตลาดจะเปลี่ยนไปเมื่อการพัฒนาที่เกิดขึ้นอย่างรุนแรง
โดยมีกรอบความคิดนี้ในใจ ให้เราแยกแยะแต่ละภาคย่อย
หลายทีม Crypto AI กำลังจัดตั้งตัวเพื่อใช้ประโยชน์จากขาดแคลนของ GPU ต่อความต้องการโดยการสร้างเครือข่ายที่กระจายอยู่ทั่วโลกเพื่อใช้พลังคอมพิวเตอร์ที่ถูกปิดกั้น
คุณค่าหลักของตลาด GPU คือ 3 สิ่ง
เพื่อจัดการด้านการจัดหาของตลาดนี้ เว็บไซต์ตลาดเหล่านี้จะนำเสนอบริการคำนวณจาก:
ในทางกลับกันด้านอุปสงค์สําหรับการประมวลผลแบบกระจายอํานาจในปัจจุบันมาจาก:
สิ่งสำคัญที่จำไว้: นักพัฒนามักจัดลำดับความสำคัญให้กับต้นทุนและความเชื่อถือ
Startups in this space often tout the size of their GPU supply networks as a sign of success. But this is misleading—it is a vanity metric at best.
ข้อจำกัดจริงๆ ไม่ได้อยู่ที่การจัดหาวัสดุอุปกรณ์ แต่อยู่ที่ความต้องการ ตัวชี้วัดสำคัญที่จะต้องตรวจสอบไม่ใช่จำนวน GPU ที่มีอยู่ แต่เป็นอัตราการใช้งานและจำนวน GPU ที่เช่าจริงๆ
โทเค็นเป็นเรื่องยอดเยี่ยมในการเริ่มต้นข้างบนของด้านการจัดหาวัตถุดิบ เพื่อสร้างสิ่งส่งเสริมที่จำเป็นในการขยายมากขึ้นอย่างรวดเร็ว อย่างไรก็ตาม โทเค็นไม่ได้แก้ปัญหาด้านความต้องการอย่างตรงต่อเนื่อง การทดสอบจริงคือการนำสินค้าไปสู่สถานะที่เพียงพอดี ซึ่งทำให้ความต้องการที่ซ่อนอยู่เผยแพร่ออกมา
Haseeb Qureshi (Dragonfly) พูดถึงเรื่องดีที่สุด:
นับตรงกับความเชื่อที่ได้รับความนิยม ความยากลำบากที่สุดสำหรับตลาด GPU กระจาย web3 ในปัจจุบันคือการทำให้พวกเขาทำงานได้อย่างเหมาะสม
นี่ไม่ใช่ปัญหาที่เล็กน้อย
การประสาน GPU ทั่วทั้งเครือข่ายแบบกระจายนั้นซับซ้อน โดยมีความท้าทายหลายชั้น เช่น การจัดสรรทรัพยากร การปรับขนาดปริมาณงานแบบไดนามิก การปรับสมดุลโหลดข้ามโหนดและ GPU การจัดการเวลาแฝง การถ่ายโอนข้อมูล ความทนทานต่อข้อผิดพลาด และการจัดการฮาร์ดแวร์ที่หลากหลายที่กระจัดกระจายไปทั่วภูมิภาคต่างๆ ผมสามารถไปต่อได้
การบรรลุความสำเร็จนี้ต้องใช้วิศวกรรมอย่างจริงจังและโครงสร้างเครือข่ายที่ออกแบบอย่างแข็งแรงและเหมาะสม
เพื่อให้เข้าใจได้ดี คุณสามารถพิจารณา Kubernetes ของ Google มันถูกพิจารณาว่าเป็นมาตรฐานทองสำหรับการจัดการคอนเทนเนอร์ ทำให้กระบวนการเช่นการทดสอบโหลดและปรับขนาดในสภาพแวดล้อมที่กระจาย-ที่มีความท้าทายที่คล้ายกันกับที่พบในเครือข่าย GPU ที่กระจาย Kubernetes เองถูกสร้างขึ้นบนประสบการณ์ของ Google มากกว่า 10 ปี และแม้แต่นั้นก็ใช้เวลาหลายปีของการทำซ้ำอย่างไม่รู้จบเพื่อให้ได้ถูกต้อง
บางส่วนของตลาดคอมพิวเตอร์ GPU ที่มีอยู่ในปัจจุบันสามารถจัดการกับโหลดงานขนาดเล็กได้ แต่เริ่มมีปัญหาเมื่อพยายามขยายมากขึ้น ฉันเชื่อว่าสาเหตุเกิดจากสถาปัตยกรรมที่ออกแบบไม่ดี
โอกาส/ความท้าทายอีกอย่างสำหรับเครือข่ายคอมพิวต์ที่แบ่งออกเป็นส่วนต่าง ๆ คือการให้ความเชื่อถือ: การยืนยันว่าแต่ละโหนดจริง ๆ กำลังให้พลังคำนวณตามที่อ้างอิง ปัจจุบัน การนี้ขึ้นอยู่กับชื่อเสียงของเครือข่าย และในบางกรณี ผู้ให้บริการคอมพิวต์ถูกจัดอันดับโดยคะแนนชื่อเสียง บล็อกเชนดูเหมือนจะเข้ากันได้เป็นธรรมชาติกับระบบการยืนยันโดยไม่มีการเชื่อถือ สตาร์ทอัพเช่นGensynและSpheronกำลังพยายามสร้างวิธีการที่ไม่ต้องเชื่อมั่นในการแก้ไขปัญหานี้
วันนี้ ทีม web3 มีทีมหลายทีมยังคงต้องนำผ่านอุปสรรค์เหล่านี้ ซึ่งหมายความว่าโอกาสยังมีอยู่อย่างแพร่หลาย
ขนาดของตลาดสำหรับเครือข่ายคำนวณที่ไม่ centralised มีขนาดเท่าไร?
ในปัจจุบันน่าจะเป็นเพียงเศษเล็กน้อยของอุตสาหกรรมคอมพิวเตอร์คลาวด์มูลค่า $680 พันล้านถึง $2.5 ล้านล้านเท่านั้น แต่ถึงอย่างไรก็ตาม ถ้าต้นทุนยังคงต่ำกว่าผู้ให้บริการแบบดั้งเดิม ก็จะมีความต้องการบ้างเสมอ
ฉันเชื่อว่าค่าใช้จ่ายจะยังคงต่ำในระยะเวลาใกล้ชิดถึงกลางระยะเวลาเนื่องจากมีการสนับสนุนโทเค็นและปลดล็อคการจัดหาจากผู้ใช้ที่ไม่สนใจราคา (ตัวอย่างเช่น หากฉันสามารถเช่าเล่นเกมของฉันเพื่อรับเงินเพิ่ม ฉันก็ดีใจไม่ว่าจะเป็น $20 หรือ $50 ต่อเดือน)
แต่โอกาสในการเติบโตจริงๆ สำหรับเครือข่ายคอมพิวเตอร์ที่ไม่มีการจัดกลุ่มและการขยายตัวจริงๆ ของ TAM ของพวกเขา จะเกิดขึ้นเมื่อ:
การคำนวณที่ไม่ต้องมีสิทธิ์ประกอบธุรกิจ ที่เป็นพื้นฐานสำหรับระบบโครงสร้างพื้นฐานที่มีการแจกแจงระบบ AI เพื่อให้เป็นไปตามหลักการแบบกระจาย
ถึงแม้ว่าจะมีการขยายตัวอย่างต่อเนื่องในโซ่อุปทานสำหรับซิลิคอน (เช่น GPU) ฉันเชื่อว่าเรายังอยู่ในยุคอัจฉริยะของมนุษย์เพียงแต่เริ่มต้นเท่านั้น จะมีความต้องการสูงสุดที่ไม่เพียงพอสำหรับการคำนวณ
เฝ้ารอจุดสัมผัสที่อาจเป็นสาเหตุให้เกิดการปรับราคาใหม่ของตลาด GPU ที่ทำงานอยู่ทั้งหมด น่าจะเกิดขึ้นเร็ว ๆ นี้
สมมติว่า: โมเดล AI ที่ใหญ่มากที่เปลี่ยนแปลงโลก ไม่ได้ถูกพัฒนาขึ้นในห้องปฏิบัติการที่ลับ ๆ แต่ถูกนำมาสู่ชีวิตโดยล้าน ๆ คนทั่ว ๆ ไป นักเล่นเกมที่ GPU ของพวกเขาโดยทั่วไปจะสร้างการระเบิดฉายเฉลี่ยของ Call of Duty ตอนนี้จะให้ฮาร์ดแวร์ของพวกเขาสู่สิ่งที่ยิ่งใหญ่ขึ้น - โมเดล AI แบบเปิดซอร์สที่เป็นเจ้าของร่วมกันโดยไม่มีผู้ควบคุมที่เป็นศูนย์กลาง
ในอนาคตนี้ รูปแบบขนาดพื้นฐานไม่ใช่แค่ของห้องปฏิบัติการ AI ชั้นนำ
แต่ให้เรามาเชื่อมโยงวิสัยทัศน์นี้กับความเป็นจริงในปัจจุบัน ตอนนี้การฝึกอบรม AI หนักของส่วนใหญ่ยังคงอยู่ภายในศูนย์ข้อมูลที่มีศูนย์กลาง และน่าจะเป็นปกติสำหรับระยะเวลาหนึ่ง
บริษัทเช่น OpenAI กำลังขยายขนาดคลัสเตอร์ขนาดใหญ่ของพวกเขา อีลอน มัสก์เร็วประกาศว่า xAI กำลังจะเสร็จสิ้นศูนย์ข้อมูลที่มีประสิทธิภาพเทียบเท่ากับ 200,000 H100 GPUs
แต่มันไม่ได้เกี่ยวกับจำนวน GPU ที่เพียงอย่างเดียว Model FLOPS utilization (MFU)—ค่าเมตริกที่ถูกนำเข้าในกระดาษ PaLM ของ Googleในปี 2022 - ติดตามว่าการใช้งานความจุสูงสุดของ GPU อย่างไรบ้างโดยมีการใช้งานอย่างมีประสิทธิภาพ น่าแปลกใจที่ MFU มักจะอยู่ที่ระดับประมาณ 35-40%
ทำไมต่ำอย่างนี้? ในขณะที่ประสิทธิภาพ GPU ได้เพิ่มขึ้นอย่างมากในระยะเวลาหลายปีตามกฏของ Moore แต่การปรับปรุงเครือข่าย หน่วยความจำ และการเก็บข้อมูลยังคงหลงเหลืออย่างมาก ทำให้เกิดปัญหาขีดจำกัด ในทางผลกระทบ GPU มักนั่งเงยหรือว่างเหลือรอข้อมูล
การฝึกอบรม AI ยังคงมีการจัดกลุ่มอยู่สูงอยู่ในปัจจุบันเพราะข้อเดียวหนึ่ง - ประสิทธิภาพ
การฝึกอบรมโมเดลขนาดใหญ่ขึ้นอยู่กับเทคนิค เช่น:
• ความแบ่งเบาของข้อมูล: แบ่งชุดข้อมูลบน GPU หลายตัวเพื่อดำเนินการพร้อมกันเพื่อเร่งกระบวนการฝึกอบรม
• การแบ่งขนาดตัวแบบ: การกระจายส่วนของตัวแบบไปยัง GPU เพื่อหลีกเลี่ยงปัญหาข้อจำกัดของหน่วยความจำ
วิธีเหล่านี้ต้องการ GPU เพื่อแลกเปลี่ยนข้อมูลอย่างต่อเนื่อง ทำให้ความเร็วในการเชื่อมต่อ - อัตราที่ข้อมูลถูกส่งผ่านระหว่างคอมพิวเตอร์ในเครือข่าย - เป็นสิ่งที่สำคัญอย่างยิ่ง
เมื่อการฝึกอบรมโมเดล AI ด้านด้านหน้าสามารถทำให้ค่าใช้จ่ายเกิน 1 พันล้านเหรียญ ทุกความมีประสิทธิภาพมีความสำคัญ
ด้วยการเชื่อมต่อแบบสูงความเร็วศูนย์กลางศูนย์ข้อมูลช่วยให้การถ่ายโอนข้อมูลระหว่าง GPU เร็วขึ้นและสร้างความประหยัดในต้นทุนในเวลาการฝึกอบรมที่ระบบกระจายไม่สามารถเทียบเท่าได้…แต่ในขณะนี้
หากคุณพูดคุยกับคนที่ทำงานในพื้นที่ AI มากมายจะบอกคุณว่าการฝึกอบรมแบบกระจายก็ไม่สามารถทำงานได้
ในการตั้งค่าแบบกระจายอํานาจคลัสเตอร์ GPU ไม่ได้อยู่ร่วมกันทางกายภาพดังนั้นการถ่ายโอนข้อมูลระหว่างกันจึงช้ากว่ามากและกลายเป็นคอขวด การฝึกอบรมต้องใช้ GPU เพื่อซิงค์และแลกเปลี่ยนข้อมูลในแต่ละขั้นตอน ยิ่งห่างกันมากเท่าไหร่เวลาแฝงก็จะยิ่งสูงขึ้นเท่านั้น เวลาแฝงที่สูงขึ้นหมายถึงความเร็วในการฝึกอบรมที่ช้าลงและค่าใช้จ่ายที่สูงขึ้น
สิ่งที่อาจใช้เวลาไม่กี่วันในศูนย์ข้อมูลที่มีการควบคุมจากศูนย์กลาง อาจจะใช้เวลายาวถึงสองสัปดาห์ในกรณีที่ใช้วิธีการกระจายอย่างไม่มีการควบคุม โดยราคาที่สูงขึ้น ซึ่งเป็นสิ่งที่ไม่เป็นไปตามหลักการ
แต่สิ่งนี้กำลังจะเปลี่ยนแปลง
ข่าวดีคือมีการเพิ่มขึ้นอย่างมากในการสนใจในการวิจัยเกี่ยวกับการฝึกอบรมแบบกระจาย นักวิจัยกำลังสำรวจวิธีการหลายวิธีพร้อมกัน ตามที่เห็นได้จากการศึกษาและงานวิจัยที่ตีพิมพ์ออกมาเป็นจำนวนมาก ความก้าวหน้าเหล่านี้จะสะสมและเพิ่มขึ้นเรื่อยๆ ทำให้ความคืบหน้าในพื้นที่นี้เร่งขึ้น
มันเกี่ยวกับการทดสอบในการใช้งานจริงและเห็นว่าเราสามารถดันขีดจำกัดได้มากน้อยเพียงใด
บางเทคนิคการฝึกอบรมแบบกระจายที่สามารถจัดการกับโมเดลขนาดเล็กในสภาพแวดล้อมการเชื่อมต่อที่ช้าได้แล้ว ตอนนี้ งานวิจัยด้านหน้ากำลังผลักดันให้เมธอดเหล่านี้ขยายตัวไปสู่โมเดลที่ใหญ่ขึ้นเรื่อย ๆ
ความท้าทายอีกอย่างคือการจัดการกับหลากหลายของฮาร์ดแวร์ GPU ที่รวมถึง GPU ระดับผู้บริโภคที่มีหน่วยความจำจำกัดซึ่งเป็นที่พบขึ้นในเครือข่ายแบบกระจาย การใช้เทคนิคเช่นการแบ่งโมเดลตามพาราเลล (การแบ่งชั้นโมเดลในอุปกรณ์ต่าง ๆ) สามารถช่วยทำให้เป็นไปได้
วิธีการฝึกอบรมแบบกระจายปัจจุบันยังจำกัดขนาดโมเดลที่ต่ำกว่าทางหน้า (GPT-4 รายงานว่าใกล้เคียงกับพารามิเตอร์หนึ่งล้านล้าน ใหญ่กว่าโมเดลของ Prime Intellect 10B 100 เท่า) เพื่อขยายขนาดอย่างแท้จริงเราจะต้องมีการพัฒนาโมเดลที่เป็นบุคคลที่สำคัญ พื้นฐานการเชื่อมต่อเครือข่ายที่ดีขึ้น และการแบ่งงานอย่างฉลาดในอุปกรณ์
และเราสามารถฝันใหญ่ จินตนาการถึงโลกที่การฝึกอบรมแบบกระจายสามารถรวมพลังการคำนวณ GPU ได้มากกว่าศูนย์ข้อมูลที่ใหญ่ที่สุดที่เคยรวมพลังได้อีกด้วย
Pluralis Research (ทีมที่เฉียบคมในการฝึกอบรมแบบกระจายอํานาจ ที่ต้องจับตามองอย่างใกล้ชิด) ให้เหตุผลว่านี่ไม่ใช่เพียงความเป็นไปได้—มันหลีกเลี่ยงไม่ได้ ศูนย์ข้อมูลแบบรวมศูนย์ถูกผูกมัดด้วยข้อ จํากัด ทางกายภาพเช่นพื้นที่และ ความพร้อมใช้งานของพลังงาน, ในขณะที่เครือข่ายที่ไม่มีศูนย์กลางสามารถเข้าถึงทรัพยากรทั่วโลกที่ไมีขีดจำกัดอย่างมีประสิทธิภาพ
นอกจากนี้ แม้ว่าเจนเซน ฮวัง ของ NVIDIA ยังได้รับการรับรองการฝึกอบรมแบบกระจายแบบ asyncสามารถปลดล็อกศักยภาพจริงของการสเกล AI ได้ Distributed training networks ยังมีความทนทานต่อข้อผิดพลาดมากกว่า
ดังนั้น ในอนาคตที่เป็นไปได้หนึ่ง โมเดล AI ที่ทรงพลิกศพที่สุดของโลกจะถูกฝึกอบรมในลักษณะที่กระจาย
เป็นแนวคิดที่น่าตื่นเต้น แต่ฉันยังไม่ได้เชื่ออย่างสมบูรณ์ ต้องมีหลักฐานที่แข็งแกร่งกว่านี้ว่าการฝึกอบรมแบบกระจายของโมเดลที่ใหญ่ที่สุดเป็นเรื่องที่เป็นไปได้ทั้งจากด้านเทคนิคและเศรษฐศาสตร์
นี่คือจุดที่ฉันเห็นว่ามีความสัญจร: จุดที่น่าสนใจของการฝึกอบรมแบบกระจายอาจอยู่ในโมเดลเล็ก ๆ ที่เชี่ยวชาญ เปิดเผยแบบซอร์ซที่ออกแบบมาสำหรับกรณีการใช้เป้าหมาย ไม่ใช่การแข่งขันกับโมเดลแหล่งข้อมูลขนาดใหญ่มากมายที่ใช้ AGI แบบต่างๆ สถาปัตยกรรมบางประเภทโดยเฉพาะโมเดลที่ไม่ใช่ตัวแปร ได้พิสูจน์อยู่แล้วว่าเหมาะสมอย่างธรรมชาติสำหรับการตั้งค่าแบบกระจาย
และยังมีอีกส่วนหนึ่งของปริศนานี้: โทเค็น หลังจากที่การฝึกอบรมแบบกระจายเป็นไปได้ในมาตราส่วนใหญ่ โทเค็นอาจมีบทบาทสำคัญในการแรงบันดาลใจและรางวัลผู้มีส่วนร่วม ทำให้เกิดเครือข่ายเหล่านี้ในที่สุด
ทางสู่วิสัยนี้ยาว แต่ความคืบหน้ามีความหวังอย่างยิ่ง การก้าวหน้าในการฝึกอบรมแบบกระจายจะเป็นประโยชน์ต่อทุกคน แม้แต่บริษัทเทคโนโลยีชั้นนำและห้องปฏิบัติการวิจัย AI ระดับยอด เนื่องจากขนาดของโมเดลในอนาคตจะเพิ่มขึ้นเหนือความจุของศูนย์ข้อมูลเดียว
อนาคตถูกกระจายไปทั่ว และเมื่อเทคโนโลยีที่ถือความเป็นไปได้ที่กว้างขวางเช่นนี้ ประวัติศาสตร์แสดงให้เห็นว่ามันจะดีขึ้นเร็วกว่าใครๆคาด
ขณะนี้ พลังการคำนวณส่วนใหญ่ใน AI กำลังถูกนำเข้าไปในการฝึกโมเดลขนาดใหญ่ ห้องปฏิบัติการ AI ชั้นนำกำลังอยู่ในกรณีการแข่งขันเพื่อพัฒนาโมเดลรากฐานที่ดีที่สุดและในที่สุดเรียกได้ว่าได้ AGI
แต่นี่คือความคิดของฉัน: การใส่ใจอย่างสุดครีบต่อการฝึกอบรมจะเปลี่ยนแปลงเป็นการอบรมในอีกไม่กี่ปีข้างหน้า ภายในเวลาที่ AI เริ่มเข้าไปในแอปพลิเคชันที่เราใช้ในชีวิตประจำวัน - ตั้งแต่ด้านสุขภาพจนถึงด้านบันเทิง - ทรัพยากรคอมพิวเตอร์ที่ต้องใช้ในการสนับสนุนอบรมจะเป็นไปอย่างน่าทึ่ง
และมันไม่ได้เพียงแค่การคาดเดา การปรับปริมาณการคำนวณในเวลาที่ต้องการเป็นคำที่ฮอตใน AI ล่าสุด OpenAI ได้ปล่อยตัวอย่าง/เวอร์ชันมินิของโมเดลล่าสุดของตัวเอง o1 (ชื่อเรหัส: Strawberry) และการเปลี่ยนแปลงที่ใหญ่? มันใช้เวลาในการคิดโดยการถามตัวเองก่อนว่าขั้นตอนที่ควรทำเพื่อตอบคำถามคืออะไร จากนั้นผ่านขั้นตอนแต่ละขั้น
โมเดลนี้ถูกออกแบบสำหรับงานที่ซับซ้อนมากขึ้น และต้องการการวางแผนอย่างมาก เช่น การแก้ปัญหาบทบาท—และจัดการกับปัญหาที่ต้องการความคิดที่ลึกซึ้งมากขึ้น คุณจะรู้สึกได้ว่ามันช้าลง ใช้เวลามากขึ้นในการสร้างคำตอบ แต่ผลลัพธ์ที่ได้นั้นมีความคิดหลักและถ่วงหนักมากขึ้น นอกจากนี้ การเรียกใช้งานก็มีราคาสูงมากขึ้น25 เท่าของต้นทุน GPT-4)
การเปลี่ยนแนวคิดชัดเจน: กระโดดข้ามในประสิทธิภาพ AI ครั้งถัดไปจะไม่เกิดจากการฝึกโมเดลขนาดใหญ่เท่านั้น แต่ยังเกิดจากการขยายการใช้งานคอมพิวเตอร์ในขณะที่เป็นการอนุมาน
If you want to read more, several research เอกสารแสดงให้เห็น:
เมื่อโมเดลที่มีพลังงานสูงถูกฝึกฝูง งานที่เกิดขึ้นในขณะที่โมเดลทำสิ่งต่างๆ สามารถถูกโอนออกไปที่เครือข่ายการคำนวณแบบกระจาย นี่ทำให้มีความหมายมากเพราะ:
คิดถึงการสรุปข้อมูลแบบกระจายเหมือน CDN (เครือข่ายการส่งเนื้อหา) สำหรับ AI: แทนที่จะส่งเว็บไซต์อย่างรวดเร็วโดยการเชื่อมต่อกับเซิร์ฟเวอร์ใกล้เคียง การสรุปข้อมูลแบบกระจายนำไปสู่การใช้พลังการคำนวณในพื้นที่เพื่อส่งคำตอบของ AI ได้เร็วที่สุด ด้วยการยอมรับการสรุปข้อมูลแบบกระจาย แอป AI กลายเป็นเร็ว ตอบสนองได้ และเชื่อถือได้มากขึ้น
แนวโน้มชัดเจน ชิป M4 Pro ใหม่ของ Apple เปรียบเทียบกับ NVIDIA ของคู่แข่งRTX 3070 Ti—a GPU that, until recently, was the domain of hardcore gamers. The hardware we already have is increasingly capable of handling advanced AI workloads.
เพื่อให้เครือข่ายการออกแบบแบบกระจายสำเร็จ จะต้องมีแรงจูงใจทางเศรษฐศาสตร์ที่น่าสนใจสำหรับการเข้าร่วม โหนดในเครือข่ายจำเป็นต้องได้รับค่าตอบแทนสำหรับการมีส่วนร่วมของพวกเขาในการคำนวณ ระบบจะต้องรับประกันการกระจายของรางวัลที่ถูกต้องและมีประสิทธิภาพ ความหลากหลายทางภูมิภาคเป็นสิ่งสำคัญ ลดค่าคลื่นไปยังงานคำนวณและเพิ่มความทนทานต่อข้อผิดพลาด
และวิธีที่ดีที่สุดในการสร้างเครือข่ายที่กระจายศูนย์กลาง? คริปโต
โทเค็นเป็นกลไกที่มีประสิทธิภาพในการจัดตําแหน่งความสนใจของผู้เข้าร่วมเพื่อให้แน่ใจว่าทุกคนกําลังทํางานเพื่อเป้าหมายเดียวกัน: ปรับขนาดเครือข่ายและเพิ่มมูลค่าของโทเค็น
โทเค็นยังเพิ่มความเร็วในการเติบโตของเครือข่าย พวกเขาช่วยแก้ปัญหาไก่ตัวเดียวกับไข่ตัวเดียวที่ทำให้เครือข่ายส่วนใหญ่หยุดชะงักโดยการระบายเงินตอบแทนผู้ใช้ในระบบและส่งเสริมการเข้าร่วมตั้งแต่วันแรก
ความสำเร็จของ Bitcoin และ Ethereum พิสูจน์ให้เห็นว่าพวกเขาได้รวบรวมกลุ่มของพลังคอมพิวเตอร์ที่ใหญ่ที่สุดบนโลกแล้ว
เครือข่ายการวินิจฉัยที่ไม่มีศูนย์กลางคืออันดับถัดไป ด้วยความหลากหลายทางภูมิภาคพวกเขาลดความล่าช้า เพิ่มความคลาดเคลื่อนและนำ AI ใกล้กับผู้ใช้มากขึ้น และด้วยสิทธิ์และแรงกระตุ้นจากคริปโตพวกเขาจะขยายตัวได้เร็วกว่าเครือข่ายทั่วไป และดีกว่าที่เคยได้