ด้านล่างคือความคิดส่วนบุคคลของฉัน:
1) MCP (Model Context Protocol) เป็นโปรโตคอลระบบเปิดแหล่งที่มีการออกแบบมาให้สามารถเชื่อมต่อโดยไม่มีภายในระหว่าง AI LLMs (Large Language Models) และเอเจนต์ที่มีแหล่งข้อมูลและเครื่องมือที่หลากหลาย คิดว่ามันเป็นอินเทอร์เฟซ USB “universal” แบบ plug-and-play ที่ทดแทนวิธีการแพ็คเกจ “specific” แบบเดิมที่เป็นระบบเก่าแก่และคงที่
ในคำทั่วไป มีการแยกระบบข้อมูลชัดเจนระหว่างแอปพลิเคชัน AI โดยทั่วไป สำหรับการทำงานร่วมกันระหว่างตัวแทน/LLM แต่ละตัวจำเป็นต้องพัฒนาอินเตอร์เฟซ API ของตัวเอง สิ่งนี้ทำให้กระบวนการซับซ้อนและขาดความสามารถในการโต้ตอบสองทาง นอกจากนี้ โมเดลเหล่านี้มักจะมีการเข้าถึงและสิทธิ์การใช้งานที่จำกัด
การมาถึงของ MCP นี้เสนอกรอบงานที่มีความเชื่อมโยง ทำให้แอปพลิเคชัน AI สามารถออกจากภูมิข้อมูลที่แยกกันในอดีตและเข้าถึงข้อมูลภายนอกและเครื่องมือได้โดยเชื่อมโยงอย่างเชื่อมโยงอย่างเชื่อมโยงอย่างเชื่อโยงอย่างเชื่อโยงอย่างเชื่อโยงอย่างเชื่อโยงอย่างเชื่อโยงอย่างเชื่อโยงอย่างเชื่อโยงโยงอย่างเชื่อโยงอย่างเชื่อโยงอย่างเชื่อโยงอย่างเชื่อโยงอย่างเชื่อโยงอย่างเชื่อโยงอย่างเชื่อโยงอย่างเชื่อโยงอย่างเชื่อโยงอย่างเชื่อโยงอย่างเชื่อโยงอย่างเชื่อโยงอย่างเชื่อโยงอย่างเชื่อโยง
ในความเป็นจริง Manus + MCP เป็นปัจจัยสำคัญที่เป็นตัวเปลี่ยนแปลงในพื้นที่ Web3 AI Agent ในปัจจุบัน
2) อย่างไรก็ตามสิ่งที่น่างวยอย่างแท้จริงคือทั้ง Manus และ MCP เป็นเฟรมเวิร์กและมาตรฐานโปรโตคอลที่ออกแบบมาสําหรับ web2 LLM / Agent แก้ปัญหาที่เกี่ยวข้องกับการโต้ตอบข้อมูลและการทํางานร่วมกันระหว่างเซิร์ฟเวอร์ส่วนกลาง สิทธิ์และการควบคุมการเข้าถึงของพวกเขายังคงขึ้นอยู่กับการเปิด "ใช้งานอยู่" ของแต่ละโหนดเซิร์ฟเวอร์ กล่าวอีกนัยหนึ่งพวกเขาทําหน้าที่เป็นแอตทริบิวต์เครื่องมือโอเพ่นซอร์สมากกว่าที่จะยอมรับหลักการกระจายอํานาจอย่างเต็มที่
ตามกฎหมาย สิ่งนี้ขัดข้องกับค่านิยมหลักของ web3 AI Agent เช่น "เซิร์ฟเวอร์กระจาย, การร่วมมือแบบกระจาย, และสิทธิส่วนบุคคลที่กระจาย" จะเป็นไปได้อย่างไรที่ปืนอิตาลีจำนวนหนึ่งที่มีลักษณะการจัดการที่ตรงกันข้ามจะสามารถทำลายป้อมปราการที่กระจายได้呢?
ปัญหานี้เกิดจากข้อเท็จจริงที่ว่าในระยะแรก web3 AI Agent นั้น "เป็นศูนย์กลางของ web2" มากเกินไป หลายทีมที่เกี่ยวข้องมาจากภูมิหลังของ web2 และขาดความเข้าใจอย่างลึกซึ้งเกี่ยวกับความต้องการดั้งเดิมของ web3 ยกตัวอย่างเช่น เฟรมเวิร์ก ElizaOS ซึ่งสร้างขึ้นเพื่อช่วยให้นักพัฒนาปรับใช้แอปพลิเคชัน AI Agent ได้อย่างรวดเร็ว มันรวมแพลตฟอร์มเช่น Twitter และ Discord รวมถึง API เช่น OpenAI, Claude และ DeepSeek โดยให้เฟรมเวิร์กสําหรับการพัฒนาหน่วยความจําและตัวละครเพื่อช่วยเร่งการปรับใช้ AI Agent แต่เมื่อตรวจสอบแล้วเฟรมเวิร์กบริการนี้แตกต่างจากเครื่องมือโอเพ่นซอร์ส web2 อย่างไร มันมีข้อดีที่เป็นเอกลักษณ์อะไรบ้าง?
ประโยชน์ที่เขากล่าวถึงอยู่ที่ระบบสร้างสรรค์โทเคนอมิค แต่ในที่สุดมันก็เป็นโครงสร้างที่สามารถถูกแทนที่ได้อย่างง่ายด้วย web2 ซึ่งเชื่อมั่นได้ว่า AI Agents ที่เน้นการออกเหรียญใหม่จะเป็นส่วนสำคัญ นี่เป็นเรื่องที่ทำให้เกิดความกังวล หากคุณตามตรรกะนี้ คุณจะเข้าใจว่า Manus + MCP สามารถทำให้ AI Agents ของ web3 รุกเข้ามาได้: โครงสร้าง AI Agent ของ web3 หลายๆ อันที่มีอยู่เพียงแค่ทำซ้ำการพัฒนาอย่างรวดเร็วและความต้องการในการประยุกต์ของ AI Agents ของ web2 โดยไม่มีการเดินหน้าในด้านบริการทางเทคนิคมาตรฐาน หรือความแตกต่าง ผลลัพธ์จึงทำให้ตลาดและทุนได้ประเมินค่าใหม่และปรับเปลี่ยน AI Agents ของ web3 ในช่วงแรก
3) ตอนนี้ หลังจากตรวจพบจุดใจของปัญหาแล้ว มีวิธีการใดที่สามารถแก้ไขได้บ้าง? คำตอบคือง่าย: โฟกัสในการสร้างสรรพสิ่งที่เป็นจริงจาก web3-native ข้อดีที่เฉพาะเจาะจงของ web3 อยู่ในระบบแบ่งปันและโครงสร้างกระตุ้น
พิจารณาแพลตฟอร์มบริการคลาวด์คอมพิวติ้งแบบกระจายข้อมูลและอัลกอริทึม ในขณะที่ตามภาพรวมอาจเห็นว่าการรวบรวมทรัพยากรว่างๆเพื่อให้พลังการคำนวณและข้อมูลอาจจะไม่สามารถพอใจความต้องการในนวัตกรรมวิศวกรรมทันที ความจริงคือเมื่อ LLMs มากมายเข้าร่วมการแข่งขันในการแข่งขันการเสริมดวง ความคิดเกี่ยวกับการเสนอ "ทรัพยากรว่างๆในราคาถูก" เป็นแบบจำลองบริการที่น่าสนใจ โดยเริ่มต้น นักพัฒนา web2 และ VCs อาจปฏิเสธเรื่องนี้ไป แต่เมื่อนวัตกรรมเอเจนต์ AI ของ web2 เลื่อนไปเกินประสิทธิผลและเข้าสู่การขยายแอพลิเคชันแนวตั้ง การปรับปรุงและการจำลองโมเดล ข้อได้เปรียบของทรัพยากร AI ของ web3 จะกลายเป็นชัดเจน
ในความเป็นจริงเมื่อ AI ของ web2 ได้เอาชนะที่สูงสุดผ่านการ Monopolize ทรัพยากร มันจะเริ่มยากขึ้นที่จะทำการย้อนกลับและใช้กลยุทธ์ "ชานเมือง-อารักขา" เพื่อจัดการกับการใช้งานที่แบ่งส่วน นั่นคือเมื่อมีจำนวนมากของนักพัฒนา AI ของ web2 ร่วมกับทรัพยากร AI ของ web3 จะขับเคลื่อนไปข้างหน้าจริงๆ
ดังนั้นโอกาสสำหรับเอเจนต์ AI web3 ชัดเจน: ก่อนที่แพลตฟอร์มทรัพยากร AI web3 จะถูกล้นด้วยนักพัฒนา web2 ที่กำลังมองหา solutio more... ns ต้องการโฟกัสในการพัฒนาชุดของ solutio ในรูปแบบ web3-native ที่เป็นไปได้ นอกจากการแบ่งปันการใช้งานที่รวดเร็วแบบ web2, การทำงานร่วมกันของ multi-agent, และโมเดลสกุลเงินที่ใช้ tokenomics ยังมีทิศทางหลากหลายของเอเจนต์ AI web3 ที่เป็นไปได้แบบ web3-native ที่คุ้มค่าที่ควรสำรวจ:
ตัวอย่างเช่นจําเป็นต้องมีกรอบการทํางานร่วมกันแบบกระจายโดยพิจารณาจากลักษณะของการประมวลผลนอกเครือข่ายขนาดใหญ่ LLM และการจัดเก็บสถานะแบบออนเชน สิ่งนี้ต้องการส่วนประกอบที่ปรับเปลี่ยนได้มากมาย:
ระบบการยืนยันตัวตน DID แบบกระจาย: สิ่งนี้จะช่วยให้เอเจนต์สามารถมีตัวตนบนเชนที่สามารถยืนยันได้ คล้ายกับวิธีที่ที่อยู่ที่ไม่ซ้ำกันถูกสร้างขึ้นสำหรับสมาร์ทคอนแทรคโดยเครื่องจำลองเสมือน ระบบนี้ใช้สำหรับการติดตามและบันทึกสถานะต่อเนื่องได้
ระบบออราเคิลที่ไม่แสดงอิทธิพล: ระบบนี้รับผิดชอบในการรับฟังและการตรวจสอบข้อมูลออฟไลน์ที่น่าเชื่อถือ ไม่เหมือนกับ Oracles แบบดั้งเดิม ระบบนี้จะต้องปรับตัวให้เหมาะกับ AI Agents ที่อาจต้องการโครงสถาปัตย์ที่รวมข้อมูลชั้นการเก็บข้อมูล ชั้นการตีความสรุป และชั้นการตอบรับการปฏิบัติ นี้จะทำให้มั่นใจได้ว่าข้อมูลที่ต้องการโดยเอเจนต์ on-chain และการคำนวณและการตัดสินใจ off-chain สามารถเข้าถึงได้ในเวลาที่เป็นจริง
ระบบเก็บข้อมูลแบบกระจายที่ไม่มีศูนย์กลาง: เนื่องจากสถานะฐานความรู้ในระหว่างการทำงานของเอเจ้นต์ AI มักมีความไม่แน่นอน และกระบวนการเหตุผลมักเป็นชั่วคราว จำเป็นต้องบันทึกสำเนาสถานะหลักและเส้นทางการเหตุผลของ LLM ซึ่งควรถูกเก็บไว้ในระบบเก็บข้อมูลแบบกระจายที่มีกลไกพิสูจน์ข้อมูลที่ควบคุมต้นทุนเพื่อให้มั่นใจว่าข้อมูลพร้อมใช้งานขณะตรวจสอบบนโซ่สาธารณะ;
ชั้นสำหรับคำพิสูจน์ที่ไม่รู้เพียงเล็กน้อย (ZKP): นี้สามารถรวมกับโซลูชันการคำนวณความเป็นส่วนตัวอย่าง TEE (Trusted Execution Environment) และ FHE (Fully Homomorphic Encryption) เพื่อให้สามารถคำนวณความเป็นส่วนตัวและการพิสูจน์ข้อมูลแบบเรียลไทม์ได้ นี้ทำให้เอเจนต์สามารถเข้าถึงแหล่งข้อมูลด้านแนวตั้งที่หลากหลายมากขึ้น (เช่น การแพทยศาสตร์ การเงิน) ซึ่งจะทำให้เกิดการเชื่อมต่อของเอเจนต์บริการที่เฉพาะทางและปรับแต่งมากขึ้น
โปรโตคอลความสามารถในการทำงานข้ามโซน: นี่จะเหมือนกับโครงสร้างที่ถูกกำหนดโดยโปรโตคอลโอเพ่นซอร์ส MCP อย่างไรก็ตาม, โซลูชันความสามารถในการทำงานข้ามโซนนี้ต้องการกลไกส่งถ่ายและกำหนดการสื่อสารที่ปรับเข้ากับการดำเนินงานของเอเจนต์, การส่ง, และการตรวจสอบ มันรับรองการโอนสินทรัพย์และการซิงโครไนส์สถานะข้ามโซนที่แตกต่างกัน, เป็นพิเศษสำหรับสถานะที่ซับซ้อนเช่น บริบทของเอเจนต์, โปรโมปต์, ฐานความรู้, หน่วยความจำ, ฯลฯ
……
ในมุมมองของฉัน ความท้าทายสำคัญสำหรับ Web3 AI Agents คือการปรับท่า 'ขั้นตอนการทำงานที่ซับซ้อน' ของ AI Agents ให้สอดคล้องกับ 'กระบวนการตรวจสอบความเชื่อถือ' ของบล็อกเชนให้ใกล้เคียงมากที่สุด การแก้ปัญหาขั้นเฉียบนี้อาจเกิดขึ้นจากโครงการที่มีอยู่แล้วหรือถูกสร้างใหม่ในแนวเรื่อง AI Agent
นี่คือทิศทางที่ Web3 AI Agents ควรมุ่งเน้นที่จะพัฒนา โดยการปรับทิศทางตามระบบนิวเมติกที่นำเสนอในระบบนิวเมติกพื้นฐานภายใต้การพูดถึงทั่วไปของ AI + Crypto หากไม่มีนวัตกรรมหรือการสร้างอุปสรรค์แข่งขันที่แตกต่าง การเปลี่ยนทิศทางทุกครั้งในการติดตาม Web2 AI อาจทำให้เกิดความสับสนในภูมิทัศน์ AI ของ Web3
แชร์
เนื้อหา
ด้านล่างคือความคิดส่วนบุคคลของฉัน:
1) MCP (Model Context Protocol) เป็นโปรโตคอลระบบเปิดแหล่งที่มีการออกแบบมาให้สามารถเชื่อมต่อโดยไม่มีภายในระหว่าง AI LLMs (Large Language Models) และเอเจนต์ที่มีแหล่งข้อมูลและเครื่องมือที่หลากหลาย คิดว่ามันเป็นอินเทอร์เฟซ USB “universal” แบบ plug-and-play ที่ทดแทนวิธีการแพ็คเกจ “specific” แบบเดิมที่เป็นระบบเก่าแก่และคงที่
ในคำทั่วไป มีการแยกระบบข้อมูลชัดเจนระหว่างแอปพลิเคชัน AI โดยทั่วไป สำหรับการทำงานร่วมกันระหว่างตัวแทน/LLM แต่ละตัวจำเป็นต้องพัฒนาอินเตอร์เฟซ API ของตัวเอง สิ่งนี้ทำให้กระบวนการซับซ้อนและขาดความสามารถในการโต้ตอบสองทาง นอกจากนี้ โมเดลเหล่านี้มักจะมีการเข้าถึงและสิทธิ์การใช้งานที่จำกัด
การมาถึงของ MCP นี้เสนอกรอบงานที่มีความเชื่อมโยง ทำให้แอปพลิเคชัน AI สามารถออกจากภูมิข้อมูลที่แยกกันในอดีตและเข้าถึงข้อมูลภายนอกและเครื่องมือได้โดยเชื่อมโยงอย่างเชื่อมโยงอย่างเชื่อมโยงอย่างเชื่อโยงอย่างเชื่อโยงอย่างเชื่อโยงอย่างเชื่อโยงอย่างเชื่อโยงอย่างเชื่อโยงอย่างเชื่อโยงโยงอย่างเชื่อโยงอย่างเชื่อโยงอย่างเชื่อโยงอย่างเชื่อโยงอย่างเชื่อโยงอย่างเชื่อโยงอย่างเชื่อโยงอย่างเชื่อโยงอย่างเชื่อโยงอย่างเชื่อโยงอย่างเชื่อโยงอย่างเชื่อโยงอย่างเชื่อโยงอย่างเชื่อโยง
ในความเป็นจริง Manus + MCP เป็นปัจจัยสำคัญที่เป็นตัวเปลี่ยนแปลงในพื้นที่ Web3 AI Agent ในปัจจุบัน
2) อย่างไรก็ตามสิ่งที่น่างวยอย่างแท้จริงคือทั้ง Manus และ MCP เป็นเฟรมเวิร์กและมาตรฐานโปรโตคอลที่ออกแบบมาสําหรับ web2 LLM / Agent แก้ปัญหาที่เกี่ยวข้องกับการโต้ตอบข้อมูลและการทํางานร่วมกันระหว่างเซิร์ฟเวอร์ส่วนกลาง สิทธิ์และการควบคุมการเข้าถึงของพวกเขายังคงขึ้นอยู่กับการเปิด "ใช้งานอยู่" ของแต่ละโหนดเซิร์ฟเวอร์ กล่าวอีกนัยหนึ่งพวกเขาทําหน้าที่เป็นแอตทริบิวต์เครื่องมือโอเพ่นซอร์สมากกว่าที่จะยอมรับหลักการกระจายอํานาจอย่างเต็มที่
ตามกฎหมาย สิ่งนี้ขัดข้องกับค่านิยมหลักของ web3 AI Agent เช่น "เซิร์ฟเวอร์กระจาย, การร่วมมือแบบกระจาย, และสิทธิส่วนบุคคลที่กระจาย" จะเป็นไปได้อย่างไรที่ปืนอิตาลีจำนวนหนึ่งที่มีลักษณะการจัดการที่ตรงกันข้ามจะสามารถทำลายป้อมปราการที่กระจายได้呢?
ปัญหานี้เกิดจากข้อเท็จจริงที่ว่าในระยะแรก web3 AI Agent นั้น "เป็นศูนย์กลางของ web2" มากเกินไป หลายทีมที่เกี่ยวข้องมาจากภูมิหลังของ web2 และขาดความเข้าใจอย่างลึกซึ้งเกี่ยวกับความต้องการดั้งเดิมของ web3 ยกตัวอย่างเช่น เฟรมเวิร์ก ElizaOS ซึ่งสร้างขึ้นเพื่อช่วยให้นักพัฒนาปรับใช้แอปพลิเคชัน AI Agent ได้อย่างรวดเร็ว มันรวมแพลตฟอร์มเช่น Twitter และ Discord รวมถึง API เช่น OpenAI, Claude และ DeepSeek โดยให้เฟรมเวิร์กสําหรับการพัฒนาหน่วยความจําและตัวละครเพื่อช่วยเร่งการปรับใช้ AI Agent แต่เมื่อตรวจสอบแล้วเฟรมเวิร์กบริการนี้แตกต่างจากเครื่องมือโอเพ่นซอร์ส web2 อย่างไร มันมีข้อดีที่เป็นเอกลักษณ์อะไรบ้าง?
ประโยชน์ที่เขากล่าวถึงอยู่ที่ระบบสร้างสรรค์โทเคนอมิค แต่ในที่สุดมันก็เป็นโครงสร้างที่สามารถถูกแทนที่ได้อย่างง่ายด้วย web2 ซึ่งเชื่อมั่นได้ว่า AI Agents ที่เน้นการออกเหรียญใหม่จะเป็นส่วนสำคัญ นี่เป็นเรื่องที่ทำให้เกิดความกังวล หากคุณตามตรรกะนี้ คุณจะเข้าใจว่า Manus + MCP สามารถทำให้ AI Agents ของ web3 รุกเข้ามาได้: โครงสร้าง AI Agent ของ web3 หลายๆ อันที่มีอยู่เพียงแค่ทำซ้ำการพัฒนาอย่างรวดเร็วและความต้องการในการประยุกต์ของ AI Agents ของ web2 โดยไม่มีการเดินหน้าในด้านบริการทางเทคนิคมาตรฐาน หรือความแตกต่าง ผลลัพธ์จึงทำให้ตลาดและทุนได้ประเมินค่าใหม่และปรับเปลี่ยน AI Agents ของ web3 ในช่วงแรก
3) ตอนนี้ หลังจากตรวจพบจุดใจของปัญหาแล้ว มีวิธีการใดที่สามารถแก้ไขได้บ้าง? คำตอบคือง่าย: โฟกัสในการสร้างสรรพสิ่งที่เป็นจริงจาก web3-native ข้อดีที่เฉพาะเจาะจงของ web3 อยู่ในระบบแบ่งปันและโครงสร้างกระตุ้น
พิจารณาแพลตฟอร์มบริการคลาวด์คอมพิวติ้งแบบกระจายข้อมูลและอัลกอริทึม ในขณะที่ตามภาพรวมอาจเห็นว่าการรวบรวมทรัพยากรว่างๆเพื่อให้พลังการคำนวณและข้อมูลอาจจะไม่สามารถพอใจความต้องการในนวัตกรรมวิศวกรรมทันที ความจริงคือเมื่อ LLMs มากมายเข้าร่วมการแข่งขันในการแข่งขันการเสริมดวง ความคิดเกี่ยวกับการเสนอ "ทรัพยากรว่างๆในราคาถูก" เป็นแบบจำลองบริการที่น่าสนใจ โดยเริ่มต้น นักพัฒนา web2 และ VCs อาจปฏิเสธเรื่องนี้ไป แต่เมื่อนวัตกรรมเอเจนต์ AI ของ web2 เลื่อนไปเกินประสิทธิผลและเข้าสู่การขยายแอพลิเคชันแนวตั้ง การปรับปรุงและการจำลองโมเดล ข้อได้เปรียบของทรัพยากร AI ของ web3 จะกลายเป็นชัดเจน
ในความเป็นจริงเมื่อ AI ของ web2 ได้เอาชนะที่สูงสุดผ่านการ Monopolize ทรัพยากร มันจะเริ่มยากขึ้นที่จะทำการย้อนกลับและใช้กลยุทธ์ "ชานเมือง-อารักขา" เพื่อจัดการกับการใช้งานที่แบ่งส่วน นั่นคือเมื่อมีจำนวนมากของนักพัฒนา AI ของ web2 ร่วมกับทรัพยากร AI ของ web3 จะขับเคลื่อนไปข้างหน้าจริงๆ
ดังนั้นโอกาสสำหรับเอเจนต์ AI web3 ชัดเจน: ก่อนที่แพลตฟอร์มทรัพยากร AI web3 จะถูกล้นด้วยนักพัฒนา web2 ที่กำลังมองหา solutio more... ns ต้องการโฟกัสในการพัฒนาชุดของ solutio ในรูปแบบ web3-native ที่เป็นไปได้ นอกจากการแบ่งปันการใช้งานที่รวดเร็วแบบ web2, การทำงานร่วมกันของ multi-agent, และโมเดลสกุลเงินที่ใช้ tokenomics ยังมีทิศทางหลากหลายของเอเจนต์ AI web3 ที่เป็นไปได้แบบ web3-native ที่คุ้มค่าที่ควรสำรวจ:
ตัวอย่างเช่นจําเป็นต้องมีกรอบการทํางานร่วมกันแบบกระจายโดยพิจารณาจากลักษณะของการประมวลผลนอกเครือข่ายขนาดใหญ่ LLM และการจัดเก็บสถานะแบบออนเชน สิ่งนี้ต้องการส่วนประกอบที่ปรับเปลี่ยนได้มากมาย:
ระบบการยืนยันตัวตน DID แบบกระจาย: สิ่งนี้จะช่วยให้เอเจนต์สามารถมีตัวตนบนเชนที่สามารถยืนยันได้ คล้ายกับวิธีที่ที่อยู่ที่ไม่ซ้ำกันถูกสร้างขึ้นสำหรับสมาร์ทคอนแทรคโดยเครื่องจำลองเสมือน ระบบนี้ใช้สำหรับการติดตามและบันทึกสถานะต่อเนื่องได้
ระบบออราเคิลที่ไม่แสดงอิทธิพล: ระบบนี้รับผิดชอบในการรับฟังและการตรวจสอบข้อมูลออฟไลน์ที่น่าเชื่อถือ ไม่เหมือนกับ Oracles แบบดั้งเดิม ระบบนี้จะต้องปรับตัวให้เหมาะกับ AI Agents ที่อาจต้องการโครงสถาปัตย์ที่รวมข้อมูลชั้นการเก็บข้อมูล ชั้นการตีความสรุป และชั้นการตอบรับการปฏิบัติ นี้จะทำให้มั่นใจได้ว่าข้อมูลที่ต้องการโดยเอเจนต์ on-chain และการคำนวณและการตัดสินใจ off-chain สามารถเข้าถึงได้ในเวลาที่เป็นจริง
ระบบเก็บข้อมูลแบบกระจายที่ไม่มีศูนย์กลาง: เนื่องจากสถานะฐานความรู้ในระหว่างการทำงานของเอเจ้นต์ AI มักมีความไม่แน่นอน และกระบวนการเหตุผลมักเป็นชั่วคราว จำเป็นต้องบันทึกสำเนาสถานะหลักและเส้นทางการเหตุผลของ LLM ซึ่งควรถูกเก็บไว้ในระบบเก็บข้อมูลแบบกระจายที่มีกลไกพิสูจน์ข้อมูลที่ควบคุมต้นทุนเพื่อให้มั่นใจว่าข้อมูลพร้อมใช้งานขณะตรวจสอบบนโซ่สาธารณะ;
ชั้นสำหรับคำพิสูจน์ที่ไม่รู้เพียงเล็กน้อย (ZKP): นี้สามารถรวมกับโซลูชันการคำนวณความเป็นส่วนตัวอย่าง TEE (Trusted Execution Environment) และ FHE (Fully Homomorphic Encryption) เพื่อให้สามารถคำนวณความเป็นส่วนตัวและการพิสูจน์ข้อมูลแบบเรียลไทม์ได้ นี้ทำให้เอเจนต์สามารถเข้าถึงแหล่งข้อมูลด้านแนวตั้งที่หลากหลายมากขึ้น (เช่น การแพทยศาสตร์ การเงิน) ซึ่งจะทำให้เกิดการเชื่อมต่อของเอเจนต์บริการที่เฉพาะทางและปรับแต่งมากขึ้น
โปรโตคอลความสามารถในการทำงานข้ามโซน: นี่จะเหมือนกับโครงสร้างที่ถูกกำหนดโดยโปรโตคอลโอเพ่นซอร์ส MCP อย่างไรก็ตาม, โซลูชันความสามารถในการทำงานข้ามโซนนี้ต้องการกลไกส่งถ่ายและกำหนดการสื่อสารที่ปรับเข้ากับการดำเนินงานของเอเจนต์, การส่ง, และการตรวจสอบ มันรับรองการโอนสินทรัพย์และการซิงโครไนส์สถานะข้ามโซนที่แตกต่างกัน, เป็นพิเศษสำหรับสถานะที่ซับซ้อนเช่น บริบทของเอเจนต์, โปรโมปต์, ฐานความรู้, หน่วยความจำ, ฯลฯ
……
ในมุมมองของฉัน ความท้าทายสำคัญสำหรับ Web3 AI Agents คือการปรับท่า 'ขั้นตอนการทำงานที่ซับซ้อน' ของ AI Agents ให้สอดคล้องกับ 'กระบวนการตรวจสอบความเชื่อถือ' ของบล็อกเชนให้ใกล้เคียงมากที่สุด การแก้ปัญหาขั้นเฉียบนี้อาจเกิดขึ้นจากโครงการที่มีอยู่แล้วหรือถูกสร้างใหม่ในแนวเรื่อง AI Agent
นี่คือทิศทางที่ Web3 AI Agents ควรมุ่งเน้นที่จะพัฒนา โดยการปรับทิศทางตามระบบนิวเมติกที่นำเสนอในระบบนิวเมติกพื้นฐานภายใต้การพูดถึงทั่วไปของ AI + Crypto หากไม่มีนวัตกรรมหรือการสร้างอุปสรรค์แข่งขันที่แตกต่าง การเปลี่ยนทิศทางทุกครั้งในการติดตาม Web2 AI อาจทำให้เกิดความสับสนในภูมิทัศน์ AI ของ Web3