Forward the Original Title: Mira: Trustless Verified AI
ภาวะเห็นภาพ: ประสบการณ์ที่เกี่ยวข้องกับการรับรู้ที่แสดงให้เห็นว่ามีสิ่งที่ไม่มีอยู่
Andrej Karpathy เรียก AI ว่า 'เครื่องฝัน' เขาเชื่อว่าสิ่งที่เราเรียกว่าภาพลวงตา—ช่วงเวลาเมื่อ AI สร้างสรรค์อย่างมั่นใจในสิ่งที่ไม่เป็นจริง—เป็นคุณสมบัติ ไม่ใช่ข้อบกพร่อง เราไม่มีทางที่จะพยายามกำจัดมันอย่างสมบูรณ์แบบ และในความซื่อสัตย์ มีสิ่งที่สุดกำลังอยู่ในนั้น
โมเดลภาษาขนาดใหญ่ (LLMs) เป็นศิลปิน นักสร้าง มันฝันถึงรหัส สร้างความคิดจากอากาศบริสุทธิ์ และสร้างความหมายจากข้อมูล แต่ในการที่ AI จะเปลี่ยนจากความฝันวันที่สวยงามไปสู่การใช้งานที่เป็นประจำทุกวัน เราต้องห้ามความฝันเหล่านั้น
อัตราข้อผิดพลาดของ LLMs ยังคงสูงในหลายงาน โดยทั่วไปมักอยู่ที่ระดับประมาณ 30% ในระดับนั้น LLMs ยังต้องการมนุษย์เข้ามาช่วยในการเอาไปสู่ระดับความแม่นยำที่สามารถใช้งาน
แต่เมื่อเราได้ความแม่นยำที่เกือบ 99.x% ที่น่าจะได้รับการอนุมัติ การเกิดเวทมนต์ก็เกิดขึ้น นั่นคือเกณฑ์ที่ที่ AI บรรลุถึงความเชื่อถือได้เท่ากับมนุษย์ ที่เปิดทางสู่จักรวาลอันไม่มีที่สิ้นสุดของการใช้งานที่มาก่อนหน้าที่อยู่ในขอบเขตที่ไม่สามารถเข้าถึง
อย่างไรก็ตามการไปถึงระดับความแม่นยํานั้นไม่ใช่เรื่องเล็ก มันต้องการความพยายามทางวิศวกรรมและนวัตกรรมอย่างไม่หยุดยั้ง
เรื่องราวของ @Mira_Networkเริ่มต้นที่นี่ แต่ก่อนที่เราจะลงไป ให้เราพูดคุยสักครู่เกี่ยวกับการพัฒนา LLM และเหตุผลที่การตรวจสอบกำลังเป็นสิ่งที่ใหญ่ขึ้นใน AI ครับ
การพัฒนา LLM เป็นการทําซ้ําล่าสุดในเส้นทางการเรียนรู้เชิงลึกซึ่งแตกต่างจากแนวทางการพัฒนาซอฟต์แวร์แบบดั้งเดิมที่เราฝึกฝนมาตลอด 50+ ปีที่ผ่านมา LLMs ซึ่งมีมาประมาณสามปีพลิกสคริปต์อย่างสมบูรณ์เปลี่ยนจากการคิดเชิงกําหนด (ถ้า X แล้ว Y) ไปสู่การให้เหตุผลที่น่าจะเป็นไปได้ (ถ้า X แล้ว ... บางที Y?).
นี้หมายความว่าโครงสร้างพื้นฐานสำหรับโลกที่มี AI ต้องการชุดเครื่องมือและกระบวนการที่แตกต่างอย่างสิ้นเชิงใหม่ แต่ยังมีเครื่องมือเหล่านี้ยังอยู่ในห้องปฏิบัติการวิจัยที่สร้าง LLMs
ข่าวดีคือเครื่องมือเหล่านี้เริ่มเร่งออกสู่โดเมนสาธารณะ ทำให้โลกของนักพัฒนาเปิดขึ้นมาให้มองได้
ที่ส่วนท้ายของขั้นตอนการทำงานใหม่นี้เป็นส่วนสำคัญของปริศนา: การประเมินและการตรวจสอบ วันนี้ แสงส่องที่เราพบอยู่ที่นั่น พวกเขาตอบคำถามสำคัญ: แอปพลิเคชันทำงานได้ดีหรือไม่?
ความเชื่อมั่นเป็นฐานของผลิตภัณฑ์ AI ที่ยอดเยี่ยมใด ๆ
เมื่อ AI เริ่มเป็นส่วนสำคัญของชีวิตเรามากขึ้น เทคโนโลยีเองก็ยังเป็นสิ่งที่อ่อนแอ การผิดพลาดเกิดขึ้นและเมื่อเกิดขึ้นความไว้วางใจจะลดลงอย่างรวดเร็ว ผู้ใช้คาดหวังให้ AI มีความแม่นยำ ไม่มีความลำเอียงและเป็นประโยชน์จริง ๆ แต่หากไม่มีระบบที่เชื่อถือได้เพื่อให้มั่นใจนั้น ความผิดหวังก็เพิ่มขึ้น - และความผิดหวังนี้นำไปสู่การเสื่อมโทรม
นี่คือสิ่งที่การตรวจสอบมีบทบาท
การตรวจสอบเป็นการป้องกัน มันเป็นชั้นคุณภาพที่นักพัฒนาพึ่งพาในการปรับปรุงผลลัพธ์และสร้างระบบที่ผู้ใช้สามารถเชื่อถือได้
Mira กำลังแก้ไขปัญหาหลักของ Web2 ด้วยความโปร่งใสที่ไม่ต้องไว้วางใจของสกุลเงินดิจิตอล โดยใช้เครือข่ายที่กระจายอำนาจของโหนดผู้ตรวจสอบชั่วคราว Mira รับประกันว่าผลลัพธ์ของ AI จะถูกตรวจสอบอย่างถูกต้องและอิสระ
สมมติว่าคุณมีย่อหน้าของผลลัพธ์จาก LLM เกี่ยวกับเมืองปารีส คุณจะทำอย่างไรในการยืนยันว่ามันถูกต้อง? มันยากที่จะทำเช่นนั้นเพราะมีความละเอียดรอบครอบมากเกี่ยวกับทุกอย่างตั้งแต่การอ้างอิงถึงโครงสร้างของเนื้อหาไปจนถึงสไตล์การเขียน
นี่คือสถานที่ที่มิราเข้ามาช่วย
วิสัยทัศน์ของ Mira คือการสร้างเครือข่ายชั้นที่ 1 ที่สามารถให้ความน่าเชื่อถือ สามารถขยายขนาด และสามารถทำการยืนยันผลลัพธ์ของ AI ได้อย่างแม่นยำ โดยการใช้ประโยชน์จากปัจจุบัน Mira ลดการลำเอียงและการมองเห็นที่ไม่เป็นจริง แก้ปัญหาหลักเช่นความยุติธรรมและค่าใช้จ่ายในขณะที่พิสูจน์ว่าบล็อกเชนสามารถเสริมสร้าง AI อย่างแท้จริง
แหล่งที่มา: Mira
ผลลัพธ์ในช่วงต้นมีแนวโน้ม เมื่อเร็วๆ นี้การศึกษาที่เผยแพร่บน Arxiv, มีราแสดงให้เห็นว่าการใช้โมเดลหลายรูปแบบที่ใช้ในการสร้างผลลัพธ์และการต้องการความเห็นร่วมกันช่วยเพิ่มความแม่นยำอย่างมีนัยสำคัญ ความแม่นยำถึง 95.6% ด้วยโมเดลสามรูปแบบ เปรียบเทียบกับ 73.1% สำหรับผลลัพธ์ของโมเดลเดียว
สององค์ประกอบในการออกแบบที่สำคัญของ Mira คือ
ผลลัพธ์ที่สร้างขึ้นโดย AI สามารถเป็นคำตอบที่เรียบง่ายหรือเป็นเอสเซย์ที่ยืดหยุ่นได้ ด้วยความถูกต้องที่ต่างกัน แต่มันกลายเป็นความท้าทายในการให้ความแม่นยำของผลลัพธ์ที่หลากหลายขนาดนั้นได้เป็นอย่างไร?
วิธีการแก้ไขของ Mira คือ: แบ่งออกเป็นส่วนๆ
@Mira_Networktransforms complex AI-generated content into smaller, digestible pieces that AI models can objectively review in a process called sharding.
โดยมาตรฐานการผลิตผลลัพธ์และการแยกออกเป็นข้อสิทธิที่สามารถพิสูจน์ได้ Mira รับรองว่าทุกชิ้นสามารถประเมินได้อย่างเสถียร โดยลบความกำกวมที่มักจะมีในการประเมิน
ตัวอย่างเช่นพิจารณาคำสั่งผสมนี้:
ฟอโตสินเธสิสเกิดขึ้นในพืชเพื่อแปลงแสงแดดเป็นพลังงาน และผึ้งมีบทบาทสำคัญในการผสมเกสรของดอกไม้โดยการถ่ายพยาธิระหว่างดอกไม้
ตามด้านผิวดูเหมือนง่ายในการยืนยัน แต่เมื่อส่งให้โมเดลหลายรุ่น ความเห็นแปลกตาอาจนำไปสู่คำตอบที่แตกต่างกัน การแปลงเนื้อหาของ Mira ผ่านการแบ่งชิ้นส่วนแก้ไขปัญหานี้โดยแบ่งคำอธิบายเป็นสองข้อยืนยันที่แยกกัน
เมื่อแบ่งชั้นแล้ว ทุกข้อเรียกร้องจะถูกแปลงเป็นคำถามตัวเลือกที่หลายตัวเลือก คำถามเหล่านี้จะถูกกระจายไปยังเครือข่ายของโหนดที่ทำงานด้วยโมเดล AI โดยใช้วิธีการตรวจสอบแบบอัลกอริทึมอันสมบูรณ์ของ Mira โมเดลร่วมมือกันในการประเมินและยืนยันความถูกต้องของแต่ละข้อเรียกร้อง
ปัจจุบันความสามารถในการแบ่งข้อมูลและการแปลงข้อมูลเป็นรหัสของ Mira ยังมุ่งเน้นไปที่ข้อมูลข้อความเท่านั้น ภายในต้นปี 2025 กระบวนการเหล่านี้จะขยายออกมาให้รองรับการนำเข้าแบบมัลติโมดัล เช่น รูปภาพและวิดีโอ
Mira ได้พัฒนาระบบการตรวจสอบที่ขั้นสูงซึ่งรวมความแข็งแกร่งของโมเดล AI หลายรูปแบบเพื่อประเมินคุณภาพของผลลัพธ์ AI
มาเริ่มจากนั้น
การประเมินอัตโนมัติแบบดั้งเดิมมักอาศัยแบบจําลองภาษาขนาดใหญ่เดียว (LLM) เช่น GPT-4 ในฐานะผู้ชี้ขาดคุณภาพขั้นสูงสุด ในขณะที่ใช้งานได้วิธีการนี้มีข้อบกพร่องที่สําคัญ: มีค่าใช้จ่ายสูงมีแนวโน้มที่จะมีอคติและถูก จํากัด ด้วยนิสัยใจคอและ "บุคลิกภาพ" ที่มีอยู่ในแบบจําลอง
การเปลี่ยนแปลงของมายร่าเป็นการเลิกพึ่งพาอย่างเดียวในรูปแบบของโมเดลขนาดใหญ่เพื่อใช้ประโยชน์จากensemble of diverse LLMs. ส่วนประกอบนี้โดดเด่นในงานที่ความแม่นยำทางข้อมูลสำคัญกว่าความสามารถในการสร้างความสามารถ ลดอัตราข้อผิดพลาดและส่งมอบการยืนยันที่เชื่อถือได้มากขึ้น ที่นิยมมากขึ้น
เทคนิคอะไรก็ตามได้รับการศึกษาอย่างละเอียดในงานการเรียนรู้ของเครื่องเช่นการจำแนกและ Mira ตอนนี้กำลังนำเทคนิคนี้มาสู่การยืนยัน
ในกลางระบบของ Mira คือ แผงผู้ตรวจสอบ LLM (PoLL) - ระบบเครือข่ายที่มีรูปแบบที่ทำงานร่วมกันเพื่อตรวจสอบผลลัพธ์ คิดว่าเป็นที่ปรึกษาที่หลากหลายของผู้เชี่ยวชาญที่มีส่วนร่วมในการตัดสินใจเมื่อเทียบกับการทิ้งไว้ให้ผู้พิพากษาเดียวที่อาจมีความเฉียบแหลม
และนี่ไม่ใช่แค่ความคิดที่หวังดีเท่านั้น - มันมีข้อมูลทางวิจัยเป็นพื้นฐานด้วย มาดูกราฟด้านล่างนี้
การศึกษา Cohereเผยแพร่ในเดือนเมษายน 2024 ได้แสดงให้เห็นว่าแผงของรุ่นเล็ก ๆ สามรุ่น - GPT-3.5, Claude-3 Haiku และ Command R - สอดคล้องกับความคิดเห็นของมนุษย์มากกว่า GPT-4 เพียงอย่างเดียว อย่างน่าทึ่งคือวิธีการสองวิธีนี้ยังถูกลดราคาอีก 7 เท่า
Mira กำลังนำวิจัยนี้ไปสู่การปฏิบัติการโดยใช้วิธีการตรวจสอบด้วยกลุ่มในมาตราส่วนใหญ่ ผลลัพธ์ภายในที่พวกเขาได้แบ่งปันจนถึงตอนนี้น่าสนใจ:
• อัตราผิดพลาดลดลงจาก 80% เป็น 5% สำหรับงานเหตุผลที่ซับซ้อน
• การปรับปรุงความเร็วและค่าใช้จ่าย 5 เท่าเมื่อเปรียบเทียบกับการยืนยันโดยมนุษย์
นี้คือความสำเร็จที่ไม่เล็กน้อย โดยใช้กลไกการตกลงเป็นหลัก สมาชิกที่หลากหลายของโมเดลของ Mira กรองออกไฟล์ที่เป็นภาพลวงตาและสมดุลต่อความลำเอียงของโมเดลแต่ละราย พร้อมกันพวกเขาส่งมอบสิ่งที่ดีกว่าผลรวมของส่วนประกอบของพวกเขา: การยืนยันที่เร็วกว่า ถูกกว่าและสอดคล้องกับความต้องการของเรามากขึ้น
สรุปย้อนกลับการทำงานของระบบการตรวจสอบของ Mira สร้างขึ้นบนหลักการออกแบบสององค์ประกอบหลัก:
การบำรุงรักษาชุดแบบจำลองที่หลากหลายเป็นสิ่งสำคัญสำหรับผลลัพธ์ที่มีคุณภาพสูง ซึ่งทำให้การออกแบบของ Mira เป็นอย่างที่เหมาะสมสำหรับสถาปัตยกรรมแบบกระจาย การกำจัดจุดล้มเหลวเดี่ยวเป็นสิ่งสำคัญสำหรับผลิตภัณฑ์การตรวจสอบใด ๆ
Mira ใช้วิธีการที่ใช้ blockchain เพื่อให้แน่ใจว่าไม่มีส่วนราชการเดียวสามารถเข้ามาแก้ไขผลลัพธ์ได้ หลักการคือง่ายดาย: ผลลัพธ์ที่สร้างขึ้นโดย AI ควรได้รับการยืนยันเหมือนกับการเปลี่ยนแปลงสถานะของบล็อกเชน
การยืนยันเกิดขึ้นผ่านเครือข่ายของโหนดอิสระ โดยผู้ดำเนินการได้รับสิทธิ์ตามแรงจูงใจทางเศรษฐกิจในการดำเนินการยืนยันที่แม่นยำ โดยการปรับสิ่งที่รับรู้กับความซื่อสัตย์ ระบบของ Mira ป้องกันผู้กระทำที่ไม่ดีและให้ผลลัพธ์ที่เชื่อถือได้
นี่คือวิธีที่มันทำงาน:
Mira รับรองความเป็นส่วนตัวของข้อมูลโดยการแบ่งข้อมูลนำเข้าเป็นชิ้นย่อย ๆ และรับรองว่าไม่มีโหนดเดียวที่สามารถเข้าถึงชุดข้อมูลทั้งหมด
เพื่อความปลอดภัยเพิ่มเติม มีรายสนับสนุนระดับความเป็นส่วนตัวที่เปลี่ยนไปได้ อนุญาตให้ผู้ใช้ปรับจำนวนชาร์ดตามความไว้วางใจของข้อมูล ระดับความเป็นส่วนตัวที่สูงกว่าต้องการการแบ่งแยกมากขึ้น (และต้องสูงขึ้นด้วย) แต่พวกเขาจะให้ความมั่นคงเพิ่มขึ้นสำหรับผู้ใช้ที่จัดการข้อมูลที่เป็นความลับ
ทุกการตรวจสอบที่โหนดทำ จะถูกบันทึกบนบล็อกเชน ทำให้เกิดบันทึกที่โปร่งใสและสามารถตรวจสอบได้ของกระบวนการตรวจสอบ สมุทโศนนที่ไม่สามารถบรรลุได้โดยวิธีการที่ไม่ใช่บล็อกเชน ที่ไม่สามารถเปลี่ยนแปลงได้ ทำให้มั่นใจและรับผิดชอบ
นี้ตั้งค่าเกณฑ์มาตรฐานใหม่สำหรับการยืนยัน AI ที่ปลอดภัยและไม่มีความเป็นฝ่ายลำดับ
ในเครือข่ายที่ไมราที่มีลักษณะกระจาย, งานที่ซื่อสัตย์ได้รับรางวัล
ผู้เชี่ยวชาญสามารถใช้โมเดล AI ที่เชี่ยวชาญพิเศษผ่านซอฟต์แวร์โหนดและรับโทเค็นเป็นการยืนยันที่แม่นยำ นักพัฒนา AI จะจ่ายค่าธรรมเนียมต่อการยืนยัน ซึ่งสร้างรูปแบบเศรษฐกิจที่ยังอยู่ระหว่างอุปทานและความต้องการเองเอง
การแนวทางนี้เชื่อมสร้างค่าจริงจากการทำงานของ Web2 เข้าสู่นิเวศ Web3 โดยตรง โดยมีการให้ค่าตอบแทนผู้เข้าร่วมเช่นผู้ให้ข้อมูลอ้างอิงและผู้สร้างโมเดล
แต่สิ่งแรงจูงใจนั้นมาพร้อมกับความท้าทาย ในระบบที่ไม่ centralised ใด ๆ ผู้กระทำที่ไม่ดีจะพยายามใช้เครือข่ายเพื่อส่งผลลัพธ์ปลอมเพื่อหารางวัลโดยไม่ทำงาน
ดังนั้นเราจะทำอย่างไรเพื่อให้แน่ใจว่าโหนดทำงานอย่างถูกต้องและซื่อสัตย์จริงๆ
เพื่อรักษาความน่าเชื่อถือ Mira ใช้ Proof-of-Verification ซึ่งเป็นกลไกที่ได้รับแรงบันดาลใจจาก proof-of-work ของ Bitcoin แต่ออกแบบมาสำหรับ AI แทนที่จะขุดบล็อกโหนดจะต้องพิสูจน์ว่าพวกเขาได้ทำงานการตรวจสอบเพื่อเข้าร่วมกระบวนการตอบสนอง
นี่คือวิธีการทำงาน:
Proof-of-Verification สร้างระบบที่สมดุลเพื่อให้โหนดมีแรงจูงใจทางเศรษฐกิจในการดำเนินการตรวจสอบคุณภาพสูง กลไกนี้รับประกันว่าเครือข่ายจะยังคงมีความปลอดภัยและเชื่อถือได้ในระยะยาว
คำถามคือ: ถ้าวิธีการของมิรามีประสิทธิภาพมากเกินไปทำไมไม่มีใครทำ?
คำตอบอยู่ในการตัดสินใจและความซับซ้อนของการนำระบบเช่นนี้ไปปฏิบัติในโลกของความเป็นจริง การบรรลุสมดุลที่สมบูรณ์ระหว่างการประเมินที่รวดเร็วและแม่นยำ และการจัดการกับความซับซ้อนของแบบจำลองหลายรูปแบบไม่ใช่เรื่องที่ง่าย
หนึ่งในอุปสรรคที่ใหญ่ที่สุดของ Mira คือความล่าช้า ในขณะที่ใช้สมรรถนะของโมเดลเพื่อให้การยืนยันสามารถทำงานขนาน การซิงโครไนซ์ผลลัพธ์และการเรียกร้องข้อมูลนำเข้าความล่าช้าเข้ามา กระบวนการนี้เร็วเท่ากับโหนดที่ช้าที่สุดเท่านั้น
ปัจจุบันนี้ ทำให้ Mira เหมาะสำหรับการประมวลผลชุดของผลลัพธ์ AI - กรณีการใช้ที่ไม่ต้องการผลลัพธ์แบบเรียลไทม์ ซึ่งเป็นกรณีที่เครือข่ายเติบโตขึ้นมาพร้อมกับโหนดและการให้บริการคำนวณเพิ่มเติม จุดมุ่งหมายในระยะยาวคือการสามารถตรวจสอบแบบเรียลไทม์ได้ และขยายความสามารถในการใช้งานของ Mira ในช่วงเวลาที่กว้างขึ้น
นอกจากความล่าช้ายังมีความท้าทายอื่น ๆ รวมถึง:
ความซับซ้อนทางวิศวกรรม: การประสานการประเมินในหลายรูปแบบและการทําให้แน่ใจว่ากลไกฉันทามติทํางานได้อย่างราบรื่นต้องใช้ความพยายามทางวิศวกรรมอย่างมาก
ความต้องการทางคำนวณที่สูงขึ้น: แม้ว่าจะใช้โมเดลขนาดเล็ก ๆ กันแล้วก็ยังเพิ่มความต้องการทางคำนวณเมื่อทำงานร่วมกันในองค์ประกอบ
การออกแบบกลไกมตรฐานที่ดี: วิธีที่มีการบรรลุความเห็นร่วม - ผ่านการลงคะแนนโหวตส่วนใหญ่ การให้คะแนนน้ำหนัก หรือวิธีอื่น ๆ - เล่น peran บทบาทสำคัญในความเชื่อถือของระบบ ในกรณีที่ไม่แน่ชัด กลุ่มอุปกรณ์อาจต่อต้านการปรับ ทำให้มีผลลัพธ์ที่ไม่สอดคล้อง
ต้นฉบับ: Mira
API ของ Mira สามารถผนวกรวมกับแอปพลิเคชันใดก็ได้โดยง่าย คล้ายกับ GPT-4o ของ OpenAI มันเป็นไม่ลับต่อผู้บริโภคและแอปพลิเคชันธุรกิจที่ที่ทำให้มันเป็นทางเลือกที่หลากหลายสำหรับกรณีการใช้งานต่าง ๆ ปัจจุบันมีแอปพลิเคชันกว่าโดยใช้โครงสร้างพื้นฐานของ Mira
Consumer Integrations
ในฝั่งผู้บริโภค Mira ได้เป็นแหล่งพลังขับเคลื่อนการตรวจสอบ AI สำหรับแอป AI ระดับเริ่มต้นหลายแอป
Delphi Oracle is the latest and perhaps most advanced integration. This AI-powered research assistant allows @Delphi_Digitalสมาชิกสามารถเข้าถึงเนื้อหาวิจัยโดยตรง ถามคำถาม ชี้แจงจุด รวมถึงการรวบรวมข้อมูลราคาและปรับเนื้อหาให้เหมาะสมกับระดับความซับซ้อนต่าง ๆ
Delphi Oracle ใช้เทคโนโลยีการยืนยันของ Mira Network เพื่อให้ได้คำตอบที่เชื่อถือได้และแม่นยำ โดยการยืนยันคำตอบที่เกิดขึ้นในรูปแบบหลายรูปแบบ Mira ลดอัตราการเกิดอาการตัวเป็นในร้อยละ ~30 ไปยังต่ำกว่า 5 เพื่อให้มั่นใจในความน่าเชื่อถือที่แข็งแกร่ง
ที่แกนกลางของ Delphi Oracle เป็นตัวเราเตอร์คิวรี่ที่มีประสิทธิภาพสูง
ระบบการเชื่อมต่ออัจฉริยะนี้ ร่วมกับการเก็บข้อมูลอย่างฉลาด จะทำให้การทำงานเป็นไปอย่างมีประสิทธิภาพโดยการสมดุลความหน่วงเวลา ค่าใช้จ่าย และคุณภาพ
การทดสอบของมีราพบว่ารุ่นที่เล็กและมีราคาที่มีประสิทธิภาพสามารถจัดการคำถามส่วนใหญ่เกือบเท่ากับรุ่นที่ใหญ่ขึ้น นี้ส่งผลให้ต้นทุนดำเนินการลดลงถึง 90% โดยยังคงรักษาคุณภาพการตอบสนองที่มีคุณภาพสูงที่ผู้ใช้คาดหวัง
ถึงแม้ว่าแอปพลิเคชันบางส่วนในกลุ่มผู้บริโภคเหล่านี้จะยังอยู่ในช่วงเริ่มต้น แต่พวกเขาย้ำให้เห็นถึงความสามารถของ Mira ในการผสมผสานอย่างราบรื่นและสนับสนุนฐานผู้ใช้ที่ใหญ่และที่ใช้งานอย่างต่อเนื่อง ไม่ยากที่จะนึกภาพถึงพันแอปพลิเคชันที่เชื่อมต่อกับระบบนิเวศของ Mira - หากประสบการณ์นักพัฒนายังคงเป็นเรื่องง่ายและข้อเสนอมูลค่ายังคงชัดเจน
แอปพลิเคชั่น B2B
ในด้านธุรกิจระหว่างองค์กร (B2B) Mira กำลังเน้นการรวมระบบที่เชี่ยวชาญในอุตสาหกรรมที่ความเชื่อถือและความแม่นยำเป็นสิ่งสำคัญ โดยเน้นเริ่มต้นที่ด้านสุขภาพและการศึกษา
แอปพลิเคชันหลักประกอบด้วย:
เป้าหมายสูงสุดของ Mira คือการนําเสนอรุ่นที่ได้รับการยืนยันโดยกําเนิด ซึ่งผู้ใช้เพียงแค่เชื่อมต่อผ่าน API เช่นเดียวกับ OpenAI หรือ Anthropic และรับเอาต์พุตที่ได้รับการยืนยันล่วงหน้าก่อนที่จะส่งคืน
พวกเขามีเป้าหมายที่จะแทนที่ API รุ่นเดิมโดยการ提供เวอร์ชันที่เชื่อถือได้มากขึ้นของโมเดลที่มีอยู่ (เช่น Mira-Claude-3.5-Sonnet หรือ Mira-OpenAI-GPT-4o) ที่ปรับปรุงด้วยความเชื่อมั่นตามหลักองค์ประกัน.
Generative AI กำลังเดินทางด้วยยานอวกาศ ตามข้อมูลBloombergตลาดคาดว่าจะเติบโตอย่างต่อเนื่องที่อัตราเฉลี่ยปีละ 42% โดยรายได้เกิน 1 ล้านล้านดอลลาร์ภายในปี 2030 ในความหลากหลายของความเร็วความแม่นยำและความเชื่อถือของกระบวนการทำงานที่ใช้ AI จะเป็นสิ่งที่สำคัญในการจับตาชะล่าให้ได้อย่างที่สำคัญ
เนื่องจากองค์กรมากขึ้นกำลังรวม LLM เข้าสู่กระบวนการทำงานของพวกเขา - ตั้งแต่แชทบอทสนับสนุนลูกค้าไปจนถึงผู้ช่วยในการวิจัยที่ซับซ้อน - ความต้องการในการยืนยันโมเดลที่แข็งแกร่งก็เพิ่มมากขึ้น
องค์กรจะมองหาเครื่องมือที่ (1) สามารถวัดความแม่นยำและความเชื่อถือได้, (2) วินิจฉัยประสิทธิภาพและพารามิเตอร์ที่ไม่เป็นประโยชน์, (3) ติดตามประสิทธิภาพและการเปลี่ยนแปลงอย่างต่อเนื่อง, และ (4) ให้ความชำนาญที่เกี่ยวกับการปฏิบัติตามกรอบกฎหมายที่เกิดขึ้นเกี่ยวกับความปลอดภัยของ AI
เป็นความรู้สึกที่คุ้นเคยหรือเปล่า? เป็นหนังสือเล่มเดียวกับ MLOps (ย่อมาจาก Machine Learning Operations) ที่เราเคยเห็นกันมาก่อน ภายในปี 2010s เมื่อการเรียนรู้เครื่องจักรขยายตัว การใช้เครื่องมือสำหรับการติดตั้ง ติดตาม และบำรุงรักษาโมเดลกลายเป็นสิ่งสำคัญ เป็นตลาดมูลค่าหลายพันล้านดอลลาร์ เมื่อมีการเพิ่มขึ้นของ AI ที่สามารถสร้างสรรค์ได้ LLMOps กำลังเดินตามเส้นทางเดียวกัน
การเข้าถึงแม้เพียงเพียงส่วนเล็กน้อยของตลาดทรัพย์ล้านล้านดอลลาร์อาจทำให้ตลาดย่อยนี้เติบโตเป็น 100 พันล้านเหรียญขึ้นไปโดย 2030
บริษัท Startup ที่ใช้เทคโนโลยี Web2 หลายรายได้เริ่มตั้งตำแหน่งเองแล้ว โดยมีเครื่องมือให้ทำป้ายกำกับข้อมูล ปรับปรุงโมเดล และประเมินผลการปฏิบัติงานอย่างละเอียด
• Braintrust (เรียกเงิน 36 ล้านเหรียญ)
• Vellum AI ($5M raised)
• Humanloop (ระดมทุน $2.8 ล้าน)
ผู้เคลื่อนไหวตั้งแต่แรกเริ่มกำลังเตรียมพื้นฐาน แต่พื้นที่นี้เป็นหุ่นเหล็ก ในปี 2025 เราอาจเห็นการเพิ่มขึ้นของ สตาร์ทอัพในกลุ่มนี้ บางส่วนอาจเชี่ยวชาญในตัวชี้วัดการประเมินที่เฉพาะเจาะจง (เช่นการตรวจสอบความเอียงของข้อมูลและการทดสอบความทนทาน) ในขณะที่อื่นๆ กว้างขวางขึ้นเพื่อครอบคลุมวงจรชีวิตการพัฒนา AI ทั้งหมด
บริษัทเจ้าของเทคโนโลยีใหญ่ ๆ เช่นผู้ให้บริการคลาวด์และแพลตฟอร์ม AI ชั้นนำอาจจะรวมคุณสมบัติการประเมินในการเสนอของพวกเขา ในเดือนที่ผ่านมา,OpenAIGate ที่จะอยู่ในการแข่งขัน สตาร์ทอัพจะต้องแตกต่างกันผ่านความเชี่ยวชาญ ความง่ายในการใช้งาน และการวิเคราะห์ที่ล้ำสมัย
Mira ไม่ได้เป็นคู่แข่งโดยตรงกับสตาร์ทอัพหรือผู้เข้าร่วมที่มีอยู่แล้ว แต่เป็นผู้ให้บริการโครงสร้างพื้นฐานที่รวมกันอย่างราบรื่นกับทั้งสองผ่าน API คืออะไร? มันเพียงแค่ต้องทำงาน
ขนาดตลาดเริ่มต้นของ Mira ติดต่อกับ LLMOps แต่ตลาดที่สามารถเข้าถึงได้ทั้งหมดจะขยายออกไปที่ AI ทั้งหมดเพราะทุกๆ แอปพลิเคชัน AI จะต้องการเอาต์พุทที่เชื่อถือได้มากขึ้น
จากมุมมองทฤษฎีเกม มีราต้องเผชิญกับสถานการณ์ที่เป็นพิเศษ ไม่เหมือนผู้ให้บริการโมเดลอื่น ๆ เช่น OpenAI ที่ถูกล็อคในการสนับสนุนระบบของตนเอง Mira สามารถรวมระหว่างโมเดลได้ ซึ่งทำให้ Mira เป็นชั้นความไว้วางใจสำหรับ AI โดยมีความเชื่อถือได้ที่ไม่มีผู้ให้บริการใด ๆ สามารถเทียบเท่า
โครงการถนนเส้นทาง 2025 ของ Mira เป้าหมายที่จะสมดุลความสมัครสมาชิกของความสุขและการมีส่วนร่วมของชุมชนในการเดินทางของมันสู่การกระจายอำนาจอย่างเต็มรูปแบบ
เฟส 1: การสร้างความเชื่อมั่นในตัวเอง (ที่เราอยู่ในขณะนี้)
ในช่วงต้น ผู้ดำเนินการโหนดที่ได้รับการตรวจสอบรับรองรักษาความเชื่อถือในเครือข่าย ผู้ให้บริการคอมพิวเตอร์ GPU ที่มีชื่อเสียงเป็นผู้ดำเนินการครั้งแรก จัดการดำเนินการเริ่มต้นและสร้างพื้นฐานที่แข็งแกร่งสำหรับการเติบโต
เฟส 2: การกระจายอำนาจแบบก้าวหน้า
Mira นำเสนอการทำซ้ำที่ออกแบบมาอย่างดี โดยที่มีหลายตัวอย่างของโมเดลผู้ตรวจสอบเดียวกันทำงานกับแต่ละคำขอ ซึ่งการนี้จะทำให้ต้นทุนการตรวจสอบเพิ่มขึ้น แต่ก็เป็นสิ่งสำคัญสำหรับการระบุและกำจัดตัวดำเนินการที่เลวร้าย โดยการเปรียบเทียบผลลัพธ์ที่ได้จากทุกๆ โหนด ผู้กระทำที่ไม่ดีจะถูกจับได้เร็วๆ นี้
ในรูปแบบที่เป็นสุดของมิรา จะใช้การแบ่งชาร์ดแบบสุ่มเพื่อกระจายงานการยืนยัน ซึ่งทำให้การก่อการร้ายทางเศรษฐกิจไม่เป็นไปตามที่คาดหวังและเสริมความแข็งแกร่งของเครือข่ายและความปลอดภัยเมื่อมีการขยายตัว
ระยะที่ 3: โมเดลพื้นฐานสังเคราะห์
ที่นี่มีราจะเสนอการสร้างรุ่นที่ได้รับการยืนยันอย่างเชี่ยวชาญแบบธรรมชาติ ผู้ใช้จะเชื่อมต่อผ่าน API คล้ายกับ OpenAI หรือ Anthropic และจะได้รับผลลัพธ์ที่ได้รับการยืนยันล่วงหน้า - ผลลัพธ์ที่เชื่อถือได้และพร้อมใช้งานโดยไม่ต้องมีการตรวจสอบเพิ่มเติม
ในเดือนที่กำลังจะมาถึง Mira กำลังเตรียมพร้อมสำหรับเหตุการณ์สำคัญหลายรายการ:
Mira กำลังขยายโอกาสในการมีส่วนร่วมของชุมชนผ่านโปรแกรมผู้ลงทุนโหนด. กิจกรรมนี้ทำให้การสนับสนุนเครือข่ายเป็นเรื่องที่สามารถเข้าถึงได้สำหรับทุกคน - ไม่จำเป็นต้องมีความเชี่ยวชาญทางเทคนิค
กระบวนการนี้ง่าย: คุณสามารถเช่าทรัพยากรการประมวลผลและมอบหมายให้กับกลุ่มตัวดําเนินการโหนดที่คัดสรรมาอย่างดี การมีส่วนร่วมอาจมีตั้งแต่ $ 35 ถึง $ 750 และมีการเสนอรางวัลสําหรับการสนับสนุนเครือข่าย Mira จัดการโครงสร้างพื้นฐานที่ซับซ้อนทั้งหมดเพื่อให้ผู้รับมอบสิทธิ์โหนดสามารถนั่งลงดูเครือข่ายเติบโตและจับกลับหัวกลับหางได้
วันนี้ Mira มีทีมเล็ก ๆ แต่แน่นหนาซึ่งส่วนใหญ่เน้นด้านวิศวกรรม
มีผู้ร่วมก่อตั้ง 3 คน:
พวกเขาร่วมกันเชื่อมต่อความชำนาญในการลงทุน, นวัตกรรมทางเทคนิค, และผู้นำผลิตภัณฑ์เพื่อวิสัยทัศน์ของ Mira ในการตรวจสอบ AI แบบกระจาย Mira ได้ระดมทุนรวม 9 ล้านดอลลาร์ รอบเมล็ดในเดือนกรกฎาคม 2024 โดยนำโดย BITKRAFT และ Framework Ventures
เป็นสดชื่นที่ได้เห็นทีม Crypto AI ที่มุ่งมั่นที่จะแก้ปัญหาพื้นฐานของ AI ใน Web2 ให้ดียิ่งขึ้น แทนที่จะเล่นเกมสเปกุเลทีฟในภาวะฟองสบู่ของ crypto
อุตสาหกรรมได้เริ่มต้นตื่นตระหนกถึงความสำคัญของการยืนยันตัวตน การพึ่งพากับ "ความรู้สึก" ไม่เพียงพออีกต่อไป แอปพลิเคชันและกระบวนการทางปัญญาประดิษฐ์ทุกอย่างจะต้องมีกระบวนการยืนยันตัวตนที่เหมาะสมเร็ว ๆ นี้ และสมควรจะมีกฎหมายใหม่ที่ต้องการกระบวนการเหล่านี้เพื่อให้รองรับความปลอดภัยได้
วิธีการของมิราใช้โมเดลหลายรูปแบบเพื่อตรวจสอบผลลัพธ์อย่างอิสระ โดยไม่พึ่งพาโมเดลกลางเดียว โครงสร้างที่กระจายออกไปนี้เสริมสร้างความเชื่อถือและลดความเสี่ยงของสิ่งที่เสียหายและการจัดการ
และลองพิจารณาว่าจะเกิดอะไรขึ้นถ้าเราไปถึง AGI ในอีกไม่กี่ปีข้างหน้า (ความเป็นไปได้ที่แท้จริง)
เป็นAnand Iyer (@AIจากจุดย่อยๆ ที่ Canonical ได้เน้นไว้ หาก AI สามารถควบคุมการตัดสินใจและรหัสโดยลับ ๆ ได้ จะมีวิธีใดที่เราจะไว้วางใจระบบการทดสอบเพื่อตรวจสอบพฤติกรรมเหล่านี้? ผู้เชี่ยวชาญอย่างเช่นเขากำลังคิดไปข้างหน้าการวิจัยของ Anthropicเน้นความเร่งด่วน โดยเน้นการประเมินเป็นเครื่องมือที่สำคัญในการระบุความสามารถของ AI ที่อาจเป็นอันตรายก่อนที่จะเป็นปัญหา
โดยเปิดใช้ความโปร่งใสอย่างสิ้นเชิง เทคโนโลยีบล็อกเชนเพิ่มชั้นความปลอดภัยที่มีประสิทธิภาพในการป้องกันระบบ AI ที่ซ้อนร้ายได้ ระบบการตกลงที่ไม่ต้องการความเชื่อมั่นในสิ่งที่สำคัญให้แน่ใจว่าการประเมินความปลอดภัยได้รับการยืนยันโดยหลายพันโหนดที่อิสระ (เช่น Mira) ลดความเสี่ยงของการโจมตี Sybil อย่างมาก
Mira กำลังจับตลาดขนาดใหญ่ที่มีความต้องการชัดเจนสำหรับการแก้ปัญหาที่ดี แต่ท้ายสุดแล้วยังมีความท้าทาย การปรับปรุงความล่าช้า ความแม่นยำ และความประสบความสำเร็จทางด้านต้นทุนจะต้องใช้ความพยายามในการพัฒนาและเวลาอย่างไม่รู้ลักษณะ ทีมต้องสามารถแสดงให้เห็นได้เสมอว่าวิธีการของพวกเขาดีกว่าทางเลือกที่มีอยู่ในปัจจุบัน
นวัตกรรมหลักอยู่ในกระบวนการทำให้ Mira เป็นระบบไบนารีและชาร์ด ส่วน "น้ำจิ้ม" นี้มีความสัญคลักษณ์ว่าจะช่วยแก้ปัญหาความสามารถในการขยายของ Mira และความเชื่อถือ ในการเป็นผู้ประสบความสำเร็จ Mira จำเป็นต้องส่งมอบเทคโนโลยีนี้ตามสัญญา
ในเครือข่ายที่ไม่เน้นกลายเป็นพารามิเตอร์สำคัญในการเป็นผู้สร้างแรงจูงใจและการออกแบบโทเค็น ความสำเร็จของ Mira จะขึ้นอยู่กับความสามารถในการจัดให้กลไกเหล่านี้สอดคล้องกับความสนใจของผู้เข้าร่วมในขณะที่รักษาความรู้สึกของเครือข่าย
ในขณะที่รายละเอียดเกี่ยวกับโทเคนอะโรมาของมีรายังคงเป็นความลับ ฉันคาดว่าทีมจะเปิดเผยข้อมูลเพิ่มเติมเมื่อเข้าสู่การเปิดตัวโทเคนในต้นปี 2025
"เราพบว่าทีมวิศวกรที่ใช้การประเมินที่ยอดเยี่ยมจะเคลื่อนที่เร็วขึ้นอย่างมาก – เร็วกว่าถึง 10 เท่า – มากกว่าทีมที่เพิ่งดูสิ่งที่เกิดขึ้นในการผลิตและพยายามแก้ไขเฉพาะกิจ" - Ankur Goyal, Braintrust
ในโลกที่ขับเคลื่อนด้วย AI ความไว้ใจคือสิ่งที่สำคัญที่สุด
เมื่อโมเดลเริ่มซับซ้อนขึ้น เราจะต้องมีการตรวจสอบที่เชื่อถือได้เพื่อสนับสนุนผลิตภัณฑ์ AI ที่ยอดเยี่ยมทุกอย่าง การตรวจสอบเหล่านี้ช่วยให้เราสามารถจัดการกับภาวะเซ็งซ่าน กำจัดความลำเอียง และให้แน่ใจว่าผลลัพธ์ของ AI สอดคล้องกับความต้องการจริงของผู้ใช้
Mira อัตโนมัติการตรวจสอบ เพื่อลดต้นทุนและการพึ่งพาต่อการแทรกแซงของมนุษย์ ซึ่งทำให้เกิดการทดลองอย่างรวดเร็ว การปรับปรุงแบบเรียลไทม์ และการให้คำแนะนำที่มีขนาดใหญ่โดยไม่มีขั้นตอนที่มีปัญหา
เอ็มไอร์เร็วๆ นี้มีเป้าหมายที่จะเป็น API สำหรับความเชื่อถือ - เชื่อมโยงการยืนยันแบบกระจายที่นักพัฒนา AI และแอปพลิเคชันทุกๆ คนสามารถพึ่งพาได้สำหรับคำตอบที่ได้รับการยืนยัน
มันกล้าหาญ หรือดุเดือดและเป็นเหมือนที่โลก AI ต้องการ
ขอบคุณที่อ่าน, Teng Yan
Forward the Original Title: Mira: Trustless Verified AI
ภาวะเห็นภาพ: ประสบการณ์ที่เกี่ยวข้องกับการรับรู้ที่แสดงให้เห็นว่ามีสิ่งที่ไม่มีอยู่
Andrej Karpathy เรียก AI ว่า 'เครื่องฝัน' เขาเชื่อว่าสิ่งที่เราเรียกว่าภาพลวงตา—ช่วงเวลาเมื่อ AI สร้างสรรค์อย่างมั่นใจในสิ่งที่ไม่เป็นจริง—เป็นคุณสมบัติ ไม่ใช่ข้อบกพร่อง เราไม่มีทางที่จะพยายามกำจัดมันอย่างสมบูรณ์แบบ และในความซื่อสัตย์ มีสิ่งที่สุดกำลังอยู่ในนั้น
โมเดลภาษาขนาดใหญ่ (LLMs) เป็นศิลปิน นักสร้าง มันฝันถึงรหัส สร้างความคิดจากอากาศบริสุทธิ์ และสร้างความหมายจากข้อมูล แต่ในการที่ AI จะเปลี่ยนจากความฝันวันที่สวยงามไปสู่การใช้งานที่เป็นประจำทุกวัน เราต้องห้ามความฝันเหล่านั้น
อัตราข้อผิดพลาดของ LLMs ยังคงสูงในหลายงาน โดยทั่วไปมักอยู่ที่ระดับประมาณ 30% ในระดับนั้น LLMs ยังต้องการมนุษย์เข้ามาช่วยในการเอาไปสู่ระดับความแม่นยำที่สามารถใช้งาน
แต่เมื่อเราได้ความแม่นยำที่เกือบ 99.x% ที่น่าจะได้รับการอนุมัติ การเกิดเวทมนต์ก็เกิดขึ้น นั่นคือเกณฑ์ที่ที่ AI บรรลุถึงความเชื่อถือได้เท่ากับมนุษย์ ที่เปิดทางสู่จักรวาลอันไม่มีที่สิ้นสุดของการใช้งานที่มาก่อนหน้าที่อยู่ในขอบเขตที่ไม่สามารถเข้าถึง
อย่างไรก็ตามการไปถึงระดับความแม่นยํานั้นไม่ใช่เรื่องเล็ก มันต้องการความพยายามทางวิศวกรรมและนวัตกรรมอย่างไม่หยุดยั้ง
เรื่องราวของ @Mira_Networkเริ่มต้นที่นี่ แต่ก่อนที่เราจะลงไป ให้เราพูดคุยสักครู่เกี่ยวกับการพัฒนา LLM และเหตุผลที่การตรวจสอบกำลังเป็นสิ่งที่ใหญ่ขึ้นใน AI ครับ
การพัฒนา LLM เป็นการทําซ้ําล่าสุดในเส้นทางการเรียนรู้เชิงลึกซึ่งแตกต่างจากแนวทางการพัฒนาซอฟต์แวร์แบบดั้งเดิมที่เราฝึกฝนมาตลอด 50+ ปีที่ผ่านมา LLMs ซึ่งมีมาประมาณสามปีพลิกสคริปต์อย่างสมบูรณ์เปลี่ยนจากการคิดเชิงกําหนด (ถ้า X แล้ว Y) ไปสู่การให้เหตุผลที่น่าจะเป็นไปได้ (ถ้า X แล้ว ... บางที Y?).
นี้หมายความว่าโครงสร้างพื้นฐานสำหรับโลกที่มี AI ต้องการชุดเครื่องมือและกระบวนการที่แตกต่างอย่างสิ้นเชิงใหม่ แต่ยังมีเครื่องมือเหล่านี้ยังอยู่ในห้องปฏิบัติการวิจัยที่สร้าง LLMs
ข่าวดีคือเครื่องมือเหล่านี้เริ่มเร่งออกสู่โดเมนสาธารณะ ทำให้โลกของนักพัฒนาเปิดขึ้นมาให้มองได้
ที่ส่วนท้ายของขั้นตอนการทำงานใหม่นี้เป็นส่วนสำคัญของปริศนา: การประเมินและการตรวจสอบ วันนี้ แสงส่องที่เราพบอยู่ที่นั่น พวกเขาตอบคำถามสำคัญ: แอปพลิเคชันทำงานได้ดีหรือไม่?
ความเชื่อมั่นเป็นฐานของผลิตภัณฑ์ AI ที่ยอดเยี่ยมใด ๆ
เมื่อ AI เริ่มเป็นส่วนสำคัญของชีวิตเรามากขึ้น เทคโนโลยีเองก็ยังเป็นสิ่งที่อ่อนแอ การผิดพลาดเกิดขึ้นและเมื่อเกิดขึ้นความไว้วางใจจะลดลงอย่างรวดเร็ว ผู้ใช้คาดหวังให้ AI มีความแม่นยำ ไม่มีความลำเอียงและเป็นประโยชน์จริง ๆ แต่หากไม่มีระบบที่เชื่อถือได้เพื่อให้มั่นใจนั้น ความผิดหวังก็เพิ่มขึ้น - และความผิดหวังนี้นำไปสู่การเสื่อมโทรม
นี่คือสิ่งที่การตรวจสอบมีบทบาท
การตรวจสอบเป็นการป้องกัน มันเป็นชั้นคุณภาพที่นักพัฒนาพึ่งพาในการปรับปรุงผลลัพธ์และสร้างระบบที่ผู้ใช้สามารถเชื่อถือได้
Mira กำลังแก้ไขปัญหาหลักของ Web2 ด้วยความโปร่งใสที่ไม่ต้องไว้วางใจของสกุลเงินดิจิตอล โดยใช้เครือข่ายที่กระจายอำนาจของโหนดผู้ตรวจสอบชั่วคราว Mira รับประกันว่าผลลัพธ์ของ AI จะถูกตรวจสอบอย่างถูกต้องและอิสระ
สมมติว่าคุณมีย่อหน้าของผลลัพธ์จาก LLM เกี่ยวกับเมืองปารีส คุณจะทำอย่างไรในการยืนยันว่ามันถูกต้อง? มันยากที่จะทำเช่นนั้นเพราะมีความละเอียดรอบครอบมากเกี่ยวกับทุกอย่างตั้งแต่การอ้างอิงถึงโครงสร้างของเนื้อหาไปจนถึงสไตล์การเขียน
นี่คือสถานที่ที่มิราเข้ามาช่วย
วิสัยทัศน์ของ Mira คือการสร้างเครือข่ายชั้นที่ 1 ที่สามารถให้ความน่าเชื่อถือ สามารถขยายขนาด และสามารถทำการยืนยันผลลัพธ์ของ AI ได้อย่างแม่นยำ โดยการใช้ประโยชน์จากปัจจุบัน Mira ลดการลำเอียงและการมองเห็นที่ไม่เป็นจริง แก้ปัญหาหลักเช่นความยุติธรรมและค่าใช้จ่ายในขณะที่พิสูจน์ว่าบล็อกเชนสามารถเสริมสร้าง AI อย่างแท้จริง
แหล่งที่มา: Mira
ผลลัพธ์ในช่วงต้นมีแนวโน้ม เมื่อเร็วๆ นี้การศึกษาที่เผยแพร่บน Arxiv, มีราแสดงให้เห็นว่าการใช้โมเดลหลายรูปแบบที่ใช้ในการสร้างผลลัพธ์และการต้องการความเห็นร่วมกันช่วยเพิ่มความแม่นยำอย่างมีนัยสำคัญ ความแม่นยำถึง 95.6% ด้วยโมเดลสามรูปแบบ เปรียบเทียบกับ 73.1% สำหรับผลลัพธ์ของโมเดลเดียว
สององค์ประกอบในการออกแบบที่สำคัญของ Mira คือ
ผลลัพธ์ที่สร้างขึ้นโดย AI สามารถเป็นคำตอบที่เรียบง่ายหรือเป็นเอสเซย์ที่ยืดหยุ่นได้ ด้วยความถูกต้องที่ต่างกัน แต่มันกลายเป็นความท้าทายในการให้ความแม่นยำของผลลัพธ์ที่หลากหลายขนาดนั้นได้เป็นอย่างไร?
วิธีการแก้ไขของ Mira คือ: แบ่งออกเป็นส่วนๆ
@Mira_Networktransforms complex AI-generated content into smaller, digestible pieces that AI models can objectively review in a process called sharding.
โดยมาตรฐานการผลิตผลลัพธ์และการแยกออกเป็นข้อสิทธิที่สามารถพิสูจน์ได้ Mira รับรองว่าทุกชิ้นสามารถประเมินได้อย่างเสถียร โดยลบความกำกวมที่มักจะมีในการประเมิน
ตัวอย่างเช่นพิจารณาคำสั่งผสมนี้:
ฟอโตสินเธสิสเกิดขึ้นในพืชเพื่อแปลงแสงแดดเป็นพลังงาน และผึ้งมีบทบาทสำคัญในการผสมเกสรของดอกไม้โดยการถ่ายพยาธิระหว่างดอกไม้
ตามด้านผิวดูเหมือนง่ายในการยืนยัน แต่เมื่อส่งให้โมเดลหลายรุ่น ความเห็นแปลกตาอาจนำไปสู่คำตอบที่แตกต่างกัน การแปลงเนื้อหาของ Mira ผ่านการแบ่งชิ้นส่วนแก้ไขปัญหานี้โดยแบ่งคำอธิบายเป็นสองข้อยืนยันที่แยกกัน
เมื่อแบ่งชั้นแล้ว ทุกข้อเรียกร้องจะถูกแปลงเป็นคำถามตัวเลือกที่หลายตัวเลือก คำถามเหล่านี้จะถูกกระจายไปยังเครือข่ายของโหนดที่ทำงานด้วยโมเดล AI โดยใช้วิธีการตรวจสอบแบบอัลกอริทึมอันสมบูรณ์ของ Mira โมเดลร่วมมือกันในการประเมินและยืนยันความถูกต้องของแต่ละข้อเรียกร้อง
ปัจจุบันความสามารถในการแบ่งข้อมูลและการแปลงข้อมูลเป็นรหัสของ Mira ยังมุ่งเน้นไปที่ข้อมูลข้อความเท่านั้น ภายในต้นปี 2025 กระบวนการเหล่านี้จะขยายออกมาให้รองรับการนำเข้าแบบมัลติโมดัล เช่น รูปภาพและวิดีโอ
Mira ได้พัฒนาระบบการตรวจสอบที่ขั้นสูงซึ่งรวมความแข็งแกร่งของโมเดล AI หลายรูปแบบเพื่อประเมินคุณภาพของผลลัพธ์ AI
มาเริ่มจากนั้น
การประเมินอัตโนมัติแบบดั้งเดิมมักอาศัยแบบจําลองภาษาขนาดใหญ่เดียว (LLM) เช่น GPT-4 ในฐานะผู้ชี้ขาดคุณภาพขั้นสูงสุด ในขณะที่ใช้งานได้วิธีการนี้มีข้อบกพร่องที่สําคัญ: มีค่าใช้จ่ายสูงมีแนวโน้มที่จะมีอคติและถูก จํากัด ด้วยนิสัยใจคอและ "บุคลิกภาพ" ที่มีอยู่ในแบบจําลอง
การเปลี่ยนแปลงของมายร่าเป็นการเลิกพึ่งพาอย่างเดียวในรูปแบบของโมเดลขนาดใหญ่เพื่อใช้ประโยชน์จากensemble of diverse LLMs. ส่วนประกอบนี้โดดเด่นในงานที่ความแม่นยำทางข้อมูลสำคัญกว่าความสามารถในการสร้างความสามารถ ลดอัตราข้อผิดพลาดและส่งมอบการยืนยันที่เชื่อถือได้มากขึ้น ที่นิยมมากขึ้น
เทคนิคอะไรก็ตามได้รับการศึกษาอย่างละเอียดในงานการเรียนรู้ของเครื่องเช่นการจำแนกและ Mira ตอนนี้กำลังนำเทคนิคนี้มาสู่การยืนยัน
ในกลางระบบของ Mira คือ แผงผู้ตรวจสอบ LLM (PoLL) - ระบบเครือข่ายที่มีรูปแบบที่ทำงานร่วมกันเพื่อตรวจสอบผลลัพธ์ คิดว่าเป็นที่ปรึกษาที่หลากหลายของผู้เชี่ยวชาญที่มีส่วนร่วมในการตัดสินใจเมื่อเทียบกับการทิ้งไว้ให้ผู้พิพากษาเดียวที่อาจมีความเฉียบแหลม
และนี่ไม่ใช่แค่ความคิดที่หวังดีเท่านั้น - มันมีข้อมูลทางวิจัยเป็นพื้นฐานด้วย มาดูกราฟด้านล่างนี้
การศึกษา Cohereเผยแพร่ในเดือนเมษายน 2024 ได้แสดงให้เห็นว่าแผงของรุ่นเล็ก ๆ สามรุ่น - GPT-3.5, Claude-3 Haiku และ Command R - สอดคล้องกับความคิดเห็นของมนุษย์มากกว่า GPT-4 เพียงอย่างเดียว อย่างน่าทึ่งคือวิธีการสองวิธีนี้ยังถูกลดราคาอีก 7 เท่า
Mira กำลังนำวิจัยนี้ไปสู่การปฏิบัติการโดยใช้วิธีการตรวจสอบด้วยกลุ่มในมาตราส่วนใหญ่ ผลลัพธ์ภายในที่พวกเขาได้แบ่งปันจนถึงตอนนี้น่าสนใจ:
• อัตราผิดพลาดลดลงจาก 80% เป็น 5% สำหรับงานเหตุผลที่ซับซ้อน
• การปรับปรุงความเร็วและค่าใช้จ่าย 5 เท่าเมื่อเปรียบเทียบกับการยืนยันโดยมนุษย์
นี้คือความสำเร็จที่ไม่เล็กน้อย โดยใช้กลไกการตกลงเป็นหลัก สมาชิกที่หลากหลายของโมเดลของ Mira กรองออกไฟล์ที่เป็นภาพลวงตาและสมดุลต่อความลำเอียงของโมเดลแต่ละราย พร้อมกันพวกเขาส่งมอบสิ่งที่ดีกว่าผลรวมของส่วนประกอบของพวกเขา: การยืนยันที่เร็วกว่า ถูกกว่าและสอดคล้องกับความต้องการของเรามากขึ้น
สรุปย้อนกลับการทำงานของระบบการตรวจสอบของ Mira สร้างขึ้นบนหลักการออกแบบสององค์ประกอบหลัก:
การบำรุงรักษาชุดแบบจำลองที่หลากหลายเป็นสิ่งสำคัญสำหรับผลลัพธ์ที่มีคุณภาพสูง ซึ่งทำให้การออกแบบของ Mira เป็นอย่างที่เหมาะสมสำหรับสถาปัตยกรรมแบบกระจาย การกำจัดจุดล้มเหลวเดี่ยวเป็นสิ่งสำคัญสำหรับผลิตภัณฑ์การตรวจสอบใด ๆ
Mira ใช้วิธีการที่ใช้ blockchain เพื่อให้แน่ใจว่าไม่มีส่วนราชการเดียวสามารถเข้ามาแก้ไขผลลัพธ์ได้ หลักการคือง่ายดาย: ผลลัพธ์ที่สร้างขึ้นโดย AI ควรได้รับการยืนยันเหมือนกับการเปลี่ยนแปลงสถานะของบล็อกเชน
การยืนยันเกิดขึ้นผ่านเครือข่ายของโหนดอิสระ โดยผู้ดำเนินการได้รับสิทธิ์ตามแรงจูงใจทางเศรษฐกิจในการดำเนินการยืนยันที่แม่นยำ โดยการปรับสิ่งที่รับรู้กับความซื่อสัตย์ ระบบของ Mira ป้องกันผู้กระทำที่ไม่ดีและให้ผลลัพธ์ที่เชื่อถือได้
นี่คือวิธีที่มันทำงาน:
Mira รับรองความเป็นส่วนตัวของข้อมูลโดยการแบ่งข้อมูลนำเข้าเป็นชิ้นย่อย ๆ และรับรองว่าไม่มีโหนดเดียวที่สามารถเข้าถึงชุดข้อมูลทั้งหมด
เพื่อความปลอดภัยเพิ่มเติม มีรายสนับสนุนระดับความเป็นส่วนตัวที่เปลี่ยนไปได้ อนุญาตให้ผู้ใช้ปรับจำนวนชาร์ดตามความไว้วางใจของข้อมูล ระดับความเป็นส่วนตัวที่สูงกว่าต้องการการแบ่งแยกมากขึ้น (และต้องสูงขึ้นด้วย) แต่พวกเขาจะให้ความมั่นคงเพิ่มขึ้นสำหรับผู้ใช้ที่จัดการข้อมูลที่เป็นความลับ
ทุกการตรวจสอบที่โหนดทำ จะถูกบันทึกบนบล็อกเชน ทำให้เกิดบันทึกที่โปร่งใสและสามารถตรวจสอบได้ของกระบวนการตรวจสอบ สมุทโศนนที่ไม่สามารถบรรลุได้โดยวิธีการที่ไม่ใช่บล็อกเชน ที่ไม่สามารถเปลี่ยนแปลงได้ ทำให้มั่นใจและรับผิดชอบ
นี้ตั้งค่าเกณฑ์มาตรฐานใหม่สำหรับการยืนยัน AI ที่ปลอดภัยและไม่มีความเป็นฝ่ายลำดับ
ในเครือข่ายที่ไมราที่มีลักษณะกระจาย, งานที่ซื่อสัตย์ได้รับรางวัล
ผู้เชี่ยวชาญสามารถใช้โมเดล AI ที่เชี่ยวชาญพิเศษผ่านซอฟต์แวร์โหนดและรับโทเค็นเป็นการยืนยันที่แม่นยำ นักพัฒนา AI จะจ่ายค่าธรรมเนียมต่อการยืนยัน ซึ่งสร้างรูปแบบเศรษฐกิจที่ยังอยู่ระหว่างอุปทานและความต้องการเองเอง
การแนวทางนี้เชื่อมสร้างค่าจริงจากการทำงานของ Web2 เข้าสู่นิเวศ Web3 โดยตรง โดยมีการให้ค่าตอบแทนผู้เข้าร่วมเช่นผู้ให้ข้อมูลอ้างอิงและผู้สร้างโมเดล
แต่สิ่งแรงจูงใจนั้นมาพร้อมกับความท้าทาย ในระบบที่ไม่ centralised ใด ๆ ผู้กระทำที่ไม่ดีจะพยายามใช้เครือข่ายเพื่อส่งผลลัพธ์ปลอมเพื่อหารางวัลโดยไม่ทำงาน
ดังนั้นเราจะทำอย่างไรเพื่อให้แน่ใจว่าโหนดทำงานอย่างถูกต้องและซื่อสัตย์จริงๆ
เพื่อรักษาความน่าเชื่อถือ Mira ใช้ Proof-of-Verification ซึ่งเป็นกลไกที่ได้รับแรงบันดาลใจจาก proof-of-work ของ Bitcoin แต่ออกแบบมาสำหรับ AI แทนที่จะขุดบล็อกโหนดจะต้องพิสูจน์ว่าพวกเขาได้ทำงานการตรวจสอบเพื่อเข้าร่วมกระบวนการตอบสนอง
นี่คือวิธีการทำงาน:
Proof-of-Verification สร้างระบบที่สมดุลเพื่อให้โหนดมีแรงจูงใจทางเศรษฐกิจในการดำเนินการตรวจสอบคุณภาพสูง กลไกนี้รับประกันว่าเครือข่ายจะยังคงมีความปลอดภัยและเชื่อถือได้ในระยะยาว
คำถามคือ: ถ้าวิธีการของมิรามีประสิทธิภาพมากเกินไปทำไมไม่มีใครทำ?
คำตอบอยู่ในการตัดสินใจและความซับซ้อนของการนำระบบเช่นนี้ไปปฏิบัติในโลกของความเป็นจริง การบรรลุสมดุลที่สมบูรณ์ระหว่างการประเมินที่รวดเร็วและแม่นยำ และการจัดการกับความซับซ้อนของแบบจำลองหลายรูปแบบไม่ใช่เรื่องที่ง่าย
หนึ่งในอุปสรรคที่ใหญ่ที่สุดของ Mira คือความล่าช้า ในขณะที่ใช้สมรรถนะของโมเดลเพื่อให้การยืนยันสามารถทำงานขนาน การซิงโครไนซ์ผลลัพธ์และการเรียกร้องข้อมูลนำเข้าความล่าช้าเข้ามา กระบวนการนี้เร็วเท่ากับโหนดที่ช้าที่สุดเท่านั้น
ปัจจุบันนี้ ทำให้ Mira เหมาะสำหรับการประมวลผลชุดของผลลัพธ์ AI - กรณีการใช้ที่ไม่ต้องการผลลัพธ์แบบเรียลไทม์ ซึ่งเป็นกรณีที่เครือข่ายเติบโตขึ้นมาพร้อมกับโหนดและการให้บริการคำนวณเพิ่มเติม จุดมุ่งหมายในระยะยาวคือการสามารถตรวจสอบแบบเรียลไทม์ได้ และขยายความสามารถในการใช้งานของ Mira ในช่วงเวลาที่กว้างขึ้น
นอกจากความล่าช้ายังมีความท้าทายอื่น ๆ รวมถึง:
ความซับซ้อนทางวิศวกรรม: การประสานการประเมินในหลายรูปแบบและการทําให้แน่ใจว่ากลไกฉันทามติทํางานได้อย่างราบรื่นต้องใช้ความพยายามทางวิศวกรรมอย่างมาก
ความต้องการทางคำนวณที่สูงขึ้น: แม้ว่าจะใช้โมเดลขนาดเล็ก ๆ กันแล้วก็ยังเพิ่มความต้องการทางคำนวณเมื่อทำงานร่วมกันในองค์ประกอบ
การออกแบบกลไกมตรฐานที่ดี: วิธีที่มีการบรรลุความเห็นร่วม - ผ่านการลงคะแนนโหวตส่วนใหญ่ การให้คะแนนน้ำหนัก หรือวิธีอื่น ๆ - เล่น peran บทบาทสำคัญในความเชื่อถือของระบบ ในกรณีที่ไม่แน่ชัด กลุ่มอุปกรณ์อาจต่อต้านการปรับ ทำให้มีผลลัพธ์ที่ไม่สอดคล้อง
ต้นฉบับ: Mira
API ของ Mira สามารถผนวกรวมกับแอปพลิเคชันใดก็ได้โดยง่าย คล้ายกับ GPT-4o ของ OpenAI มันเป็นไม่ลับต่อผู้บริโภคและแอปพลิเคชันธุรกิจที่ที่ทำให้มันเป็นทางเลือกที่หลากหลายสำหรับกรณีการใช้งานต่าง ๆ ปัจจุบันมีแอปพลิเคชันกว่าโดยใช้โครงสร้างพื้นฐานของ Mira
Consumer Integrations
ในฝั่งผู้บริโภค Mira ได้เป็นแหล่งพลังขับเคลื่อนการตรวจสอบ AI สำหรับแอป AI ระดับเริ่มต้นหลายแอป
Delphi Oracle is the latest and perhaps most advanced integration. This AI-powered research assistant allows @Delphi_Digitalสมาชิกสามารถเข้าถึงเนื้อหาวิจัยโดยตรง ถามคำถาม ชี้แจงจุด รวมถึงการรวบรวมข้อมูลราคาและปรับเนื้อหาให้เหมาะสมกับระดับความซับซ้อนต่าง ๆ
Delphi Oracle ใช้เทคโนโลยีการยืนยันของ Mira Network เพื่อให้ได้คำตอบที่เชื่อถือได้และแม่นยำ โดยการยืนยันคำตอบที่เกิดขึ้นในรูปแบบหลายรูปแบบ Mira ลดอัตราการเกิดอาการตัวเป็นในร้อยละ ~30 ไปยังต่ำกว่า 5 เพื่อให้มั่นใจในความน่าเชื่อถือที่แข็งแกร่ง
ที่แกนกลางของ Delphi Oracle เป็นตัวเราเตอร์คิวรี่ที่มีประสิทธิภาพสูง
ระบบการเชื่อมต่ออัจฉริยะนี้ ร่วมกับการเก็บข้อมูลอย่างฉลาด จะทำให้การทำงานเป็นไปอย่างมีประสิทธิภาพโดยการสมดุลความหน่วงเวลา ค่าใช้จ่าย และคุณภาพ
การทดสอบของมีราพบว่ารุ่นที่เล็กและมีราคาที่มีประสิทธิภาพสามารถจัดการคำถามส่วนใหญ่เกือบเท่ากับรุ่นที่ใหญ่ขึ้น นี้ส่งผลให้ต้นทุนดำเนินการลดลงถึง 90% โดยยังคงรักษาคุณภาพการตอบสนองที่มีคุณภาพสูงที่ผู้ใช้คาดหวัง
ถึงแม้ว่าแอปพลิเคชันบางส่วนในกลุ่มผู้บริโภคเหล่านี้จะยังอยู่ในช่วงเริ่มต้น แต่พวกเขาย้ำให้เห็นถึงความสามารถของ Mira ในการผสมผสานอย่างราบรื่นและสนับสนุนฐานผู้ใช้ที่ใหญ่และที่ใช้งานอย่างต่อเนื่อง ไม่ยากที่จะนึกภาพถึงพันแอปพลิเคชันที่เชื่อมต่อกับระบบนิเวศของ Mira - หากประสบการณ์นักพัฒนายังคงเป็นเรื่องง่ายและข้อเสนอมูลค่ายังคงชัดเจน
แอปพลิเคชั่น B2B
ในด้านธุรกิจระหว่างองค์กร (B2B) Mira กำลังเน้นการรวมระบบที่เชี่ยวชาญในอุตสาหกรรมที่ความเชื่อถือและความแม่นยำเป็นสิ่งสำคัญ โดยเน้นเริ่มต้นที่ด้านสุขภาพและการศึกษา
แอปพลิเคชันหลักประกอบด้วย:
เป้าหมายสูงสุดของ Mira คือการนําเสนอรุ่นที่ได้รับการยืนยันโดยกําเนิด ซึ่งผู้ใช้เพียงแค่เชื่อมต่อผ่าน API เช่นเดียวกับ OpenAI หรือ Anthropic และรับเอาต์พุตที่ได้รับการยืนยันล่วงหน้าก่อนที่จะส่งคืน
พวกเขามีเป้าหมายที่จะแทนที่ API รุ่นเดิมโดยการ提供เวอร์ชันที่เชื่อถือได้มากขึ้นของโมเดลที่มีอยู่ (เช่น Mira-Claude-3.5-Sonnet หรือ Mira-OpenAI-GPT-4o) ที่ปรับปรุงด้วยความเชื่อมั่นตามหลักองค์ประกัน.
Generative AI กำลังเดินทางด้วยยานอวกาศ ตามข้อมูลBloombergตลาดคาดว่าจะเติบโตอย่างต่อเนื่องที่อัตราเฉลี่ยปีละ 42% โดยรายได้เกิน 1 ล้านล้านดอลลาร์ภายในปี 2030 ในความหลากหลายของความเร็วความแม่นยำและความเชื่อถือของกระบวนการทำงานที่ใช้ AI จะเป็นสิ่งที่สำคัญในการจับตาชะล่าให้ได้อย่างที่สำคัญ
เนื่องจากองค์กรมากขึ้นกำลังรวม LLM เข้าสู่กระบวนการทำงานของพวกเขา - ตั้งแต่แชทบอทสนับสนุนลูกค้าไปจนถึงผู้ช่วยในการวิจัยที่ซับซ้อน - ความต้องการในการยืนยันโมเดลที่แข็งแกร่งก็เพิ่มมากขึ้น
องค์กรจะมองหาเครื่องมือที่ (1) สามารถวัดความแม่นยำและความเชื่อถือได้, (2) วินิจฉัยประสิทธิภาพและพารามิเตอร์ที่ไม่เป็นประโยชน์, (3) ติดตามประสิทธิภาพและการเปลี่ยนแปลงอย่างต่อเนื่อง, และ (4) ให้ความชำนาญที่เกี่ยวกับการปฏิบัติตามกรอบกฎหมายที่เกิดขึ้นเกี่ยวกับความปลอดภัยของ AI
เป็นความรู้สึกที่คุ้นเคยหรือเปล่า? เป็นหนังสือเล่มเดียวกับ MLOps (ย่อมาจาก Machine Learning Operations) ที่เราเคยเห็นกันมาก่อน ภายในปี 2010s เมื่อการเรียนรู้เครื่องจักรขยายตัว การใช้เครื่องมือสำหรับการติดตั้ง ติดตาม และบำรุงรักษาโมเดลกลายเป็นสิ่งสำคัญ เป็นตลาดมูลค่าหลายพันล้านดอลลาร์ เมื่อมีการเพิ่มขึ้นของ AI ที่สามารถสร้างสรรค์ได้ LLMOps กำลังเดินตามเส้นทางเดียวกัน
การเข้าถึงแม้เพียงเพียงส่วนเล็กน้อยของตลาดทรัพย์ล้านล้านดอลลาร์อาจทำให้ตลาดย่อยนี้เติบโตเป็น 100 พันล้านเหรียญขึ้นไปโดย 2030
บริษัท Startup ที่ใช้เทคโนโลยี Web2 หลายรายได้เริ่มตั้งตำแหน่งเองแล้ว โดยมีเครื่องมือให้ทำป้ายกำกับข้อมูล ปรับปรุงโมเดล และประเมินผลการปฏิบัติงานอย่างละเอียด
• Braintrust (เรียกเงิน 36 ล้านเหรียญ)
• Vellum AI ($5M raised)
• Humanloop (ระดมทุน $2.8 ล้าน)
ผู้เคลื่อนไหวตั้งแต่แรกเริ่มกำลังเตรียมพื้นฐาน แต่พื้นที่นี้เป็นหุ่นเหล็ก ในปี 2025 เราอาจเห็นการเพิ่มขึ้นของ สตาร์ทอัพในกลุ่มนี้ บางส่วนอาจเชี่ยวชาญในตัวชี้วัดการประเมินที่เฉพาะเจาะจง (เช่นการตรวจสอบความเอียงของข้อมูลและการทดสอบความทนทาน) ในขณะที่อื่นๆ กว้างขวางขึ้นเพื่อครอบคลุมวงจรชีวิตการพัฒนา AI ทั้งหมด
บริษัทเจ้าของเทคโนโลยีใหญ่ ๆ เช่นผู้ให้บริการคลาวด์และแพลตฟอร์ม AI ชั้นนำอาจจะรวมคุณสมบัติการประเมินในการเสนอของพวกเขา ในเดือนที่ผ่านมา,OpenAIGate ที่จะอยู่ในการแข่งขัน สตาร์ทอัพจะต้องแตกต่างกันผ่านความเชี่ยวชาญ ความง่ายในการใช้งาน และการวิเคราะห์ที่ล้ำสมัย
Mira ไม่ได้เป็นคู่แข่งโดยตรงกับสตาร์ทอัพหรือผู้เข้าร่วมที่มีอยู่แล้ว แต่เป็นผู้ให้บริการโครงสร้างพื้นฐานที่รวมกันอย่างราบรื่นกับทั้งสองผ่าน API คืออะไร? มันเพียงแค่ต้องทำงาน
ขนาดตลาดเริ่มต้นของ Mira ติดต่อกับ LLMOps แต่ตลาดที่สามารถเข้าถึงได้ทั้งหมดจะขยายออกไปที่ AI ทั้งหมดเพราะทุกๆ แอปพลิเคชัน AI จะต้องการเอาต์พุทที่เชื่อถือได้มากขึ้น
จากมุมมองทฤษฎีเกม มีราต้องเผชิญกับสถานการณ์ที่เป็นพิเศษ ไม่เหมือนผู้ให้บริการโมเดลอื่น ๆ เช่น OpenAI ที่ถูกล็อคในการสนับสนุนระบบของตนเอง Mira สามารถรวมระหว่างโมเดลได้ ซึ่งทำให้ Mira เป็นชั้นความไว้วางใจสำหรับ AI โดยมีความเชื่อถือได้ที่ไม่มีผู้ให้บริการใด ๆ สามารถเทียบเท่า
โครงการถนนเส้นทาง 2025 ของ Mira เป้าหมายที่จะสมดุลความสมัครสมาชิกของความสุขและการมีส่วนร่วมของชุมชนในการเดินทางของมันสู่การกระจายอำนาจอย่างเต็มรูปแบบ
เฟส 1: การสร้างความเชื่อมั่นในตัวเอง (ที่เราอยู่ในขณะนี้)
ในช่วงต้น ผู้ดำเนินการโหนดที่ได้รับการตรวจสอบรับรองรักษาความเชื่อถือในเครือข่าย ผู้ให้บริการคอมพิวเตอร์ GPU ที่มีชื่อเสียงเป็นผู้ดำเนินการครั้งแรก จัดการดำเนินการเริ่มต้นและสร้างพื้นฐานที่แข็งแกร่งสำหรับการเติบโต
เฟส 2: การกระจายอำนาจแบบก้าวหน้า
Mira นำเสนอการทำซ้ำที่ออกแบบมาอย่างดี โดยที่มีหลายตัวอย่างของโมเดลผู้ตรวจสอบเดียวกันทำงานกับแต่ละคำขอ ซึ่งการนี้จะทำให้ต้นทุนการตรวจสอบเพิ่มขึ้น แต่ก็เป็นสิ่งสำคัญสำหรับการระบุและกำจัดตัวดำเนินการที่เลวร้าย โดยการเปรียบเทียบผลลัพธ์ที่ได้จากทุกๆ โหนด ผู้กระทำที่ไม่ดีจะถูกจับได้เร็วๆ นี้
ในรูปแบบที่เป็นสุดของมิรา จะใช้การแบ่งชาร์ดแบบสุ่มเพื่อกระจายงานการยืนยัน ซึ่งทำให้การก่อการร้ายทางเศรษฐกิจไม่เป็นไปตามที่คาดหวังและเสริมความแข็งแกร่งของเครือข่ายและความปลอดภัยเมื่อมีการขยายตัว
ระยะที่ 3: โมเดลพื้นฐานสังเคราะห์
ที่นี่มีราจะเสนอการสร้างรุ่นที่ได้รับการยืนยันอย่างเชี่ยวชาญแบบธรรมชาติ ผู้ใช้จะเชื่อมต่อผ่าน API คล้ายกับ OpenAI หรือ Anthropic และจะได้รับผลลัพธ์ที่ได้รับการยืนยันล่วงหน้า - ผลลัพธ์ที่เชื่อถือได้และพร้อมใช้งานโดยไม่ต้องมีการตรวจสอบเพิ่มเติม
ในเดือนที่กำลังจะมาถึง Mira กำลังเตรียมพร้อมสำหรับเหตุการณ์สำคัญหลายรายการ:
Mira กำลังขยายโอกาสในการมีส่วนร่วมของชุมชนผ่านโปรแกรมผู้ลงทุนโหนด. กิจกรรมนี้ทำให้การสนับสนุนเครือข่ายเป็นเรื่องที่สามารถเข้าถึงได้สำหรับทุกคน - ไม่จำเป็นต้องมีความเชี่ยวชาญทางเทคนิค
กระบวนการนี้ง่าย: คุณสามารถเช่าทรัพยากรการประมวลผลและมอบหมายให้กับกลุ่มตัวดําเนินการโหนดที่คัดสรรมาอย่างดี การมีส่วนร่วมอาจมีตั้งแต่ $ 35 ถึง $ 750 และมีการเสนอรางวัลสําหรับการสนับสนุนเครือข่าย Mira จัดการโครงสร้างพื้นฐานที่ซับซ้อนทั้งหมดเพื่อให้ผู้รับมอบสิทธิ์โหนดสามารถนั่งลงดูเครือข่ายเติบโตและจับกลับหัวกลับหางได้
วันนี้ Mira มีทีมเล็ก ๆ แต่แน่นหนาซึ่งส่วนใหญ่เน้นด้านวิศวกรรม
มีผู้ร่วมก่อตั้ง 3 คน:
พวกเขาร่วมกันเชื่อมต่อความชำนาญในการลงทุน, นวัตกรรมทางเทคนิค, และผู้นำผลิตภัณฑ์เพื่อวิสัยทัศน์ของ Mira ในการตรวจสอบ AI แบบกระจาย Mira ได้ระดมทุนรวม 9 ล้านดอลลาร์ รอบเมล็ดในเดือนกรกฎาคม 2024 โดยนำโดย BITKRAFT และ Framework Ventures
เป็นสดชื่นที่ได้เห็นทีม Crypto AI ที่มุ่งมั่นที่จะแก้ปัญหาพื้นฐานของ AI ใน Web2 ให้ดียิ่งขึ้น แทนที่จะเล่นเกมสเปกุเลทีฟในภาวะฟองสบู่ของ crypto
อุตสาหกรรมได้เริ่มต้นตื่นตระหนกถึงความสำคัญของการยืนยันตัวตน การพึ่งพากับ "ความรู้สึก" ไม่เพียงพออีกต่อไป แอปพลิเคชันและกระบวนการทางปัญญาประดิษฐ์ทุกอย่างจะต้องมีกระบวนการยืนยันตัวตนที่เหมาะสมเร็ว ๆ นี้ และสมควรจะมีกฎหมายใหม่ที่ต้องการกระบวนการเหล่านี้เพื่อให้รองรับความปลอดภัยได้
วิธีการของมิราใช้โมเดลหลายรูปแบบเพื่อตรวจสอบผลลัพธ์อย่างอิสระ โดยไม่พึ่งพาโมเดลกลางเดียว โครงสร้างที่กระจายออกไปนี้เสริมสร้างความเชื่อถือและลดความเสี่ยงของสิ่งที่เสียหายและการจัดการ
และลองพิจารณาว่าจะเกิดอะไรขึ้นถ้าเราไปถึง AGI ในอีกไม่กี่ปีข้างหน้า (ความเป็นไปได้ที่แท้จริง)
เป็นAnand Iyer (@AIจากจุดย่อยๆ ที่ Canonical ได้เน้นไว้ หาก AI สามารถควบคุมการตัดสินใจและรหัสโดยลับ ๆ ได้ จะมีวิธีใดที่เราจะไว้วางใจระบบการทดสอบเพื่อตรวจสอบพฤติกรรมเหล่านี้? ผู้เชี่ยวชาญอย่างเช่นเขากำลังคิดไปข้างหน้าการวิจัยของ Anthropicเน้นความเร่งด่วน โดยเน้นการประเมินเป็นเครื่องมือที่สำคัญในการระบุความสามารถของ AI ที่อาจเป็นอันตรายก่อนที่จะเป็นปัญหา
โดยเปิดใช้ความโปร่งใสอย่างสิ้นเชิง เทคโนโลยีบล็อกเชนเพิ่มชั้นความปลอดภัยที่มีประสิทธิภาพในการป้องกันระบบ AI ที่ซ้อนร้ายได้ ระบบการตกลงที่ไม่ต้องการความเชื่อมั่นในสิ่งที่สำคัญให้แน่ใจว่าการประเมินความปลอดภัยได้รับการยืนยันโดยหลายพันโหนดที่อิสระ (เช่น Mira) ลดความเสี่ยงของการโจมตี Sybil อย่างมาก
Mira กำลังจับตลาดขนาดใหญ่ที่มีความต้องการชัดเจนสำหรับการแก้ปัญหาที่ดี แต่ท้ายสุดแล้วยังมีความท้าทาย การปรับปรุงความล่าช้า ความแม่นยำ และความประสบความสำเร็จทางด้านต้นทุนจะต้องใช้ความพยายามในการพัฒนาและเวลาอย่างไม่รู้ลักษณะ ทีมต้องสามารถแสดงให้เห็นได้เสมอว่าวิธีการของพวกเขาดีกว่าทางเลือกที่มีอยู่ในปัจจุบัน
นวัตกรรมหลักอยู่ในกระบวนการทำให้ Mira เป็นระบบไบนารีและชาร์ด ส่วน "น้ำจิ้ม" นี้มีความสัญคลักษณ์ว่าจะช่วยแก้ปัญหาความสามารถในการขยายของ Mira และความเชื่อถือ ในการเป็นผู้ประสบความสำเร็จ Mira จำเป็นต้องส่งมอบเทคโนโลยีนี้ตามสัญญา
ในเครือข่ายที่ไม่เน้นกลายเป็นพารามิเตอร์สำคัญในการเป็นผู้สร้างแรงจูงใจและการออกแบบโทเค็น ความสำเร็จของ Mira จะขึ้นอยู่กับความสามารถในการจัดให้กลไกเหล่านี้สอดคล้องกับความสนใจของผู้เข้าร่วมในขณะที่รักษาความรู้สึกของเครือข่าย
ในขณะที่รายละเอียดเกี่ยวกับโทเคนอะโรมาของมีรายังคงเป็นความลับ ฉันคาดว่าทีมจะเปิดเผยข้อมูลเพิ่มเติมเมื่อเข้าสู่การเปิดตัวโทเคนในต้นปี 2025
"เราพบว่าทีมวิศวกรที่ใช้การประเมินที่ยอดเยี่ยมจะเคลื่อนที่เร็วขึ้นอย่างมาก – เร็วกว่าถึง 10 เท่า – มากกว่าทีมที่เพิ่งดูสิ่งที่เกิดขึ้นในการผลิตและพยายามแก้ไขเฉพาะกิจ" - Ankur Goyal, Braintrust
ในโลกที่ขับเคลื่อนด้วย AI ความไว้ใจคือสิ่งที่สำคัญที่สุด
เมื่อโมเดลเริ่มซับซ้อนขึ้น เราจะต้องมีการตรวจสอบที่เชื่อถือได้เพื่อสนับสนุนผลิตภัณฑ์ AI ที่ยอดเยี่ยมทุกอย่าง การตรวจสอบเหล่านี้ช่วยให้เราสามารถจัดการกับภาวะเซ็งซ่าน กำจัดความลำเอียง และให้แน่ใจว่าผลลัพธ์ของ AI สอดคล้องกับความต้องการจริงของผู้ใช้
Mira อัตโนมัติการตรวจสอบ เพื่อลดต้นทุนและการพึ่งพาต่อการแทรกแซงของมนุษย์ ซึ่งทำให้เกิดการทดลองอย่างรวดเร็ว การปรับปรุงแบบเรียลไทม์ และการให้คำแนะนำที่มีขนาดใหญ่โดยไม่มีขั้นตอนที่มีปัญหา
เอ็มไอร์เร็วๆ นี้มีเป้าหมายที่จะเป็น API สำหรับความเชื่อถือ - เชื่อมโยงการยืนยันแบบกระจายที่นักพัฒนา AI และแอปพลิเคชันทุกๆ คนสามารถพึ่งพาได้สำหรับคำตอบที่ได้รับการยืนยัน
มันกล้าหาญ หรือดุเดือดและเป็นเหมือนที่โลก AI ต้องการ
ขอบคุณที่อ่าน, Teng Yan