Mira: สร้างความเชื่อมั่นในการตรวจสอบผลลัพธ์ AI

กลาง1/14/2025, 11:19:38 AM
ในช่วงไม่กี่ปีที่ผ่านมาความก้าวหน้าอย่างรวดเร็วของ AI เชิงกําเนิดได้แนะนําความต้องการใหม่ ๆ เกี่ยวกับโครงสร้างพื้นฐานและเวิร์กโฟลว์โดยเฉพาะอย่างยิ่งในการตรวจสอบและประเมินผล ความน่าเชื่อถือของแอปพลิเคชัน AI นั้นเชื่อมโยงกับความไว้วางใจของผู้ใช้อย่างใกล้ชิด และ Mira มุ่งมั่นที่จะแก้ไขปัญหาหลักนี้ผ่านเครือข่ายแบบกระจายอํานาจ โดยกําหนดมาตรฐานอุตสาหกรรมใหม่สําหรับการตรวจสอบและประเมินผล AI

Forward the Original Title: Mira: Trustless Verified AI

TL;DR

  • การตรวจสอบผลลัพธ์เป็นสิ่งสำคัญเพื่อให้แน่ใจว่า AI ทำงานได้อย่างเชื่อถือได้
  • Mira กำลังสร้างเครือข่ายชั้นที่ 1 ที่ให้ความเชื่อถือได้ สามารถมั่นใจได้ และมีการยืนยันที่แม่นยำของผลลัพธ์ของ AI
  • การลดอาการมองเห็นซึมเศร้าและความลำเอียงพร้อมๆกัน นั้นเป็นการปรับสมดุลที่ละเอียด มีราทำโดยการใช้ประโยชน์จากปัญญาประดิษฐ์ร่วม
  • ระบบการตรวจสอบของ Mira ถูกสร้างขึ้นบนหลักการออกแบบสองข้อ: (1) แบ่งผลลัพธ์ของ AI เป็นส่วนย่อยที่สามารถตรวจสอบได้ง่ายและ (2) ใช้กลุ่มโมเดลในการตรวจสอบแต่ละส่วน
  • ขนาดตลาดเริ่มต้นของ Mira ผูกมัดกับ LLMOps แต่ตลาดรวมที่เปิดอยู่สำหรับ Mira อาจขยายออกไปสู่ทั้ง AI ทั้งหมดเนื่องจากแอปพลิเคชัน AI ทุกตัวจะต้องการผลลัพธ์ที่เชื่อถือได้มากขึ้น
  • Mira กำลังขับเคลื่อนการตรวจสอบ AI สำหรับแอป AI หลายรายการที่มีผู้ใช้ 200K คนขึ้นไปแล้ว
  • จุดมุ่งหมายสุดท้ายของ Mira คือการกลายเป็นโมเดลรากฐานสังเคราะห์ ที่สามารถเชื่อมต่อไปยังผู้ให้บริการทุกท่านเพื่อให้ผลลัพธ์ที่ได้รับการยืนยันล่วงหน้าผ่าน API เดียว

ภาวะเห็นภาพ: ประสบการณ์ที่เกี่ยวข้องกับการรับรู้ที่แสดงให้เห็นว่ามีสิ่งที่ไม่มีอยู่

Andrej Karpathy เรียก AI ว่า 'เครื่องฝัน' เขาเชื่อว่าสิ่งที่เราเรียกว่าภาพลวงตา—ช่วงเวลาเมื่อ AI สร้างสรรค์อย่างมั่นใจในสิ่งที่ไม่เป็นจริง—เป็นคุณสมบัติ ไม่ใช่ข้อบกพร่อง เราไม่มีทางที่จะพยายามกำจัดมันอย่างสมบูรณ์แบบ และในความซื่อสัตย์ มีสิ่งที่สุดกำลังอยู่ในนั้น

โมเดลภาษาขนาดใหญ่ (LLMs) เป็นศิลปิน นักสร้าง มันฝันถึงรหัส สร้างความคิดจากอากาศบริสุทธิ์ และสร้างความหมายจากข้อมูล แต่ในการที่ AI จะเปลี่ยนจากความฝันวันที่สวยงามไปสู่การใช้งานที่เป็นประจำทุกวัน เราต้องห้ามความฝันเหล่านั้น

อัตราข้อผิดพลาดของ LLMs ยังคงสูงในหลายงาน โดยทั่วไปมักอยู่ที่ระดับประมาณ 30% ในระดับนั้น LLMs ยังต้องการมนุษย์เข้ามาช่วยในการเอาไปสู่ระดับความแม่นยำที่สามารถใช้งาน

แต่เมื่อเราได้ความแม่นยำที่เกือบ 99.x% ที่น่าจะได้รับการอนุมัติ การเกิดเวทมนต์ก็เกิดขึ้น นั่นคือเกณฑ์ที่ที่ AI บรรลุถึงความเชื่อถือได้เท่ากับมนุษย์ ที่เปิดทางสู่จักรวาลอันไม่มีที่สิ้นสุดของการใช้งานที่มาก่อนหน้าที่อยู่ในขอบเขตที่ไม่สามารถเข้าถึง

อย่างไรก็ตามการไปถึงระดับความแม่นยํานั้นไม่ใช่เรื่องเล็ก มันต้องการความพยายามทางวิศวกรรมและนวัตกรรมอย่างไม่หยุดยั้ง

เรื่องราวของ @Mira_Networkเริ่มต้นที่นี่ แต่ก่อนที่เราจะลงไป ให้เราพูดคุยสักครู่เกี่ยวกับการพัฒนา LLM และเหตุผลที่การตรวจสอบกำลังเป็นสิ่งที่ใหญ่ขึ้นใน AI ครับ

วิธีการเกิด LLM

การพัฒนา LLM เป็นการทําซ้ําล่าสุดในเส้นทางการเรียนรู้เชิงลึกซึ่งแตกต่างจากแนวทางการพัฒนาซอฟต์แวร์แบบดั้งเดิมที่เราฝึกฝนมาตลอด 50+ ปีที่ผ่านมา LLMs ซึ่งมีมาประมาณสามปีพลิกสคริปต์อย่างสมบูรณ์เปลี่ยนจากการคิดเชิงกําหนด (ถ้า X แล้ว Y) ไปสู่การให้เหตุผลที่น่าจะเป็นไปได้ (ถ้า X แล้ว ... บางที Y?).

นี้หมายความว่าโครงสร้างพื้นฐานสำหรับโลกที่มี AI ต้องการชุดเครื่องมือและกระบวนการที่แตกต่างอย่างสิ้นเชิงใหม่ แต่ยังมีเครื่องมือเหล่านี้ยังอยู่ในห้องปฏิบัติการวิจัยที่สร้าง LLMs

ข่าวดีคือเครื่องมือเหล่านี้เริ่มเร่งออกสู่โดเมนสาธารณะ ทำให้โลกของนักพัฒนาเปิดขึ้นมาให้มองได้

ที่ส่วนท้ายของขั้นตอนการทำงานใหม่นี้เป็นส่วนสำคัญของปริศนา: การประเมินและการตรวจสอบ วันนี้ แสงส่องที่เราพบอยู่ที่นั่น พวกเขาตอบคำถามสำคัญ: แอปพลิเคชันทำงานได้ดีหรือไม่?

การยืนยัน = ความเชื่อมั่น

ความเชื่อมั่นเป็นฐานของผลิตภัณฑ์ AI ที่ยอดเยี่ยมใด ๆ

เมื่อ AI เริ่มเป็นส่วนสำคัญของชีวิตเรามากขึ้น เทคโนโลยีเองก็ยังเป็นสิ่งที่อ่อนแอ การผิดพลาดเกิดขึ้นและเมื่อเกิดขึ้นความไว้วางใจจะลดลงอย่างรวดเร็ว ผู้ใช้คาดหวังให้ AI มีความแม่นยำ ไม่มีความลำเอียงและเป็นประโยชน์จริง ๆ แต่หากไม่มีระบบที่เชื่อถือได้เพื่อให้มั่นใจนั้น ความผิดหวังก็เพิ่มขึ้น - และความผิดหวังนี้นำไปสู่การเสื่อมโทรม

นี่คือสิ่งที่การตรวจสอบมีบทบาท

การตรวจสอบเป็นการป้องกัน มันเป็นชั้นคุณภาพที่นักพัฒนาพึ่งพาในการปรับปรุงผลลัพธ์และสร้างระบบที่ผู้ใช้สามารถเชื่อถือได้

Mira กำลังแก้ไขปัญหาหลักของ Web2 ด้วยความโปร่งใสที่ไม่ต้องไว้วางใจของสกุลเงินดิจิตอล โดยใช้เครือข่ายที่กระจายอำนาจของโหนดผู้ตรวจสอบชั่วคราว Mira รับประกันว่าผลลัพธ์ของ AI จะถูกตรวจสอบอย่างถูกต้องและอิสระ

กรุณากรอก Mira

สมมติว่าคุณมีย่อหน้าของผลลัพธ์จาก LLM เกี่ยวกับเมืองปารีส คุณจะทำอย่างไรในการยืนยันว่ามันถูกต้อง? มันยากที่จะทำเช่นนั้นเพราะมีความละเอียดรอบครอบมากเกี่ยวกับทุกอย่างตั้งแต่การอ้างอิงถึงโครงสร้างของเนื้อหาไปจนถึงสไตล์การเขียน

นี่คือสถานที่ที่มิราเข้ามาช่วย

วิสัยทัศน์ของ Mira คือการสร้างเครือข่ายชั้นที่ 1 ที่สามารถให้ความน่าเชื่อถือ สามารถขยายขนาด และสามารถทำการยืนยันผลลัพธ์ของ AI ได้อย่างแม่นยำ โดยการใช้ประโยชน์จากปัจจุบัน Mira ลดการลำเอียงและการมองเห็นที่ไม่เป็นจริง แก้ปัญหาหลักเช่นความยุติธรรมและค่าใช้จ่ายในขณะที่พิสูจน์ว่าบล็อกเชนสามารถเสริมสร้าง AI อย่างแท้จริง

แหล่งที่มา: Mira

ผลลัพธ์ในช่วงต้นมีแนวโน้ม เมื่อเร็วๆ นี้การศึกษาที่เผยแพร่บน Arxiv, มีราแสดงให้เห็นว่าการใช้โมเดลหลายรูปแบบที่ใช้ในการสร้างผลลัพธ์และการต้องการความเห็นร่วมกันช่วยเพิ่มความแม่นยำอย่างมีนัยสำคัญ ความแม่นยำถึง 95.6% ด้วยโมเดลสามรูปแบบ เปรียบเทียบกับ 73.1% สำหรับผลลัพธ์ของโมเดลเดียว

สององค์ประกอบในการออกแบบที่สำคัญของ Mira คือ

  • Sharding & Binarization of content: Breaking complex AI outputs into smaller, independently verifiable pieces.
  • ความหลากหลายของแบบจำลอง: การใช้แบบจำลองหลายรูปแบบเพื่อเสริมความเชื่อถือและลดความเอื้ออาทร

#1: การเปลี่ยนแปลงเนื้อหาผ่านการทำให้เป็นไบนารีและการแบ่งเป็นชิ้นๆ

ผลลัพธ์ที่สร้างขึ้นโดย AI สามารถเป็นคำตอบที่เรียบง่ายหรือเป็นเอสเซย์ที่ยืดหยุ่นได้ ด้วยความถูกต้องที่ต่างกัน แต่มันกลายเป็นความท้าทายในการให้ความแม่นยำของผลลัพธ์ที่หลากหลายขนาดนั้นได้เป็นอย่างไร?

วิธีการแก้ไขของ Mira คือ: แบ่งออกเป็นส่วนๆ

@Mira_Networktransforms complex AI-generated content into smaller, digestible pieces that AI models can objectively review in a process called sharding.

โดยมาตรฐานการผลิตผลลัพธ์และการแยกออกเป็นข้อสิทธิที่สามารถพิสูจน์ได้ Mira รับรองว่าทุกชิ้นสามารถประเมินได้อย่างเสถียร โดยลบความกำกวมที่มักจะมีในการประเมิน

ตัวอย่างเช่นพิจารณาคำสั่งผสมนี้:

ฟอโตสินเธสิสเกิดขึ้นในพืชเพื่อแปลงแสงแดดเป็นพลังงาน และผึ้งมีบทบาทสำคัญในการผสมเกสรของดอกไม้โดยการถ่ายพยาธิระหว่างดอกไม้

ตามด้านผิวดูเหมือนง่ายในการยืนยัน แต่เมื่อส่งให้โมเดลหลายรุ่น ความเห็นแปลกตาอาจนำไปสู่คำตอบที่แตกต่างกัน การแปลงเนื้อหาของ Mira ผ่านการแบ่งชิ้นส่วนแก้ไขปัญหานี้โดยแบ่งคำอธิบายเป็นสองข้อยืนยันที่แยกกัน

  1. “กระบวนการสังเคราะห์แสงเกิดขึ้นในพืชเพื่อแปลงแสงอาทิตย์เป็นพลังงาน”
  2. “ผึ้งเล่น peran penting dalamการผสมเกสรโดยการถ่ายทอดเกสรระหว่างดอกไม้”

เมื่อแบ่งชั้นแล้ว ทุกข้อเรียกร้องจะถูกแปลงเป็นคำถามตัวเลือกที่หลายตัวเลือก คำถามเหล่านี้จะถูกกระจายไปยังเครือข่ายของโหนดที่ทำงานด้วยโมเดล AI โดยใช้วิธีการตรวจสอบแบบอัลกอริทึมอันสมบูรณ์ของ Mira โมเดลร่วมมือกันในการประเมินและยืนยันความถูกต้องของแต่ละข้อเรียกร้อง

ปัจจุบันความสามารถในการแบ่งข้อมูลและการแปลงข้อมูลเป็นรหัสของ Mira ยังมุ่งเน้นไปที่ข้อมูลข้อความเท่านั้น ภายในต้นปี 2025 กระบวนการเหล่านี้จะขยายออกมาให้รองรับการนำเข้าแบบมัลติโมดัล เช่น รูปภาพและวิดีโอ

#2: องค์กร ไม่ใช่บุคคล

Mira ได้พัฒนาระบบการตรวจสอบที่ขั้นสูงซึ่งรวมความแข็งแกร่งของโมเดล AI หลายรูปแบบเพื่อประเมินคุณภาพของผลลัพธ์ AI

มาเริ่มจากนั้น

การประเมินอัตโนมัติแบบดั้งเดิมมักอาศัยแบบจําลองภาษาขนาดใหญ่เดียว (LLM) เช่น GPT-4 ในฐานะผู้ชี้ขาดคุณภาพขั้นสูงสุด ในขณะที่ใช้งานได้วิธีการนี้มีข้อบกพร่องที่สําคัญ: มีค่าใช้จ่ายสูงมีแนวโน้มที่จะมีอคติและถูก จํากัด ด้วยนิสัยใจคอและ "บุคลิกภาพ" ที่มีอยู่ในแบบจําลอง

การเปลี่ยนแปลงของมายร่าเป็นการเลิกพึ่งพาอย่างเดียวในรูปแบบของโมเดลขนาดใหญ่เพื่อใช้ประโยชน์จากensemble of diverse LLMs. ส่วนประกอบนี้โดดเด่นในงานที่ความแม่นยำทางข้อมูลสำคัญกว่าความสามารถในการสร้างความสามารถ ลดอัตราข้อผิดพลาดและส่งมอบการยืนยันที่เชื่อถือได้มากขึ้น ที่นิยมมากขึ้น

เทคนิคอะไรก็ตามได้รับการศึกษาอย่างละเอียดในงานการเรียนรู้ของเครื่องเช่นการจำแนกและ Mira ตอนนี้กำลังนำเทคนิคนี้มาสู่การยืนยัน

ในกลางระบบของ Mira คือ แผงผู้ตรวจสอบ LLM (PoLL) - ระบบเครือข่ายที่มีรูปแบบที่ทำงานร่วมกันเพื่อตรวจสอบผลลัพธ์ คิดว่าเป็นที่ปรึกษาที่หลากหลายของผู้เชี่ยวชาญที่มีส่วนร่วมในการตัดสินใจเมื่อเทียบกับการทิ้งไว้ให้ผู้พิพากษาเดียวที่อาจมีความเฉียบแหลม

และนี่ไม่ใช่แค่ความคิดที่หวังดีเท่านั้น - มันมีข้อมูลทางวิจัยเป็นพื้นฐานด้วย มาดูกราฟด้านล่างนี้

การศึกษา Cohereเผยแพร่ในเดือนเมษายน 2024 ได้แสดงให้เห็นว่าแผงของรุ่นเล็ก ๆ สามรุ่น - GPT-3.5, Claude-3 Haiku และ Command R - สอดคล้องกับความคิดเห็นของมนุษย์มากกว่า GPT-4 เพียงอย่างเดียว อย่างน่าทึ่งคือวิธีการสองวิธีนี้ยังถูกลดราคาอีก 7 เท่า

Mira กำลังนำวิจัยนี้ไปสู่การปฏิบัติการโดยใช้วิธีการตรวจสอบด้วยกลุ่มในมาตราส่วนใหญ่ ผลลัพธ์ภายในที่พวกเขาได้แบ่งปันจนถึงตอนนี้น่าสนใจ:

• อัตราผิดพลาดลดลงจาก 80% เป็น 5% สำหรับงานเหตุผลที่ซับซ้อน

• การปรับปรุงความเร็วและค่าใช้จ่าย 5 เท่าเมื่อเปรียบเทียบกับการยืนยันโดยมนุษย์

นี้คือความสำเร็จที่ไม่เล็กน้อย โดยใช้กลไกการตกลงเป็นหลัก สมาชิกที่หลากหลายของโมเดลของ Mira กรองออกไฟล์ที่เป็นภาพลวงตาและสมดุลต่อความลำเอียงของโมเดลแต่ละราย พร้อมกันพวกเขาส่งมอบสิ่งที่ดีกว่าผลรวมของส่วนประกอบของพวกเขา: การยืนยันที่เร็วกว่า ถูกกว่าและสอดคล้องกับความต้องการของเรามากขึ้น

วิธีการทำงาน - การออกแบบสถาปัตยกรรม

สรุปย้อนกลับการทำงานของระบบการตรวจสอบของ Mira สร้างขึ้นบนหลักการออกแบบสององค์ประกอบหลัก:

  • แบ่งเอาต์พุต AI ออกเป็นชิ้นเล็ก ๆ และตรวจสอบได้ง่าย
  • Verify every piece using an ensemble of diverse AI models.

การบำรุงรักษาชุดแบบจำลองที่หลากหลายเป็นสิ่งสำคัญสำหรับผลลัพธ์ที่มีคุณภาพสูง ซึ่งทำให้การออกแบบของ Mira เป็นอย่างที่เหมาะสมสำหรับสถาปัตยกรรมแบบกระจาย การกำจัดจุดล้มเหลวเดี่ยวเป็นสิ่งสำคัญสำหรับผลิตภัณฑ์การตรวจสอบใด ๆ

Mira ใช้วิธีการที่ใช้ blockchain เพื่อให้แน่ใจว่าไม่มีส่วนราชการเดียวสามารถเข้ามาแก้ไขผลลัพธ์ได้ หลักการคือง่ายดาย: ผลลัพธ์ที่สร้างขึ้นโดย AI ควรได้รับการยืนยันเหมือนกับการเปลี่ยนแปลงสถานะของบล็อกเชน

การยืนยันเกิดขึ้นผ่านเครือข่ายของโหนดอิสระ โดยผู้ดำเนินการได้รับสิทธิ์ตามแรงจูงใจทางเศรษฐกิจในการดำเนินการยืนยันที่แม่นยำ โดยการปรับสิ่งที่รับรู้กับความซื่อสัตย์ ระบบของ Mira ป้องกันผู้กระทำที่ไม่ดีและให้ผลลัพธ์ที่เชื่อถือได้

นี่คือวิธีที่มันทำงาน:

  1. นักพัฒนา AI สร้างชุดข้อมูลของผลลัพธ์จากโมเดลของพวกเขาและส่งมันไปยัง Mira ผ่าน API
  2. Mira แปลงชุดข้อมูลเป็นคำถามหลายตัวเลือก (binarization) และแบ่งชุดข้อมูลเป็นชิ้นเล็กๆ (sharding) เพื่อจัดการได้ง่าย
  3. ส่วนแบ่งข้อมูลเหล่านี้ถูกแจกจ่ายไปยังเครือข่ายโหนดตรวจสอบของ Mira แต่ละโหนดจะได้รับส่วนแบ่งข้อมูลที่แตกต่างกันเพื่อตรวจสอบ
  4. แต่ละโหนดจะตรวจสอบคำถามในชาร์ดที่ได้รับมอบหมายแยกต่างหากและส่งผลลัพธ์กลับไปยังเครือข่าย
  5. โหนดที่ได้รับมอบหมายให้เป็นชาร์ดเดียวกันเห็นด้วยกันเกี่ยวกับผลลัพธ์ของการตรวจสอบซึ่งจะถูกรวบรวมเข้าด้วยกันเป็นการประเมินสุดท้าย
  6. ผลการตรวจสอบสุดท้ายถูกส่งกลับไปยังนักพัฒนา AI พร้อมกับใบรับรองการตรวจสอบ—หลักฐานทางคริปโตของการประเมิน ใบรับรองนี้ถูกเก็บไว้ในบล็อกเชน เพื่อสร้างบันทึกการตรวจสอบที่สามารถยืนยันและป้องกันการปลอมแปลง

Mira รับรองความเป็นส่วนตัวของข้อมูลโดยการแบ่งข้อมูลนำเข้าเป็นชิ้นย่อย ๆ และรับรองว่าไม่มีโหนดเดียวที่สามารถเข้าถึงชุดข้อมูลทั้งหมด

เพื่อความปลอดภัยเพิ่มเติม มีรายสนับสนุนระดับความเป็นส่วนตัวที่เปลี่ยนไปได้ อนุญาตให้ผู้ใช้ปรับจำนวนชาร์ดตามความไว้วางใจของข้อมูล ระดับความเป็นส่วนตัวที่สูงกว่าต้องการการแบ่งแยกมากขึ้น (และต้องสูงขึ้นด้วย) แต่พวกเขาจะให้ความมั่นคงเพิ่มขึ้นสำหรับผู้ใช้ที่จัดการข้อมูลที่เป็นความลับ

ทุกการตรวจสอบที่โหนดทำ จะถูกบันทึกบนบล็อกเชน ทำให้เกิดบันทึกที่โปร่งใสและสามารถตรวจสอบได้ของกระบวนการตรวจสอบ สมุทโศนนที่ไม่สามารถบรรลุได้โดยวิธีการที่ไม่ใช่บล็อกเชน ที่ไม่สามารถเปลี่ยนแปลงได้ ทำให้มั่นใจและรับผิดชอบ

นี้ตั้งค่าเกณฑ์มาตรฐานใหม่สำหรับการยืนยัน AI ที่ปลอดภัยและไม่มีความเป็นฝ่ายลำดับ

การตรวจสอบให้แน่ใจว่าโหนดทำงานของพวกเขา

ในเครือข่ายที่ไมราที่มีลักษณะกระจาย, งานที่ซื่อสัตย์ได้รับรางวัล

ผู้เชี่ยวชาญสามารถใช้โมเดล AI ที่เชี่ยวชาญพิเศษผ่านซอฟต์แวร์โหนดและรับโทเค็นเป็นการยืนยันที่แม่นยำ นักพัฒนา AI จะจ่ายค่าธรรมเนียมต่อการยืนยัน ซึ่งสร้างรูปแบบเศรษฐกิจที่ยังอยู่ระหว่างอุปทานและความต้องการเองเอง

การแนวทางนี้เชื่อมสร้างค่าจริงจากการทำงานของ Web2 เข้าสู่นิเวศ Web3 โดยตรง โดยมีการให้ค่าตอบแทนผู้เข้าร่วมเช่นผู้ให้ข้อมูลอ้างอิงและผู้สร้างโมเดล

แต่สิ่งแรงจูงใจนั้นมาพร้อมกับความท้าทาย ในระบบที่ไม่ centralised ใด ๆ ผู้กระทำที่ไม่ดีจะพยายามใช้เครือข่ายเพื่อส่งผลลัพธ์ปลอมเพื่อหารางวัลโดยไม่ทำงาน

ดังนั้นเราจะทำอย่างไรเพื่อให้แน่ใจว่าโหนดทำงานอย่างถูกต้องและซื่อสัตย์จริงๆ

เพื่อรักษาความน่าเชื่อถือ Mira ใช้ Proof-of-Verification ซึ่งเป็นกลไกที่ได้รับแรงบันดาลใจจาก proof-of-work ของ Bitcoin แต่ออกแบบมาสำหรับ AI แทนที่จะขุดบล็อกโหนดจะต้องพิสูจน์ว่าพวกเขาได้ทำงานการตรวจสอบเพื่อเข้าร่วมกระบวนการตอบสนอง

นี่คือวิธีการทำงาน:

  • ความต้องการการฝากฝาก: ทุกโหนดต้องฝากโทเค็นเป็นความมุ่งมั่นทางเศรษฐกิจ หากโหนดส่งผลลัพธ์ไม่ถูกต้องซ้ำๆ โหนดนั้นจะถูกหักบางส่วนของการฝากเป็นโทษ เพื่อให้โหนดมีการลงทุนและเหตุผลในการกระทำอย่างซื่อตรง
  • โทษสำหรับงานปลอม: โหนดที่ส่งผลลัพธ์ปลอมๆ เช่น ข้ามการคำนวณหรือสร้างผลลัพธ์สุ่มๆ จะต้องเผชิญโทษ การตรวจจับการฉ้อโกงเกิดขึ้นเมื่อผลลัพธ์ของพวกเขาหันไปที่แตกต่างกันอย่างต่อเนื่องอย่างมากจากความเห็นร่วมกัน (กำหนดให้สมมุติว่าโหนดส่วนใหญ่เป็นซื่อสัตย์)

Proof-of-Verification สร้างระบบที่สมดุลเพื่อให้โหนดมีแรงจูงใจทางเศรษฐกิจในการดำเนินการตรวจสอบคุณภาพสูง กลไกนี้รับประกันว่าเครือข่ายจะยังคงมีความปลอดภัยและเชื่อถือได้ในระยะยาว

ความท้าทายและการตัดสินใจ

คำถามคือ: ถ้าวิธีการของมิรามีประสิทธิภาพมากเกินไปทำไมไม่มีใครทำ?

คำตอบอยู่ในการตัดสินใจและความซับซ้อนของการนำระบบเช่นนี้ไปปฏิบัติในโลกของความเป็นจริง การบรรลุสมดุลที่สมบูรณ์ระหว่างการประเมินที่รวดเร็วและแม่นยำ และการจัดการกับความซับซ้อนของแบบจำลองหลายรูปแบบไม่ใช่เรื่องที่ง่าย

หนึ่งในอุปสรรคที่ใหญ่ที่สุดของ Mira คือความล่าช้า ในขณะที่ใช้สมรรถนะของโมเดลเพื่อให้การยืนยันสามารถทำงานขนาน การซิงโครไนซ์ผลลัพธ์และการเรียกร้องข้อมูลนำเข้าความล่าช้าเข้ามา กระบวนการนี้เร็วเท่ากับโหนดที่ช้าที่สุดเท่านั้น

ปัจจุบันนี้ ทำให้ Mira เหมาะสำหรับการประมวลผลชุดของผลลัพธ์ AI - กรณีการใช้ที่ไม่ต้องการผลลัพธ์แบบเรียลไทม์ ซึ่งเป็นกรณีที่เครือข่ายเติบโตขึ้นมาพร้อมกับโหนดและการให้บริการคำนวณเพิ่มเติม จุดมุ่งหมายในระยะยาวคือการสามารถตรวจสอบแบบเรียลไทม์ได้ และขยายความสามารถในการใช้งานของ Mira ในช่วงเวลาที่กว้างขึ้น

นอกจากความล่าช้ายังมีความท้าทายอื่น ๆ รวมถึง:

ความซับซ้อนทางวิศวกรรม: การประสานการประเมินในหลายรูปแบบและการทําให้แน่ใจว่ากลไกฉันทามติทํางานได้อย่างราบรื่นต้องใช้ความพยายามทางวิศวกรรมอย่างมาก

ความต้องการทางคำนวณที่สูงขึ้น: แม้ว่าจะใช้โมเดลขนาดเล็ก ๆ กันแล้วก็ยังเพิ่มความต้องการทางคำนวณเมื่อทำงานร่วมกันในองค์ประกอบ

การออกแบบกลไกมตรฐานที่ดี: วิธีที่มีการบรรลุความเห็นร่วม - ผ่านการลงคะแนนโหวตส่วนใหญ่ การให้คะแนนน้ำหนัก หรือวิธีอื่น ๆ - เล่น peran บทบาทสำคัญในความเชื่อถือของระบบ ในกรณีที่ไม่แน่ชัด กลุ่มอุปกรณ์อาจต่อต้านการปรับ ทำให้มีผลลัพธ์ที่ไม่สอดคล้อง

การใช้งานและการใช้งานสำหรับ Mira

ต้นฉบับ: Mira

API ของ Mira สามารถผนวกรวมกับแอปพลิเคชันใดก็ได้โดยง่าย คล้ายกับ GPT-4o ของ OpenAI มันเป็นไม่ลับต่อผู้บริโภคและแอปพลิเคชันธุรกิจที่ที่ทำให้มันเป็นทางเลือกที่หลากหลายสำหรับกรณีการใช้งานต่าง ๆ ปัจจุบันมีแอปพลิเคชันกว่าโดยใช้โครงสร้างพื้นฐานของ Mira

Consumer Integrations

ในฝั่งผู้บริโภค Mira ได้เป็นแหล่งพลังขับเคลื่อนการตรวจสอบ AI สำหรับแอป AI ระดับเริ่มต้นหลายแอป

  • Creato: แอปพลิเคชันสำหรับค้นพบและแชร์คำคมและข้อความสถานะส่วนตัวที่บริการสำหรับผู้ใช้กว่า 120,000 คน
  • Astro247: แพลตฟอร์มที่ผู้ใช้สนทนากับนักโหราศาสตร์ AI สำหรับดวงชะตาและคำทำนายส่วนบุคคล
  • Amor: แอปพลิเคชันเพื่อเป็นเพื่อนที่เป็น AI ที่ช่วยให้ผู้ใช้สามารถสนทนากับตัวละคร AI จำลองเพื่อความสนุกสนาน
  • Klok: แชทจีพีที่ให้ความสนใจในสกุลเงินดิจิตอลโดย Mira ที่ตอบคำถามเกี่ยวกับสกุลเงินดิจิตอลโดยใช้ API เช่น CoinMarketCap และข้อมูลที่ได้จากการเก็บข้อมูลเว็บไซต์สกุลเงินดิจิตอลและสื่อข่าว

Delphi Oracle is the latest and perhaps most advanced integration. This AI-powered research assistant allows @Delphi_Digitalสมาชิกสามารถเข้าถึงเนื้อหาวิจัยโดยตรง ถามคำถาม ชี้แจงจุด รวมถึงการรวบรวมข้อมูลราคาและปรับเนื้อหาให้เหมาะสมกับระดับความซับซ้อนต่าง ๆ

Delphi Oracle ใช้เทคโนโลยีการยืนยันของ Mira Network เพื่อให้ได้คำตอบที่เชื่อถือได้และแม่นยำ โดยการยืนยันคำตอบที่เกิดขึ้นในรูปแบบหลายรูปแบบ Mira ลดอัตราการเกิดอาการตัวเป็นในร้อยละ ~30 ไปยังต่ำกว่า 5 เพื่อให้มั่นใจในความน่าเชื่อถือที่แข็งแกร่ง

ที่แกนกลางของ Delphi Oracle เป็นตัวเราเตอร์คิวรี่ที่มีประสิทธิภาพสูง

  • การสอบถามราคา: ส่งตรงไปยังจุดปลายทางข้อมูลตลาดเพื่อให้ได้คำตอบทันทีใกล้เคียง
  • คำถามพื้นฐาน: จัดการโดยระบบการตอบสนองแคช ที่สมดุลระหว่างความเร็วและความคุ้มค่า
  • การสอบถามที่ซับซ้อน: ส่งต่อไปยังกระบวนการประมวลผล LLM ที่เชี่ยวชาญซึ่งสามารถสังเคราะห์ข้อมูลจากแหล่งที่มาหลายแห่งได้

ระบบการเชื่อมต่ออัจฉริยะนี้ ร่วมกับการเก็บข้อมูลอย่างฉลาด จะทำให้การทำงานเป็นไปอย่างมีประสิทธิภาพโดยการสมดุลความหน่วงเวลา ค่าใช้จ่าย และคุณภาพ

การทดสอบของมีราพบว่ารุ่นที่เล็กและมีราคาที่มีประสิทธิภาพสามารถจัดการคำถามส่วนใหญ่เกือบเท่ากับรุ่นที่ใหญ่ขึ้น นี้ส่งผลให้ต้นทุนดำเนินการลดลงถึง 90% โดยยังคงรักษาคุณภาพการตอบสนองที่มีคุณภาพสูงที่ผู้ใช้คาดหวัง

ถึงแม้ว่าแอปพลิเคชันบางส่วนในกลุ่มผู้บริโภคเหล่านี้จะยังอยู่ในช่วงเริ่มต้น แต่พวกเขาย้ำให้เห็นถึงความสามารถของ Mira ในการผสมผสานอย่างราบรื่นและสนับสนุนฐานผู้ใช้ที่ใหญ่และที่ใช้งานอย่างต่อเนื่อง ไม่ยากที่จะนึกภาพถึงพันแอปพลิเคชันที่เชื่อมต่อกับระบบนิเวศของ Mira - หากประสบการณ์นักพัฒนายังคงเป็นเรื่องง่ายและข้อเสนอมูลค่ายังคงชัดเจน

แอปพลิเคชั่น B2B

ในด้านธุรกิจระหว่างองค์กร (B2B) Mira กำลังเน้นการรวมระบบที่เชี่ยวชาญในอุตสาหกรรมที่ความเชื่อถือและความแม่นยำเป็นสิ่งสำคัญ โดยเน้นเริ่มต้นที่ด้านสุขภาพและการศึกษา

แอปพลิเคชันหลักประกอบด้วย:

  • สุขภาพ: ผู้ช่วย AI ที่ให้คำปรึกษาที่เชื่อถือได้และสนับสนุนแพทย์ในการตัดสินใจที่สำคัญ
  • การศึกษา: ผู้ช่วยการเรียนรู้ที่ปรับตัวให้เหมาะสมกับความต้องการของนักเรียนแต่ละคน พร้อมทั้งรักษาความถูกต้องตามข้อมูลและประสิทธิภาพการจัดหลักสูตร
  • บริการทางกฎหมาย: ระบบที่สามารถสรุปคำพิพากษาและทำนายผลการพิจารณาในด้านกฎหมายได้อย่างแม่นยำเพื่อเพิ่มประสิทธิภาพในกระบวนการทางกฎหมาย

เกมสุดท้ายของมีรา

เป้าหมายสูงสุดของ Mira คือการนําเสนอรุ่นที่ได้รับการยืนยันโดยกําเนิด ซึ่งผู้ใช้เพียงแค่เชื่อมต่อผ่าน API เช่นเดียวกับ OpenAI หรือ Anthropic และรับเอาต์พุตที่ได้รับการยืนยันล่วงหน้าก่อนที่จะส่งคืน

พวกเขามีเป้าหมายที่จะแทนที่ API รุ่นเดิมโดยการ提供เวอร์ชันที่เชื่อถือได้มากขึ้นของโมเดลที่มีอยู่ (เช่น Mira-Claude-3.5-Sonnet หรือ Mira-OpenAI-GPT-4o) ที่ปรับปรุงด้วยความเชื่อมั่นตามหลักองค์ประกัน.

ขนาดตลาด

Generative AI กำลังเดินทางด้วยยานอวกาศ ตามข้อมูลBloombergตลาดคาดว่าจะเติบโตอย่างต่อเนื่องที่อัตราเฉลี่ยปีละ 42% โดยรายได้เกิน 1 ล้านล้านดอลลาร์ภายในปี 2030 ในความหลากหลายของความเร็วความแม่นยำและความเชื่อถือของกระบวนการทำงานที่ใช้ AI จะเป็นสิ่งที่สำคัญในการจับตาชะล่าให้ได้อย่างที่สำคัญ

เนื่องจากองค์กรมากขึ้นกำลังรวม LLM เข้าสู่กระบวนการทำงานของพวกเขา - ตั้งแต่แชทบอทสนับสนุนลูกค้าไปจนถึงผู้ช่วยในการวิจัยที่ซับซ้อน - ความต้องการในการยืนยันโมเดลที่แข็งแกร่งก็เพิ่มมากขึ้น

องค์กรจะมองหาเครื่องมือที่ (1) สามารถวัดความแม่นยำและความเชื่อถือได้, (2) วินิจฉัยประสิทธิภาพและพารามิเตอร์ที่ไม่เป็นประโยชน์, (3) ติดตามประสิทธิภาพและการเปลี่ยนแปลงอย่างต่อเนื่อง, และ (4) ให้ความชำนาญที่เกี่ยวกับการปฏิบัติตามกรอบกฎหมายที่เกิดขึ้นเกี่ยวกับความปลอดภัยของ AI

เป็นความรู้สึกที่คุ้นเคยหรือเปล่า? เป็นหนังสือเล่มเดียวกับ MLOps (ย่อมาจาก Machine Learning Operations) ที่เราเคยเห็นกันมาก่อน ภายในปี 2010s เมื่อการเรียนรู้เครื่องจักรขยายตัว การใช้เครื่องมือสำหรับการติดตั้ง ติดตาม และบำรุงรักษาโมเดลกลายเป็นสิ่งสำคัญ เป็นตลาดมูลค่าหลายพันล้านดอลลาร์ เมื่อมีการเพิ่มขึ้นของ AI ที่สามารถสร้างสรรค์ได้ LLMOps กำลังเดินตามเส้นทางเดียวกัน

การเข้าถึงแม้เพียงเพียงส่วนเล็กน้อยของตลาดทรัพย์ล้านล้านดอลลาร์อาจทำให้ตลาดย่อยนี้เติบโตเป็น 100 พันล้านเหรียญขึ้นไปโดย 2030

บริษัท Startup ที่ใช้เทคโนโลยี Web2 หลายรายได้เริ่มตั้งตำแหน่งเองแล้ว โดยมีเครื่องมือให้ทำป้ายกำกับข้อมูล ปรับปรุงโมเดล และประเมินผลการปฏิบัติงานอย่างละเอียด

• Braintrust (เรียกเงิน 36 ล้านเหรียญ)

• Vellum AI ($5M raised)

• Humanloop (ระดมทุน $2.8 ล้าน)

ผู้เคลื่อนไหวตั้งแต่แรกเริ่มกำลังเตรียมพื้นฐาน แต่พื้นที่นี้เป็นหุ่นเหล็ก ในปี 2025 เราอาจเห็นการเพิ่มขึ้นของ สตาร์ทอัพในกลุ่มนี้ บางส่วนอาจเชี่ยวชาญในตัวชี้วัดการประเมินที่เฉพาะเจาะจง (เช่นการตรวจสอบความเอียงของข้อมูลและการทดสอบความทนทาน) ในขณะที่อื่นๆ กว้างขวางขึ้นเพื่อครอบคลุมวงจรชีวิตการพัฒนา AI ทั้งหมด

บริษัทเจ้าของเทคโนโลยีใหญ่ ๆ เช่นผู้ให้บริการคลาวด์และแพลตฟอร์ม AI ชั้นนำอาจจะรวมคุณสมบัติการประเมินในการเสนอของพวกเขา ในเดือนที่ผ่านมา,OpenAIGate ที่จะอยู่ในการแข่งขัน สตาร์ทอัพจะต้องแตกต่างกันผ่านความเชี่ยวชาญ ความง่ายในการใช้งาน และการวิเคราะห์ที่ล้ำสมัย

Mira ไม่ได้เป็นคู่แข่งโดยตรงกับสตาร์ทอัพหรือผู้เข้าร่วมที่มีอยู่แล้ว แต่เป็นผู้ให้บริการโครงสร้างพื้นฐานที่รวมกันอย่างราบรื่นกับทั้งสองผ่าน API คืออะไร? มันเพียงแค่ต้องทำงาน

ขนาดตลาดเริ่มต้นของ Mira ติดต่อกับ LLMOps แต่ตลาดที่สามารถเข้าถึงได้ทั้งหมดจะขยายออกไปที่ AI ทั้งหมดเพราะทุกๆ แอปพลิเคชัน AI จะต้องการเอาต์พุทที่เชื่อถือได้มากขึ้น

จากมุมมองทฤษฎีเกม มีราต้องเผชิญกับสถานการณ์ที่เป็นพิเศษ ไม่เหมือนผู้ให้บริการโมเดลอื่น ๆ เช่น OpenAI ที่ถูกล็อคในการสนับสนุนระบบของตนเอง Mira สามารถรวมระหว่างโมเดลได้ ซึ่งทำให้ Mira เป็นชั้นความไว้วางใจสำหรับ AI โดยมีความเชื่อถือได้ที่ไม่มีผู้ให้บริการใด ๆ สามารถเทียบเท่า

แผนงานปี 2025

โครงการถนนเส้นทาง 2025 ของ Mira เป้าหมายที่จะสมดุลความสมัครสมาชิกของความสุขและการมีส่วนร่วมของชุมชนในการเดินทางของมันสู่การกระจายอำนาจอย่างเต็มรูปแบบ

เฟส 1: การสร้างความเชื่อมั่นในตัวเอง (ที่เราอยู่ในขณะนี้)

ในช่วงต้น ผู้ดำเนินการโหนดที่ได้รับการตรวจสอบรับรองรักษาความเชื่อถือในเครือข่าย ผู้ให้บริการคอมพิวเตอร์ GPU ที่มีชื่อเสียงเป็นผู้ดำเนินการครั้งแรก จัดการดำเนินการเริ่มต้นและสร้างพื้นฐานที่แข็งแกร่งสำหรับการเติบโต

เฟส 2: การกระจายอำนาจแบบก้าวหน้า

Mira นำเสนอการทำซ้ำที่ออกแบบมาอย่างดี โดยที่มีหลายตัวอย่างของโมเดลผู้ตรวจสอบเดียวกันทำงานกับแต่ละคำขอ ซึ่งการนี้จะทำให้ต้นทุนการตรวจสอบเพิ่มขึ้น แต่ก็เป็นสิ่งสำคัญสำหรับการระบุและกำจัดตัวดำเนินการที่เลวร้าย โดยการเปรียบเทียบผลลัพธ์ที่ได้จากทุกๆ โหนด ผู้กระทำที่ไม่ดีจะถูกจับได้เร็วๆ นี้

ในรูปแบบที่เป็นสุดของมิรา จะใช้การแบ่งชาร์ดแบบสุ่มเพื่อกระจายงานการยืนยัน ซึ่งทำให้การก่อการร้ายทางเศรษฐกิจไม่เป็นไปตามที่คาดหวังและเสริมความแข็งแกร่งของเครือข่ายและความปลอดภัยเมื่อมีการขยายตัว

ระยะที่ 3: โมเดลพื้นฐานสังเคราะห์

ที่นี่มีราจะเสนอการสร้างรุ่นที่ได้รับการยืนยันอย่างเชี่ยวชาญแบบธรรมชาติ ผู้ใช้จะเชื่อมต่อผ่าน API คล้ายกับ OpenAI หรือ Anthropic และจะได้รับผลลัพธ์ที่ได้รับการยืนยันล่วงหน้า - ผลลัพธ์ที่เชื่อถือได้และพร้อมใช้งานโดยไม่ต้องมีการตรวจสอบเพิ่มเติม

ในเดือนที่กำลังจะมาถึง Mira กำลังเตรียมพร้อมสำหรับเหตุการณ์สำคัญหลายรายการ:

  • เปิดตัว Mira Flows ผลิตภัณฑ์ไอเอไอที่ให้นักพัฒนาสร้างแอปไอเอพีที่ขับเคลื่อนด้วย API ได้อย่างรวดเร็ว
  • เทสเน็ตสาธารณะในเดือนมกราคม
  • การเปิดตัวโทเค็นก็อยู่ในขอบเขตทางการเงินเช่นเดียวกับเป้าหมายในไตรมาส 1 ปี 2024

🌈 โปรแกรมผู้มอบหมายโหนด

Mira กำลังขยายโอกาสในการมีส่วนร่วมของชุมชนผ่านโปรแกรมผู้ลงทุนโหนด. กิจกรรมนี้ทำให้การสนับสนุนเครือข่ายเป็นเรื่องที่สามารถเข้าถึงได้สำหรับทุกคน - ไม่จำเป็นต้องมีความเชี่ยวชาญทางเทคนิค

กระบวนการนี้ง่าย: คุณสามารถเช่าทรัพยากรการประมวลผลและมอบหมายให้กับกลุ่มตัวดําเนินการโหนดที่คัดสรรมาอย่างดี การมีส่วนร่วมอาจมีตั้งแต่ $ 35 ถึง $ 750 และมีการเสนอรางวัลสําหรับการสนับสนุนเครือข่าย Mira จัดการโครงสร้างพื้นฐานที่ซับซ้อนทั้งหมดเพื่อให้ผู้รับมอบสิทธิ์โหนดสามารถนั่งลงดูเครือข่ายเติบโตและจับกลับหัวกลับหางได้

ทีม

วันนี้ Mira มีทีมเล็ก ๆ แต่แน่นหนาซึ่งส่วนใหญ่เน้นด้านวิศวกรรม

มีผู้ร่วมก่อตั้ง 3 คน:

  1. @karansirdesai (CEO), ที่เคยอยู่ในทีมลงทุนใน Crypto & AI ที่ Accel และให้คำปรึกษาที่ BCG
  2. Sid Doddipalli (CTO) เป็นนักศึกษาศิลปะจาก IIT Madras และเคยเป็นผู้ร่วมก่อตั้งที่ Stader Labs, แพลตฟอร์มการจ่ายเหลือที่ Ethereum กับ TVL มากกว่า $400 ล้าน
  3. Ninad Naik (Chief Product Officer) ดํารงตําแหน่งผู้นําในตําแหน่งผู้อํานวยการฝ่ายการจัดการผลิตภัณฑ์ที่ Uber และในฐานะผู้จัดการทั่วไปที่แผนก Smart Home ของ Amazon

พวกเขาร่วมกันเชื่อมต่อความชำนาญในการลงทุน, นวัตกรรมทางเทคนิค, และผู้นำผลิตภัณฑ์เพื่อวิสัยทัศน์ของ Mira ในการตรวจสอบ AI แบบกระจาย Mira ได้ระดมทุนรวม 9 ล้านดอลลาร์ รอบเมล็ดในเดือนกรกฎาคม 2024 โดยนำโดย BITKRAFT และ Framework Ventures

ความคิดของเรา

เป็นสดชื่นที่ได้เห็นทีม Crypto AI ที่มุ่งมั่นที่จะแก้ปัญหาพื้นฐานของ AI ใน Web2 ให้ดียิ่งขึ้น แทนที่จะเล่นเกมสเปกุเลทีฟในภาวะฟองสบู่ของ crypto

  1. การยืนยันจะเป็นคำฮอตของ AI ในปี 2025

อุตสาหกรรมได้เริ่มต้นตื่นตระหนกถึงความสำคัญของการยืนยันตัวตน การพึ่งพากับ "ความรู้สึก" ไม่เพียงพออีกต่อไป แอปพลิเคชันและกระบวนการทางปัญญาประดิษฐ์ทุกอย่างจะต้องมีกระบวนการยืนยันตัวตนที่เหมาะสมเร็ว ๆ นี้ และสมควรจะมีกฎหมายใหม่ที่ต้องการกระบวนการเหล่านี้เพื่อให้รองรับความปลอดภัยได้

วิธีการของมิราใช้โมเดลหลายรูปแบบเพื่อตรวจสอบผลลัพธ์อย่างอิสระ โดยไม่พึ่งพาโมเดลกลางเดียว โครงสร้างที่กระจายออกไปนี้เสริมสร้างความเชื่อถือและลดความเสี่ยงของสิ่งที่เสียหายและการจัดการ

และลองพิจารณาว่าจะเกิดอะไรขึ้นถ้าเราไปถึง AGI ในอีกไม่กี่ปีข้างหน้า (ความเป็นไปได้ที่แท้จริง)

เป็นAnand Iyer (@AIจากจุดย่อยๆ ที่ Canonical ได้เน้นไว้ หาก AI สามารถควบคุมการตัดสินใจและรหัสโดยลับ ๆ ได้ จะมีวิธีใดที่เราจะไว้วางใจระบบการทดสอบเพื่อตรวจสอบพฤติกรรมเหล่านี้? ผู้เชี่ยวชาญอย่างเช่นเขากำลังคิดไปข้างหน้าการวิจัยของ Anthropicเน้นความเร่งด่วน โดยเน้นการประเมินเป็นเครื่องมือที่สำคัญในการระบุความสามารถของ AI ที่อาจเป็นอันตรายก่อนที่จะเป็นปัญหา

โดยเปิดใช้ความโปร่งใสอย่างสิ้นเชิง เทคโนโลยีบล็อกเชนเพิ่มชั้นความปลอดภัยที่มีประสิทธิภาพในการป้องกันระบบ AI ที่ซ้อนร้ายได้ ระบบการตกลงที่ไม่ต้องการความเชื่อมั่นในสิ่งที่สำคัญให้แน่ใจว่าการประเมินความปลอดภัยได้รับการยืนยันโดยหลายพันโหนดที่อิสระ (เช่น Mira) ลดความเสี่ยงของการโจมตี Sybil อย่างมาก

  1. วิสัยทัศน์ที่ทะเยอทะยานพร้อมความเสี่ยงในการดําเนินการ

Mira กำลังจับตลาดขนาดใหญ่ที่มีความต้องการชัดเจนสำหรับการแก้ปัญหาที่ดี แต่ท้ายสุดแล้วยังมีความท้าทาย การปรับปรุงความล่าช้า ความแม่นยำ และความประสบความสำเร็จทางด้านต้นทุนจะต้องใช้ความพยายามในการพัฒนาและเวลาอย่างไม่รู้ลักษณะ ทีมต้องสามารถแสดงให้เห็นได้เสมอว่าวิธีการของพวกเขาดีกว่าทางเลือกที่มีอยู่ในปัจจุบัน

นวัตกรรมหลักอยู่ในกระบวนการทำให้ Mira เป็นระบบไบนารีและชาร์ด ส่วน "น้ำจิ้ม" นี้มีความสัญคลักษณ์ว่าจะช่วยแก้ปัญหาความสามารถในการขยายของ Mira และความเชื่อถือ ในการเป็นผู้ประสบความสำเร็จ Mira จำเป็นต้องส่งมอบเทคโนโลยีนี้ตามสัญญา

  1. การออกแบบโทเค็นและสูตรลับของมิรา

ในเครือข่ายที่ไม่เน้นกลายเป็นพารามิเตอร์สำคัญในการเป็นผู้สร้างแรงจูงใจและการออกแบบโทเค็น ความสำเร็จของ Mira จะขึ้นอยู่กับความสามารถในการจัดให้กลไกเหล่านี้สอดคล้องกับความสนใจของผู้เข้าร่วมในขณะที่รักษาความรู้สึกของเครือข่าย

ในขณะที่รายละเอียดเกี่ยวกับโทเคนอะโรมาของมีรายังคงเป็นความลับ ฉันคาดว่าทีมจะเปิดเผยข้อมูลเพิ่มเติมเมื่อเข้าสู่การเปิดตัวโทเคนในต้นปี 2025

อนาคตที่สดใส

"เราพบว่าทีมวิศวกรที่ใช้การประเมินที่ยอดเยี่ยมจะเคลื่อนที่เร็วขึ้นอย่างมาก – เร็วกว่าถึง 10 เท่า – มากกว่าทีมที่เพิ่งดูสิ่งที่เกิดขึ้นในการผลิตและพยายามแก้ไขเฉพาะกิจ" - Ankur Goyal, Braintrust

ในโลกที่ขับเคลื่อนด้วย AI ความไว้ใจคือสิ่งที่สำคัญที่สุด

เมื่อโมเดลเริ่มซับซ้อนขึ้น เราจะต้องมีการตรวจสอบที่เชื่อถือได้เพื่อสนับสนุนผลิตภัณฑ์ AI ที่ยอดเยี่ยมทุกอย่าง การตรวจสอบเหล่านี้ช่วยให้เราสามารถจัดการกับภาวะเซ็งซ่าน กำจัดความลำเอียง และให้แน่ใจว่าผลลัพธ์ของ AI สอดคล้องกับความต้องการจริงของผู้ใช้

Mira อัตโนมัติการตรวจสอบ เพื่อลดต้นทุนและการพึ่งพาต่อการแทรกแซงของมนุษย์ ซึ่งทำให้เกิดการทดลองอย่างรวดเร็ว การปรับปรุงแบบเรียลไทม์ และการให้คำแนะนำที่มีขนาดใหญ่โดยไม่มีขั้นตอนที่มีปัญหา

เอ็มไอร์เร็วๆ นี้มีเป้าหมายที่จะเป็น API สำหรับความเชื่อถือ - เชื่อมโยงการยืนยันแบบกระจายที่นักพัฒนา AI และแอปพลิเคชันทุกๆ คนสามารถพึ่งพาได้สำหรับคำตอบที่ได้รับการยืนยัน

มันกล้าหาญ หรือดุเดือดและเป็นเหมือนที่โลก AI ต้องการ

ขอบคุณที่อ่าน, Teng Yan

ข้อความปฏิเสธความรับผิดชอบ:

  1. บทความนี้ถูกนำเข้ามาจาก [ Teng Yan]. ส่งต่อชื่อต้นฉบับ: Mira: Trustless Verified AI ลิขสิทธิ์ทั้งหมดเป็นของผู้เขียนต้นฉบับ [Teng Yan]. If there are objections to this reprint, please contact the เกตเรียนทีม และพวกเขาจะดำเนินการโดยเร็ว
  2. คำประกาศความรับผิด: มุมมองและความคิดเห็นที่แสดงในบทความนี้เป็นเพียงของผู้เขียนเท่านั้น และไม่เป็นคำแนะนำในการลงทุนใด ๆ
  3. การแปลบทความเป็นภาษาอื่นๆ ถูกดำเนินการโดยทีม Gate Learn หากไม่ได้กล่าวถึง การคัดลอก การกระจายหรือการลอกเลียนแบบบทความที่ถูกแปลนั้นถูกห้าม

Mira: สร้างความเชื่อมั่นในการตรวจสอบผลลัพธ์ AI

กลาง1/14/2025, 11:19:38 AM
ในช่วงไม่กี่ปีที่ผ่านมาความก้าวหน้าอย่างรวดเร็วของ AI เชิงกําเนิดได้แนะนําความต้องการใหม่ ๆ เกี่ยวกับโครงสร้างพื้นฐานและเวิร์กโฟลว์โดยเฉพาะอย่างยิ่งในการตรวจสอบและประเมินผล ความน่าเชื่อถือของแอปพลิเคชัน AI นั้นเชื่อมโยงกับความไว้วางใจของผู้ใช้อย่างใกล้ชิด และ Mira มุ่งมั่นที่จะแก้ไขปัญหาหลักนี้ผ่านเครือข่ายแบบกระจายอํานาจ โดยกําหนดมาตรฐานอุตสาหกรรมใหม่สําหรับการตรวจสอบและประเมินผล AI

Forward the Original Title: Mira: Trustless Verified AI

TL;DR

  • การตรวจสอบผลลัพธ์เป็นสิ่งสำคัญเพื่อให้แน่ใจว่า AI ทำงานได้อย่างเชื่อถือได้
  • Mira กำลังสร้างเครือข่ายชั้นที่ 1 ที่ให้ความเชื่อถือได้ สามารถมั่นใจได้ และมีการยืนยันที่แม่นยำของผลลัพธ์ของ AI
  • การลดอาการมองเห็นซึมเศร้าและความลำเอียงพร้อมๆกัน นั้นเป็นการปรับสมดุลที่ละเอียด มีราทำโดยการใช้ประโยชน์จากปัญญาประดิษฐ์ร่วม
  • ระบบการตรวจสอบของ Mira ถูกสร้างขึ้นบนหลักการออกแบบสองข้อ: (1) แบ่งผลลัพธ์ของ AI เป็นส่วนย่อยที่สามารถตรวจสอบได้ง่ายและ (2) ใช้กลุ่มโมเดลในการตรวจสอบแต่ละส่วน
  • ขนาดตลาดเริ่มต้นของ Mira ผูกมัดกับ LLMOps แต่ตลาดรวมที่เปิดอยู่สำหรับ Mira อาจขยายออกไปสู่ทั้ง AI ทั้งหมดเนื่องจากแอปพลิเคชัน AI ทุกตัวจะต้องการผลลัพธ์ที่เชื่อถือได้มากขึ้น
  • Mira กำลังขับเคลื่อนการตรวจสอบ AI สำหรับแอป AI หลายรายการที่มีผู้ใช้ 200K คนขึ้นไปแล้ว
  • จุดมุ่งหมายสุดท้ายของ Mira คือการกลายเป็นโมเดลรากฐานสังเคราะห์ ที่สามารถเชื่อมต่อไปยังผู้ให้บริการทุกท่านเพื่อให้ผลลัพธ์ที่ได้รับการยืนยันล่วงหน้าผ่าน API เดียว

ภาวะเห็นภาพ: ประสบการณ์ที่เกี่ยวข้องกับการรับรู้ที่แสดงให้เห็นว่ามีสิ่งที่ไม่มีอยู่

Andrej Karpathy เรียก AI ว่า 'เครื่องฝัน' เขาเชื่อว่าสิ่งที่เราเรียกว่าภาพลวงตา—ช่วงเวลาเมื่อ AI สร้างสรรค์อย่างมั่นใจในสิ่งที่ไม่เป็นจริง—เป็นคุณสมบัติ ไม่ใช่ข้อบกพร่อง เราไม่มีทางที่จะพยายามกำจัดมันอย่างสมบูรณ์แบบ และในความซื่อสัตย์ มีสิ่งที่สุดกำลังอยู่ในนั้น

โมเดลภาษาขนาดใหญ่ (LLMs) เป็นศิลปิน นักสร้าง มันฝันถึงรหัส สร้างความคิดจากอากาศบริสุทธิ์ และสร้างความหมายจากข้อมูล แต่ในการที่ AI จะเปลี่ยนจากความฝันวันที่สวยงามไปสู่การใช้งานที่เป็นประจำทุกวัน เราต้องห้ามความฝันเหล่านั้น

อัตราข้อผิดพลาดของ LLMs ยังคงสูงในหลายงาน โดยทั่วไปมักอยู่ที่ระดับประมาณ 30% ในระดับนั้น LLMs ยังต้องการมนุษย์เข้ามาช่วยในการเอาไปสู่ระดับความแม่นยำที่สามารถใช้งาน

แต่เมื่อเราได้ความแม่นยำที่เกือบ 99.x% ที่น่าจะได้รับการอนุมัติ การเกิดเวทมนต์ก็เกิดขึ้น นั่นคือเกณฑ์ที่ที่ AI บรรลุถึงความเชื่อถือได้เท่ากับมนุษย์ ที่เปิดทางสู่จักรวาลอันไม่มีที่สิ้นสุดของการใช้งานที่มาก่อนหน้าที่อยู่ในขอบเขตที่ไม่สามารถเข้าถึง

อย่างไรก็ตามการไปถึงระดับความแม่นยํานั้นไม่ใช่เรื่องเล็ก มันต้องการความพยายามทางวิศวกรรมและนวัตกรรมอย่างไม่หยุดยั้ง

เรื่องราวของ @Mira_Networkเริ่มต้นที่นี่ แต่ก่อนที่เราจะลงไป ให้เราพูดคุยสักครู่เกี่ยวกับการพัฒนา LLM และเหตุผลที่การตรวจสอบกำลังเป็นสิ่งที่ใหญ่ขึ้นใน AI ครับ

วิธีการเกิด LLM

การพัฒนา LLM เป็นการทําซ้ําล่าสุดในเส้นทางการเรียนรู้เชิงลึกซึ่งแตกต่างจากแนวทางการพัฒนาซอฟต์แวร์แบบดั้งเดิมที่เราฝึกฝนมาตลอด 50+ ปีที่ผ่านมา LLMs ซึ่งมีมาประมาณสามปีพลิกสคริปต์อย่างสมบูรณ์เปลี่ยนจากการคิดเชิงกําหนด (ถ้า X แล้ว Y) ไปสู่การให้เหตุผลที่น่าจะเป็นไปได้ (ถ้า X แล้ว ... บางที Y?).

นี้หมายความว่าโครงสร้างพื้นฐานสำหรับโลกที่มี AI ต้องการชุดเครื่องมือและกระบวนการที่แตกต่างอย่างสิ้นเชิงใหม่ แต่ยังมีเครื่องมือเหล่านี้ยังอยู่ในห้องปฏิบัติการวิจัยที่สร้าง LLMs

ข่าวดีคือเครื่องมือเหล่านี้เริ่มเร่งออกสู่โดเมนสาธารณะ ทำให้โลกของนักพัฒนาเปิดขึ้นมาให้มองได้

ที่ส่วนท้ายของขั้นตอนการทำงานใหม่นี้เป็นส่วนสำคัญของปริศนา: การประเมินและการตรวจสอบ วันนี้ แสงส่องที่เราพบอยู่ที่นั่น พวกเขาตอบคำถามสำคัญ: แอปพลิเคชันทำงานได้ดีหรือไม่?

การยืนยัน = ความเชื่อมั่น

ความเชื่อมั่นเป็นฐานของผลิตภัณฑ์ AI ที่ยอดเยี่ยมใด ๆ

เมื่อ AI เริ่มเป็นส่วนสำคัญของชีวิตเรามากขึ้น เทคโนโลยีเองก็ยังเป็นสิ่งที่อ่อนแอ การผิดพลาดเกิดขึ้นและเมื่อเกิดขึ้นความไว้วางใจจะลดลงอย่างรวดเร็ว ผู้ใช้คาดหวังให้ AI มีความแม่นยำ ไม่มีความลำเอียงและเป็นประโยชน์จริง ๆ แต่หากไม่มีระบบที่เชื่อถือได้เพื่อให้มั่นใจนั้น ความผิดหวังก็เพิ่มขึ้น - และความผิดหวังนี้นำไปสู่การเสื่อมโทรม

นี่คือสิ่งที่การตรวจสอบมีบทบาท

การตรวจสอบเป็นการป้องกัน มันเป็นชั้นคุณภาพที่นักพัฒนาพึ่งพาในการปรับปรุงผลลัพธ์และสร้างระบบที่ผู้ใช้สามารถเชื่อถือได้

Mira กำลังแก้ไขปัญหาหลักของ Web2 ด้วยความโปร่งใสที่ไม่ต้องไว้วางใจของสกุลเงินดิจิตอล โดยใช้เครือข่ายที่กระจายอำนาจของโหนดผู้ตรวจสอบชั่วคราว Mira รับประกันว่าผลลัพธ์ของ AI จะถูกตรวจสอบอย่างถูกต้องและอิสระ

กรุณากรอก Mira

สมมติว่าคุณมีย่อหน้าของผลลัพธ์จาก LLM เกี่ยวกับเมืองปารีส คุณจะทำอย่างไรในการยืนยันว่ามันถูกต้อง? มันยากที่จะทำเช่นนั้นเพราะมีความละเอียดรอบครอบมากเกี่ยวกับทุกอย่างตั้งแต่การอ้างอิงถึงโครงสร้างของเนื้อหาไปจนถึงสไตล์การเขียน

นี่คือสถานที่ที่มิราเข้ามาช่วย

วิสัยทัศน์ของ Mira คือการสร้างเครือข่ายชั้นที่ 1 ที่สามารถให้ความน่าเชื่อถือ สามารถขยายขนาด และสามารถทำการยืนยันผลลัพธ์ของ AI ได้อย่างแม่นยำ โดยการใช้ประโยชน์จากปัจจุบัน Mira ลดการลำเอียงและการมองเห็นที่ไม่เป็นจริง แก้ปัญหาหลักเช่นความยุติธรรมและค่าใช้จ่ายในขณะที่พิสูจน์ว่าบล็อกเชนสามารถเสริมสร้าง AI อย่างแท้จริง

แหล่งที่มา: Mira

ผลลัพธ์ในช่วงต้นมีแนวโน้ม เมื่อเร็วๆ นี้การศึกษาที่เผยแพร่บน Arxiv, มีราแสดงให้เห็นว่าการใช้โมเดลหลายรูปแบบที่ใช้ในการสร้างผลลัพธ์และการต้องการความเห็นร่วมกันช่วยเพิ่มความแม่นยำอย่างมีนัยสำคัญ ความแม่นยำถึง 95.6% ด้วยโมเดลสามรูปแบบ เปรียบเทียบกับ 73.1% สำหรับผลลัพธ์ของโมเดลเดียว

สององค์ประกอบในการออกแบบที่สำคัญของ Mira คือ

  • Sharding & Binarization of content: Breaking complex AI outputs into smaller, independently verifiable pieces.
  • ความหลากหลายของแบบจำลอง: การใช้แบบจำลองหลายรูปแบบเพื่อเสริมความเชื่อถือและลดความเอื้ออาทร

#1: การเปลี่ยนแปลงเนื้อหาผ่านการทำให้เป็นไบนารีและการแบ่งเป็นชิ้นๆ

ผลลัพธ์ที่สร้างขึ้นโดย AI สามารถเป็นคำตอบที่เรียบง่ายหรือเป็นเอสเซย์ที่ยืดหยุ่นได้ ด้วยความถูกต้องที่ต่างกัน แต่มันกลายเป็นความท้าทายในการให้ความแม่นยำของผลลัพธ์ที่หลากหลายขนาดนั้นได้เป็นอย่างไร?

วิธีการแก้ไขของ Mira คือ: แบ่งออกเป็นส่วนๆ

@Mira_Networktransforms complex AI-generated content into smaller, digestible pieces that AI models can objectively review in a process called sharding.

โดยมาตรฐานการผลิตผลลัพธ์และการแยกออกเป็นข้อสิทธิที่สามารถพิสูจน์ได้ Mira รับรองว่าทุกชิ้นสามารถประเมินได้อย่างเสถียร โดยลบความกำกวมที่มักจะมีในการประเมิน

ตัวอย่างเช่นพิจารณาคำสั่งผสมนี้:

ฟอโตสินเธสิสเกิดขึ้นในพืชเพื่อแปลงแสงแดดเป็นพลังงาน และผึ้งมีบทบาทสำคัญในการผสมเกสรของดอกไม้โดยการถ่ายพยาธิระหว่างดอกไม้

ตามด้านผิวดูเหมือนง่ายในการยืนยัน แต่เมื่อส่งให้โมเดลหลายรุ่น ความเห็นแปลกตาอาจนำไปสู่คำตอบที่แตกต่างกัน การแปลงเนื้อหาของ Mira ผ่านการแบ่งชิ้นส่วนแก้ไขปัญหานี้โดยแบ่งคำอธิบายเป็นสองข้อยืนยันที่แยกกัน

  1. “กระบวนการสังเคราะห์แสงเกิดขึ้นในพืชเพื่อแปลงแสงอาทิตย์เป็นพลังงาน”
  2. “ผึ้งเล่น peran penting dalamการผสมเกสรโดยการถ่ายทอดเกสรระหว่างดอกไม้”

เมื่อแบ่งชั้นแล้ว ทุกข้อเรียกร้องจะถูกแปลงเป็นคำถามตัวเลือกที่หลายตัวเลือก คำถามเหล่านี้จะถูกกระจายไปยังเครือข่ายของโหนดที่ทำงานด้วยโมเดล AI โดยใช้วิธีการตรวจสอบแบบอัลกอริทึมอันสมบูรณ์ของ Mira โมเดลร่วมมือกันในการประเมินและยืนยันความถูกต้องของแต่ละข้อเรียกร้อง

ปัจจุบันความสามารถในการแบ่งข้อมูลและการแปลงข้อมูลเป็นรหัสของ Mira ยังมุ่งเน้นไปที่ข้อมูลข้อความเท่านั้น ภายในต้นปี 2025 กระบวนการเหล่านี้จะขยายออกมาให้รองรับการนำเข้าแบบมัลติโมดัล เช่น รูปภาพและวิดีโอ

#2: องค์กร ไม่ใช่บุคคล

Mira ได้พัฒนาระบบการตรวจสอบที่ขั้นสูงซึ่งรวมความแข็งแกร่งของโมเดล AI หลายรูปแบบเพื่อประเมินคุณภาพของผลลัพธ์ AI

มาเริ่มจากนั้น

การประเมินอัตโนมัติแบบดั้งเดิมมักอาศัยแบบจําลองภาษาขนาดใหญ่เดียว (LLM) เช่น GPT-4 ในฐานะผู้ชี้ขาดคุณภาพขั้นสูงสุด ในขณะที่ใช้งานได้วิธีการนี้มีข้อบกพร่องที่สําคัญ: มีค่าใช้จ่ายสูงมีแนวโน้มที่จะมีอคติและถูก จํากัด ด้วยนิสัยใจคอและ "บุคลิกภาพ" ที่มีอยู่ในแบบจําลอง

การเปลี่ยนแปลงของมายร่าเป็นการเลิกพึ่งพาอย่างเดียวในรูปแบบของโมเดลขนาดใหญ่เพื่อใช้ประโยชน์จากensemble of diverse LLMs. ส่วนประกอบนี้โดดเด่นในงานที่ความแม่นยำทางข้อมูลสำคัญกว่าความสามารถในการสร้างความสามารถ ลดอัตราข้อผิดพลาดและส่งมอบการยืนยันที่เชื่อถือได้มากขึ้น ที่นิยมมากขึ้น

เทคนิคอะไรก็ตามได้รับการศึกษาอย่างละเอียดในงานการเรียนรู้ของเครื่องเช่นการจำแนกและ Mira ตอนนี้กำลังนำเทคนิคนี้มาสู่การยืนยัน

ในกลางระบบของ Mira คือ แผงผู้ตรวจสอบ LLM (PoLL) - ระบบเครือข่ายที่มีรูปแบบที่ทำงานร่วมกันเพื่อตรวจสอบผลลัพธ์ คิดว่าเป็นที่ปรึกษาที่หลากหลายของผู้เชี่ยวชาญที่มีส่วนร่วมในการตัดสินใจเมื่อเทียบกับการทิ้งไว้ให้ผู้พิพากษาเดียวที่อาจมีความเฉียบแหลม

และนี่ไม่ใช่แค่ความคิดที่หวังดีเท่านั้น - มันมีข้อมูลทางวิจัยเป็นพื้นฐานด้วย มาดูกราฟด้านล่างนี้

การศึกษา Cohereเผยแพร่ในเดือนเมษายน 2024 ได้แสดงให้เห็นว่าแผงของรุ่นเล็ก ๆ สามรุ่น - GPT-3.5, Claude-3 Haiku และ Command R - สอดคล้องกับความคิดเห็นของมนุษย์มากกว่า GPT-4 เพียงอย่างเดียว อย่างน่าทึ่งคือวิธีการสองวิธีนี้ยังถูกลดราคาอีก 7 เท่า

Mira กำลังนำวิจัยนี้ไปสู่การปฏิบัติการโดยใช้วิธีการตรวจสอบด้วยกลุ่มในมาตราส่วนใหญ่ ผลลัพธ์ภายในที่พวกเขาได้แบ่งปันจนถึงตอนนี้น่าสนใจ:

• อัตราผิดพลาดลดลงจาก 80% เป็น 5% สำหรับงานเหตุผลที่ซับซ้อน

• การปรับปรุงความเร็วและค่าใช้จ่าย 5 เท่าเมื่อเปรียบเทียบกับการยืนยันโดยมนุษย์

นี้คือความสำเร็จที่ไม่เล็กน้อย โดยใช้กลไกการตกลงเป็นหลัก สมาชิกที่หลากหลายของโมเดลของ Mira กรองออกไฟล์ที่เป็นภาพลวงตาและสมดุลต่อความลำเอียงของโมเดลแต่ละราย พร้อมกันพวกเขาส่งมอบสิ่งที่ดีกว่าผลรวมของส่วนประกอบของพวกเขา: การยืนยันที่เร็วกว่า ถูกกว่าและสอดคล้องกับความต้องการของเรามากขึ้น

วิธีการทำงาน - การออกแบบสถาปัตยกรรม

สรุปย้อนกลับการทำงานของระบบการตรวจสอบของ Mira สร้างขึ้นบนหลักการออกแบบสององค์ประกอบหลัก:

  • แบ่งเอาต์พุต AI ออกเป็นชิ้นเล็ก ๆ และตรวจสอบได้ง่าย
  • Verify every piece using an ensemble of diverse AI models.

การบำรุงรักษาชุดแบบจำลองที่หลากหลายเป็นสิ่งสำคัญสำหรับผลลัพธ์ที่มีคุณภาพสูง ซึ่งทำให้การออกแบบของ Mira เป็นอย่างที่เหมาะสมสำหรับสถาปัตยกรรมแบบกระจาย การกำจัดจุดล้มเหลวเดี่ยวเป็นสิ่งสำคัญสำหรับผลิตภัณฑ์การตรวจสอบใด ๆ

Mira ใช้วิธีการที่ใช้ blockchain เพื่อให้แน่ใจว่าไม่มีส่วนราชการเดียวสามารถเข้ามาแก้ไขผลลัพธ์ได้ หลักการคือง่ายดาย: ผลลัพธ์ที่สร้างขึ้นโดย AI ควรได้รับการยืนยันเหมือนกับการเปลี่ยนแปลงสถานะของบล็อกเชน

การยืนยันเกิดขึ้นผ่านเครือข่ายของโหนดอิสระ โดยผู้ดำเนินการได้รับสิทธิ์ตามแรงจูงใจทางเศรษฐกิจในการดำเนินการยืนยันที่แม่นยำ โดยการปรับสิ่งที่รับรู้กับความซื่อสัตย์ ระบบของ Mira ป้องกันผู้กระทำที่ไม่ดีและให้ผลลัพธ์ที่เชื่อถือได้

นี่คือวิธีที่มันทำงาน:

  1. นักพัฒนา AI สร้างชุดข้อมูลของผลลัพธ์จากโมเดลของพวกเขาและส่งมันไปยัง Mira ผ่าน API
  2. Mira แปลงชุดข้อมูลเป็นคำถามหลายตัวเลือก (binarization) และแบ่งชุดข้อมูลเป็นชิ้นเล็กๆ (sharding) เพื่อจัดการได้ง่าย
  3. ส่วนแบ่งข้อมูลเหล่านี้ถูกแจกจ่ายไปยังเครือข่ายโหนดตรวจสอบของ Mira แต่ละโหนดจะได้รับส่วนแบ่งข้อมูลที่แตกต่างกันเพื่อตรวจสอบ
  4. แต่ละโหนดจะตรวจสอบคำถามในชาร์ดที่ได้รับมอบหมายแยกต่างหากและส่งผลลัพธ์กลับไปยังเครือข่าย
  5. โหนดที่ได้รับมอบหมายให้เป็นชาร์ดเดียวกันเห็นด้วยกันเกี่ยวกับผลลัพธ์ของการตรวจสอบซึ่งจะถูกรวบรวมเข้าด้วยกันเป็นการประเมินสุดท้าย
  6. ผลการตรวจสอบสุดท้ายถูกส่งกลับไปยังนักพัฒนา AI พร้อมกับใบรับรองการตรวจสอบ—หลักฐานทางคริปโตของการประเมิน ใบรับรองนี้ถูกเก็บไว้ในบล็อกเชน เพื่อสร้างบันทึกการตรวจสอบที่สามารถยืนยันและป้องกันการปลอมแปลง

Mira รับรองความเป็นส่วนตัวของข้อมูลโดยการแบ่งข้อมูลนำเข้าเป็นชิ้นย่อย ๆ และรับรองว่าไม่มีโหนดเดียวที่สามารถเข้าถึงชุดข้อมูลทั้งหมด

เพื่อความปลอดภัยเพิ่มเติม มีรายสนับสนุนระดับความเป็นส่วนตัวที่เปลี่ยนไปได้ อนุญาตให้ผู้ใช้ปรับจำนวนชาร์ดตามความไว้วางใจของข้อมูล ระดับความเป็นส่วนตัวที่สูงกว่าต้องการการแบ่งแยกมากขึ้น (และต้องสูงขึ้นด้วย) แต่พวกเขาจะให้ความมั่นคงเพิ่มขึ้นสำหรับผู้ใช้ที่จัดการข้อมูลที่เป็นความลับ

ทุกการตรวจสอบที่โหนดทำ จะถูกบันทึกบนบล็อกเชน ทำให้เกิดบันทึกที่โปร่งใสและสามารถตรวจสอบได้ของกระบวนการตรวจสอบ สมุทโศนนที่ไม่สามารถบรรลุได้โดยวิธีการที่ไม่ใช่บล็อกเชน ที่ไม่สามารถเปลี่ยนแปลงได้ ทำให้มั่นใจและรับผิดชอบ

นี้ตั้งค่าเกณฑ์มาตรฐานใหม่สำหรับการยืนยัน AI ที่ปลอดภัยและไม่มีความเป็นฝ่ายลำดับ

การตรวจสอบให้แน่ใจว่าโหนดทำงานของพวกเขา

ในเครือข่ายที่ไมราที่มีลักษณะกระจาย, งานที่ซื่อสัตย์ได้รับรางวัล

ผู้เชี่ยวชาญสามารถใช้โมเดล AI ที่เชี่ยวชาญพิเศษผ่านซอฟต์แวร์โหนดและรับโทเค็นเป็นการยืนยันที่แม่นยำ นักพัฒนา AI จะจ่ายค่าธรรมเนียมต่อการยืนยัน ซึ่งสร้างรูปแบบเศรษฐกิจที่ยังอยู่ระหว่างอุปทานและความต้องการเองเอง

การแนวทางนี้เชื่อมสร้างค่าจริงจากการทำงานของ Web2 เข้าสู่นิเวศ Web3 โดยตรง โดยมีการให้ค่าตอบแทนผู้เข้าร่วมเช่นผู้ให้ข้อมูลอ้างอิงและผู้สร้างโมเดล

แต่สิ่งแรงจูงใจนั้นมาพร้อมกับความท้าทาย ในระบบที่ไม่ centralised ใด ๆ ผู้กระทำที่ไม่ดีจะพยายามใช้เครือข่ายเพื่อส่งผลลัพธ์ปลอมเพื่อหารางวัลโดยไม่ทำงาน

ดังนั้นเราจะทำอย่างไรเพื่อให้แน่ใจว่าโหนดทำงานอย่างถูกต้องและซื่อสัตย์จริงๆ

เพื่อรักษาความน่าเชื่อถือ Mira ใช้ Proof-of-Verification ซึ่งเป็นกลไกที่ได้รับแรงบันดาลใจจาก proof-of-work ของ Bitcoin แต่ออกแบบมาสำหรับ AI แทนที่จะขุดบล็อกโหนดจะต้องพิสูจน์ว่าพวกเขาได้ทำงานการตรวจสอบเพื่อเข้าร่วมกระบวนการตอบสนอง

นี่คือวิธีการทำงาน:

  • ความต้องการการฝากฝาก: ทุกโหนดต้องฝากโทเค็นเป็นความมุ่งมั่นทางเศรษฐกิจ หากโหนดส่งผลลัพธ์ไม่ถูกต้องซ้ำๆ โหนดนั้นจะถูกหักบางส่วนของการฝากเป็นโทษ เพื่อให้โหนดมีการลงทุนและเหตุผลในการกระทำอย่างซื่อตรง
  • โทษสำหรับงานปลอม: โหนดที่ส่งผลลัพธ์ปลอมๆ เช่น ข้ามการคำนวณหรือสร้างผลลัพธ์สุ่มๆ จะต้องเผชิญโทษ การตรวจจับการฉ้อโกงเกิดขึ้นเมื่อผลลัพธ์ของพวกเขาหันไปที่แตกต่างกันอย่างต่อเนื่องอย่างมากจากความเห็นร่วมกัน (กำหนดให้สมมุติว่าโหนดส่วนใหญ่เป็นซื่อสัตย์)

Proof-of-Verification สร้างระบบที่สมดุลเพื่อให้โหนดมีแรงจูงใจทางเศรษฐกิจในการดำเนินการตรวจสอบคุณภาพสูง กลไกนี้รับประกันว่าเครือข่ายจะยังคงมีความปลอดภัยและเชื่อถือได้ในระยะยาว

ความท้าทายและการตัดสินใจ

คำถามคือ: ถ้าวิธีการของมิรามีประสิทธิภาพมากเกินไปทำไมไม่มีใครทำ?

คำตอบอยู่ในการตัดสินใจและความซับซ้อนของการนำระบบเช่นนี้ไปปฏิบัติในโลกของความเป็นจริง การบรรลุสมดุลที่สมบูรณ์ระหว่างการประเมินที่รวดเร็วและแม่นยำ และการจัดการกับความซับซ้อนของแบบจำลองหลายรูปแบบไม่ใช่เรื่องที่ง่าย

หนึ่งในอุปสรรคที่ใหญ่ที่สุดของ Mira คือความล่าช้า ในขณะที่ใช้สมรรถนะของโมเดลเพื่อให้การยืนยันสามารถทำงานขนาน การซิงโครไนซ์ผลลัพธ์และการเรียกร้องข้อมูลนำเข้าความล่าช้าเข้ามา กระบวนการนี้เร็วเท่ากับโหนดที่ช้าที่สุดเท่านั้น

ปัจจุบันนี้ ทำให้ Mira เหมาะสำหรับการประมวลผลชุดของผลลัพธ์ AI - กรณีการใช้ที่ไม่ต้องการผลลัพธ์แบบเรียลไทม์ ซึ่งเป็นกรณีที่เครือข่ายเติบโตขึ้นมาพร้อมกับโหนดและการให้บริการคำนวณเพิ่มเติม จุดมุ่งหมายในระยะยาวคือการสามารถตรวจสอบแบบเรียลไทม์ได้ และขยายความสามารถในการใช้งานของ Mira ในช่วงเวลาที่กว้างขึ้น

นอกจากความล่าช้ายังมีความท้าทายอื่น ๆ รวมถึง:

ความซับซ้อนทางวิศวกรรม: การประสานการประเมินในหลายรูปแบบและการทําให้แน่ใจว่ากลไกฉันทามติทํางานได้อย่างราบรื่นต้องใช้ความพยายามทางวิศวกรรมอย่างมาก

ความต้องการทางคำนวณที่สูงขึ้น: แม้ว่าจะใช้โมเดลขนาดเล็ก ๆ กันแล้วก็ยังเพิ่มความต้องการทางคำนวณเมื่อทำงานร่วมกันในองค์ประกอบ

การออกแบบกลไกมตรฐานที่ดี: วิธีที่มีการบรรลุความเห็นร่วม - ผ่านการลงคะแนนโหวตส่วนใหญ่ การให้คะแนนน้ำหนัก หรือวิธีอื่น ๆ - เล่น peran บทบาทสำคัญในความเชื่อถือของระบบ ในกรณีที่ไม่แน่ชัด กลุ่มอุปกรณ์อาจต่อต้านการปรับ ทำให้มีผลลัพธ์ที่ไม่สอดคล้อง

การใช้งานและการใช้งานสำหรับ Mira

ต้นฉบับ: Mira

API ของ Mira สามารถผนวกรวมกับแอปพลิเคชันใดก็ได้โดยง่าย คล้ายกับ GPT-4o ของ OpenAI มันเป็นไม่ลับต่อผู้บริโภคและแอปพลิเคชันธุรกิจที่ที่ทำให้มันเป็นทางเลือกที่หลากหลายสำหรับกรณีการใช้งานต่าง ๆ ปัจจุบันมีแอปพลิเคชันกว่าโดยใช้โครงสร้างพื้นฐานของ Mira

Consumer Integrations

ในฝั่งผู้บริโภค Mira ได้เป็นแหล่งพลังขับเคลื่อนการตรวจสอบ AI สำหรับแอป AI ระดับเริ่มต้นหลายแอป

  • Creato: แอปพลิเคชันสำหรับค้นพบและแชร์คำคมและข้อความสถานะส่วนตัวที่บริการสำหรับผู้ใช้กว่า 120,000 คน
  • Astro247: แพลตฟอร์มที่ผู้ใช้สนทนากับนักโหราศาสตร์ AI สำหรับดวงชะตาและคำทำนายส่วนบุคคล
  • Amor: แอปพลิเคชันเพื่อเป็นเพื่อนที่เป็น AI ที่ช่วยให้ผู้ใช้สามารถสนทนากับตัวละคร AI จำลองเพื่อความสนุกสนาน
  • Klok: แชทจีพีที่ให้ความสนใจในสกุลเงินดิจิตอลโดย Mira ที่ตอบคำถามเกี่ยวกับสกุลเงินดิจิตอลโดยใช้ API เช่น CoinMarketCap และข้อมูลที่ได้จากการเก็บข้อมูลเว็บไซต์สกุลเงินดิจิตอลและสื่อข่าว

Delphi Oracle is the latest and perhaps most advanced integration. This AI-powered research assistant allows @Delphi_Digitalสมาชิกสามารถเข้าถึงเนื้อหาวิจัยโดยตรง ถามคำถาม ชี้แจงจุด รวมถึงการรวบรวมข้อมูลราคาและปรับเนื้อหาให้เหมาะสมกับระดับความซับซ้อนต่าง ๆ

Delphi Oracle ใช้เทคโนโลยีการยืนยันของ Mira Network เพื่อให้ได้คำตอบที่เชื่อถือได้และแม่นยำ โดยการยืนยันคำตอบที่เกิดขึ้นในรูปแบบหลายรูปแบบ Mira ลดอัตราการเกิดอาการตัวเป็นในร้อยละ ~30 ไปยังต่ำกว่า 5 เพื่อให้มั่นใจในความน่าเชื่อถือที่แข็งแกร่ง

ที่แกนกลางของ Delphi Oracle เป็นตัวเราเตอร์คิวรี่ที่มีประสิทธิภาพสูง

  • การสอบถามราคา: ส่งตรงไปยังจุดปลายทางข้อมูลตลาดเพื่อให้ได้คำตอบทันทีใกล้เคียง
  • คำถามพื้นฐาน: จัดการโดยระบบการตอบสนองแคช ที่สมดุลระหว่างความเร็วและความคุ้มค่า
  • การสอบถามที่ซับซ้อน: ส่งต่อไปยังกระบวนการประมวลผล LLM ที่เชี่ยวชาญซึ่งสามารถสังเคราะห์ข้อมูลจากแหล่งที่มาหลายแห่งได้

ระบบการเชื่อมต่ออัจฉริยะนี้ ร่วมกับการเก็บข้อมูลอย่างฉลาด จะทำให้การทำงานเป็นไปอย่างมีประสิทธิภาพโดยการสมดุลความหน่วงเวลา ค่าใช้จ่าย และคุณภาพ

การทดสอบของมีราพบว่ารุ่นที่เล็กและมีราคาที่มีประสิทธิภาพสามารถจัดการคำถามส่วนใหญ่เกือบเท่ากับรุ่นที่ใหญ่ขึ้น นี้ส่งผลให้ต้นทุนดำเนินการลดลงถึง 90% โดยยังคงรักษาคุณภาพการตอบสนองที่มีคุณภาพสูงที่ผู้ใช้คาดหวัง

ถึงแม้ว่าแอปพลิเคชันบางส่วนในกลุ่มผู้บริโภคเหล่านี้จะยังอยู่ในช่วงเริ่มต้น แต่พวกเขาย้ำให้เห็นถึงความสามารถของ Mira ในการผสมผสานอย่างราบรื่นและสนับสนุนฐานผู้ใช้ที่ใหญ่และที่ใช้งานอย่างต่อเนื่อง ไม่ยากที่จะนึกภาพถึงพันแอปพลิเคชันที่เชื่อมต่อกับระบบนิเวศของ Mira - หากประสบการณ์นักพัฒนายังคงเป็นเรื่องง่ายและข้อเสนอมูลค่ายังคงชัดเจน

แอปพลิเคชั่น B2B

ในด้านธุรกิจระหว่างองค์กร (B2B) Mira กำลังเน้นการรวมระบบที่เชี่ยวชาญในอุตสาหกรรมที่ความเชื่อถือและความแม่นยำเป็นสิ่งสำคัญ โดยเน้นเริ่มต้นที่ด้านสุขภาพและการศึกษา

แอปพลิเคชันหลักประกอบด้วย:

  • สุขภาพ: ผู้ช่วย AI ที่ให้คำปรึกษาที่เชื่อถือได้และสนับสนุนแพทย์ในการตัดสินใจที่สำคัญ
  • การศึกษา: ผู้ช่วยการเรียนรู้ที่ปรับตัวให้เหมาะสมกับความต้องการของนักเรียนแต่ละคน พร้อมทั้งรักษาความถูกต้องตามข้อมูลและประสิทธิภาพการจัดหลักสูตร
  • บริการทางกฎหมาย: ระบบที่สามารถสรุปคำพิพากษาและทำนายผลการพิจารณาในด้านกฎหมายได้อย่างแม่นยำเพื่อเพิ่มประสิทธิภาพในกระบวนการทางกฎหมาย

เกมสุดท้ายของมีรา

เป้าหมายสูงสุดของ Mira คือการนําเสนอรุ่นที่ได้รับการยืนยันโดยกําเนิด ซึ่งผู้ใช้เพียงแค่เชื่อมต่อผ่าน API เช่นเดียวกับ OpenAI หรือ Anthropic และรับเอาต์พุตที่ได้รับการยืนยันล่วงหน้าก่อนที่จะส่งคืน

พวกเขามีเป้าหมายที่จะแทนที่ API รุ่นเดิมโดยการ提供เวอร์ชันที่เชื่อถือได้มากขึ้นของโมเดลที่มีอยู่ (เช่น Mira-Claude-3.5-Sonnet หรือ Mira-OpenAI-GPT-4o) ที่ปรับปรุงด้วยความเชื่อมั่นตามหลักองค์ประกัน.

ขนาดตลาด

Generative AI กำลังเดินทางด้วยยานอวกาศ ตามข้อมูลBloombergตลาดคาดว่าจะเติบโตอย่างต่อเนื่องที่อัตราเฉลี่ยปีละ 42% โดยรายได้เกิน 1 ล้านล้านดอลลาร์ภายในปี 2030 ในความหลากหลายของความเร็วความแม่นยำและความเชื่อถือของกระบวนการทำงานที่ใช้ AI จะเป็นสิ่งที่สำคัญในการจับตาชะล่าให้ได้อย่างที่สำคัญ

เนื่องจากองค์กรมากขึ้นกำลังรวม LLM เข้าสู่กระบวนการทำงานของพวกเขา - ตั้งแต่แชทบอทสนับสนุนลูกค้าไปจนถึงผู้ช่วยในการวิจัยที่ซับซ้อน - ความต้องการในการยืนยันโมเดลที่แข็งแกร่งก็เพิ่มมากขึ้น

องค์กรจะมองหาเครื่องมือที่ (1) สามารถวัดความแม่นยำและความเชื่อถือได้, (2) วินิจฉัยประสิทธิภาพและพารามิเตอร์ที่ไม่เป็นประโยชน์, (3) ติดตามประสิทธิภาพและการเปลี่ยนแปลงอย่างต่อเนื่อง, และ (4) ให้ความชำนาญที่เกี่ยวกับการปฏิบัติตามกรอบกฎหมายที่เกิดขึ้นเกี่ยวกับความปลอดภัยของ AI

เป็นความรู้สึกที่คุ้นเคยหรือเปล่า? เป็นหนังสือเล่มเดียวกับ MLOps (ย่อมาจาก Machine Learning Operations) ที่เราเคยเห็นกันมาก่อน ภายในปี 2010s เมื่อการเรียนรู้เครื่องจักรขยายตัว การใช้เครื่องมือสำหรับการติดตั้ง ติดตาม และบำรุงรักษาโมเดลกลายเป็นสิ่งสำคัญ เป็นตลาดมูลค่าหลายพันล้านดอลลาร์ เมื่อมีการเพิ่มขึ้นของ AI ที่สามารถสร้างสรรค์ได้ LLMOps กำลังเดินตามเส้นทางเดียวกัน

การเข้าถึงแม้เพียงเพียงส่วนเล็กน้อยของตลาดทรัพย์ล้านล้านดอลลาร์อาจทำให้ตลาดย่อยนี้เติบโตเป็น 100 พันล้านเหรียญขึ้นไปโดย 2030

บริษัท Startup ที่ใช้เทคโนโลยี Web2 หลายรายได้เริ่มตั้งตำแหน่งเองแล้ว โดยมีเครื่องมือให้ทำป้ายกำกับข้อมูล ปรับปรุงโมเดล และประเมินผลการปฏิบัติงานอย่างละเอียด

• Braintrust (เรียกเงิน 36 ล้านเหรียญ)

• Vellum AI ($5M raised)

• Humanloop (ระดมทุน $2.8 ล้าน)

ผู้เคลื่อนไหวตั้งแต่แรกเริ่มกำลังเตรียมพื้นฐาน แต่พื้นที่นี้เป็นหุ่นเหล็ก ในปี 2025 เราอาจเห็นการเพิ่มขึ้นของ สตาร์ทอัพในกลุ่มนี้ บางส่วนอาจเชี่ยวชาญในตัวชี้วัดการประเมินที่เฉพาะเจาะจง (เช่นการตรวจสอบความเอียงของข้อมูลและการทดสอบความทนทาน) ในขณะที่อื่นๆ กว้างขวางขึ้นเพื่อครอบคลุมวงจรชีวิตการพัฒนา AI ทั้งหมด

บริษัทเจ้าของเทคโนโลยีใหญ่ ๆ เช่นผู้ให้บริการคลาวด์และแพลตฟอร์ม AI ชั้นนำอาจจะรวมคุณสมบัติการประเมินในการเสนอของพวกเขา ในเดือนที่ผ่านมา,OpenAIGate ที่จะอยู่ในการแข่งขัน สตาร์ทอัพจะต้องแตกต่างกันผ่านความเชี่ยวชาญ ความง่ายในการใช้งาน และการวิเคราะห์ที่ล้ำสมัย

Mira ไม่ได้เป็นคู่แข่งโดยตรงกับสตาร์ทอัพหรือผู้เข้าร่วมที่มีอยู่แล้ว แต่เป็นผู้ให้บริการโครงสร้างพื้นฐานที่รวมกันอย่างราบรื่นกับทั้งสองผ่าน API คืออะไร? มันเพียงแค่ต้องทำงาน

ขนาดตลาดเริ่มต้นของ Mira ติดต่อกับ LLMOps แต่ตลาดที่สามารถเข้าถึงได้ทั้งหมดจะขยายออกไปที่ AI ทั้งหมดเพราะทุกๆ แอปพลิเคชัน AI จะต้องการเอาต์พุทที่เชื่อถือได้มากขึ้น

จากมุมมองทฤษฎีเกม มีราต้องเผชิญกับสถานการณ์ที่เป็นพิเศษ ไม่เหมือนผู้ให้บริการโมเดลอื่น ๆ เช่น OpenAI ที่ถูกล็อคในการสนับสนุนระบบของตนเอง Mira สามารถรวมระหว่างโมเดลได้ ซึ่งทำให้ Mira เป็นชั้นความไว้วางใจสำหรับ AI โดยมีความเชื่อถือได้ที่ไม่มีผู้ให้บริการใด ๆ สามารถเทียบเท่า

แผนงานปี 2025

โครงการถนนเส้นทาง 2025 ของ Mira เป้าหมายที่จะสมดุลความสมัครสมาชิกของความสุขและการมีส่วนร่วมของชุมชนในการเดินทางของมันสู่การกระจายอำนาจอย่างเต็มรูปแบบ

เฟส 1: การสร้างความเชื่อมั่นในตัวเอง (ที่เราอยู่ในขณะนี้)

ในช่วงต้น ผู้ดำเนินการโหนดที่ได้รับการตรวจสอบรับรองรักษาความเชื่อถือในเครือข่าย ผู้ให้บริการคอมพิวเตอร์ GPU ที่มีชื่อเสียงเป็นผู้ดำเนินการครั้งแรก จัดการดำเนินการเริ่มต้นและสร้างพื้นฐานที่แข็งแกร่งสำหรับการเติบโต

เฟส 2: การกระจายอำนาจแบบก้าวหน้า

Mira นำเสนอการทำซ้ำที่ออกแบบมาอย่างดี โดยที่มีหลายตัวอย่างของโมเดลผู้ตรวจสอบเดียวกันทำงานกับแต่ละคำขอ ซึ่งการนี้จะทำให้ต้นทุนการตรวจสอบเพิ่มขึ้น แต่ก็เป็นสิ่งสำคัญสำหรับการระบุและกำจัดตัวดำเนินการที่เลวร้าย โดยการเปรียบเทียบผลลัพธ์ที่ได้จากทุกๆ โหนด ผู้กระทำที่ไม่ดีจะถูกจับได้เร็วๆ นี้

ในรูปแบบที่เป็นสุดของมิรา จะใช้การแบ่งชาร์ดแบบสุ่มเพื่อกระจายงานการยืนยัน ซึ่งทำให้การก่อการร้ายทางเศรษฐกิจไม่เป็นไปตามที่คาดหวังและเสริมความแข็งแกร่งของเครือข่ายและความปลอดภัยเมื่อมีการขยายตัว

ระยะที่ 3: โมเดลพื้นฐานสังเคราะห์

ที่นี่มีราจะเสนอการสร้างรุ่นที่ได้รับการยืนยันอย่างเชี่ยวชาญแบบธรรมชาติ ผู้ใช้จะเชื่อมต่อผ่าน API คล้ายกับ OpenAI หรือ Anthropic และจะได้รับผลลัพธ์ที่ได้รับการยืนยันล่วงหน้า - ผลลัพธ์ที่เชื่อถือได้และพร้อมใช้งานโดยไม่ต้องมีการตรวจสอบเพิ่มเติม

ในเดือนที่กำลังจะมาถึง Mira กำลังเตรียมพร้อมสำหรับเหตุการณ์สำคัญหลายรายการ:

  • เปิดตัว Mira Flows ผลิตภัณฑ์ไอเอไอที่ให้นักพัฒนาสร้างแอปไอเอพีที่ขับเคลื่อนด้วย API ได้อย่างรวดเร็ว
  • เทสเน็ตสาธารณะในเดือนมกราคม
  • การเปิดตัวโทเค็นก็อยู่ในขอบเขตทางการเงินเช่นเดียวกับเป้าหมายในไตรมาส 1 ปี 2024

🌈 โปรแกรมผู้มอบหมายโหนด

Mira กำลังขยายโอกาสในการมีส่วนร่วมของชุมชนผ่านโปรแกรมผู้ลงทุนโหนด. กิจกรรมนี้ทำให้การสนับสนุนเครือข่ายเป็นเรื่องที่สามารถเข้าถึงได้สำหรับทุกคน - ไม่จำเป็นต้องมีความเชี่ยวชาญทางเทคนิค

กระบวนการนี้ง่าย: คุณสามารถเช่าทรัพยากรการประมวลผลและมอบหมายให้กับกลุ่มตัวดําเนินการโหนดที่คัดสรรมาอย่างดี การมีส่วนร่วมอาจมีตั้งแต่ $ 35 ถึง $ 750 และมีการเสนอรางวัลสําหรับการสนับสนุนเครือข่าย Mira จัดการโครงสร้างพื้นฐานที่ซับซ้อนทั้งหมดเพื่อให้ผู้รับมอบสิทธิ์โหนดสามารถนั่งลงดูเครือข่ายเติบโตและจับกลับหัวกลับหางได้

ทีม

วันนี้ Mira มีทีมเล็ก ๆ แต่แน่นหนาซึ่งส่วนใหญ่เน้นด้านวิศวกรรม

มีผู้ร่วมก่อตั้ง 3 คน:

  1. @karansirdesai (CEO), ที่เคยอยู่ในทีมลงทุนใน Crypto & AI ที่ Accel และให้คำปรึกษาที่ BCG
  2. Sid Doddipalli (CTO) เป็นนักศึกษาศิลปะจาก IIT Madras และเคยเป็นผู้ร่วมก่อตั้งที่ Stader Labs, แพลตฟอร์มการจ่ายเหลือที่ Ethereum กับ TVL มากกว่า $400 ล้าน
  3. Ninad Naik (Chief Product Officer) ดํารงตําแหน่งผู้นําในตําแหน่งผู้อํานวยการฝ่ายการจัดการผลิตภัณฑ์ที่ Uber และในฐานะผู้จัดการทั่วไปที่แผนก Smart Home ของ Amazon

พวกเขาร่วมกันเชื่อมต่อความชำนาญในการลงทุน, นวัตกรรมทางเทคนิค, และผู้นำผลิตภัณฑ์เพื่อวิสัยทัศน์ของ Mira ในการตรวจสอบ AI แบบกระจาย Mira ได้ระดมทุนรวม 9 ล้านดอลลาร์ รอบเมล็ดในเดือนกรกฎาคม 2024 โดยนำโดย BITKRAFT และ Framework Ventures

ความคิดของเรา

เป็นสดชื่นที่ได้เห็นทีม Crypto AI ที่มุ่งมั่นที่จะแก้ปัญหาพื้นฐานของ AI ใน Web2 ให้ดียิ่งขึ้น แทนที่จะเล่นเกมสเปกุเลทีฟในภาวะฟองสบู่ของ crypto

  1. การยืนยันจะเป็นคำฮอตของ AI ในปี 2025

อุตสาหกรรมได้เริ่มต้นตื่นตระหนกถึงความสำคัญของการยืนยันตัวตน การพึ่งพากับ "ความรู้สึก" ไม่เพียงพออีกต่อไป แอปพลิเคชันและกระบวนการทางปัญญาประดิษฐ์ทุกอย่างจะต้องมีกระบวนการยืนยันตัวตนที่เหมาะสมเร็ว ๆ นี้ และสมควรจะมีกฎหมายใหม่ที่ต้องการกระบวนการเหล่านี้เพื่อให้รองรับความปลอดภัยได้

วิธีการของมิราใช้โมเดลหลายรูปแบบเพื่อตรวจสอบผลลัพธ์อย่างอิสระ โดยไม่พึ่งพาโมเดลกลางเดียว โครงสร้างที่กระจายออกไปนี้เสริมสร้างความเชื่อถือและลดความเสี่ยงของสิ่งที่เสียหายและการจัดการ

และลองพิจารณาว่าจะเกิดอะไรขึ้นถ้าเราไปถึง AGI ในอีกไม่กี่ปีข้างหน้า (ความเป็นไปได้ที่แท้จริง)

เป็นAnand Iyer (@AIจากจุดย่อยๆ ที่ Canonical ได้เน้นไว้ หาก AI สามารถควบคุมการตัดสินใจและรหัสโดยลับ ๆ ได้ จะมีวิธีใดที่เราจะไว้วางใจระบบการทดสอบเพื่อตรวจสอบพฤติกรรมเหล่านี้? ผู้เชี่ยวชาญอย่างเช่นเขากำลังคิดไปข้างหน้าการวิจัยของ Anthropicเน้นความเร่งด่วน โดยเน้นการประเมินเป็นเครื่องมือที่สำคัญในการระบุความสามารถของ AI ที่อาจเป็นอันตรายก่อนที่จะเป็นปัญหา

โดยเปิดใช้ความโปร่งใสอย่างสิ้นเชิง เทคโนโลยีบล็อกเชนเพิ่มชั้นความปลอดภัยที่มีประสิทธิภาพในการป้องกันระบบ AI ที่ซ้อนร้ายได้ ระบบการตกลงที่ไม่ต้องการความเชื่อมั่นในสิ่งที่สำคัญให้แน่ใจว่าการประเมินความปลอดภัยได้รับการยืนยันโดยหลายพันโหนดที่อิสระ (เช่น Mira) ลดความเสี่ยงของการโจมตี Sybil อย่างมาก

  1. วิสัยทัศน์ที่ทะเยอทะยานพร้อมความเสี่ยงในการดําเนินการ

Mira กำลังจับตลาดขนาดใหญ่ที่มีความต้องการชัดเจนสำหรับการแก้ปัญหาที่ดี แต่ท้ายสุดแล้วยังมีความท้าทาย การปรับปรุงความล่าช้า ความแม่นยำ และความประสบความสำเร็จทางด้านต้นทุนจะต้องใช้ความพยายามในการพัฒนาและเวลาอย่างไม่รู้ลักษณะ ทีมต้องสามารถแสดงให้เห็นได้เสมอว่าวิธีการของพวกเขาดีกว่าทางเลือกที่มีอยู่ในปัจจุบัน

นวัตกรรมหลักอยู่ในกระบวนการทำให้ Mira เป็นระบบไบนารีและชาร์ด ส่วน "น้ำจิ้ม" นี้มีความสัญคลักษณ์ว่าจะช่วยแก้ปัญหาความสามารถในการขยายของ Mira และความเชื่อถือ ในการเป็นผู้ประสบความสำเร็จ Mira จำเป็นต้องส่งมอบเทคโนโลยีนี้ตามสัญญา

  1. การออกแบบโทเค็นและสูตรลับของมิรา

ในเครือข่ายที่ไม่เน้นกลายเป็นพารามิเตอร์สำคัญในการเป็นผู้สร้างแรงจูงใจและการออกแบบโทเค็น ความสำเร็จของ Mira จะขึ้นอยู่กับความสามารถในการจัดให้กลไกเหล่านี้สอดคล้องกับความสนใจของผู้เข้าร่วมในขณะที่รักษาความรู้สึกของเครือข่าย

ในขณะที่รายละเอียดเกี่ยวกับโทเคนอะโรมาของมีรายังคงเป็นความลับ ฉันคาดว่าทีมจะเปิดเผยข้อมูลเพิ่มเติมเมื่อเข้าสู่การเปิดตัวโทเคนในต้นปี 2025

อนาคตที่สดใส

"เราพบว่าทีมวิศวกรที่ใช้การประเมินที่ยอดเยี่ยมจะเคลื่อนที่เร็วขึ้นอย่างมาก – เร็วกว่าถึง 10 เท่า – มากกว่าทีมที่เพิ่งดูสิ่งที่เกิดขึ้นในการผลิตและพยายามแก้ไขเฉพาะกิจ" - Ankur Goyal, Braintrust

ในโลกที่ขับเคลื่อนด้วย AI ความไว้ใจคือสิ่งที่สำคัญที่สุด

เมื่อโมเดลเริ่มซับซ้อนขึ้น เราจะต้องมีการตรวจสอบที่เชื่อถือได้เพื่อสนับสนุนผลิตภัณฑ์ AI ที่ยอดเยี่ยมทุกอย่าง การตรวจสอบเหล่านี้ช่วยให้เราสามารถจัดการกับภาวะเซ็งซ่าน กำจัดความลำเอียง และให้แน่ใจว่าผลลัพธ์ของ AI สอดคล้องกับความต้องการจริงของผู้ใช้

Mira อัตโนมัติการตรวจสอบ เพื่อลดต้นทุนและการพึ่งพาต่อการแทรกแซงของมนุษย์ ซึ่งทำให้เกิดการทดลองอย่างรวดเร็ว การปรับปรุงแบบเรียลไทม์ และการให้คำแนะนำที่มีขนาดใหญ่โดยไม่มีขั้นตอนที่มีปัญหา

เอ็มไอร์เร็วๆ นี้มีเป้าหมายที่จะเป็น API สำหรับความเชื่อถือ - เชื่อมโยงการยืนยันแบบกระจายที่นักพัฒนา AI และแอปพลิเคชันทุกๆ คนสามารถพึ่งพาได้สำหรับคำตอบที่ได้รับการยืนยัน

มันกล้าหาญ หรือดุเดือดและเป็นเหมือนที่โลก AI ต้องการ

ขอบคุณที่อ่าน, Teng Yan

ข้อความปฏิเสธความรับผิดชอบ:

  1. บทความนี้ถูกนำเข้ามาจาก [ Teng Yan]. ส่งต่อชื่อต้นฉบับ: Mira: Trustless Verified AI ลิขสิทธิ์ทั้งหมดเป็นของผู้เขียนต้นฉบับ [Teng Yan]. If there are objections to this reprint, please contact the เกตเรียนทีม และพวกเขาจะดำเนินการโดยเร็ว
  2. คำประกาศความรับผิด: มุมมองและความคิดเห็นที่แสดงในบทความนี้เป็นเพียงของผู้เขียนเท่านั้น และไม่เป็นคำแนะนำในการลงทุนใด ๆ
  3. การแปลบทความเป็นภาษาอื่นๆ ถูกดำเนินการโดยทีม Gate Learn หากไม่ได้กล่าวถึง การคัดลอก การกระจายหรือการลอกเลียนแบบบทความที่ถูกแปลนั้นถูกห้าม
Розпочати зараз
Зареєструйтеся та отримайте ваучер на
$100
!