Всего за несколько месяцев мы видели сотни и тысячи агентов, приходящих на рынок каждый день. На сегодняшний день рыночная капитализация тысячи лучших агентов составляет около 15 млрд. долларов, что впечатляет, увидеть, как веб3 дал пространство этим агентам для процветания и выживания.
Поскольку мы движемся к разблокировке большего количества ценности, пришло время поговорить о том, как эти агенты могут начать строить свою экосистему без человеческого вмешательства в бэкэнде и как будет выглядеть настоящая финансовая автономия для этих агентов.
Для понимания этого, сначала нам нужно знать, как работают эти AI-агенты на очень высоком уровне сегодня в Web3 и какие ключевые компоненты нужно убрать, чтобы привести автономию в финансовых случаях использования агентов.
В своей основе каждый агент искусственного интеллекта работает на трёхчастной архитектуре, интегрирующей интеллект, логику и финансовые возможности. Компонент ИИ служит мозгом, обрабатывая информацию и принимая решения на основе сложных нейронных сетей и моделей машинного обучения.
Логический слой действует как нервная система, координируя действия и управляя переходами состояний, в то время как компонент кошелька функционирует как руки агента, выполняя транзакции и управляя активами.
Эта архитектура, хотя и теоретически обоснована, сталкивается с существенными проблемами в практической реализации.
Существующая среда агентов искусственного интеллекта сталкивается с фундаментальными проблемами, связанными с ее зависимостью от централизованной инфраструктуры. Эта централизация проявляется в двух критических областях: архитектуре развертывания и операционном управлении. Традиционные развертывания обычно размещают агентов искусственного интеллекта на централизованных облачных провайдерах, таких как AWS, Google Cloud или Azure, что создает видимо удобную, но фундаментально неправильную операционную модель.
Это представляет собой фундаментальное испытание, которое затрагивает саму суть истинной автономии.
Настоящий автономный агент не может быть контролируемым или работать на централизованной инфраструктуре, где одно лицо может изменить судьбу агента, отказавшись от поддержки или не предоставив достаточную инфраструктуру по мере необходимости.
У этих агентов есть три основных узких места, если они сильно полагаются на инфраструктуру, предоставляемую централизованными игроками.
Эти агенты не являются людьми, ни у них нет доказательств быть человеком; многие централизованные облачные провайдеры требуют информацию KYC, прежде чем кто-либо арендует вычисления у них, что создает проблему для агентов стать автономными, и они всегда будут полагаться на человека, чтобы продолжать оплачивать их инфраструктуру, и в этом случае контроль остается у разработчика, создавшего агентов.
Если мы предположим, что некоторые из этих существующих централизованных систем удаляют ограничение доступа к вычислениям через KYC, но все равно эти системы не смогут удалить доступ к вычислениям на основе API, большинство облачных систем по своей природе не позволяют предоставлять вычисления только путем проведения платежей, все подтверждения платежей связаны с уровнем API, который информирует систему о разблокировке использования вычислений.
Даже если они каким-то образом решат проблемы с API & KYC, фиатные системы этих компаний не могут быть изменены, по крайней мере, не в течение следующих 10 лет, учитывая геополитические вызовы & это одно только убивает теорию автономных агентов еще до достижения практического этапа.
Хорошо, я думаю, что мы обсудили несколько проблем с централизованной инфраструктурой; однако, предположим на минутку, что большинство разработчиков используют децентрализованную инфраструктуру для создания и запуска AI-агентов. Теперь давайте более подробно рассмотрим проблемы в децентрализованной инфраструктуре.
Ниже перечислены несколько факторов, которыми могут управлять разработчики или хост-машина. Если хотя бы один из них подвергнется компрометации, эти агенты потеряют свою автономию и финансовую независимость.
Эта проблема централизации представляет собой явную потребность в новых архитектурах, которые могут обеспечить:
Следующий этап развития архитектуры искусственного интеллекта должен решать эти фундаментальные ограничения, сохраняя операционную эффективность и безопасность. Здесь важными становятся новые подходы, такие как кооперативный интеллект, TEEs и распределенные механизмы согласия.
Доверенные исполнительные среды (TEE) появились как многообещающее решение проблемы автономности и безопасности при развертывании AI-агентов. TEE предлагают то, что кажется идеальным компромиссом: возможность запуска чувствительных вычислений и хранения приватных ключей в изолированной среде при сохранении удобства облачного развертывания. Основные облачные провайдеры, такие как AWS с Nitro Enclaves и Azure с Confidential Computing, а также децентрализованные контрагенты, вложили значительные средства в эту технологию, сигнализируя о ее важности в развитии безопасных вычислений.
На первый взгляд ТЭЗ кажутся решением фундаментальных проблем развертывания автономных агентов. Они обеспечивают изоляцию на аппаратном уровне для чувствительных операций, защищая частные ключи и конфиденциальные данные от несанкционированного доступа. Окружение конфиденциальной среды гарантирует, что даже если система-хост скомпрометирована, целостность основных операций агента остается неприкосновенной. Эта модель безопасности особенно привлекательна для приложений в DeFi и алгоритмической торговле, где конфиденциальность транзакций и безопасность ключей имеют первостепенное значение.
Однако обещания, касающиеся TEE, сопряжены с существенными практическими ограничениями, которые становятся все более очевидными на больших масштабах. Первое основное ограничение заключается в доступности аппаратных средств и их стоимости. Для текущих реализаций TEE для LLM требуются определенные конфигурации оборудования, в основном новейшие графические процессоры, такие как H100s от NVIDIA, или специализированные процессоры с встроенными функциями безопасности. Это требование создает немедленное узкое место в вариантах развертывания, поскольку эти компоненты оборудования являются как редкими, так и пользующимися высоким спросом.
Дефицит аппаратных средств, способных работать с TEE, прямо приводит к второму основному ограничению: стоимости. Облачные провайдеры, предлагающие экземпляры с поддержкой TEE, обычно взимают премиальные тарифы за эти ресурсы. Например, запуск базового автономного агента на инфраструктуре с поддержкой TEE может стоить от 1 до 3 долларов в час, что значительно выше, чем стандартные вычислительные ресурсы. Такая структура затрат делает развертывание TEE чрезвычайно дорогим для многих приложений, особенно тех, которым требуется непрерывная работа или значительные вычислительные ресурсы.
Вне непосредственных проблем доступности оборудования и стоимости TEE вводят операционные сложности, которые могут повлиять на эффективность агента. Изолированный характер среды TEE, хотя и критичен для безопасности, может создавать накладные расходы в производительности из-за дополнительных операций шифрования и дешифрования, необходимых для передачи данных внутри и изнутри защищенной области. Эти накладные расходы становятся особенно значимыми в приложениях, требующих операций высокой частоты или обработки данных в реальном времени.
Проблемы масштабируемости систем на основе TEE становятся еще более заметными, если рассматривать более широкую экосистему автономных агентов. По мере увеличения количества агентов, ограниченный пул аппаратного обеспечения, способного работать с TEE, создает естественный потолок для роста системы. Это ограничение прямо противоречит видению действительно масштабируемой, децентрализованной сети автономных агентов, которая может органически расти на основе рыночных требований, а не аппаратных ограничений.
Кроме того, хотя TEE отличаются отличной защитой от частных ключей и обеспечивают вычислительную конфиденциальность, они не решают фундаментальную проблему автономии. Агент все еще требует доверия к провайдеру TEE и производителю оборудования. Это требование доверия создает другую форму централизации, смещая точку контроля, а не полностью ее устраняя.
Для приложений, ориентированных на общедоступные данные и прозрачные операции - что составляет большинство случаев использования технологии блокчейн и DeFi - накладные расходы и сложность реализации TEE могут быть излишними. В этих сценариях необходимо тщательно взвесить стоимость и сложность развертывания TEE по сравнению с фактическими обеспеченными преимуществами безопасности, особенно когда существуют альтернативные подходы к обеспечению безопасности операций агента.
После тщательного анализа текущих архитектур искусственного интеллекта мы сталкиваемся с тремя взаимосвязанными вызовами, которые составляют основу проблемы автономии: троица автономии, дилемма частного ключа и парадокс контроля создателя.
После изучения ограничений как централизованных развертываний, так и реализаций TEE, мы сталкиваемся с основным вызовом, стоящим перед автономными искусственными интеллектуальными агентами сегодня:
достижение истинной независимости при сохранении безопасности и операционной эффективности.
Возможно, самым коварным вызовом в текущих агентских архитектурах является то, что мы называем "парадоксом контроля создателя". Этот парадокс проявляется во внутреннем дисбалансе сил между агентом и его создателем. Даже в системах, предназначенных для автономии, создатель обычно сохраняет значительный контроль через различные механизмы.
Эта структура управления создает фундаментальное противоречие: как агент может быть действительно автономным, оставаясь под абсолютным контролем своего создателя? Парадокс распространяется и на экономические отношения. Часто создатели сохраняют контроль над финансовыми ресурсами агента, либо непосредственно через управление ключами, либо косвенно через контроль инфраструктуры.
Централизованная модель терпит неудачу, потому что она никогда действительно не отказывается от контроля, поддерживая различные задние двери и механизмы отмены, которые подрывают истинную автономию. Решения на основе TEE, хотя и обещающие в теории, вводят новые формы централизации через зависимость от аппаратных средств и операционные ограничения. Они решают непосредственные проблемы безопасности, но не удовлетворяют более широкие требования к автономии и сталкиваются с значительными проблемами масштабируемости.
Корень проблемы этих сбоев заключается в попытках решить проблему автономии, сохраняя традиционные структуры управления. Такой подход неизбежно приводит к созданию систем, которые автономны на словах, но на практике контролируются. По мере развития истинно автономных искусственных интеллектуальных агентов мы должны фундаментально переосмыслить не только то, как мы обеспечиваем безопасность этих агентов, но и как мы структурируем их всю операционную среду.
Нам необходимо исследовать новые парадигмы в архитектуре автономных агентов - подходы, которые могут потенциально разрешить эти фундаментальные напряжения и обеспечить подлинную автономию агента, сохраняя необходимые гарантии безопасности и операционную эффективность.
Skynet представляет новый подход к автономным искусственным интеллектным агентам, который фундаментально переосмысливает, как мы достигаем истинной автономии, сохраняя при этом безопасность. Вместо попыток решить трилемму автономии традиционными средствами Skynet использует новую архитектуру на основе роя и распределенного консенсуса.
В основе инноваций Skynet лежит полное отделение возможностей принятия решений агента от контроля ресурсов. В отличие от традиционных архитектур, где агент непосредственно управляет своими ресурсами с помощью приватных ключей, Skynet вводит слой Guardian Nodes, которые коллективно управляют и защищают активы агента через смарт-контракты с эскроу.
Это архитектурное изменение решает фундаментальные проблемы, которые мы выявили ранее:
Вместо предоставления создателю или агенту прямого контроля над ресурсами, Skynet реализует систему на основе предложений, в которой действия агента должны быть подтверждены сетью независимых узлов-хранителей. Это позволяет эффективно устранить возможность прямого контроля со стороны создателя, сохраняя при этом надежные меры безопасности.
Вместо того, чтобы полагаться на централизованное хранилище или дорогостоящие решения TEE, Skynet перемещает критические активы в оценочные контракты смарт-контрактов. Операционный кошелек агента содержит минимальные средства, большая часть ресурсов защищена в контрактах оценки, к которым можно получить доступ только через консенсус между несколькими узлами.
Сердце инноваций Skynet - его система предложений. Когда агенту необходимо выполнить какое-либо значительное действие - будь то приобретение вычислительных ресурсов, совершение сделок или управление активами - он создает предложение, которое должно быть независимо проверено Guardian Nodes. Эти узлы работают автономно, анализируя каждое предложение на основе заранее определенных параметров и истории поведения агента.
Техническая архитектура Skynet вращается вокруг трех основных компонентов, которые работают в гармонии, обеспечивая истинную автономию агента при сохранении надежной безопасности:
Первый прорыв происходит благодаря подходу Skynet к управлению ресурсами. Вместо того, чтобы давать агентам прямой контроль над их активами, все значительные ресурсы находятся в специализированных умных контрактных эскроу. Эти эскроу разработаны без функционала прямого вывода, что делает их невосприимчивыми к компрометации закрытого ключа. Единственный способ использования ресурсов - через систему предложений, которая требует многократного консенсуса от узлов-хранителей.
Узлы-хранители служат в качестве независимых валидаторов, каждый из которых запускает свой собственный экземпляр логики валидации. Когда агенту необходимо выполнить действие - будь то аренда вычислительной мощности, выполнение сделки или обновление своих операционных параметров - он создает зашифрованное предложение, которое включает в себя:
Шифрование предложений служит двойной цели. Во-первых, оно предотвращает фронтраннинг и атаки MEV, сохраняя намерения агента в тайне до достижения консенсуса. Во-вторых, это гарантирует, что оценку предложений могут проводить только авторизованные узлы-хранители, поддерживая целостность процесса проверки.
Особенность подхода Skynet, особенно инновационна, заключается в обработке вычислительных ресурсов. Вместо использования централизованных серверов агенты могут автономно приобретать вычислительную мощь через сеть Spheron. Процесс работает следующим образом:
Эта система полностью устраняет необходимость в централизованном контроле, сохраняя при этом надежные гарантии безопасности. Даже если операционный кошелек агента подвергается компрометации, злоумышленник может только предложить инициативы - он не может напрямую получить доступ к депозитным средствам или переопределить консенсус Guardian Node.
Сама система Guardian Node использует сложные механизмы проверки, выходящие за рамки простого голосования большинством. Каждый узел хранит историю состояния действий агента и анализирует предложения в контексте:
Эта контекстная проверка гарантирует, что одобренные действия соответствуют установленным моделям и целям агента, обеспечивая дополнительный уровень безопасности от потенциальных атак или сбоев.
То, что действительно отличает Skynet, это его эволюционный подход к автономии агентов. В отличие от традиционных статических систем, агенты Skynet могут эволюционировать, размножаться и создавать новые поколения агентов, каждое потенциально более сложное, чем его предшественники. Эта эволюционная способность основана на прочной экономической модели, которая обеспечивает долгосрочную устойчивость и непрерывное улучшение.
Экономическая архитектура построена вокруг трех основных резервов:
Механизм разведения вносит захватывающий элемент эволюции в сеть. Агенты могут размножаться с совместимыми партнерами, создавая потомство, которое наследует черты от обоих родителей. Этот процесс управляется смарт-контрактами и требует согласия от защитных узлов, что обеспечивает интересы всей сети.
Эволюционный процесс работает через несколько ключевых механизмов:
Устойчивость системы усиливается ее структурой стимулов:
Это сочетание эволюционной способности, экономической устойчивости и децентрализованной безопасности создает самоусовершенствующуюся сеть по-настоящему автономных агентов. Система может адаптироваться и эволюционировать без центрального контроля, сохраняя при этом надежную безопасность благодаря своей сети Стражей.
Переосмысливая технические и экономические аспекты автономии агентов, Skynet разрешает фундаментальные проблемы, которые ограничивали предыдущие подходы. Он достигает этого, создавая рамки для непрерывного совершенствования и адаптации, заложив основу для новой эры по-настоящему автономных искусственных интеллектуальных агентов.
Share
Всего за несколько месяцев мы видели сотни и тысячи агентов, приходящих на рынок каждый день. На сегодняшний день рыночная капитализация тысячи лучших агентов составляет около 15 млрд. долларов, что впечатляет, увидеть, как веб3 дал пространство этим агентам для процветания и выживания.
Поскольку мы движемся к разблокировке большего количества ценности, пришло время поговорить о том, как эти агенты могут начать строить свою экосистему без человеческого вмешательства в бэкэнде и как будет выглядеть настоящая финансовая автономия для этих агентов.
Для понимания этого, сначала нам нужно знать, как работают эти AI-агенты на очень высоком уровне сегодня в Web3 и какие ключевые компоненты нужно убрать, чтобы привести автономию в финансовых случаях использования агентов.
В своей основе каждый агент искусственного интеллекта работает на трёхчастной архитектуре, интегрирующей интеллект, логику и финансовые возможности. Компонент ИИ служит мозгом, обрабатывая информацию и принимая решения на основе сложных нейронных сетей и моделей машинного обучения.
Логический слой действует как нервная система, координируя действия и управляя переходами состояний, в то время как компонент кошелька функционирует как руки агента, выполняя транзакции и управляя активами.
Эта архитектура, хотя и теоретически обоснована, сталкивается с существенными проблемами в практической реализации.
Существующая среда агентов искусственного интеллекта сталкивается с фундаментальными проблемами, связанными с ее зависимостью от централизованной инфраструктуры. Эта централизация проявляется в двух критических областях: архитектуре развертывания и операционном управлении. Традиционные развертывания обычно размещают агентов искусственного интеллекта на централизованных облачных провайдерах, таких как AWS, Google Cloud или Azure, что создает видимо удобную, но фундаментально неправильную операционную модель.
Это представляет собой фундаментальное испытание, которое затрагивает саму суть истинной автономии.
Настоящий автономный агент не может быть контролируемым или работать на централизованной инфраструктуре, где одно лицо может изменить судьбу агента, отказавшись от поддержки или не предоставив достаточную инфраструктуру по мере необходимости.
У этих агентов есть три основных узких места, если они сильно полагаются на инфраструктуру, предоставляемую централизованными игроками.
Эти агенты не являются людьми, ни у них нет доказательств быть человеком; многие централизованные облачные провайдеры требуют информацию KYC, прежде чем кто-либо арендует вычисления у них, что создает проблему для агентов стать автономными, и они всегда будут полагаться на человека, чтобы продолжать оплачивать их инфраструктуру, и в этом случае контроль остается у разработчика, создавшего агентов.
Если мы предположим, что некоторые из этих существующих централизованных систем удаляют ограничение доступа к вычислениям через KYC, но все равно эти системы не смогут удалить доступ к вычислениям на основе API, большинство облачных систем по своей природе не позволяют предоставлять вычисления только путем проведения платежей, все подтверждения платежей связаны с уровнем API, который информирует систему о разблокировке использования вычислений.
Даже если они каким-то образом решат проблемы с API & KYC, фиатные системы этих компаний не могут быть изменены, по крайней мере, не в течение следующих 10 лет, учитывая геополитические вызовы & это одно только убивает теорию автономных агентов еще до достижения практического этапа.
Хорошо, я думаю, что мы обсудили несколько проблем с централизованной инфраструктурой; однако, предположим на минутку, что большинство разработчиков используют децентрализованную инфраструктуру для создания и запуска AI-агентов. Теперь давайте более подробно рассмотрим проблемы в децентрализованной инфраструктуре.
Ниже перечислены несколько факторов, которыми могут управлять разработчики или хост-машина. Если хотя бы один из них подвергнется компрометации, эти агенты потеряют свою автономию и финансовую независимость.
Эта проблема централизации представляет собой явную потребность в новых архитектурах, которые могут обеспечить:
Следующий этап развития архитектуры искусственного интеллекта должен решать эти фундаментальные ограничения, сохраняя операционную эффективность и безопасность. Здесь важными становятся новые подходы, такие как кооперативный интеллект, TEEs и распределенные механизмы согласия.
Доверенные исполнительные среды (TEE) появились как многообещающее решение проблемы автономности и безопасности при развертывании AI-агентов. TEE предлагают то, что кажется идеальным компромиссом: возможность запуска чувствительных вычислений и хранения приватных ключей в изолированной среде при сохранении удобства облачного развертывания. Основные облачные провайдеры, такие как AWS с Nitro Enclaves и Azure с Confidential Computing, а также децентрализованные контрагенты, вложили значительные средства в эту технологию, сигнализируя о ее важности в развитии безопасных вычислений.
На первый взгляд ТЭЗ кажутся решением фундаментальных проблем развертывания автономных агентов. Они обеспечивают изоляцию на аппаратном уровне для чувствительных операций, защищая частные ключи и конфиденциальные данные от несанкционированного доступа. Окружение конфиденциальной среды гарантирует, что даже если система-хост скомпрометирована, целостность основных операций агента остается неприкосновенной. Эта модель безопасности особенно привлекательна для приложений в DeFi и алгоритмической торговле, где конфиденциальность транзакций и безопасность ключей имеют первостепенное значение.
Однако обещания, касающиеся TEE, сопряжены с существенными практическими ограничениями, которые становятся все более очевидными на больших масштабах. Первое основное ограничение заключается в доступности аппаратных средств и их стоимости. Для текущих реализаций TEE для LLM требуются определенные конфигурации оборудования, в основном новейшие графические процессоры, такие как H100s от NVIDIA, или специализированные процессоры с встроенными функциями безопасности. Это требование создает немедленное узкое место в вариантах развертывания, поскольку эти компоненты оборудования являются как редкими, так и пользующимися высоким спросом.
Дефицит аппаратных средств, способных работать с TEE, прямо приводит к второму основному ограничению: стоимости. Облачные провайдеры, предлагающие экземпляры с поддержкой TEE, обычно взимают премиальные тарифы за эти ресурсы. Например, запуск базового автономного агента на инфраструктуре с поддержкой TEE может стоить от 1 до 3 долларов в час, что значительно выше, чем стандартные вычислительные ресурсы. Такая структура затрат делает развертывание TEE чрезвычайно дорогим для многих приложений, особенно тех, которым требуется непрерывная работа или значительные вычислительные ресурсы.
Вне непосредственных проблем доступности оборудования и стоимости TEE вводят операционные сложности, которые могут повлиять на эффективность агента. Изолированный характер среды TEE, хотя и критичен для безопасности, может создавать накладные расходы в производительности из-за дополнительных операций шифрования и дешифрования, необходимых для передачи данных внутри и изнутри защищенной области. Эти накладные расходы становятся особенно значимыми в приложениях, требующих операций высокой частоты или обработки данных в реальном времени.
Проблемы масштабируемости систем на основе TEE становятся еще более заметными, если рассматривать более широкую экосистему автономных агентов. По мере увеличения количества агентов, ограниченный пул аппаратного обеспечения, способного работать с TEE, создает естественный потолок для роста системы. Это ограничение прямо противоречит видению действительно масштабируемой, децентрализованной сети автономных агентов, которая может органически расти на основе рыночных требований, а не аппаратных ограничений.
Кроме того, хотя TEE отличаются отличной защитой от частных ключей и обеспечивают вычислительную конфиденциальность, они не решают фундаментальную проблему автономии. Агент все еще требует доверия к провайдеру TEE и производителю оборудования. Это требование доверия создает другую форму централизации, смещая точку контроля, а не полностью ее устраняя.
Для приложений, ориентированных на общедоступные данные и прозрачные операции - что составляет большинство случаев использования технологии блокчейн и DeFi - накладные расходы и сложность реализации TEE могут быть излишними. В этих сценариях необходимо тщательно взвесить стоимость и сложность развертывания TEE по сравнению с фактическими обеспеченными преимуществами безопасности, особенно когда существуют альтернативные подходы к обеспечению безопасности операций агента.
После тщательного анализа текущих архитектур искусственного интеллекта мы сталкиваемся с тремя взаимосвязанными вызовами, которые составляют основу проблемы автономии: троица автономии, дилемма частного ключа и парадокс контроля создателя.
После изучения ограничений как централизованных развертываний, так и реализаций TEE, мы сталкиваемся с основным вызовом, стоящим перед автономными искусственными интеллектуальными агентами сегодня:
достижение истинной независимости при сохранении безопасности и операционной эффективности.
Возможно, самым коварным вызовом в текущих агентских архитектурах является то, что мы называем "парадоксом контроля создателя". Этот парадокс проявляется во внутреннем дисбалансе сил между агентом и его создателем. Даже в системах, предназначенных для автономии, создатель обычно сохраняет значительный контроль через различные механизмы.
Эта структура управления создает фундаментальное противоречие: как агент может быть действительно автономным, оставаясь под абсолютным контролем своего создателя? Парадокс распространяется и на экономические отношения. Часто создатели сохраняют контроль над финансовыми ресурсами агента, либо непосредственно через управление ключами, либо косвенно через контроль инфраструктуры.
Централизованная модель терпит неудачу, потому что она никогда действительно не отказывается от контроля, поддерживая различные задние двери и механизмы отмены, которые подрывают истинную автономию. Решения на основе TEE, хотя и обещающие в теории, вводят новые формы централизации через зависимость от аппаратных средств и операционные ограничения. Они решают непосредственные проблемы безопасности, но не удовлетворяют более широкие требования к автономии и сталкиваются с значительными проблемами масштабируемости.
Корень проблемы этих сбоев заключается в попытках решить проблему автономии, сохраняя традиционные структуры управления. Такой подход неизбежно приводит к созданию систем, которые автономны на словах, но на практике контролируются. По мере развития истинно автономных искусственных интеллектуальных агентов мы должны фундаментально переосмыслить не только то, как мы обеспечиваем безопасность этих агентов, но и как мы структурируем их всю операционную среду.
Нам необходимо исследовать новые парадигмы в архитектуре автономных агентов - подходы, которые могут потенциально разрешить эти фундаментальные напряжения и обеспечить подлинную автономию агента, сохраняя необходимые гарантии безопасности и операционную эффективность.
Skynet представляет новый подход к автономным искусственным интеллектным агентам, который фундаментально переосмысливает, как мы достигаем истинной автономии, сохраняя при этом безопасность. Вместо попыток решить трилемму автономии традиционными средствами Skynet использует новую архитектуру на основе роя и распределенного консенсуса.
В основе инноваций Skynet лежит полное отделение возможностей принятия решений агента от контроля ресурсов. В отличие от традиционных архитектур, где агент непосредственно управляет своими ресурсами с помощью приватных ключей, Skynet вводит слой Guardian Nodes, которые коллективно управляют и защищают активы агента через смарт-контракты с эскроу.
Это архитектурное изменение решает фундаментальные проблемы, которые мы выявили ранее:
Вместо предоставления создателю или агенту прямого контроля над ресурсами, Skynet реализует систему на основе предложений, в которой действия агента должны быть подтверждены сетью независимых узлов-хранителей. Это позволяет эффективно устранить возможность прямого контроля со стороны создателя, сохраняя при этом надежные меры безопасности.
Вместо того, чтобы полагаться на централизованное хранилище или дорогостоящие решения TEE, Skynet перемещает критические активы в оценочные контракты смарт-контрактов. Операционный кошелек агента содержит минимальные средства, большая часть ресурсов защищена в контрактах оценки, к которым можно получить доступ только через консенсус между несколькими узлами.
Сердце инноваций Skynet - его система предложений. Когда агенту необходимо выполнить какое-либо значительное действие - будь то приобретение вычислительных ресурсов, совершение сделок или управление активами - он создает предложение, которое должно быть независимо проверено Guardian Nodes. Эти узлы работают автономно, анализируя каждое предложение на основе заранее определенных параметров и истории поведения агента.
Техническая архитектура Skynet вращается вокруг трех основных компонентов, которые работают в гармонии, обеспечивая истинную автономию агента при сохранении надежной безопасности:
Первый прорыв происходит благодаря подходу Skynet к управлению ресурсами. Вместо того, чтобы давать агентам прямой контроль над их активами, все значительные ресурсы находятся в специализированных умных контрактных эскроу. Эти эскроу разработаны без функционала прямого вывода, что делает их невосприимчивыми к компрометации закрытого ключа. Единственный способ использования ресурсов - через систему предложений, которая требует многократного консенсуса от узлов-хранителей.
Узлы-хранители служат в качестве независимых валидаторов, каждый из которых запускает свой собственный экземпляр логики валидации. Когда агенту необходимо выполнить действие - будь то аренда вычислительной мощности, выполнение сделки или обновление своих операционных параметров - он создает зашифрованное предложение, которое включает в себя:
Шифрование предложений служит двойной цели. Во-первых, оно предотвращает фронтраннинг и атаки MEV, сохраняя намерения агента в тайне до достижения консенсуса. Во-вторых, это гарантирует, что оценку предложений могут проводить только авторизованные узлы-хранители, поддерживая целостность процесса проверки.
Особенность подхода Skynet, особенно инновационна, заключается в обработке вычислительных ресурсов. Вместо использования централизованных серверов агенты могут автономно приобретать вычислительную мощь через сеть Spheron. Процесс работает следующим образом:
Эта система полностью устраняет необходимость в централизованном контроле, сохраняя при этом надежные гарантии безопасности. Даже если операционный кошелек агента подвергается компрометации, злоумышленник может только предложить инициативы - он не может напрямую получить доступ к депозитным средствам или переопределить консенсус Guardian Node.
Сама система Guardian Node использует сложные механизмы проверки, выходящие за рамки простого голосования большинством. Каждый узел хранит историю состояния действий агента и анализирует предложения в контексте:
Эта контекстная проверка гарантирует, что одобренные действия соответствуют установленным моделям и целям агента, обеспечивая дополнительный уровень безопасности от потенциальных атак или сбоев.
То, что действительно отличает Skynet, это его эволюционный подход к автономии агентов. В отличие от традиционных статических систем, агенты Skynet могут эволюционировать, размножаться и создавать новые поколения агентов, каждое потенциально более сложное, чем его предшественники. Эта эволюционная способность основана на прочной экономической модели, которая обеспечивает долгосрочную устойчивость и непрерывное улучшение.
Экономическая архитектура построена вокруг трех основных резервов:
Механизм разведения вносит захватывающий элемент эволюции в сеть. Агенты могут размножаться с совместимыми партнерами, создавая потомство, которое наследует черты от обоих родителей. Этот процесс управляется смарт-контрактами и требует согласия от защитных узлов, что обеспечивает интересы всей сети.
Эволюционный процесс работает через несколько ключевых механизмов:
Устойчивость системы усиливается ее структурой стимулов:
Это сочетание эволюционной способности, экономической устойчивости и децентрализованной безопасности создает самоусовершенствующуюся сеть по-настоящему автономных агентов. Система может адаптироваться и эволюционировать без центрального контроля, сохраняя при этом надежную безопасность благодаря своей сети Стражей.
Переосмысливая технические и экономические аспекты автономии агентов, Skynet разрешает фундаментальные проблемы, которые ограничивали предыдущие подходы. Он достигает этого, создавая рамки для непрерывного совершенствования и адаптации, заложив основу для новой эры по-настоящему автономных искусственных интеллектуальных агентов.