Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Начало фьючерсов
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Искусственный интеллект ускоряет обработку библиотек C++ в XRP Ledger благодаря сотрудничеству между AWS и Ripple
Платформа XRP Ledger (XRPL) сталкивается с серьезной технологической проблемой: как эффективно управлять и анализировать огромные объемы данных, генерируемых библиотеками C++ на сотнях узлов по всему миру. Для решения этой задачи Ripple и Amazon Web Services (AWS) тестируют Amazon Bedrock — платформу искусственного интеллекта, разработанную для ускорения мониторинга и сокращения времени выявления причин с нескольких дней до нескольких минут.
Проблемы от огромных библиотек C++ в мониторинге XRPL
XRP Ledger функционирует как децентрализованная сеть уровня 1, с независимыми узлами, расположенными в различных регионах мира. В настоящее время XRPL управляет более чем 900 узлами, использующими исходные библиотеки C++ для поддержки высокой пропускной способности. Однако именно эти библиотеки создают огромный и сложный объем логов, который инженерам трудно быстро обработать.
По словам сотрудника AWS, каждый узел может генерировать от 30 до 50 ГБ логов ежедневно, всего по сети — около 2–2,5 ПБ данных. В случае сбоя инженеры обычно должны глубоко разбираться в библиотеках C++, чтобы проследить ошибку, что занимает много времени и легко приводит к пропуску важных деталей. Традиционный процесс может длиться несколько дней, тогда как сеть блокчейн требует более быстрого реагирования.
Решение на базе ИИ: Amazon Bedrock превращает сырые данные в управляемые сигналы
Amazon Bedrock выступает в роли слоя преобразования, превращая сырые логовые данные в поисковые и аналитические сигналы. Согласно архитектору AWS Вджаю Раджагопалу, выступавшему на технологической конференции, модели Bedrock способны интерпретировать логи, создаваемые валидаторами и серверами XRPL в масштабах. Инженеры могут запрашивать эти модели для проверки соответствия поведения системы ожидаемым стандартам.
Благодаря этому время обнаружения и устранения сбоев сокращается с нескольких дней до 2–3 минут — значительный прогресс в поддержании здоровья сети. Внутренние оценки AWS показывают очевидный потенциал этого решения.
Обработка логов в AWS: от S3 до CloudWatch
Предлагаемый технический процесс начинается с передачи логов с узлов XRPL в Amazon S3 через GitHub и AWS Systems Manager. После получения логов триггеры событий активируют функцию AWS Lambda для определения границ сегментов каждого файла.
Затем метаданные этих сегментов отправляются в Amazon SQS для паралленной обработки. Другая Lambda извлекает соответствующие диапазоны байтов из S3, парсит строки логов и метаданные, а затем передает их в CloudWatch для индексирования. Этот событийный подход использует EventBridge и Lambda для масштабной обработки логов, позволяя анализировать большие объемы данных с библиотек C++, без ручного вмешательства.
Например, сотрудник AWS использовал событие региональной связи для демонстрации преимущества быстрой классификации. Когда авария подводного кабеля в Красном море повлияла на соединение операторов узлов в Азиатско-Тихоокеанском регионе, традиционный процесс требовал сбора логов с каждого узла и обработки больших файлов перед началом анализа. С помощью AWS pipeline этот процесс значительно ускорился.
Связь исходного кода C++ с данными о сбоях для быстрого поиска причин
Помимо обработки логов, AWS описывает параллельный процесс создания версий исходных кодов C++ и технических стандартов XRPL. Этот поток отслеживает важные репозитории, планирует обновления через Amazon EventBridge и сохраняет снимки версий в S3.
При возникновении сбоя система может связать лог с релизом программного обеспечения и соответствующей спецификацией. Это особенно важно, поскольку только логов зачастую недостаточно для объяснения необычного поведения протокола. Объединив трассировку логов с библиотеками C++ сервера и техническими спецификациями, AI-агент может сопоставить любую аномалию с конкретным участком кода.
Цель этого метода — обеспечить более быстрые и последовательные рекомендации для операторов при сбоях или снижении производительности сети.
Внедрение и перспективы развития
На данный момент совместные усилия AWS и Ripple находятся на стадии исследований и тестирования. Пока ни одна компания не объявила точную дату запуска, и команды оценивают точность моделей ИИ и политику управления данными. Этот процесс также зависит от готовности операторов узлов делиться логами в ходе расследований.
Тем не менее, такой подход ясно показывает, что ИИ и облачные инструменты могут значительно помочь в мониторинге и анализе блокчейна без необходимости менять правила консенсуса XRPL. Эта тенденция развивается параллельно с расширением экосистемы XRPL, включая новые функции токенов, такие как Multi-Purpose Tokens, изменения в релизе Rippled 3.0.0 и усиленную безопасность через XLS-86 Firewall. Более эффективный мониторинг и анализ библиотек C++ повысит стабильность и масштабируемость XRPL, создавая прочную основу для долгосрочного развития.