С момента начала ИИ-бума в 2024 году компании и пользователи по всему миру активно внедряют решения на основе искусственного интеллекта. Однако доверие к этим системам остаётся слабым. Особенно критично это ощущается в таких сферах, как финансы, здравоохранение и кибербезопасность.
Недоверие к ИИ — одна из главных преград для массового распространения технологии. На этом фоне децентрализованные технологии с криптографической защитой, такие как ZK-SNARKs, начинают восприниматься как фундаментальные инструменты, способные восстановить доверие, обеспечив верифицируемость решений и защиту данных без ущерба для развития AI.
Недоверие тормозит индустрию
ИИ стал второй по популярности темой среди инвесторов крипторынка в 2024 году — более 16% интереса было направлено в этот сегмент. В рамках направления DeFAI (DeFi x AI) появилось более 7,000 проектов с пиковой капитализацией в 7 млрд $ в начале 2025 года. Однако рост количества решений не устранил ключевые уязвимости ИИ — ложные выводы, манипуляции, риски утечки данных.
Резонансный случай в ноябре 2024 года, когда ИИ-агент на блокчейне Base передал 47,000 $ по ошибочному запросу, вызвал широкий резонанс. Несмотря на игровую природу сценария, он поставил под сомнение возможность делегировать ИИ принятие финансовых решений.
Аудит не решают проблему
Даже при активной работе с аудитами, "красными командами" и программами поощрения уязвимостей, ИИ-системы по-прежнему уязвимы перед логическими ошибками, инъекциями запросов и несанкционированным использованием данных. Согласно данным KPMG, 61% пользователей в мире не доверяют ИИ, а аналитики Forrester, опрошенные Harvard Business Review, назвали доверие главной проблемой в 25% случаев.
По данным опроса на CIO Network Summit от WSJ, 61% ИТ-директоров США лишь экспериментируют с ИИ-агентами или вовсе избегают их использования, указывая на низкую надёжность, риски для кибербезопасности и конфиденциальности данных.
В медицине доверие особенно критично
Здравоохранение — один из секторов, наиболее остро реагирующих на проблемы конфиденциальности. Использование электронных медицинских записей (EHR) для обучения ИИ требует полной прозрачности обработки данных и правового соответствия. Утечки медицинской информации — не просто юридический риск, но и репутационный удар по системе здравоохранения.
Решение: децентрализованная и верифицируемая архитектура
Доверие — не "приятный бонус", а основа функционирования AI-систем. Потенциальный вклад ИИ в мировую экономику может достигнуть 15.7 трлн $ к 2030 году. Но без доверия этот прогноз может остаться на бумаге.
Технологии вроде ZK-SNARKs (zero-knowledge proof) открывают новую архитектуру ИИ: пользователь может проверить корректность решений модели без раскрытия исходных данных, логики или конфиденциальной информации.
Представьте себе децентрализованного ИИ-кредитного агента, который принимает решение по заёмщику на основе зашифрованного подтверждения кредитного рейтинга, не получая доступ к исходным данным. Это снижает институциональные риски и защищает клиента.
ZK устраняет «чёрный ящик» LLM
Искусственный интеллект всё ещё воспринимается как непрозрачная «чёрная коробка». ZK-доказательства позволяют проверять корректность вывода без доступа к структуре модели. Это ключевой шаг в сторону доверия: пользователь не боится утечек, разработчик не раскрывает IP.
Новый стек: AI + ZK + блокчейн
По мнению аналитиков Foreck.info, мы вступаем в этап, где классическая гонка моделей уступает место архитектурам, нацеленным на прозрачность и проверяемость. Технологии вроде ZK-SNARKs, мультипартийных вычислений и BLS-подписей перестают быть нишевыми. Вместе с блокчейном они создают стек, на котором можно строить надёжный и безопасный ИИ.
Gartner прогнозирует, что к 2026 году 80% компаний будут использовать ИИ. Но масштабирование будет зависеть не от хайпа, а от архитектур, которым можно доверять. И это начинается с децентрализации.