Проекты Web3 с концепцией ИИ становятся объектами привлечения средств на первичном и вторичном рынках.
Возможности Web3 в отрасли ИИ проявляются в: использовании распределенных стимулов для координации потенциального предложения в длинном хвосте ------ через данные, хранение и вычисления; в то же время, создание открытой модели и децентрализованного рынка для ИИ-агентов.
Основное применение ИИ в индустрии Web3 - это финансовые операции на блокчейне (крипто-платежи, торговля, анализ данных) и помощь в разработке.
Эффективность AI+Web3 проявляется в их взаимодополнении: Web3 обещает противостоять централизации AI, AI, в свою очередь, может помочь Web3 выйти за пределы.
За последние два года развитие ИИ похоже на то, что была нажата кнопка ускорения. Этот эффект бабочки, вызванный Chatgpt, открыл не только новый мир генеративного искусственного интеллекта, но и создал мощные волны в Web3 на противоположном берегу.
С поддержкой концепции ИИ финансирование в замедляющемся крипторынке явно возросло. По данным СМИ, только за первое полугодие 2024 года 64 проекта Web3+AI завершили финансирование, а основанная на искусственном интеллекте операционная система Zyber365 в первом раунде привлекла максимальную сумму финансирования в 100 миллионов долларов.
Вторичный рынок становится все более процветающим, согласно данным одного из сайтов, за короткий год общий рыночный капитал в области ИИ достиг 48,5 миллиарда долларов, а объем торгов за 24 часа приблизился к 8,6 миллиарда долларов; очевидные преимущества, связанные с прогрессом в основных ИИ-технологиях, после выпуска текстово-видеомодели Sora от одной компании, средняя цена в сегменте ИИ выросла на 151%; эффект ИИ также распространился на одну из секций криптовалют, привлекающих капитал, Meme: первый концепт MemeCoin с AI Agent ------ GOAT быстро стал популярным и получил оценку в 1,4 миллиарда долларов, успешно вызвав бум AI Meme.
Исследования и темы вокруг AI+Web3 также набирают популярность; от AI+Depin до AI Memecoin и текущих AI Agent и AI DAO, эмоции FOMO уже не успевают за скоростью смены новых нарративов.
AI+Web3 — эта комбинация терминов, полная горячих денег, трендов и будущих фантазий, неизбежно воспринимается как брак по расчету, устроенный капиталом; нам кажется, что трудно различить под этой роскошной одеждой, действительно ли это арена спекулянтов или же преддверие рассвета.
Чтобы ответить на этот вопрос, ключевым размышлением для обеих сторон является: станет ли лучше с другой стороной? Можно ли извлечь выгоду из модели другой стороны? В этой статье мы также пытаемся взглянуть на эту структуру с плеч предшественников: как Web3 может играть свою роль на различных этапах технологического стека ИИ, и что новый жизненный импульс ИИ может принести Web3?
Часть 1. Какие возможности предоставляет Web3 в стекe AI?
Перед тем как углубиться в эту тему, нам нужно понять технологический стек больших моделей ИИ:
Переформулируйте весь процесс более простым языком: «Большая модель» подобна человеческому мозгу. На ранних этапах этот мозг принадлежит только что появившемуся на свет младенцу, который должен наблюдать и поглощать огромное количество информации из окружающего мира, чтобы понять этот мир. Это этап «сбора» данных. Поскольку компьютеры не обладают человеческими зрительными, слуховыми и другими чувствами, перед обучением масштабная неразмеченная информация извне должна быть преобразована через «предобработку» в формат информации, который может быть понятен и полезен компьютеру.
После ввода данных ИИ создает модель с пониманием и предсказательными способностями через «обучение», что можно рассматривать как процесс постепенного понимания и обучения малыша окружающему миру. Параметры модели похожи на языковые способности малыша, которые постоянно корректируются в процессе обучения. Когда содержание обучения начинает разделяться на предметы, или при взаимодействии с людьми получается обратная связь и происходит коррекция, начинается этап «тонкой настройки» большой модели.
Дети постепенно растут и, научившись говорить, могут понимать смысл в новых диалогах и выражать свои чувства и мысли. Этот этап подобен «рассуждению» в больших моделях ИИ, когда модель может предсказывать и анализировать новые языковые и текстовые вводы. Младенцы выражают чувства, описывают объекты и решают различные проблемы с помощью языковых навыков, что также похоже на то, как большие модели ИИ применяются на этапе рассуждения для выполнения различных специфических задач после завершения обучения, таких как классификация изображений, распознавание речи и др.
А AI Agent становится более близким к следующей форме большого модели — он способен независимо выполнять задачи и стремиться к сложным целям, обладая не только способностью к мышлению, но и возможностью запоминать, планировать и взаимодействовать с миром, используя инструменты.
В настоящее время, в ответ на болевые точки искусственного интеллекта в различных стэках, Web3 на данный момент предварительно сформировал многоуровневую, взаимосвязанную экосистему, охватывающую все этапы процесса моделирования ИИ.
Один. Базовый уровень: вычислительная мощность и данные Airbnb
Хэшрейт
В настоящее время одной из самых высоких затрат ИИ является вычислительная мощность и энергия, необходимые для обучения моделей и их вывода.
Один из примеров - модель одной компании требует 16000 графических процессоров (GPU) определенной модели, производимых этой же компанией (это топовый графический процессор, специально разработанный для работы с искусственным интеллектом и высокопроизводительными вычислительными нагрузками). Обучение занимает 30 дней. Цена на 80 ГБ версию колеблется от 30,000 до 40,000 долларов, что требует инвестиций в вычислительное оборудование (GPU + сетевые чипы) на сумму от 400 до 700 миллионов долларов, при этом ежемесячные затраты на обучение составляют 1.6 миллиарда киловатт-часов, а расходы на электроэнергию почти 20 миллионов долларов в месяц.
Декомпрессия вычислительной мощности ИИ является одной из первых областей пересечения Web3 и ИИ ------ DePin (децентрализованная сеть физических инфраструктур). В настоящее время на одном из сайтов данных уже представлено более 1400 проектов, среди которых проекты, представляющие собой совместное использование вычислительной мощности GPU, включают io.net, Aethir, Akash, Render Network и т.д.
Основная логика заключается в следующем: платформа позволяет индивидуумам или организациям, обладающим неиспользуемыми ресурсами GPU, вносить свои вычислительные мощности в децентрализованном формате без разрешения, создавая онлайн-рынок для покупателей и продавцов, аналогичный Uber или Airbnb, что повышает уровень использования неэффективно используемых ресурсов GPU, а конечные пользователи, в свою очередь, получают более доступные и эффективные вычислительные ресурсы; в то же время механизм стейкинга также гарантирует, что в случае нарушения механизмов контроля качества или прерывания сети, поставщики ресурсов будут подвергнуты соответствующим санкциям.
Его особенности заключаются в том, что:
Сосредоточение свободных ресурсов GPU: Основными поставщиками являются независимые небольшие и средние дата-центры, операторы крипто-майнинга и другие, обладающие избыточными вычислительными ресурсами, а также аппаратное обеспечение для майнинга с механизмом консенсуса PoS, такое как майнинговые установки для FileCoin и ETH. В настоящее время также есть проекты, стремящиеся запустить оборудование с более низким порогом входа, такие как exolab, использующий MacBook, iPhone, iPad и другие локальные устройства для создания вычислительной сети для работы с большими моделями.
Столкновение с длинным хвостом рынка вычислительной мощности ИИ:
a. «С технической точки зрения» децентрализованный рынок вычислительных мощностей лучше подходит для этапов вывода. Обучение в большей степени зависит от возможностей обработки данных, предоставляемых супербольшими кластерными GPU, в то время как вывод требует относительно меньшей вычислительной мощности GPU, как, например, Aethir, который сосредоточен на рендеринге с низкой задержкой и приложениях AI для вывода.
b. С точки зрения потребностей, малые и средние пользователи вычислительных мощностей не будут отдельно обучать свои большие модели, а просто выберут оптимизацию и донастройку вокруг нескольких ведущих больших моделей, и эти сценарии естественно подходят для распределенных неиспользуемых вычислительных ресурсов.
Децентрализованное владение: технологическое значение блокчейна заключается в том, что владельцы ресурсов всегда сохраняют контроль над своими ресурсами, гибко подстраиваясь под спрос и получая доход.
Данные
Данные являются основой ИИ. Если нет данных, вычисления будут бесполезны, как водоросли на поверхности воды, а связь между данными и моделью напоминает пословицу "Свалка на входе, свалка на выходе". Количество данных и качество ввода определяют конечное качество вывода модели. Что касается обучения современных ИИ моделей, данные определяют языковые способности модели, ее понимание, а также мировоззрение и гуманистические проявления. В настоящее время проблемы с потребностью данных ИИ в основном сосредоточены на следующих четырех аспектах:
Жажда данных: Обучение AI-моделей зависит от большого объема данных. Открытые данные показывают, что одна компания обучила модель с количеством параметров, достигшим триллионов.
Качество данных: с объединением ИИ и различных отраслей возникают новые требования к качеству данных, такие как актуальность данных, разнообразие данных, профессионализм специализированных данных, а также внедрение новых источников данных, таких как эмоции из социальных медиа.
Проблемы конфиденциальности и соблюдения требований: в настоящее время различные страны и компании постепенно осознают важность качественных наборов данных и вводят ограничения на их сбор.
Высокая стоимость обработки данных: большой объем данных, сложный процесс обработки. Открытые данные показывают, что более 30% затрат на НИОКР в AI-компаниях идут на сбор и обработку базовых данных.
В настоящее время решения web3 проявляются в следующих четырех аспектах:
Сбор данных: бесплатные реальные данные, которые можно извлечь, быстро иссякают, и расходы компаний ИИ на данные растут из года в год. Однако, тем временем, эти расходы не возвращаются к истинным вкладчикам данных, платформы полностью наслаждаются созданием ценности, которую приносят данные, как, например, одна платформа, которая реализовала доход в размере 203 миллиона долларов США через соглашение о лицензировании данных с компаниями ИИ.
Позволить действительно вносящим вклад пользователям участвовать в создании ценности, которую приносит данные, а также получать более частные и более ценные данные от пользователей с помощью распределенной сети и механизмов стимулов низкой стоимостью — это видение Web3.
Grass является децентрализованным уровнем данных и сетью, пользователи могут запустить узлы Grass, вносить вклад в свободную пропускную способность и ретранслировать трафик для захвата в реальном времени данных из всего Интернета и получать токеновые вознаграждения;
Vana ввела уникальную концепцию пула ликвидности данных (DLP), позволяющую пользователям загружать свои личные данные (такие как записи о покупках, привычки просмотра, активность в социальных сетях и т.д.) в определенный DLP и гибко выбирать, хотят ли они предоставить эти данные для использования определенным третьим лицам;
В PublicAI пользователи могут использовать #AI 或#Web3 в качестве категорийного ярлыка на определенной платформе и @PublicAI для осуществления сбора данных.
Предварительная обработка данных: в процессе обработки данных ИИ, поскольку собранные данные обычно шумные и содержат ошибки, их необходимо очистить и преобразовать в пригодный формат перед обучением модели, что включает в себя стандартизацию, фильтрацию и обработку пропущенных значений. Эта стадия является одной из немногих ручных операций в индустрии ИИ, что привело к возникновению профессии аннотаторов данных. С повышением требований модели к качеству данных растёт и порог вхождения для аннотаторов данных, и эта задача естественным образом подходит для децентрализованной механики вознаграждений Web3.
В настоящее время Grass и OpenLayer рассматривают возможность добавления этого ключевого этапа - аннотации данных.
Synesis предложила концепцию «Train2earn», подчеркивая качество данных; пользователи могут получать вознаграждения, предоставляя аннотированные данные, комментарии или другие формы ввода.
Проект по аннотации данных Sapien превращает задачи по маркировке в игру и позволяет пользователям ставить баллы, чтобы зарабатывать больше баллов.
Конфиденциальность данных и безопасность: необходимо прояснить, что конфиденциальность данных и безопасность - это два разных понятия. Конфиденциальность данных касается обработки чувствительной информации, в то время как безопасность данных защищает информацию от несанкционированного доступа, разрушения и кражи. Таким образом, преимущества технологий конфиденциальности Web3 и потенциальные сценарии их применения выражаются в двух аспектах: (1) обучение на чувствительных данных; (2) сотрудничество в области данных: несколько владельцев данных могут совместно участвовать в обучении ИИ, не делясь своими исходными данными.
Текущие распространенные технологии конфиденциальности в Web3 включают:
Достоверная исполняемая среда ( TEE ), например, Super Protocol;
Полностью гомоморфное шифрование (FHE), например, BasedAI, Fhenix.io или Inco Network;
Технология нулевых знаний (zk), такая как Reclaim Protocol, использует технологию zkTLS для генерации доказательства нулевых знаний HTTPS-трафика, позволяя пользователям безопасно импортировать данные о деятельности, репутации и идентичности с внешних сайтов, не раскрывая конфиденциальную информацию.
Однако в настоящее время эта область все еще находится на ранней стадии, большинство проектов все еще находятся в стадии исследования, одной из текущих проблем является слишком высокая стоимость вычислений, некоторые примеры:
Фреймворк zkML EZKL требует около 80 минут
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
7 Лайков
Награда
7
3
Поделиться
комментарий
0/400
shadowy_supercoder
· 13ч назад
Технологии должны равноправно наделять силой
Посмотреть ОригиналОтветить0
MEVHunter
· 13ч назад
Смелые прогнозы будут очень популярны
Посмотреть ОригиналОтветить0
LightningAllInHero
· 13ч назад
Два меча в сочетании обязательно станут великим оружием
Синергия технологий Web3 и ИИ: открытие новых возможностей для вычислительной мощности и ценности данных
AI+Web3: Башни и площади
Кратко
Проекты Web3 с концепцией ИИ становятся объектами привлечения средств на первичном и вторичном рынках.
Возможности Web3 в отрасли ИИ проявляются в: использовании распределенных стимулов для координации потенциального предложения в длинном хвосте ------ через данные, хранение и вычисления; в то же время, создание открытой модели и децентрализованного рынка для ИИ-агентов.
Основное применение ИИ в индустрии Web3 - это финансовые операции на блокчейне (крипто-платежи, торговля, анализ данных) и помощь в разработке.
Эффективность AI+Web3 проявляется в их взаимодополнении: Web3 обещает противостоять централизации AI, AI, в свою очередь, может помочь Web3 выйти за пределы.
! AI+Web3: Башни и площади
Введение
За последние два года развитие ИИ похоже на то, что была нажата кнопка ускорения. Этот эффект бабочки, вызванный Chatgpt, открыл не только новый мир генеративного искусственного интеллекта, но и создал мощные волны в Web3 на противоположном берегу.
С поддержкой концепции ИИ финансирование в замедляющемся крипторынке явно возросло. По данным СМИ, только за первое полугодие 2024 года 64 проекта Web3+AI завершили финансирование, а основанная на искусственном интеллекте операционная система Zyber365 в первом раунде привлекла максимальную сумму финансирования в 100 миллионов долларов.
Вторичный рынок становится все более процветающим, согласно данным одного из сайтов, за короткий год общий рыночный капитал в области ИИ достиг 48,5 миллиарда долларов, а объем торгов за 24 часа приблизился к 8,6 миллиарда долларов; очевидные преимущества, связанные с прогрессом в основных ИИ-технологиях, после выпуска текстово-видеомодели Sora от одной компании, средняя цена в сегменте ИИ выросла на 151%; эффект ИИ также распространился на одну из секций криптовалют, привлекающих капитал, Meme: первый концепт MemeCoin с AI Agent ------ GOAT быстро стал популярным и получил оценку в 1,4 миллиарда долларов, успешно вызвав бум AI Meme.
Исследования и темы вокруг AI+Web3 также набирают популярность; от AI+Depin до AI Memecoin и текущих AI Agent и AI DAO, эмоции FOMO уже не успевают за скоростью смены новых нарративов.
AI+Web3 — эта комбинация терминов, полная горячих денег, трендов и будущих фантазий, неизбежно воспринимается как брак по расчету, устроенный капиталом; нам кажется, что трудно различить под этой роскошной одеждой, действительно ли это арена спекулянтов или же преддверие рассвета.
Чтобы ответить на этот вопрос, ключевым размышлением для обеих сторон является: станет ли лучше с другой стороной? Можно ли извлечь выгоду из модели другой стороны? В этой статье мы также пытаемся взглянуть на эту структуру с плеч предшественников: как Web3 может играть свою роль на различных этапах технологического стека ИИ, и что новый жизненный импульс ИИ может принести Web3?
Часть 1. Какие возможности предоставляет Web3 в стекe AI?
Перед тем как углубиться в эту тему, нам нужно понять технологический стек больших моделей ИИ:
Переформулируйте весь процесс более простым языком: «Большая модель» подобна человеческому мозгу. На ранних этапах этот мозг принадлежит только что появившемуся на свет младенцу, который должен наблюдать и поглощать огромное количество информации из окружающего мира, чтобы понять этот мир. Это этап «сбора» данных. Поскольку компьютеры не обладают человеческими зрительными, слуховыми и другими чувствами, перед обучением масштабная неразмеченная информация извне должна быть преобразована через «предобработку» в формат информации, который может быть понятен и полезен компьютеру.
После ввода данных ИИ создает модель с пониманием и предсказательными способностями через «обучение», что можно рассматривать как процесс постепенного понимания и обучения малыша окружающему миру. Параметры модели похожи на языковые способности малыша, которые постоянно корректируются в процессе обучения. Когда содержание обучения начинает разделяться на предметы, или при взаимодействии с людьми получается обратная связь и происходит коррекция, начинается этап «тонкой настройки» большой модели.
Дети постепенно растут и, научившись говорить, могут понимать смысл в новых диалогах и выражать свои чувства и мысли. Этот этап подобен «рассуждению» в больших моделях ИИ, когда модель может предсказывать и анализировать новые языковые и текстовые вводы. Младенцы выражают чувства, описывают объекты и решают различные проблемы с помощью языковых навыков, что также похоже на то, как большие модели ИИ применяются на этапе рассуждения для выполнения различных специфических задач после завершения обучения, таких как классификация изображений, распознавание речи и др.
А AI Agent становится более близким к следующей форме большого модели — он способен независимо выполнять задачи и стремиться к сложным целям, обладая не только способностью к мышлению, но и возможностью запоминать, планировать и взаимодействовать с миром, используя инструменты.
В настоящее время, в ответ на болевые точки искусственного интеллекта в различных стэках, Web3 на данный момент предварительно сформировал многоуровневую, взаимосвязанную экосистему, охватывающую все этапы процесса моделирования ИИ.
! AI+Web3: Башни и площади
Один. Базовый уровень: вычислительная мощность и данные Airbnb
Хэшрейт
В настоящее время одной из самых высоких затрат ИИ является вычислительная мощность и энергия, необходимые для обучения моделей и их вывода.
Один из примеров - модель одной компании требует 16000 графических процессоров (GPU) определенной модели, производимых этой же компанией (это топовый графический процессор, специально разработанный для работы с искусственным интеллектом и высокопроизводительными вычислительными нагрузками). Обучение занимает 30 дней. Цена на 80 ГБ версию колеблется от 30,000 до 40,000 долларов, что требует инвестиций в вычислительное оборудование (GPU + сетевые чипы) на сумму от 400 до 700 миллионов долларов, при этом ежемесячные затраты на обучение составляют 1.6 миллиарда киловатт-часов, а расходы на электроэнергию почти 20 миллионов долларов в месяц.
Декомпрессия вычислительной мощности ИИ является одной из первых областей пересечения Web3 и ИИ ------ DePin (децентрализованная сеть физических инфраструктур). В настоящее время на одном из сайтов данных уже представлено более 1400 проектов, среди которых проекты, представляющие собой совместное использование вычислительной мощности GPU, включают io.net, Aethir, Akash, Render Network и т.д.
Основная логика заключается в следующем: платформа позволяет индивидуумам или организациям, обладающим неиспользуемыми ресурсами GPU, вносить свои вычислительные мощности в децентрализованном формате без разрешения, создавая онлайн-рынок для покупателей и продавцов, аналогичный Uber или Airbnb, что повышает уровень использования неэффективно используемых ресурсов GPU, а конечные пользователи, в свою очередь, получают более доступные и эффективные вычислительные ресурсы; в то же время механизм стейкинга также гарантирует, что в случае нарушения механизмов контроля качества или прерывания сети, поставщики ресурсов будут подвергнуты соответствующим санкциям.
Его особенности заключаются в том, что:
Сосредоточение свободных ресурсов GPU: Основными поставщиками являются независимые небольшие и средние дата-центры, операторы крипто-майнинга и другие, обладающие избыточными вычислительными ресурсами, а также аппаратное обеспечение для майнинга с механизмом консенсуса PoS, такое как майнинговые установки для FileCoin и ETH. В настоящее время также есть проекты, стремящиеся запустить оборудование с более низким порогом входа, такие как exolab, использующий MacBook, iPhone, iPad и другие локальные устройства для создания вычислительной сети для работы с большими моделями.
Столкновение с длинным хвостом рынка вычислительной мощности ИИ:
a. «С технической точки зрения» децентрализованный рынок вычислительных мощностей лучше подходит для этапов вывода. Обучение в большей степени зависит от возможностей обработки данных, предоставляемых супербольшими кластерными GPU, в то время как вывод требует относительно меньшей вычислительной мощности GPU, как, например, Aethir, который сосредоточен на рендеринге с низкой задержкой и приложениях AI для вывода.
b. С точки зрения потребностей, малые и средние пользователи вычислительных мощностей не будут отдельно обучать свои большие модели, а просто выберут оптимизацию и донастройку вокруг нескольких ведущих больших моделей, и эти сценарии естественно подходят для распределенных неиспользуемых вычислительных ресурсов.
Данные
Данные являются основой ИИ. Если нет данных, вычисления будут бесполезны, как водоросли на поверхности воды, а связь между данными и моделью напоминает пословицу "Свалка на входе, свалка на выходе". Количество данных и качество ввода определяют конечное качество вывода модели. Что касается обучения современных ИИ моделей, данные определяют языковые способности модели, ее понимание, а также мировоззрение и гуманистические проявления. В настоящее время проблемы с потребностью данных ИИ в основном сосредоточены на следующих четырех аспектах:
Жажда данных: Обучение AI-моделей зависит от большого объема данных. Открытые данные показывают, что одна компания обучила модель с количеством параметров, достигшим триллионов.
Качество данных: с объединением ИИ и различных отраслей возникают новые требования к качеству данных, такие как актуальность данных, разнообразие данных, профессионализм специализированных данных, а также внедрение новых источников данных, таких как эмоции из социальных медиа.
Проблемы конфиденциальности и соблюдения требований: в настоящее время различные страны и компании постепенно осознают важность качественных наборов данных и вводят ограничения на их сбор.
Высокая стоимость обработки данных: большой объем данных, сложный процесс обработки. Открытые данные показывают, что более 30% затрат на НИОКР в AI-компаниях идут на сбор и обработку базовых данных.
В настоящее время решения web3 проявляются в следующих четырех аспектах:
Позволить действительно вносящим вклад пользователям участвовать в создании ценности, которую приносит данные, а также получать более частные и более ценные данные от пользователей с помощью распределенной сети и механизмов стимулов низкой стоимостью — это видение Web3.
Grass является децентрализованным уровнем данных и сетью, пользователи могут запустить узлы Grass, вносить вклад в свободную пропускную способность и ретранслировать трафик для захвата в реальном времени данных из всего Интернета и получать токеновые вознаграждения;
Vana ввела уникальную концепцию пула ликвидности данных (DLP), позволяющую пользователям загружать свои личные данные (такие как записи о покупках, привычки просмотра, активность в социальных сетях и т.д.) в определенный DLP и гибко выбирать, хотят ли они предоставить эти данные для использования определенным третьим лицам;
В PublicAI пользователи могут использовать #AI 或#Web3 в качестве категорийного ярлыка на определенной платформе и @PublicAI для осуществления сбора данных.
В настоящее время Grass и OpenLayer рассматривают возможность добавления этого ключевого этапа - аннотации данных.
Synesis предложила концепцию «Train2earn», подчеркивая качество данных; пользователи могут получать вознаграждения, предоставляя аннотированные данные, комментарии или другие формы ввода.
Проект по аннотации данных Sapien превращает задачи по маркировке в игру и позволяет пользователям ставить баллы, чтобы зарабатывать больше баллов.
Текущие распространенные технологии конфиденциальности в Web3 включают:
Достоверная исполняемая среда ( TEE ), например, Super Protocol;
Полностью гомоморфное шифрование (FHE), например, BasedAI, Fhenix.io или Inco Network;
Технология нулевых знаний (zk), такая как Reclaim Protocol, использует технологию zkTLS для генерации доказательства нулевых знаний HTTPS-трафика, позволяя пользователям безопасно импортировать данные о деятельности, репутации и идентичности с внешних сайтов, не раскрывая конфиденциальную информацию.
Однако в настоящее время эта область все еще находится на ранней стадии, большинство проектов все еще находятся в стадии исследования, одной из текущих проблем является слишком высокая стоимость вычислений, некоторые примеры: