Проекты Web3 с концепцией ИИ становятся объектами привлечения средств на первичном и вторичном рынках.
Возможности Web3 в сфере ИИ заключаются в следующем: использование распределительных стимулов для координации потенциальных поставок в длинном хвосте ------ через данные, хранение и вычисления; в то же время создание модели с открытым исходным кодом и децентрализованного рынка для ИИ агентов.
Основное применение ИИ в отрасли Web3 — это финансовые услуги на блокчейне (криптоплатежи, торговля, анализ данных) и помощь в разработке.
Эффективность AI+Web3 проявляется в их взаимодополняемости: Web3 обещает противостоять централизации AI, в то время как AI может помочь Web3 выйти за пределы.
За последние два года развитие ИИ похоже на нажатие кнопки ускорения. Этот эффект бабочки, вызванный Chatgpt, не только открыл новый мир генеративного искусственного интеллекта, но и вызвал мощные волны в Web3 на другом берегу.
С поддержкой концепции ИИ, финансирование на замедляющемся крипторынке явно увеличилось. Согласно статистике СМИ, только в первой половине 2024 года 64 проекта Web3+AI завершили финансирование, а операционная система на основе искусственного интеллекта Zyber365 достигла максимальной суммы финансирования в 100 миллионов долларов на раунде A.
Вторичный рынок стал более процветающим, данные с криптоагрегаторов показывают, что всего за чуть больше года общая рыночная капитализация сектора ИИ достигла 48,5 миллиарда долларов, а объем торгов за 24 часа близок к 8,6 миллиарда долларов; положительное влияние значительных достижений в области основных технологий ИИ очевидно, после выпуска текстов в видео модели Sora от OpenAI средняя цена сектора ИИ выросла на 151%; эффект ИИ также распространился на одну из секций, притягивающих капитал в криптовалюте - Meme: первая концепция агентства ИИ MemeCoin ------ GOAT быстро завоевала популярность и достигла оценки в 1,4 миллиарда долларов, успешно вызвав бум AI Meme.
Исследования и темы, связанные с AI+Web3, также находятся на пике популярности, от AI+Depin до AI Memecoin и текущих AI Agent и AI DAO, чувство FOMO уже не успевает за скоростью смены новых нарративов.
AI+Web3, эта комбинация терминов, наполненная горячими деньгами, трендами и мечтами о будущем, неизбежно воспринимается как брак по расчету, устроенный капиталом. Нам кажется, что мы с трудом можем различить, под этой роскошной мантией, действительно ли это арена спекулянтов или предрассветная пора взрыва?
Чтобы ответить на этот вопрос, ключевым размышлением для обеих сторон является: станет ли лучше с другой стороной? Можно ли извлечь выгоду из модели другой стороны? В этой статье мы также пытаемся взглянуть на эту конфигурацию с точки зрения предшественников: как Web3 может играть роль на различных этапах технологического стека AI, и что нового AI может принести Web3?
Часть 1. Какие возможности предоставляет Web3 в рамках AI стека?
Прежде чем начать эту тему, нам нужно понять технологический стек больших моделей ИИ:
Говоря более простым языком, весь процесс можно описать так: «Большая модель» похожа на человеческий мозг. На раннем этапе этот мозг принадлежит новорожденному, который только что появился на свет и должен наблюдать и поглощать огромное количество информации из окружающего мира, чтобы понять его. Это этап «сбора» данных. Поскольку компьютеры не обладают такими сенсорными способностями, как зрение или слух, на этапе обучения большая масса неразмеченной информации должна быть преобразована через «предварительную обработку» в формат информации, который компьютер может понять и использовать.
После ввода данных ИИ создает модель с пониманием и предсказательной способностью через «обучение», что можно рассматривать как процесс, в котором младенец постепенно понимает и изучает внешний мир. Параметры модели подобны языковым навыкам, которые постоянно корректируются в процессе обучения младенца. Когда содержание обучения начинает разделяться на категории или происходит общение с людьми, получая обратную связь и корректируя, это переходит в этап «тонкой настройки» большой модели.
Дети, постепенно взрослея и научившись говорить, могут понимать смысл новых диалогов и выражать свои чувства и мысли. Этот этап похож на «вывод» в больших моделях ИИ, где модель может делать прогнозы и анализировать новые языковые и текстовые вводы. Младенцы выражают свои чувства, описывают предметы и решают различные проблемы с помощью языковых навыков, что также похоже на применение больших моделей ИИ на этапе вывода для выполнения различных специфических задач, таких как классификация изображений, распознавание речи и т. д.
А AI Agent становится следующим этапом большого моделирования — он способен самостоятельно выполнять задачи и стремиться к сложным целям, обладая не только способностью к мышлению, но и памятью, планированием, а также умением взаимодействовать с миром, используя инструменты.
В настоящее время, в ответ на проблемы ИИ на различных уровнях, Web3 в настоящее время предварительно сформировал многоуровневую, взаимосвязанную экосистему, охватывающую все стадии процесса моделей ИИ.
Один. Базовый уровень: Airbnb для вычислительной мощности и данных
▎Мощность
На данный момент одной из самых высоких затрат ИИ является вычислительная мощность и энергия, необходимая для обучения и вывода моделей.
Один из примеров — это то, что для обучения модели LLAMA3 от Meta требуется 16000 графических процессоров H100, произведенных NVIDIA (это высококлассный графический процессор, специально разработанный для искусственного интеллекта и высокопроизводительных вычислительных нагрузок). Обучение занимает 30 дней. При этом цена за 80 ГБ версию составляет от 30 000 до 40 000 долларов, что требует инвестиций в вычислительное оборудование (GPU + сетевые чипы) в размере от 400 до 700 миллионов долларов, при этом ежемесячное обучение требует потребления 1,6 миллиарда киловатт-часов, а расходы на энергию составляют почти 20 миллионов долларов в месяц.
Для распаковки ИИ вычислительной мощности это также является одной из первых областей пересечения Web3 и ИИ ------ DePin (децентрализованная физическая инфраструктурная сеть). В настоящее время на сайте данных представлено более 1400 проектов, среди которых проекты, представляющие собой совместное использование GPU вычислительной мощности, включают io.net, Aethir, Akash, Render Network и другие.
Основная логика заключается в том, что платформа позволяет физическим лицам или организациям с неиспользуемыми GPU-ресурсами в децентрализованной форме без необходимости получения разрешений вносить свой вычислительный потенциал. Это происходит через онлайн-рынок для покупателей и продавцов, подобный Uber или Airbnb, что повышает коэффициент использования недостаточно используемых GPU-ресурсов, и конечные пользователи таким образом получают более дешевые и эффективные вычислительные ресурсы. В то же время механизм стейкинга также гарантирует, что в случае нарушения механизмов контроля качества или прерывания сети, поставщики ресурсов будут подвергнуты соответствующим санкциям.
Его особенности заключаются в том, что:
Сосредоточение свободных ресурсов GPU: поставщиками в основном являются независимые малые и средние дата-центры, операторы криптомайнинговых площадок и другие, имеющие избыток вычислительных мощностей, а также оборудование для майнинга с механизмом консенсуса PoS, такое как майнеры FileCoin и ETH. В настоящее время также есть проекты, стремящиеся запустить устройства с более низким порогом входа, такие как exolab, использующий MacBook, iPhone, iPad и другие локальные устройства для создания сети вычислительных мощностей для работы с большими моделями и их выводом.
Столкновение с длинным хвостом рынка вычислительной мощности ИИ:
a. С точки зрения технологий, децентрализованный рынок вычислительных мощностей более подходит для этапов вывода. Обучение больше зависит от возможностей обработки данных, предоставляемых огромными кластерными GPU, в то время как для вывода эффективность вычислений GPU относительно ниже, как, например, Aethir, который сосредоточен на рендеринге с низкой задержкой и приложениях ИИ.
b. С точки зрения потребностей, малые и средние пользователи вычислительных мощностей не будут отдельно обучать свои большие модели, а просто выберут оптимизацию и доработку вокруг нескольких ведущих больших моделей, и эти сценарии естественно подходят для распределённых неиспользуемых вычислительных ресурсов.
Децентрализованная собственность: Техническое значение блокчейна заключается в том, что владельцы ресурсов всегда сохраняют контроль над своими ресурсами, гибко регулируя их в зависимости от спроса и одновременно получая доход.
▎Данные
Данные являются основой ИИ. Без данных вычисления бесполезны, как водяная лилия без корней, а связь между данными и моделью напоминает пословицу "Мусор на входе, мусор на выходе". Количество данных и качество ввода определяют качество вывода конечной модели. В настоящее время для обучения современных ИИ-моделей данные определяют языковые способности модели, ее способность к пониманию, а также ее ценности и гуманистическое поведение. В настоящее время проблемы с потребностью в данных для ИИ в основном сосредоточены на следующих четырех аспектах:
Жажда данных: обучение моделей ИИ зависит от большого объема входных данных. Согласно открытым данным, количество параметров при обучении GPT-4 компанией OpenAI достигло триллионов.
Качество данных: с интеграцией ИИ в различные отрасли возникают новые требования к качеству данных, включая своевременность, разнообразие данных, профессионализм вертикальных данных и использование новых источников данных, таких как анализ эмоций в социальных медиа.
Проблемы конфиденциальности и соблюдения: В настоящее время различные страны и компании постепенно осознают важность качественных наборов данных и вводят ограничения на сбор данных.
Высокие затраты на обработку данных: большой объем данных, сложный процесс обработки. Согласно открытым данным, более 30% затрат на исследования и разработки в компаниях ИИ идет на сбор и обработку базовых данных.
В настоящее время решения web3 проявляются в следующих четырех аспектах:
Сбор данных: возможность бесплатно предоставлять захваченные данные из реального мира быстро истощается, расходы AI-компаний на данные растут с каждым годом. Но в то же время эти расходы не возвращаются к истинным создателям данных, платформы полностью наслаждаются созданием ценности, которую приносят данные, как, например, Reddit, который заработал в общей сложности 203 миллиона долларов, заключив лицензионные соглашения с AI-компаниями.
Позволить пользователям, которые действительно вносят вклад, также участвовать в создании ценности, приносимой данными, а также получать более личные и ценные данные от пользователей с низкими затратами через распределенную сеть и механизмы стимулирования — это видение Web3.
Grass является децентрализованным уровнем данных и сетью, пользователи могут запустить узлы Grass, вносить свой свободный пропускной способности и реле-трафик для захвата реальных данных из всего интернета и получать токен-вознаграждения;
Vana вводит уникальную концепцию пула ликвидности данных (DLP), которая позволяет пользователям загружать свои личные данные (такие как записи покупок, привычки просмотра, активности в социальных сетях и т. д.) в определенный DLP и гибко выбирать, разрешать ли использование этих данных определенными третьими сторонами;
На одной из AI платформ пользователи могут использовать #AI 或#Web3 в качестве метки категории в социальных сетях и @ этой платформе для сбора данных.
Предобработка данных: В процессе обработки данных AI, поскольку собранные данные обычно шумные и содержат ошибки, их необходимо очистить и преобразовать в пригодный формат перед обучением модели, что включает в себя стандартизацию, фильтрацию и обработку недостающих значений в повторяющихся задачах. Этот этап является одним из немногих ручных этапов в индустрии AI, в результате чего возникла профессия аннотаторов данных. С повышением требований модели к качеству данных, требования к аннотаторам данных также возросли, и эта задача естественно подходит для децентрализованной системы вознаграждений Web3.
В настоящее время Grass и OpenLayer рассматривают возможность включения этапа аннотирования данных.
Synesis представил концепцию «Train2earn», подчеркивая качество данных; пользователи могут получать вознаграждение, предоставляя аннотированные данные, комментарии или другие формы ввода.
Проект по аннотации данных Sapien геймифицирует задачи по маркировке и позволяет пользователям ставить баллы, чтобы зарабатывать больше баллов.
Конфиденциальность и безопасность данных: необходимо прояснить, что конфиденциальность данных и безопасность данных — это два разных понятия. Конфиденциальность данных касается обработки чувствительной информации, в то время как безопасность данных защищает информацию от несанкционированного доступа, разрушения и кражи. Таким образом, преимущества технологий конфиденциальности Web3 и потенциальные области применения проявляются в двух аспектах: (1) обучение на чувствительных данных; (2) сотрудничество в области данных: несколько владельцев данных могут совместно участвовать в обучении ИИ, не делясь своими исходными данными.
Текущие широко распространенные технологии конфиденциальности в Web3 включают:
Доверенная исполняемая среда ( TEE ), например, Super Protocol;
Полное гомоморфное шифрование (FHE), например, BasedAI, Fhenix.io или Inco Network;
Технология нулевых знаний (zk), такая как Reclaim Protocol, использует технологию zkTLS для генерации доказательства нулевых знаний HTTPS-трафика, позволяя пользователям безопасно импортировать активные, репутационные и идентификационные данные с внешних сайтов, не раскрывая конфиденциальную информацию.
Однако в настоящее время эта область все еще находится на ранней стадии, и большинство проектов все еще находятся в процессе исследования. Одной из текущих проблем является слишком высокая стоимость вычислений, некоторые примеры:
zkML фреймворк E
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Синергия AI и Web3: создание Децентрализованной AI экосистемы
ИИ+Web3: Башни и площади
Краткое содержание
Проекты Web3 с концепцией ИИ становятся объектами привлечения средств на первичном и вторичном рынках.
Возможности Web3 в сфере ИИ заключаются в следующем: использование распределительных стимулов для координации потенциальных поставок в длинном хвосте ------ через данные, хранение и вычисления; в то же время создание модели с открытым исходным кодом и децентрализованного рынка для ИИ агентов.
Основное применение ИИ в отрасли Web3 — это финансовые услуги на блокчейне (криптоплатежи, торговля, анализ данных) и помощь в разработке.
Эффективность AI+Web3 проявляется в их взаимодополняемости: Web3 обещает противостоять централизации AI, в то время как AI может помочь Web3 выйти за пределы.
! AI+Web3: Башни и площади
Введение
За последние два года развитие ИИ похоже на нажатие кнопки ускорения. Этот эффект бабочки, вызванный Chatgpt, не только открыл новый мир генеративного искусственного интеллекта, но и вызвал мощные волны в Web3 на другом берегу.
С поддержкой концепции ИИ, финансирование на замедляющемся крипторынке явно увеличилось. Согласно статистике СМИ, только в первой половине 2024 года 64 проекта Web3+AI завершили финансирование, а операционная система на основе искусственного интеллекта Zyber365 достигла максимальной суммы финансирования в 100 миллионов долларов на раунде A.
Вторичный рынок стал более процветающим, данные с криптоагрегаторов показывают, что всего за чуть больше года общая рыночная капитализация сектора ИИ достигла 48,5 миллиарда долларов, а объем торгов за 24 часа близок к 8,6 миллиарда долларов; положительное влияние значительных достижений в области основных технологий ИИ очевидно, после выпуска текстов в видео модели Sora от OpenAI средняя цена сектора ИИ выросла на 151%; эффект ИИ также распространился на одну из секций, притягивающих капитал в криптовалюте - Meme: первая концепция агентства ИИ MemeCoin ------ GOAT быстро завоевала популярность и достигла оценки в 1,4 миллиарда долларов, успешно вызвав бум AI Meme.
Исследования и темы, связанные с AI+Web3, также находятся на пике популярности, от AI+Depin до AI Memecoin и текущих AI Agent и AI DAO, чувство FOMO уже не успевает за скоростью смены новых нарративов.
AI+Web3, эта комбинация терминов, наполненная горячими деньгами, трендами и мечтами о будущем, неизбежно воспринимается как брак по расчету, устроенный капиталом. Нам кажется, что мы с трудом можем различить, под этой роскошной мантией, действительно ли это арена спекулянтов или предрассветная пора взрыва?
Чтобы ответить на этот вопрос, ключевым размышлением для обеих сторон является: станет ли лучше с другой стороной? Можно ли извлечь выгоду из модели другой стороны? В этой статье мы также пытаемся взглянуть на эту конфигурацию с точки зрения предшественников: как Web3 может играть роль на различных этапах технологического стека AI, и что нового AI может принести Web3?
Часть 1. Какие возможности предоставляет Web3 в рамках AI стека?
Прежде чем начать эту тему, нам нужно понять технологический стек больших моделей ИИ:
Говоря более простым языком, весь процесс можно описать так: «Большая модель» похожа на человеческий мозг. На раннем этапе этот мозг принадлежит новорожденному, который только что появился на свет и должен наблюдать и поглощать огромное количество информации из окружающего мира, чтобы понять его. Это этап «сбора» данных. Поскольку компьютеры не обладают такими сенсорными способностями, как зрение или слух, на этапе обучения большая масса неразмеченной информации должна быть преобразована через «предварительную обработку» в формат информации, который компьютер может понять и использовать.
После ввода данных ИИ создает модель с пониманием и предсказательной способностью через «обучение», что можно рассматривать как процесс, в котором младенец постепенно понимает и изучает внешний мир. Параметры модели подобны языковым навыкам, которые постоянно корректируются в процессе обучения младенца. Когда содержание обучения начинает разделяться на категории или происходит общение с людьми, получая обратную связь и корректируя, это переходит в этап «тонкой настройки» большой модели.
Дети, постепенно взрослея и научившись говорить, могут понимать смысл новых диалогов и выражать свои чувства и мысли. Этот этап похож на «вывод» в больших моделях ИИ, где модель может делать прогнозы и анализировать новые языковые и текстовые вводы. Младенцы выражают свои чувства, описывают предметы и решают различные проблемы с помощью языковых навыков, что также похоже на применение больших моделей ИИ на этапе вывода для выполнения различных специфических задач, таких как классификация изображений, распознавание речи и т. д.
А AI Agent становится следующим этапом большого моделирования — он способен самостоятельно выполнять задачи и стремиться к сложным целям, обладая не только способностью к мышлению, но и памятью, планированием, а также умением взаимодействовать с миром, используя инструменты.
В настоящее время, в ответ на проблемы ИИ на различных уровнях, Web3 в настоящее время предварительно сформировал многоуровневую, взаимосвязанную экосистему, охватывающую все стадии процесса моделей ИИ.
! AI+Web3: Башни и площади
Один. Базовый уровень: Airbnb для вычислительной мощности и данных
▎Мощность
На данный момент одной из самых высоких затрат ИИ является вычислительная мощность и энергия, необходимая для обучения и вывода моделей.
Один из примеров — это то, что для обучения модели LLAMA3 от Meta требуется 16000 графических процессоров H100, произведенных NVIDIA (это высококлассный графический процессор, специально разработанный для искусственного интеллекта и высокопроизводительных вычислительных нагрузок). Обучение занимает 30 дней. При этом цена за 80 ГБ версию составляет от 30 000 до 40 000 долларов, что требует инвестиций в вычислительное оборудование (GPU + сетевые чипы) в размере от 400 до 700 миллионов долларов, при этом ежемесячное обучение требует потребления 1,6 миллиарда киловатт-часов, а расходы на энергию составляют почти 20 миллионов долларов в месяц.
Для распаковки ИИ вычислительной мощности это также является одной из первых областей пересечения Web3 и ИИ ------ DePin (децентрализованная физическая инфраструктурная сеть). В настоящее время на сайте данных представлено более 1400 проектов, среди которых проекты, представляющие собой совместное использование GPU вычислительной мощности, включают io.net, Aethir, Akash, Render Network и другие.
Основная логика заключается в том, что платформа позволяет физическим лицам или организациям с неиспользуемыми GPU-ресурсами в децентрализованной форме без необходимости получения разрешений вносить свой вычислительный потенциал. Это происходит через онлайн-рынок для покупателей и продавцов, подобный Uber или Airbnb, что повышает коэффициент использования недостаточно используемых GPU-ресурсов, и конечные пользователи таким образом получают более дешевые и эффективные вычислительные ресурсы. В то же время механизм стейкинга также гарантирует, что в случае нарушения механизмов контроля качества или прерывания сети, поставщики ресурсов будут подвергнуты соответствующим санкциям.
Его особенности заключаются в том, что:
Сосредоточение свободных ресурсов GPU: поставщиками в основном являются независимые малые и средние дата-центры, операторы криптомайнинговых площадок и другие, имеющие избыток вычислительных мощностей, а также оборудование для майнинга с механизмом консенсуса PoS, такое как майнеры FileCoin и ETH. В настоящее время также есть проекты, стремящиеся запустить устройства с более низким порогом входа, такие как exolab, использующий MacBook, iPhone, iPad и другие локальные устройства для создания сети вычислительных мощностей для работы с большими моделями и их выводом.
Столкновение с длинным хвостом рынка вычислительной мощности ИИ:
a. С точки зрения технологий, децентрализованный рынок вычислительных мощностей более подходит для этапов вывода. Обучение больше зависит от возможностей обработки данных, предоставляемых огромными кластерными GPU, в то время как для вывода эффективность вычислений GPU относительно ниже, как, например, Aethir, который сосредоточен на рендеринге с низкой задержкой и приложениях ИИ.
b. С точки зрения потребностей, малые и средние пользователи вычислительных мощностей не будут отдельно обучать свои большие модели, а просто выберут оптимизацию и доработку вокруг нескольких ведущих больших моделей, и эти сценарии естественно подходят для распределённых неиспользуемых вычислительных ресурсов.
▎Данные
Данные являются основой ИИ. Без данных вычисления бесполезны, как водяная лилия без корней, а связь между данными и моделью напоминает пословицу "Мусор на входе, мусор на выходе". Количество данных и качество ввода определяют качество вывода конечной модели. В настоящее время для обучения современных ИИ-моделей данные определяют языковые способности модели, ее способность к пониманию, а также ее ценности и гуманистическое поведение. В настоящее время проблемы с потребностью в данных для ИИ в основном сосредоточены на следующих четырех аспектах:
Жажда данных: обучение моделей ИИ зависит от большого объема входных данных. Согласно открытым данным, количество параметров при обучении GPT-4 компанией OpenAI достигло триллионов.
Качество данных: с интеграцией ИИ в различные отрасли возникают новые требования к качеству данных, включая своевременность, разнообразие данных, профессионализм вертикальных данных и использование новых источников данных, таких как анализ эмоций в социальных медиа.
Проблемы конфиденциальности и соблюдения: В настоящее время различные страны и компании постепенно осознают важность качественных наборов данных и вводят ограничения на сбор данных.
Высокие затраты на обработку данных: большой объем данных, сложный процесс обработки. Согласно открытым данным, более 30% затрат на исследования и разработки в компаниях ИИ идет на сбор и обработку базовых данных.
В настоящее время решения web3 проявляются в следующих четырех аспектах:
Позволить пользователям, которые действительно вносят вклад, также участвовать в создании ценности, приносимой данными, а также получать более личные и ценные данные от пользователей с низкими затратами через распределенную сеть и механизмы стимулирования — это видение Web3.
Grass является децентрализованным уровнем данных и сетью, пользователи могут запустить узлы Grass, вносить свой свободный пропускной способности и реле-трафик для захвата реальных данных из всего интернета и получать токен-вознаграждения;
Vana вводит уникальную концепцию пула ликвидности данных (DLP), которая позволяет пользователям загружать свои личные данные (такие как записи покупок, привычки просмотра, активности в социальных сетях и т. д.) в определенный DLP и гибко выбирать, разрешать ли использование этих данных определенными третьими сторонами;
На одной из AI платформ пользователи могут использовать #AI 或#Web3 в качестве метки категории в социальных сетях и @ этой платформе для сбора данных.
В настоящее время Grass и OpenLayer рассматривают возможность включения этапа аннотирования данных.
Synesis представил концепцию «Train2earn», подчеркивая качество данных; пользователи могут получать вознаграждение, предоставляя аннотированные данные, комментарии или другие формы ввода.
Проект по аннотации данных Sapien геймифицирует задачи по маркировке и позволяет пользователям ставить баллы, чтобы зарабатывать больше баллов.
Текущие широко распространенные технологии конфиденциальности в Web3 включают:
Доверенная исполняемая среда ( TEE ), например, Super Protocol;
Полное гомоморфное шифрование (FHE), например, BasedAI, Fhenix.io или Inco Network;
Технология нулевых знаний (zk), такая как Reclaim Protocol, использует технологию zkTLS для генерации доказательства нулевых знаний HTTPS-трафика, позволяя пользователям безопасно импортировать активные, репутационные и идентификационные данные с внешних сайтов, не раскрывая конфиденциальную информацию.
Однако в настоящее время эта область все еще находится на ранней стадии, и большинство проектов все еще находятся в процессе исследования. Одной из текущих проблем является слишком высокая стоимость вычислений, некоторые примеры: