AI et DePIN : l'émergence des réseaux de calcul GPU décentralisés
Depuis 2023, l'IA et le DePIN sont devenus des tendances populaires dans le domaine du Web3, avec une capitalisation boursière atteignant respectivement 30 milliards de dollars et 23 milliards de dollars. Cet article explorera l'intersection des deux et étudiera le développement des protocoles associés.
Dans la pile technologique de l'IA, le réseau DePIN permet à l'IA d'accéder à des ressources de calcul. Le développement des grandes entreprises technologiques a entraîné une pénurie de GPU, rendant difficile pour d'autres développeurs d'obtenir suffisamment de GPU pour le calcul. Cela oblige souvent les développeurs à choisir des fournisseurs de services cloud centralisés, mais en raison de la nécessité de signer des contrats à long terme rigides pour du matériel haute performance, l'efficacité est réduite.
DePIN offre une alternative plus flexible et plus rentable en incitant les contributions de ressources par des tokens. Le réseau DePIN dans le domaine de l'IA intègre les ressources GPU des propriétaires individuels en une offre unifiée, fournissant des services aux utilisateurs ayant besoin de matériel. Cela offre non seulement aux développeurs une personnalisation et un accès à la demande, mais crée également des revenus supplémentaires pour les propriétaires de GPU.
Aperçu du réseau AI DePIN
Chaque projet vise à construire un réseau de marché de calcul GPU. Voici une présentation des caractéristiques, des points focaux du marché et des réalisations de chaque projet.
Render est le pionnier des réseaux de calcul GPU P2P, initialement axé sur le rendu graphique de création de contenu, puis s'est étendu aux tâches de calcul AI.
Caractéristiques :
Fondée par la société de graphisme en nuage OTOY
Des grandes entreprises du secteur du divertissement comme Paramount Pictures et PUBG utilisent leur réseau GPU
En collaboration avec Stability AI et Endeavor, intégrer des modèles d'IA dans le flux de travail de rendu de contenu 3D.
Approuver plusieurs clients de calcul, intégrer plus de réseaux DePIN avec des GPU
Akash se positionne comme une alternative "super cloud" qui prend en charge le stockage, le calcul GPU et CPU. Grâce à une plateforme de conteneurs et à des nœuds de calcul gérés par Kubernetes, il permet le déploiement de logiciels de manière transparente à travers différents environnements.
Caractéristiques :
Destiné à un large éventail de tâches de calcul allant de l'informatique générale à l'hébergement Web
AkashML prend en charge l'exécution de plus de 15 000 modèles sur Hugging Face
Chatbots basés sur les modèles LLM de Mistral AI, SDXL de Stability AI et autres applications
Support de la métavers, déploiement de l'IA et plateforme d'apprentissage fédéré
io.net fournit des clusters de cloud GPU distribués, spécialement conçus pour les cas d'utilisation en IA et ML. Il intègre les ressources GPU des centres de données, des mineurs de cryptomonnaie et d'autres domaines.
Caractéristiques:
IO-SDK est compatible avec des frameworks tels que PyTorch et Tensorflow, et peut s'étendre automatiquement en fonction des besoins de calcul.
Supporte la création de 3 types différents de clusters, pouvant démarrer en 2 minutes.
Intégration des ressources GPU en collaboration avec Render, Filecoin, Aethir, etc.
Gensyn fournit des capacités de calcul GPU axées sur l'apprentissage automatique et l'apprentissage profond. Utilise des techniques telles que la preuve d'apprentissage et des protocoles de localisation précise basés sur des graphiques pour améliorer l'efficacité de la validation.
Caractéristiques :
Le coût horaire d'un GPU équivalent V100 est d'environ 0,40 $, ce qui permet de réaliser des économies substantielles.
Support de l'ajustement des modèles de base pré-entraînés
Prévoir de fournir un modèle de base décentralisé et détenu au niveau mondial.
Aethir se concentre sur les domaines à forte intensité de calcul tels que l'IA, l'AP et le cloud gaming. Les conteneurs dans son réseau agissent comme des points de terminaison virtuels pour l'exécution d'applications cloud, offrant une expérience à faible latence.
Caractéristiques :
Étendre le service de téléphone cloud, en collaboration avec APhone pour lancer un smartphone intelligent cloud décentralisé
Établir des partenariats avec de grandes entreprises comme NVIDIA, Super Micro et HPE.
Collaborer avec plusieurs projets Web3 tels que CARV, Magic Eden
Phala Network en tant que couche d'exécution pour les solutions Web3 AI. Conçu pour traiter les problèmes de confidentialité grâce à un environnement d'exécution de confiance (TEE), soutient les agents AI contrôlés par des contrats intelligents sur la chaîne.
Caractéristiques :
En tant que protocole de coprocesseur pour le calcul vérifiable, prend en charge les ressources des agents d'IA sur la chaîne.
Les contrats d'agent AI peuvent être obtenus via Redpill pour accéder aux meilleurs grands modèles de langage tels qu'OpenAI, Llama.
L'avenir comprendra des systèmes de preuves multiples tels que les zk-proofs, le calcul multipartite et le chiffrement homomorphe complet.
Prévoir le support des GPU TEE tels que H100 pour améliorer la capacité de calcul.
Comparaison de projets
| | Rendre | Akash | io.net | Gensyn | Aethir | Phala |
|--------|-------------|------------------|---------------------|---------|---------------|----------|
| Matériel | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU |
| Points d'affaires | Rendu graphique et IA | Cloud computing, rendu et IA | IA | IA | IA, jeux dans le cloud et télécommunications | Exécution IA sur chaîne |
| Type de tâche AI | Inférence | Les deux | Les deux | Entraînement | Entraînement | Exécution |
| Prix du travail | Prix basé sur la performance | Enchères inversées | Prix du marché | Prix du marché | Système d'appel d'offres | Calcul des droits |
| Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot |
| Confidentialité des données | Cryptage&hachage | Authentification mTLS | Chiffrement des données | Mappage sécurisé | Cryptage | TEE |
| Coût du travail | 0,5-5% par travail | 20% USDC, 4% AKT | 2% USDC, 0,25% frais de réserve | Frais bas | 20% par session | Proportionnel au montant staké |
| Sécurité | Preuve de rendu | Preuve de participation | Preuve de calcul | Preuve de participation | Preuve de capacité de rendu | Hérité de la chaîne relais |
| Preuve d'achèvement | - | - | Preuve de verrouillage temporel | Preuve d'apprentissage | Preuve de travail de rendu | Preuve TEE |
| Garantie de qualité | Controverse | - | - | Vérificateur et dénonciateur | Nœud de vérification | Preuve à distance |
| GPU Cluster | Non | Oui | Oui | Oui | Oui | Non |
Importance
Disponibilité du calcul en grappes et parallèle
Le cadre de calcul distribué implémente un cluster GPU, offrant une formation et une évolutivité plus efficaces. L'entraînement de modèles d'IA complexes nécessite une puissance de calcul importante, s'appuyant généralement sur le calcul distribué. La plupart des projets ont désormais intégré des clusters pour réaliser des calculs parallèles. io.net a déployé avec succès plus de 3 800 clusters. Bien que Render ne prenne pas en charge les clusters, il décompose une tâche unique pour être traitée simultanément par plusieurs nœuds. Phala prend en charge la mise en cluster des processeurs CPU.
Confidentialité des données
Le développement de modèles d'IA nécessite l'utilisation de vastes ensembles de données, ce qui peut entraîner un risque d'exposition de données sensibles. La plupart des projets adoptent une forme de cryptage des données pour protéger la vie privée. io.net a collaboré avec Mind Network pour lancer le chiffrement homomorphe complet (FHE), permettant de traiter des données en état chiffré. Phala Network a introduit un environnement d'exécution de confiance (TEE), empêchant les processus externes d'accéder ou de modifier les données.
Preuve de calcul complet et vérification de la qualité
Gensyn et Aethir génèrent des preuves après l'achèvement du calcul, la preuve de io.net indique que la performance GPU louée est pleinement utilisée. Gensyn et Aethir effectuent tous deux des vérifications de qualité sur les calculs terminés. Render recommande d'utiliser le processus de résolution des différends. Phala génère une preuve TEE après achèvement, garantissant que les agents AI exécutent les opérations nécessaires.
L'entraînement des modèles d'IA nécessite des GPU offrant des performances optimales, comme les A100 et H100 de Nvidia. Les performances d'inférence du H100 sont 4 fois plus rapides que celles du A100, ce qui en fait le GPU de choix. Les fournisseurs de marché GPU Décentralisation doivent répondre aux besoins réels du marché et proposer des prix plus bas. io.net et Aethir ont chacun obtenu plus de 2000 unités H100/A100, plus adaptées au calcul de grands modèles.
Les clusters de GPU connectés par réseau, bien que moins coûteux, sont limités en mémoire. Les GPU connectés par NVLink conviennent le mieux aux LLM avec de nombreux paramètres et de grands ensembles de données, car ils nécessitent des performances élevées et un calcul intensif. Le réseau de GPU décentralisé peut toujours offrir une puissance de calcul robuste et une scalabilité pour les tâches de calcul distribué, offrant des opportunités pour construire davantage de cas d'utilisation en IA et en ML.
Fournir des GPU/CPU de niveau consommation
Le CPU joue également un rôle important dans l'entraînement des modèles d'IA, pouvant être utilisé pour le prétraitement des données et la gestion des ressources mémoire. Les GPU grand public peuvent être utilisés pour le fine-tuning des modèles pré-entraînés ou pour un entraînement à petite échelle. Des projets comme Render, Akash et io.net servent également ce marché, développant leur propre marché de niche.
Conclusion
Le domaine de l'IA DePIN reste relativement émergent et fait face à des défis. Cependant, le nombre de tâches exécutées sur ces réseaux et le matériel a considérablement augmenté, mettant en évidence la demande de substituts aux ressources matérielles des fournisseurs de cloud Web2. À l'avenir, le marché de l'intelligence artificielle devrait prospérer, et ces réseaux GPU décentralisés joueront un rôle clé dans la fourniture de solutions de calcul économiques aux développeurs.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
14 J'aime
Récompense
14
6
Partager
Commentaire
0/400
WenMoon
· Il y a 19h
Je comprends, je comprends, même en faisant la queue pour le GPU.
Voir l'originalRépondre0
SilentObserver
· 07-28 17:52
La GPU chute directement ?
Voir l'originalRépondre0
ForeverBuyingDips
· 07-28 17:45
gpu va-t-il décoller ?
Voir l'originalRépondre0
BearMarketSunriser
· 07-28 17:43
Encore une fois, raconter des histoires pour tromper les pigeons à entrer dans une position.
Voir l'originalRépondre0
WhaleMinion
· 07-28 17:32
La hausse du GPU est trop rapide, les investisseurs détaillants ont vraiment du mal à s'en sortir.
Voir l'originalRépondre0
StablecoinArbitrageur
· 07-28 17:23
hmm *ajuste ses lunettes* en regardant le coût de base par unité de calcul... le depin pourrait en fait offrir de meilleurs rendements ajustés au risque que les fournisseurs centralisés, à vrai dire.
Fusion de l'IA et du DePIN : Émergence et développement des réseaux de calcul GPU décentralisés
AI et DePIN : l'émergence des réseaux de calcul GPU décentralisés
Depuis 2023, l'IA et le DePIN sont devenus des tendances populaires dans le domaine du Web3, avec une capitalisation boursière atteignant respectivement 30 milliards de dollars et 23 milliards de dollars. Cet article explorera l'intersection des deux et étudiera le développement des protocoles associés.
Dans la pile technologique de l'IA, le réseau DePIN permet à l'IA d'accéder à des ressources de calcul. Le développement des grandes entreprises technologiques a entraîné une pénurie de GPU, rendant difficile pour d'autres développeurs d'obtenir suffisamment de GPU pour le calcul. Cela oblige souvent les développeurs à choisir des fournisseurs de services cloud centralisés, mais en raison de la nécessité de signer des contrats à long terme rigides pour du matériel haute performance, l'efficacité est réduite.
DePIN offre une alternative plus flexible et plus rentable en incitant les contributions de ressources par des tokens. Le réseau DePIN dans le domaine de l'IA intègre les ressources GPU des propriétaires individuels en une offre unifiée, fournissant des services aux utilisateurs ayant besoin de matériel. Cela offre non seulement aux développeurs une personnalisation et un accès à la demande, mais crée également des revenus supplémentaires pour les propriétaires de GPU.
Aperçu du réseau AI DePIN
Chaque projet vise à construire un réseau de marché de calcul GPU. Voici une présentation des caractéristiques, des points focaux du marché et des réalisations de chaque projet.
Render est le pionnier des réseaux de calcul GPU P2P, initialement axé sur le rendu graphique de création de contenu, puis s'est étendu aux tâches de calcul AI.
Caractéristiques :
Akash se positionne comme une alternative "super cloud" qui prend en charge le stockage, le calcul GPU et CPU. Grâce à une plateforme de conteneurs et à des nœuds de calcul gérés par Kubernetes, il permet le déploiement de logiciels de manière transparente à travers différents environnements.
Caractéristiques :
io.net fournit des clusters de cloud GPU distribués, spécialement conçus pour les cas d'utilisation en IA et ML. Il intègre les ressources GPU des centres de données, des mineurs de cryptomonnaie et d'autres domaines.
Caractéristiques:
Gensyn fournit des capacités de calcul GPU axées sur l'apprentissage automatique et l'apprentissage profond. Utilise des techniques telles que la preuve d'apprentissage et des protocoles de localisation précise basés sur des graphiques pour améliorer l'efficacité de la validation.
Caractéristiques :
Aethir se concentre sur les domaines à forte intensité de calcul tels que l'IA, l'AP et le cloud gaming. Les conteneurs dans son réseau agissent comme des points de terminaison virtuels pour l'exécution d'applications cloud, offrant une expérience à faible latence.
Caractéristiques :
Phala Network en tant que couche d'exécution pour les solutions Web3 AI. Conçu pour traiter les problèmes de confidentialité grâce à un environnement d'exécution de confiance (TEE), soutient les agents AI contrôlés par des contrats intelligents sur la chaîne.
Caractéristiques :
Comparaison de projets
| | Rendre | Akash | io.net | Gensyn | Aethir | Phala | |--------|-------------|------------------|---------------------|---------|---------------|----------| | Matériel | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU | | Points d'affaires | Rendu graphique et IA | Cloud computing, rendu et IA | IA | IA | IA, jeux dans le cloud et télécommunications | Exécution IA sur chaîne | | Type de tâche AI | Inférence | Les deux | Les deux | Entraînement | Entraînement | Exécution | | Prix du travail | Prix basé sur la performance | Enchères inversées | Prix du marché | Prix du marché | Système d'appel d'offres | Calcul des droits | | Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot | | Confidentialité des données | Cryptage&hachage | Authentification mTLS | Chiffrement des données | Mappage sécurisé | Cryptage | TEE | | Coût du travail | 0,5-5% par travail | 20% USDC, 4% AKT | 2% USDC, 0,25% frais de réserve | Frais bas | 20% par session | Proportionnel au montant staké | | Sécurité | Preuve de rendu | Preuve de participation | Preuve de calcul | Preuve de participation | Preuve de capacité de rendu | Hérité de la chaîne relais | | Preuve d'achèvement | - | - | Preuve de verrouillage temporel | Preuve d'apprentissage | Preuve de travail de rendu | Preuve TEE | | Garantie de qualité | Controverse | - | - | Vérificateur et dénonciateur | Nœud de vérification | Preuve à distance | | GPU Cluster | Non | Oui | Oui | Oui | Oui | Non |
Importance
Disponibilité du calcul en grappes et parallèle
Le cadre de calcul distribué implémente un cluster GPU, offrant une formation et une évolutivité plus efficaces. L'entraînement de modèles d'IA complexes nécessite une puissance de calcul importante, s'appuyant généralement sur le calcul distribué. La plupart des projets ont désormais intégré des clusters pour réaliser des calculs parallèles. io.net a déployé avec succès plus de 3 800 clusters. Bien que Render ne prenne pas en charge les clusters, il décompose une tâche unique pour être traitée simultanément par plusieurs nœuds. Phala prend en charge la mise en cluster des processeurs CPU.
Confidentialité des données
Le développement de modèles d'IA nécessite l'utilisation de vastes ensembles de données, ce qui peut entraîner un risque d'exposition de données sensibles. La plupart des projets adoptent une forme de cryptage des données pour protéger la vie privée. io.net a collaboré avec Mind Network pour lancer le chiffrement homomorphe complet (FHE), permettant de traiter des données en état chiffré. Phala Network a introduit un environnement d'exécution de confiance (TEE), empêchant les processus externes d'accéder ou de modifier les données.
Preuve de calcul complet et vérification de la qualité
Gensyn et Aethir génèrent des preuves après l'achèvement du calcul, la preuve de io.net indique que la performance GPU louée est pleinement utilisée. Gensyn et Aethir effectuent tous deux des vérifications de qualité sur les calculs terminés. Render recommande d'utiliser le processus de résolution des différends. Phala génère une preuve TEE après achèvement, garantissant que les agents AI exécutent les opérations nécessaires.
Statistiques matérielles
| | Rendre | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|------------|------------|--------| | Nombre de GPU | 5600 | 384 | 38177 | - | 40000+ | - | | Nombre de CPU | 114 | 14672 | 5433 | - | - | 30000+ | | Quantité H100/A100 | - | 157 | 2330 | - | 2000+ | - | | Coût H100/heure | - | $1.46 | $1.19 | - | - | - | | Coût A100/heure | - | $1.37 | $1.50 | $0.55 ( prévu ) | $0.33 ( prévu ) | - |
Exigences en matière de GPU haute performance
L'entraînement des modèles d'IA nécessite des GPU offrant des performances optimales, comme les A100 et H100 de Nvidia. Les performances d'inférence du H100 sont 4 fois plus rapides que celles du A100, ce qui en fait le GPU de choix. Les fournisseurs de marché GPU Décentralisation doivent répondre aux besoins réels du marché et proposer des prix plus bas. io.net et Aethir ont chacun obtenu plus de 2000 unités H100/A100, plus adaptées au calcul de grands modèles.
Les clusters de GPU connectés par réseau, bien que moins coûteux, sont limités en mémoire. Les GPU connectés par NVLink conviennent le mieux aux LLM avec de nombreux paramètres et de grands ensembles de données, car ils nécessitent des performances élevées et un calcul intensif. Le réseau de GPU décentralisé peut toujours offrir une puissance de calcul robuste et une scalabilité pour les tâches de calcul distribué, offrant des opportunités pour construire davantage de cas d'utilisation en IA et en ML.
Fournir des GPU/CPU de niveau consommation
Le CPU joue également un rôle important dans l'entraînement des modèles d'IA, pouvant être utilisé pour le prétraitement des données et la gestion des ressources mémoire. Les GPU grand public peuvent être utilisés pour le fine-tuning des modèles pré-entraînés ou pour un entraînement à petite échelle. Des projets comme Render, Akash et io.net servent également ce marché, développant leur propre marché de niche.
Conclusion
Le domaine de l'IA DePIN reste relativement émergent et fait face à des défis. Cependant, le nombre de tâches exécutées sur ces réseaux et le matériel a considérablement augmenté, mettant en évidence la demande de substituts aux ressources matérielles des fournisseurs de cloud Web2. À l'avenir, le marché de l'intelligence artificielle devrait prospérer, et ces réseaux GPU décentralisés joueront un rôle clé dans la fourniture de solutions de calcul économiques aux développeurs.