La percée des performances de Manus déclenche une lutte pour les voies de développement de l'IA
Récemment, Manus a réalisé des performances révolutionnaires lors des tests de référence GAIA, dépassant les modèles de langage de grande taille de même niveau. Manus a démontré sa capacité à accomplir des tâches complexes de manière autonome, telles que des négociations commerciales transnationales, impliquant l'analyse des clauses contractuelles, l'élaboration de stratégies et la génération de solutions. Par rapport aux systèmes traditionnels, l'avantage de Manus réside dans sa décomposition dynamique des objectifs, son raisonnement multimodal et sa capacité d'apprentissage renforcé par la mémoire. Il peut décomposer des tâches complexes en centaines de sous-tâches exécutables, tout en traitant divers types de données, et améliorer constamment l'efficacité décisionnelle et réduire le taux d'erreur grâce à l'apprentissage par renforcement.
La percée de Manus a de nouveau suscité des discussions dans l'industrie sur la voie de développement de l'IA : l'avenir est-il celui d'une intelligence artificielle générale (AGI) dominée par une seule entité, ou celui de systèmes multi-agents (MAS) collaborant ?
La philosophie de conception de Manus implique deux possibilités :
Chemin AGI : Améliorer continuellement le niveau d'intelligence individuelle pour s'approcher de la capacité de prise de décision globale des humains.
Chemin MAS : en tant que super coordinateur, dirige des milliers d'agents spécialisés travaillant en collaboration.
En surface, il s'agit d'une divergence entre différentes voies technologiques, qui reflète en réalité une contradiction profonde sur la manière de concilier efficacité et sécurité dans le développement de l'IA. Plus l'intelligence individuelle se rapproche de l'AGI, plus le risque d'opacité dans son processus décisionnel est élevé ; tandis que la coopération entre plusieurs agents intelligents peut disperser le risque, elle peut également faire manquer des moments clés de décision en raison des délais de communication.
Les progrès de Manus mettent également en évidence les risques inhérents au développement de l'IA :
Problèmes de confidentialité des données : dans le domaine médical, il est nécessaire d'accéder aux données sensibles des patients ; dans les négociations financières, des informations non publiques des entreprises peuvent être impliquées.
Biais algorithmique : lors des négociations d'embauche, des propositions salariales injustes peuvent être faites à l'encontre de certains groupes ; lors de la révision des contrats juridiques, le jugement des clauses des secteurs émergents peut présenter un taux d'erreur plus élevé.
Attaque par adversaire : Les hackers peuvent perturber le jugement des systèmes d'IA en injectant des signaux spécifiques.
Ces défis soulignent une réalité sévère : plus les systèmes d'IA sont intelligents, plus leur surface d'attaque potentielle est large.
Pour faire face à ces défis, l'industrie explore diverses stratégies de sécurité :
Modèle de sécurité Zero Trust : exige une authentification et une autorisation strictes pour chaque demande d'accès.
Identité décentralisée (DID) : réaliser une identification vérifiable et durable sans avoir besoin de s'appuyer sur un registre centralisé.
Chiffrement homomorphe complet (FHE) : permet de calculer des données en état chiffré, protégeant ainsi la vie privée des données.
Parmi eux, le FHE est considéré comme une technologie clé pour résoudre les problèmes de sécurité à l'ère de l'IA. Il peut jouer un rôle dans les domaines suivants :
Au niveau des données : toutes les informations saisies par l'utilisateur sont traitées en état chiffré, même le système d'IA lui-même ne peut pas déchiffrer les données d'origine.
Niveau algorithmique : réaliser "l'entraînement de modèles cryptés" grâce à la FHE, garantissant que le processus de décision de l'IA ne soit pas espionné.
Niveau de collaboration : La communication entre plusieurs agents utilise le cryptage par seuil pour prévenir les fuites de données globales causées par des défaillances ponctuelles.
Bien que le développement des technologies de sécurité Web3 puisse ne pas avoir de lien direct avec l'utilisateur moyen, il est crucial pour le développement sain de l'ensemble de l'écosystème. À une époque où l'IA évolue rapidement, l'importance des technologies de sécurité va sans dire.
Avec l'avancement des technologies d'IA se rapprochant du niveau d'intelligence humaine, nous avons besoin de systèmes de défense plus avancés. Des technologies de sécurité comme l'FHE peuvent non seulement résoudre les problèmes actuels mais aussi préparer le terrain pour un avenir avec une IA plus puissante. Sur la route vers l'AGI, ces technologies de sécurité ne sont plus une option mais une nécessité de survie.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
6 J'aime
Récompense
6
6
Partager
Commentaire
0/400
TheMemefather
· 07-19 17:07
Attendre l'airdrop de la position de verrouillée devant
La percée de Manus déclenche une bataille sur les voies de développement de l'IA, la technologie de sécurité devient essentielle pour l'AGI.
La percée des performances de Manus déclenche une lutte pour les voies de développement de l'IA
Récemment, Manus a réalisé des performances révolutionnaires lors des tests de référence GAIA, dépassant les modèles de langage de grande taille de même niveau. Manus a démontré sa capacité à accomplir des tâches complexes de manière autonome, telles que des négociations commerciales transnationales, impliquant l'analyse des clauses contractuelles, l'élaboration de stratégies et la génération de solutions. Par rapport aux systèmes traditionnels, l'avantage de Manus réside dans sa décomposition dynamique des objectifs, son raisonnement multimodal et sa capacité d'apprentissage renforcé par la mémoire. Il peut décomposer des tâches complexes en centaines de sous-tâches exécutables, tout en traitant divers types de données, et améliorer constamment l'efficacité décisionnelle et réduire le taux d'erreur grâce à l'apprentissage par renforcement.
La percée de Manus a de nouveau suscité des discussions dans l'industrie sur la voie de développement de l'IA : l'avenir est-il celui d'une intelligence artificielle générale (AGI) dominée par une seule entité, ou celui de systèmes multi-agents (MAS) collaborant ?
La philosophie de conception de Manus implique deux possibilités :
Chemin AGI : Améliorer continuellement le niveau d'intelligence individuelle pour s'approcher de la capacité de prise de décision globale des humains.
Chemin MAS : en tant que super coordinateur, dirige des milliers d'agents spécialisés travaillant en collaboration.
En surface, il s'agit d'une divergence entre différentes voies technologiques, qui reflète en réalité une contradiction profonde sur la manière de concilier efficacité et sécurité dans le développement de l'IA. Plus l'intelligence individuelle se rapproche de l'AGI, plus le risque d'opacité dans son processus décisionnel est élevé ; tandis que la coopération entre plusieurs agents intelligents peut disperser le risque, elle peut également faire manquer des moments clés de décision en raison des délais de communication.
Les progrès de Manus mettent également en évidence les risques inhérents au développement de l'IA :
Problèmes de confidentialité des données : dans le domaine médical, il est nécessaire d'accéder aux données sensibles des patients ; dans les négociations financières, des informations non publiques des entreprises peuvent être impliquées.
Biais algorithmique : lors des négociations d'embauche, des propositions salariales injustes peuvent être faites à l'encontre de certains groupes ; lors de la révision des contrats juridiques, le jugement des clauses des secteurs émergents peut présenter un taux d'erreur plus élevé.
Attaque par adversaire : Les hackers peuvent perturber le jugement des systèmes d'IA en injectant des signaux spécifiques.
Ces défis soulignent une réalité sévère : plus les systèmes d'IA sont intelligents, plus leur surface d'attaque potentielle est large.
Pour faire face à ces défis, l'industrie explore diverses stratégies de sécurité :
Modèle de sécurité Zero Trust : exige une authentification et une autorisation strictes pour chaque demande d'accès.
Identité décentralisée (DID) : réaliser une identification vérifiable et durable sans avoir besoin de s'appuyer sur un registre centralisé.
Chiffrement homomorphe complet (FHE) : permet de calculer des données en état chiffré, protégeant ainsi la vie privée des données.
Parmi eux, le FHE est considéré comme une technologie clé pour résoudre les problèmes de sécurité à l'ère de l'IA. Il peut jouer un rôle dans les domaines suivants :
Au niveau des données : toutes les informations saisies par l'utilisateur sont traitées en état chiffré, même le système d'IA lui-même ne peut pas déchiffrer les données d'origine.
Niveau algorithmique : réaliser "l'entraînement de modèles cryptés" grâce à la FHE, garantissant que le processus de décision de l'IA ne soit pas espionné.
Niveau de collaboration : La communication entre plusieurs agents utilise le cryptage par seuil pour prévenir les fuites de données globales causées par des défaillances ponctuelles.
Bien que le développement des technologies de sécurité Web3 puisse ne pas avoir de lien direct avec l'utilisateur moyen, il est crucial pour le développement sain de l'ensemble de l'écosystème. À une époque où l'IA évolue rapidement, l'importance des technologies de sécurité va sans dire.
Avec l'avancement des technologies d'IA se rapprochant du niveau d'intelligence humaine, nous avons besoin de systèmes de défense plus avancés. Des technologies de sécurité comme l'FHE peuvent non seulement résoudre les problèmes actuels mais aussi préparer le terrain pour un avenir avec une IA plus puissante. Sur la route vers l'AGI, ces technologies de sécurité ne sont plus une option mais une nécessité de survie.