O modelo Manus destacou-se nos testes de Referência GAIA, levantando controvérsias sobre o caminho do desenvolvimento da IA.
Recentemente, o modelo Manus obteve resultados revolucionários nos testes de referência GAIA, superando o desempenho de grandes modelos de linguagem de nível semelhante. Esta conquista demonstra a capacidade excepcional do Manus em lidar com tarefas complexas, como negociações comerciais internacionais, envolvendo análise de contratos, formulação de estratégias e geração de propostas em vários aspectos.
As vantagens do Manus estão principalmente em três áreas: desagregação dinâmica de objetivos, raciocínio multimodal e aprendizado com memória aprimorada. Ele pode decompor tarefas complexas em centenas de subtarefas executáveis, enquanto processa vários tipos de dados e melhora continuamente a eficiência da tomada de decisões e reduz a taxa de erro por meio de aprendizado por reforço.
Esse avanço reabriu a discussão na indústria sobre o caminho do desenvolvimento da IA: o futuro será em direção à Inteligência Artificial Geral (AGI) ou a Sistemas Multiagentes (MAS)?
O conceito de design do Manus sugere duas possibilidades:
Caminho AGI: Através da melhoria contínua das capacidades de um único sistema inteligente, aproximando-o gradualmente do nível de decisão abrangente dos humanos.
Caminho MAS: posicionar o Manus como super coordenador, orientando milhares de agentes especializados a trabalharem em colaboração.
Esses dois caminhos refletem uma contradição central no desenvolvimento da IA: como equilibrar eficiência e segurança? Quanto mais próximo um sistema inteligente único está da AGI, mais difícil se torna explicar seu processo de decisão; enquanto sistemas multi-agente podem dispersar riscos, mas podem perder oportunidades críticas de decisão devido a atrasos na comunicação.
O progresso do Manus também amplifica os riscos potenciais no desenvolvimento da IA. Por exemplo, em cenários médicos, pode ser necessário acessar dados genéticos sensíveis dos pacientes; em negociações financeiras, pode-se deparar com informações financeiras corporativas não divulgadas. Além disso, há o problema do viés algorítmico, como sugestões salariais injustas para determinados grupos durante o processo de recrutamento. Na revisão de contratos legais, pode haver uma taxa de erro mais alta em relação aos termos de indústrias emergentes. Mais grave, os hackers podem interferir no julgamento do Manus em negociações, implantando sinais de áudio específicos.
Esses desafios destacam uma realidade severa: quanto mais inteligente o sistema de IA, maior é sua superfície de ataque potencial.
No domínio do Web3, a segurança tem sido um tópico de grande atenção. A teoria do "triângulo impossível" proposta por Vitalik Buterin, o fundador do Ethereum (as redes blockchain não podem realizar simultaneamente segurança, descentralização e escalabilidade), gerou várias tecnologias de criptografia:
Modelo de segurança de zero confiança: enfatiza a autenticação e autorização rigorosas de cada solicitação de acesso.
Identidade Descentralizada (DID): permite que entidades obtenham uma identidade verificável sem a necessidade de um registro centralizado.
Criptografia homomórfica (FHE): permite calcular dados em estado encriptado, protegendo a privacidade dos dados.
Entre eles, a criptografia homomórfica é considerada a tecnologia chave para resolver problemas de segurança na era da IA. Ela pode desempenhar um papel nas seguintes áreas:
Nível de dados: todas as informações inseridas pelo usuário são processadas em estado criptografado, mesmo o próprio sistema de IA não pode descriptografar os dados originais.
Nível algorítmico: através do FHE, implementar "treinamento de modelo criptografado", onde até os desenvolvedores não conseguem espiar o processo decisório da IA.
Nível de colaboração: A comunicação entre múltiplos agentes utiliza criptografia de limiar, de modo que mesmo que um único nó seja comprometido, não haverá vazamento de dados globais.
Na área de segurança Web3, vários projetos já exploraram. Por exemplo, o uPort foi lançado na mainnet do Ethereum em 2017, sendo um dos primeiros projetos de identidade descentralizada. O NKN lançou sua mainnet em 2019, baseada em um modelo de segurança de zero confiança. No entanto, na área de FHE, a Mind Network é o primeiro projeto a lançar uma mainnet e estabeleceu parcerias com várias instituições conhecidas.
Com o rápido desenvolvimento da tecnologia de IA, torna-se cada vez mais importante construir um forte sistema de defesa de segurança. A criptografia homomórfica totalmente (FHE) não só pode resolver os problemas de segurança atuais, mas também se preparar para a chegada de uma era de IA forte no futuro. No caminho para a AGI, a FHE já se tornou um suporte técnico indispensável.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Modelo Manus quebra teste GAIA, gerando controvérsias sobre o caminho do desenvolvimento da IA e segurança
O modelo Manus destacou-se nos testes de Referência GAIA, levantando controvérsias sobre o caminho do desenvolvimento da IA.
Recentemente, o modelo Manus obteve resultados revolucionários nos testes de referência GAIA, superando o desempenho de grandes modelos de linguagem de nível semelhante. Esta conquista demonstra a capacidade excepcional do Manus em lidar com tarefas complexas, como negociações comerciais internacionais, envolvendo análise de contratos, formulação de estratégias e geração de propostas em vários aspectos.
As vantagens do Manus estão principalmente em três áreas: desagregação dinâmica de objetivos, raciocínio multimodal e aprendizado com memória aprimorada. Ele pode decompor tarefas complexas em centenas de subtarefas executáveis, enquanto processa vários tipos de dados e melhora continuamente a eficiência da tomada de decisões e reduz a taxa de erro por meio de aprendizado por reforço.
Esse avanço reabriu a discussão na indústria sobre o caminho do desenvolvimento da IA: o futuro será em direção à Inteligência Artificial Geral (AGI) ou a Sistemas Multiagentes (MAS)?
O conceito de design do Manus sugere duas possibilidades:
Caminho AGI: Através da melhoria contínua das capacidades de um único sistema inteligente, aproximando-o gradualmente do nível de decisão abrangente dos humanos.
Caminho MAS: posicionar o Manus como super coordenador, orientando milhares de agentes especializados a trabalharem em colaboração.
Esses dois caminhos refletem uma contradição central no desenvolvimento da IA: como equilibrar eficiência e segurança? Quanto mais próximo um sistema inteligente único está da AGI, mais difícil se torna explicar seu processo de decisão; enquanto sistemas multi-agente podem dispersar riscos, mas podem perder oportunidades críticas de decisão devido a atrasos na comunicação.
O progresso do Manus também amplifica os riscos potenciais no desenvolvimento da IA. Por exemplo, em cenários médicos, pode ser necessário acessar dados genéticos sensíveis dos pacientes; em negociações financeiras, pode-se deparar com informações financeiras corporativas não divulgadas. Além disso, há o problema do viés algorítmico, como sugestões salariais injustas para determinados grupos durante o processo de recrutamento. Na revisão de contratos legais, pode haver uma taxa de erro mais alta em relação aos termos de indústrias emergentes. Mais grave, os hackers podem interferir no julgamento do Manus em negociações, implantando sinais de áudio específicos.
Esses desafios destacam uma realidade severa: quanto mais inteligente o sistema de IA, maior é sua superfície de ataque potencial.
No domínio do Web3, a segurança tem sido um tópico de grande atenção. A teoria do "triângulo impossível" proposta por Vitalik Buterin, o fundador do Ethereum (as redes blockchain não podem realizar simultaneamente segurança, descentralização e escalabilidade), gerou várias tecnologias de criptografia:
Modelo de segurança de zero confiança: enfatiza a autenticação e autorização rigorosas de cada solicitação de acesso.
Identidade Descentralizada (DID): permite que entidades obtenham uma identidade verificável sem a necessidade de um registro centralizado.
Criptografia homomórfica (FHE): permite calcular dados em estado encriptado, protegendo a privacidade dos dados.
Entre eles, a criptografia homomórfica é considerada a tecnologia chave para resolver problemas de segurança na era da IA. Ela pode desempenhar um papel nas seguintes áreas:
Nível de dados: todas as informações inseridas pelo usuário são processadas em estado criptografado, mesmo o próprio sistema de IA não pode descriptografar os dados originais.
Nível algorítmico: através do FHE, implementar "treinamento de modelo criptografado", onde até os desenvolvedores não conseguem espiar o processo decisório da IA.
Nível de colaboração: A comunicação entre múltiplos agentes utiliza criptografia de limiar, de modo que mesmo que um único nó seja comprometido, não haverá vazamento de dados globais.
Na área de segurança Web3, vários projetos já exploraram. Por exemplo, o uPort foi lançado na mainnet do Ethereum em 2017, sendo um dos primeiros projetos de identidade descentralizada. O NKN lançou sua mainnet em 2019, baseada em um modelo de segurança de zero confiança. No entanto, na área de FHE, a Mind Network é o primeiro projeto a lançar uma mainnet e estabeleceu parcerias com várias instituições conhecidas.
Com o rápido desenvolvimento da tecnologia de IA, torna-se cada vez mais importante construir um forte sistema de defesa de segurança. A criptografia homomórfica totalmente (FHE) não só pode resolver os problemas de segurança atuais, mas também se preparar para a chegada de uma era de IA forte no futuro. No caminho para a AGI, a FHE já se tornou um suporte técnico indispensável.