Vitalik teme a AGI y ASI: los seres humanos deben enfocarse en herramientas de mejora de la inteligencia en lugar de reemplazar a la IA

El cofundador de Ethereum, Vitalik Buterin, compartió su perspectiva única sobre AGI (Inteligencia Artificial General) y ASI (Inteligencia Artificial Superinteligente) en Twitter, enfatizando la importancia de centrarse en herramientas de IA en lugar de buscar el desarrollo de formas de vida superinteligentes que reemplacen a los humanos. Él está bastante preocupado por un desarrollo excesivo de AGI y ASI.

AGI es la inteligencia artificial independiente que mantiene la civilización

Vitalik define AGI como una IA bastante poderosa. Dijo que si todos los humanos desaparecieran repentinamente y esta IA se instalara en un robot, podría operar de forma independiente y sostener el desarrollo de toda la civilización. Agregó que el concepto se actualizará aún más de la "instrumentalidad" de la IA tradicional a una "forma de vida autosuficiente".

Vitalik señala que la tecnología actual no puede simular esta situación, no podemos probar realmente si la IA puede mantener la civilización sin la presencia de personas, y es aún más difícil definir los criterios para el desarrollo de la civilización. ¿Qué condiciones representan que la civilización sigue funcionando? Estas preguntas en sí mismas son muy complicadas, pero esta podría ser la principal distinción entre AGI y la IA convencional que las personas pueden identificar directamente.

(Nota: una forma de vida autosostenida, que significa la capacidad de obtener y utilizar recursos para mantener actividades vitales, adaptarse a cambios ambientales y sobrevivir continuamente en ciertas condiciones).

Destacar la importancia de las herramientas de asistencia inteligente, no reemplazar a los humanos con AI

Vitalik define la superinteligencia artificial (ASI) como el punto en el que el progreso de la IA supera el valor que puede aportar la participación humana, llegando a una etapa de completa autonomía y mayor eficiencia. Como ejemplo, menciona que el ajedrez ha entrado realmente en esta etapa en la última década, con un nivel de IA que supera las mejores actuaciones logradas por la colaboración entre humanos y AI, y admite que la ASI le produce miedo, ya que significa que los humanos podrían perder realmente el control sobre la IA.

Vitalik afirmó que en lugar de desarrollar un superorganismo inteligente, deberíamos centrarnos en desarrollar herramientas que fortalezcan la inteligencia y las capacidades humanas. Él cree que la IA debe ayudar a los humanos en lugar de reemplazarlos. Cree que esta línea de desarrollo puede reducir el riesgo de que la IA sea incontrolable, al mismo tiempo que mejora la eficiencia y la estabilidad de la sociedad en su conjunto.

La amenaza del desempleo traída por la IA generativa: ¿Los trabajadores de Amazon serán completamente reemplazados por una flota de máquinas?

Vitalik is afraid of AGI and ASI in this article: Humans should prioritize the focus on intelligence enhancement tools, not replacing humans with AI. Originally appeared in Chain News ABMedia.

Ver originales
El contenido es solo de referencia, no una solicitud u oferta. No se proporciona asesoramiento fiscal, legal ni de inversión. Consulte el Descargo de responsabilidad para obtener más información sobre los riesgos.
  • Recompensa
  • Comentar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado
Comercie con criptomonedas en cualquier lugar y en cualquier momento
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)