La crisis de gobernanza de OpenAI y las lecciones del modelo DAO
Recientemente, la crisis de gobernanza interna de OpenAI ha generado amplias discusiones en la industria. Muchas personas creen que si OpenAI adoptara un modelo de organización autónoma descentralizada (DAO) para su gobernanza, podría evitar esta controversia. Este punto de vista merece reflexión, ya que ciertos principios de gobernanza de DAO podrían ayudar a OpenAI a mejorar su estructura de gestión.
OpenAI, como una organización sin fines de lucro dedicada a crear inteligencia artificial general segura (AGI) y beneficiar a toda la humanidad, tiene una misión que se asemeja a la de muchas organizaciones DAO que crean bienes públicos. Sin embargo, la reciente agitación interna de OpenAI no se debe a su estructura organizativa en sí, sino a la falta de claridad y razonabilidad en las reglas de gobernanza.
Por ejemplo, la junta directiva de OpenAI, como el máximo órgano de poder, originalmente estaba compuesta por 9 personas, pero actualmente solo quedan 6, y no han podido incorporar nuevos miembros a tiempo. Lo que es aún más preocupante es que decisiones importantes, como la sustitución del CEO Sam Altman, se tomaron en reuniones no públicas por parte de algunos directores, careciendo de un proceso de discusión y revisión adecuado, y sin considerar las opiniones de otras partes interesadas.
Para una organización tan importante que afecta el desarrollo de tecnologías básicas, la seguridad social e incluso el destino de la humanidad, el mecanismo de gobernanza de OpenAI presenta claramente serias deficiencias. Tomando como referencia el modelo de gobernanza de DAO, OpenAI podría considerar la introducción de más poderes de equilibrio, como representantes de empleados, y establecer un mecanismo de toma de decisiones más transparente e inclusivo.
Es importante notar que cuando se propuso por primera vez el DAO, su objetivo era crear un sistema que funcionara de manera autónoma y completamente dependiente del código. Sin embargo, los DAO en la realidad han tenido que aceptar la necesidad de la intervención humana, y sus características han pasado de "autonomía" a "impulsado por la comunidad". Esta transición tiene similitudes interesantes con la trayectoria del desarrollo de la AGI.
OpenAI define la AGI como un sistema altamente autónomo que puede superar a los humanos en la mayoría de los trabajos de valor económico. En esencia, tanto la AGI como el DAO buscan construir sistemas verdaderamente autónomos. Entonces, ¿cómo deberíamos gobernar tales sistemas? ¿Deberíamos depender más de la alineación con los valores humanos intrínsecos, o deberíamos fortalecer las restricciones externas? Esta es una cuestión que necesita ser reflexionada en el proceso de desarrollo desde los grandes modelos de lenguaje hasta la AGI.
Las últimas noticias indican que hasta el 90% de los empleados de OpenAI están dispuestos a renunciar y seguir a Sam Altman. Este fenómeno refleja un debate de larga data en el ámbito de DAO: ¿son más importantes las reglas impuestas por el código o es más clave el consenso colectivo de la comunidad?
A pesar de que las reglas y restricciones pueden formar muchos consensos, el verdadero gran consenso a menudo proviene de un sentido compartido de misión y valores culturales. Esta profunda resonancia y coherencia es fundamental para la cohesión organizacional. Ya sabemos cómo crear esta resonancia entre las personas, pero para los sistemas de IA, cómo lograr esta alineación de valores sigue siendo un gran desafío.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
11 me gusta
Recompensa
11
5
Compartir
Comentar
0/400
SillyWhale
· hace6h
El dragón divino no muestra su cola, en el primer momento no se puede ver a la gente en la reunión.
Ver originalesResponder0
FlyingLeek
· hace13h
Un año tontos no puede volar fuera de las Acciones tipo A.
La crisis de OpenAI provoca reflexiones: ¿puede el modelo DAO optimizar la gobernanza de los gigantes de la IA?
La crisis de gobernanza de OpenAI y las lecciones del modelo DAO
Recientemente, la crisis de gobernanza interna de OpenAI ha generado amplias discusiones en la industria. Muchas personas creen que si OpenAI adoptara un modelo de organización autónoma descentralizada (DAO) para su gobernanza, podría evitar esta controversia. Este punto de vista merece reflexión, ya que ciertos principios de gobernanza de DAO podrían ayudar a OpenAI a mejorar su estructura de gestión.
OpenAI, como una organización sin fines de lucro dedicada a crear inteligencia artificial general segura (AGI) y beneficiar a toda la humanidad, tiene una misión que se asemeja a la de muchas organizaciones DAO que crean bienes públicos. Sin embargo, la reciente agitación interna de OpenAI no se debe a su estructura organizativa en sí, sino a la falta de claridad y razonabilidad en las reglas de gobernanza.
Por ejemplo, la junta directiva de OpenAI, como el máximo órgano de poder, originalmente estaba compuesta por 9 personas, pero actualmente solo quedan 6, y no han podido incorporar nuevos miembros a tiempo. Lo que es aún más preocupante es que decisiones importantes, como la sustitución del CEO Sam Altman, se tomaron en reuniones no públicas por parte de algunos directores, careciendo de un proceso de discusión y revisión adecuado, y sin considerar las opiniones de otras partes interesadas.
Para una organización tan importante que afecta el desarrollo de tecnologías básicas, la seguridad social e incluso el destino de la humanidad, el mecanismo de gobernanza de OpenAI presenta claramente serias deficiencias. Tomando como referencia el modelo de gobernanza de DAO, OpenAI podría considerar la introducción de más poderes de equilibrio, como representantes de empleados, y establecer un mecanismo de toma de decisiones más transparente e inclusivo.
Es importante notar que cuando se propuso por primera vez el DAO, su objetivo era crear un sistema que funcionara de manera autónoma y completamente dependiente del código. Sin embargo, los DAO en la realidad han tenido que aceptar la necesidad de la intervención humana, y sus características han pasado de "autonomía" a "impulsado por la comunidad". Esta transición tiene similitudes interesantes con la trayectoria del desarrollo de la AGI.
OpenAI define la AGI como un sistema altamente autónomo que puede superar a los humanos en la mayoría de los trabajos de valor económico. En esencia, tanto la AGI como el DAO buscan construir sistemas verdaderamente autónomos. Entonces, ¿cómo deberíamos gobernar tales sistemas? ¿Deberíamos depender más de la alineación con los valores humanos intrínsecos, o deberíamos fortalecer las restricciones externas? Esta es una cuestión que necesita ser reflexionada en el proceso de desarrollo desde los grandes modelos de lenguaje hasta la AGI.
Las últimas noticias indican que hasta el 90% de los empleados de OpenAI están dispuestos a renunciar y seguir a Sam Altman. Este fenómeno refleja un debate de larga data en el ámbito de DAO: ¿son más importantes las reglas impuestas por el código o es más clave el consenso colectivo de la comunidad?
A pesar de que las reglas y restricciones pueden formar muchos consensos, el verdadero gran consenso a menudo proviene de un sentido compartido de misión y valores culturales. Esta profunda resonancia y coherencia es fundamental para la cohesión organizacional. Ya sabemos cómo crear esta resonancia entre las personas, pero para los sistemas de IA, cómo lograr esta alineación de valores sigue siendo un gran desafío.