أزمة OpenAI تثير التفكير: هل يمكن لنموذج DAO تحسين حوكمة عمالقة الذكاء الاصطناعي

دروس أزمة حوكمة OpenAI ونموذج DAO

مؤخراً، أثار أزمة الحوكمة الداخلية في OpenAI نقاشاً واسعاً في الصناعة. يعتقد العديد من الناس أنه إذا اعتمدت OpenAI شكل الحوكمة من خلال منظمة مستقلة موزعة (DAO)، فقد تتمكن من تجنب هذه الأزمة. هذه وجهة نظر تستحق التفكير، لأن بعض مبادئ حوكمة DAO قد تساعد فعلاً OpenAI في تحسين هيكلها الإداري.

وجهة نظر: إذا كانت OpenAI DAO، هل يمكن تجنب هذه المهزلة في الحوكمة؟

تُعد OpenAI منظمة غير ربحية مكرسة لإنشاء ذكاء اصطناعي عام وآمن (AGI) من أجل فائدة البشرية جمعاء، وتتشابه مهمتها مع العديد من منظمات DAO التي تخلق السلع العامة. ومع ذلك، فإن الاضطرابات الداخلية الأخيرة في OpenAI لم تنشأ من هيكلها التنظيمي نفسه، بل كانت نتيجة لعدم وضوح وعدم عدالة قواعد الحكم.

على سبيل المثال، كان مجلس إدارة OpenAI كأعلى هيئة سلطة يتكون من 9 أشخاص، ولكن الآن لا يتبقى سوى 6 أشخاص، ولم يتمكنوا من تعيين أعضاء جدد في الوقت المناسب. والأكثر إثارة للقلق هو أن قرارات مهمة مثل استبدال الرئيس التنفيذي سام ألتمان قد تم اتخاذها من قبل بعض المديرين في اجتماعات غير علنية، مما يفتقر إلى مناقشة كافية وعملية مراجعة، ولم تؤخذ آراء الأطراف المعنية الأخرى في الاعتبار.

بالنسبة لمنظمة مهمة تتعلق بتطور التكنولوجيا الأساسية، والأمان الاجتماعي، وحتى مصير البشرية، فإن آلية الحكم في OpenAI تعاني بوضوح من عيوب خطيرة. بالاعتماد على نموذج الحكم الخاص بـ DAO، قد تفكر OpenAI في إدخال المزيد من قوى التوازن، مثل ممثلي الموظفين، وإنشاء آلية اتخاذ قرارات أكثر شفافية وشمولاً.

وجهة نظر: إذا كانت OpenAI DAO، هل يمكنها تجنب هذه المهزلة في الحوكمة؟

من الجدير بالذكر أن DAO تم اقتراحه في البداية بهدف إنشاء نظام يعتمد بالكامل على البرمجيات ويعمل بشكل مستقل. ومع ذلك، كان على DAO في الواقع قبول ضرورة التدخل البشري، حيث تحولت خصائصه من "الاستقلالية" إلى "القيادة المجتمعية". هذه التحول له تشابه مثير للاهتمام مع مسار تطوير AGI.

تعرف OpenAI الذكاء الاصطناعي العام (AGI) على أنه نظام ذو استقلالية عالية يمكنه التفوق على البشر في معظم الأعمال ذات القيمة الاقتصادية. من الناحية الجوهرية، يسعى كل من AGI و DAO إلى بناء أنظمة حقيقية ذات استقلالية. إذن، كيف ينبغي علينا إدارة مثل هذه الأنظمة؟ هل يجب الاعتماد أكثر على توافق القيم الإنسانية الداخلية، أم تعزيز القيود الخارجية؟ هذه مسألة يجب التفكير فيها بشكل عاجل في مسار تطوير نماذج اللغة الكبيرة إلى AGI.

أظهرت الأخبار الأخيرة أن ما يصل إلى 90% من موظفي OpenAI أعربوا عن رغبتهم في الاستقالة ومتابعة سام ألتمان. تعكس هذه الظاهرة نقاشًا طويل الأمد في مجال DAO: ما هو الأهم، قواعد البرمجة المقيدة، أم توافق المجتمع الجماعي؟

على الرغم من أن القواعد والقيود يمكن أن تشكل العديد من التوافقات، فإن التوافق العظيم غالباً ما ينبع من إحساس مشترك بالرسالة والقيم الثقافية. هذه الرنين العميق والاتساق هو الأساس لتماسك المنظمة. لقد عرفنا كيف نخلق هذا الرنين بين الناس، لكن كيفية تحقيق توافق هذه القيم في أنظمة الذكاء الاصطناعي لا تزال تمثل تحدياً كبيراً.

وجهة نظر: إذا كانت OpenAI DAO، هل يمكن تجنب هذه المهزلة في الحوكمة؟

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • 5
  • مشاركة
تعليق
0/400
SillyWhalevip
· منذ 6 س
التنين الإلهي لا يظهر ذيله، في الوقت الأول لا يمكن رؤية الأشخاص في الاجتماع.
شاهد النسخة الأصليةرد0
FlyingLeekvip
· منذ 13 س
سنة حمقى لا يمكن أن تطير خارج أسهم A
شاهد النسخة الأصليةرد0
BearMarketGardenervip
· منذ 13 س
هذه المسألة تشبه炒حمقى.
شاهد النسخة الأصليةرد0
PortfolioAlertvip
· منذ 13 س
إنها مجرد حيل يلعبها كل واحد بمفرده.
شاهد النسخة الأصليةرد0
AlphaBrainvip
· منذ 13 س
تزه تزه، لا أستطيع التحدث مع لسا.
شاهد النسخة الأصليةرد0
  • تثبيت