هذا الأسبوع، استقال جان لايك، المسؤول المشترك لفريق “تحالف الذكاء الصناعي” في OpenAI (الذي يراقب قضايا السلامة في الشركة). في سلسلة على منصة X (التي كانت سابقًا Twitter)، شرح زعيم السلامة سبب مغادرته لـ OpenAI، مشيرًا إلى عدم اتفاقه مع قيادة الشركة حول “أولوياتها الأساسية” لـ “فترة طويلة جدًا”، بحيث بلغ الأمر “نقطة الانفجار”.
في اليوم التالي، رد الرئيس التنفيذي لشركة OpenAI، سام ألتمان، والرئيس والمؤسس المشارك غريغ بروكمان على ادعاءات لايك بأن الشركة لا تركز على السلامة.
من بين النقاط الأخرى التي ذكرها لايك أن “ثقافة السلامة والعمليات في OpenAI تم وضعها في المقاعد الخلفية أمام المنتجات اللامعة” في السنوات الأخيرة، وأن فريقه واجه صعوبات في الحصول على الموارد اللازمة لإتمام عملهم الخاص بالسلامة.
تأكيد صفقة Reddit مع OpenAI. إليك ما يعنيه ذلك لمشاركاتك وتعليقاتك.
“نحن متأخرون جدًا في أخذ الأمور بجدية مع تداعيات الذكاء الاصطناعي العام (AGI)”، كتب لايك. “يجب علينا إعطاء الأولوية للتحضير لها بأفضل ما لدينا.”
رد ألتمان أولاً في إعادة نشر تغريدة لايك يوم الجمعة، مؤكدًا أن لايك على حق في أن OpenAI لديها “الكثير ليفعله” وانها “ملتزمة بالقيام بذلك”. ووعد بنشر مقال أطول قريبًا.
في يوم السبت، نشر بروكمان اجابة مشتركة منه ومن ألتمان على منصة X:
بعد التعبير عن شكرهم على عمل لايك، قال بروكمان وألتمان إنهم تلقوا أسئلة بعد الاستقالة. شاركوا ثلاث نقاط، الأولى هي أن OpenAI قد زادت الوعي حول AGI “حتى يتمكن العالم من التحضير بشكل أفضل لها.”
“لقد قدمنا مرارًا وتكرارًا الاحتمالات المذهلة من توسيع تعلم العمق وتحليل آثارها؛ دعونا إلى الحكم الدولي على AGI قبل أن تصبح هذه الدعوات شائعة؛ و ساعدو في تقديم علم تقييم أنظمة الذكاء الاصطناعي للمخاطر الكارثية”، كتبوا.
النقطة الثانية هي أنهم يبنون أسسًا لنشر هذه التقنيات بشكل آمن، واستخدموا العمل الذي قام به الموظفون لـ “جلب (Chat) GPT-4 للعالم بطريقة آمنة” كمثال. يدعي الاثنان أنه منذ ذلك الحين – أطلقت OpenAI ChatGPT-4 في مارس 2023 – استمر الشركة في “تحسين سلوك النموذج ومراقبة الإساءة اعتمادًا على الدروس المستفادة من النشر.”.
النقطة الثالثة؟ “ستكون المستقبل أصعب من الماضي”، كتبوا. تحتاج OpenAI إلى مواصلة تعزيز عملها في مجال السلامة مع إصدار نماذج جديدة، وأشارا إلى إطار الإعداد الذي تقدمه الشركة كوسيلة للمساعدة في ذلك. وفقًا لصفحته على موقع OpenAI، يتوقع هذا الإطار “المخاطر الكارثية” التي قد تنشأ، ويسعى للحد منها.
ثم تناول بروكمان وألتمان مستقبلًا، حيث تكون نماذج OpenAI مدمجة أكثر في العالم ويتفاعل معها المزيد من الناس. يرون هذا كشيء مفيد، ويعتقدون أنه من الممكن القيام بذلك بشكل آمن – “ولكن سيتطلب ذلك كمية هائلة من العمل الأساسي.” بسبب هذا، قد تؤخر الشركة الجداول الزمنية للإصدار حتى يصل النماذج إلى “عتبة السلامة.”.
“نحن نعلم أننا لا نستطيع تخيل كل سيناريو مستقبلي محتمل”، قالوا. “لذا نحتاج إلى حلقة ردود فعل ضيقة للغاية، واختبار صارم، وتدقيق دقيق في كل خطوة، وأمان عالمي، وانسجام في السلامة والقدرات.”
قال القادة إن OpenAI ستواصل البحث والعمل مع الحكومات وأصحاب المصلحة في مجال السلامة.
“لا يوجد دليل مؤكد على كيفية الانتقال إلى الذكاء الاصطناعي العام. نعتقد أن الفهم التجريبي يمكن أن يساعد في توجيه الطريق إلى الأمام”، ختموا. “نحن نعتقد على حد سواء في تحقيق الجوانب الجانبية الهائلة والعمل على التخفيف من المخاطر الجدية؛ نأخذ دورنا هنا على محمل الجد ونزن بعناية ردود الفعل على أفعالنا.”
تتضافر استقالة لايك وكلماته مع استقالة عالم الحاسوب الرئيسي في OpenAI إيليا سوتسكيفر هذا الأسبوع أيضًا. أصبحت وسم “#ماذا_رأى_إيليا” موضوعًا رائجًا على منصة X، مشيرة إلى التكهنات حول الأمور التي تعرف عليها القادة الكبار في OpenAI. من خلال التفاعل السلبي مع بيان بروكمان وألتمان اليوم، فإنه لم يزل تصريح أي من تلك التكهنات.
في الوقت الحالي، تواصل الشركة الاستعداد لإطلاق منصة جديدة: ChatGPT-4o، مساعد صوتي.
المواضيع
الذكاء الاصطناعي
OpenAI
Leave a reply