كشف جان ليك، الذي كان باحثًا رئيسيًا في مجال السلامة في OpenAI، أن الشركة التي تقف وراء ChatGPT تعطي الأولوية “للمنتجات اللامعة” على السلامة.
وأكد الذي كان مسؤولا عن ضمان التزام أنظمة الذكاء الاصطناعي القوية بالقيم والأهداف الإنسانية، أن استقالته جاءت بعد أن وصل الخلاف حول الأهداف الرئيسية إلى “نقطة الانهيار”.
كما قام لايكي بتفصيل أسباب رحيله في منشور على منصة “X” يوم الجمعة الماضي، معتبرا أن ثقافة السلامة أصبحت أقل أولوية في الشركة.
وكشف أنه خلال السنوات الماضية تراجعت ثقافة وعمليات السلامة إلى منتجات لامعة، مؤكدا أنه كان يختلف مع قيادة OpenAI حول أولويات الشركة منذ بعض الوقت، لكن هذه المواجهة وصلت أخيرا إلى نقطة الانهيار، على حد قوله.
وقال: “يجب على OpenAI، التي طورت أيضًا مولد الصور Dall-E ومولد الفيديو Sora، استثمار المزيد من الموارد في قضايا مثل السلامة والتأثير الاجتماعي والسرية والأمن للجيل القادم من النماذج”.
وتابع: “من الصعب جدًا حل هذه المشكلات بالشكل الصحيح، وأنا قلق من أننا لسنا على الطريق الصحيح للوصول إلى هناك”، مضيفًا أن الأمر أصبح “أصعب فأصعب” على فريقه إجراء أبحاثهم.
وقال: “إن بناء آلات أكثر ذكاءً من البشر هو مسعى خطير بطبيعته. وتتحمل شركة OpenAI مسؤولية هائلة نيابة عن البشرية جمعاء”، مشددًا على أن OpenAI “يجب أن تصبح شركة الذكاء الاصطناعي العام التي تضع السلامة أولاً”. (عربي)