موظفو OpenAI يتهمون الشركة بإهمال بروتوكولات السلامة والأمن .. ما الذى يعنيه ذلك؟

كانت OpenAI في طليعة طفرة الذكاء الاصطناعي (AI) من خلال برنامج الدردشة ChatGPT ونماذج اللغات الكبيرة المتقدمة (LLMs)، لكن سجل السلامة الخاص بالشركة أثار مخاوف كثيرة، حيث زعم تقرير جديد أن شركة الذكاء الاصطناعي تسرع وتتجاهل بروتوكولات السلامة والأمن أثناء تطوير نماذج جديدة، وأبرز التقرير أن الإهمال حدث قبل إطلاق أحدث طراز GPT-4 Omni (أو GPT-4o) من OpenAI، وفقًا لموقع gadgets360.

 

قام بعض موظفي OpenAI المجهولين مؤخرًا بالتوقيع على خطاب مفتوح يعبرون فيه عن مخاوفهم بشأن نقص الرقابة حول بناء أنظمة الذكاء الاصطناعي، والجدير بالذكر أن شركة الذكاء الاصطناعي أنشأت أيضًا لجنة جديدة للسلامة والأمن تضم أعضاء مجلس إدارة ومديرين مختارين لتقييم وتطوير البروتوكولات الجديدة.

يقال إن OpenAI تهمل بروتوكولات السلامة، ومع ذلك، قال ثلاثة من موظفي OpenAI لم يذكر أسماءهم لصحيفة واشنطن بوست إن الفريق شعر بالضغط من أجل الإسراع في تنفيذ بروتوكول اختبار جديد تم تصميمه "لمنع نظام الذكاء الاصطناعي من التسبب في ضرر كارثي، للوفاء بموعد الإطلاق في مايو الذي حدده قادة OpenAI".

جدير بالذكر أن هذه البروتوكولات موجودة لضمان عدم تقديم نماذج الذكاء الاصطناعي معلومات ضارة مثل كيفية بناء أسلحة كيميائية وبيولوجية وإشعاعية ونووية (CBRN) أو المساعدة في تنفيذ هجمات إلكترونية.

علاوة على ذلك، أبرز التقرير أن حادثة مماثلة وقعت قبل إطلاق GPT-4o، والذي وصفته الشركة بأنه نموذج الذكاء الاصطناعي الأكثر تقدمًا لديها، لقد خططوا لعملية الإطلاق قبل معرفة ما إذا كان الإطلاق آمنًا، ونقل التقرير عن موظف في OpenAI لم يذكر اسمه قوله: "لقد فشلنا بشكل أساسي في هذه العملية".

ليست هذه هي المرة الأولى التي يشير فيها موظفو OpenAI إلى تجاهل واضح لبروتوكولات السلامة والأمن في الشركة، في الشهر الماضي، وقع العديد من الموظفين السابقين والحاليين في OpenAI وGoogle DeepMind خطابًا مفتوحًا يعربون فيه عن مخاوفهم بشأن نقص الرقابة في بناء أنظمة الذكاء الاصطناعي الجديدة التي يمكن أن تشكل مخاطر كبيرة.

دعت الرسالة إلى التدخل الحكومي والآليات التنظيمية، فضلاً عن توفير الحماية القوية للمبلغين عن المخالفات من قبل أصحاب العمل، أيد اثنان من العرابين الثلاثة للذكاء الاصطناعي، جيفري هينتون ويوشوا بنجيو، الرسالة المفتوحة.

في شهر مايو، أعلنت شركة OpenAI عن إنشاء لجنة جديدة للسلامة والأمن، تم تكليفها بتقييم ومواصلة تطوير عمليات شركة الذكاء الاصطناعي والضمانات بشأن "قرارات السلامة والأمن الحاسمة لمشاريع وعمليات OpenAI"، كما شاركت الشركة مؤخرًا إرشادات جديدة لبناء نموذج ذكاء اصطناعي مسؤول وأخلاقي، يُطلق عليه اسم Model Spec.

Image removed.

 

Image removed.

 

j