11 من رواد الذكاء الاصطناعي يطلبون الحماية لكشف حقائق

الذكاء الاصطناعي
الذكاء الاصطناعي

أصدر عاملون في مجال الذكاء الاصطناعي، رسالة عالمية يحذرون فيها من نقص الرقابة على السلامة ويطالبون بمزيد من الحماية للمبلغين عن المخالفات.

وقع على الرسالة 11 موظفاً حالياً وسابقاً في OpenAI، بالإضافة إلى اثنين من موظفي “Google DeepMind” الحاليين أو السابقين – أحدهما كان يعمل سابقاً في “Anthropic”.

وجاء في الرسالة: “تمتلك شركات الذكاء الاصطناعي معلومات كبيرة غير عامة حول قدرات أنظمتها والقيود المفروضة عليها، ومدى كفاية تدابير الحماية الخاصة بها، ومستويات مخاطر أنواع مختلفة من الضرر.. ومع ذلك، ليس لديهم حالياً سوى التزامات ضعيفة بمشاركة بعض هذه المعلومات مع الحكومات، وليس مع المجتمع المدني”.

ودافعت شركة OpenAI عن موقفها في بيان، قالت فيه إن لديها طرقاً مثل خط إرشادي للإبلاغ عن المشكلات في الشركة.

وقال متحدث باسم “OpenAI”: “متفقون على أن النقاش الدقيق أمر بالغ الأهمية نظراً لأهمية هذه التكنولوجيا وسنواصل التعامل مع الحكومات والمجتمع المدني والمجتمعات الأخرى حول العالم”.

وتدعو الرسالة التي نشرتها صحيفة نيويورك تايمز، إلى زيادة الحماية للعاملين في شركات الذكاء الاصطناعي المتقدمة الذين يقررون التعبير عن مخاوفهم المتعلقة بالسلامة. كما تطالب الرسالة بالالتزام بأربعة مبادئ حول الشفافية والمساءلة، بما في ذلك بند ينص على أن الشركات لن تجبر الموظفين على التوقيع على أي اتفاقيات عدم الاستخفاف التي تحظر نشر قضايا الذكاء الاصطناعي المتعلقة بالمخاطر وآلية للموظفين لتبادل المخاوف مع أعضاء مجلس الإدارة دون الكشف عن هويتهم.

وجاء في الرسالة: “طالما لا توجد رقابة حكومية فعالة على هذه الشركات، فإن الموظفين الحاليين والسابقين هم من بين الأشخاص القلائل الذين يمكنهم مساءلتهم أمام الجمهور.. ومع ذلك، فإن اتفاقيات السرية الواسعة تمنعنا من التعبير عن مخاوفنا”.

وتنتهج شركات مثل OpenAI تكتيكات عدوانية لمنع الموظفين من التحدث بحرية عن عملهم، حيث ذكرت Vox الأسبوع الماضي أن OpenAI جعلت الموظفين الذين يغادرون الشركة يوقعون على مستندات عدم الاستخفاف وعدم الإفصاح المقيدة للغاية أو يفقدون جميع حقوقهم المكتسبة. الرئيس التنفيذي لشركة OpenAI، بعد نشر التقرير، قائلاً إنه سيغير الإجراءات.

وتأتي الرسالة بعد استقالة اثنين من كبار موظفي OpenAI، المؤسس المشارك و باحث السلامة الرئيسي، من الشركة الشهر الماضي. وزعموا بعد رحيلهم أن شركة OpenAI تخلت عن ثقافة السلامة لصالح المنتجات اللامعة.

اقرأ ايضاً: تعرف على أبرز أدوات الذكاء الاصطناعي التعليمية للطلاب