ذكرت صحيفة نيويورك تايمز في تقرير حديث أن مخترقًا تمكن في بداية عام 2023 من الوصول إلى أنظمة المراسلة الداخلية لشركة OpenAI وسرقة معلومات حساسة تتعلق بتقنيات الذكاء الاصطناعي التي تطورها الشركة. وأوضحت الصحيفة أن OpenAI لم تفصح عن الحادثة للجهات المعنية أو عملائها، واكتفت بإبلاغ موظفيها فقط.
بحسب التقرير، استطاع المخترق الوصول إلى منتدى إلكتروني خاص بموظفي OpenAI، حيث تجري مناقشات حول أحدث تقنيات الذكاء الاصطناعي التي تعمل عليها الشركة. ومع ذلك، أشارت الصحيفة إلى أن المخترق لم يتمكن من الوصول إلى الأنظمة الأساسية التي تحتوي على نماذج GPT وتدربها، وهي الأنظمة التي تشكل العمود الفقري لتقنيات الذكاء الاصطناعي الشهيرة لـ OpenAI.
نقلًا عن مصدرين داخل الشركة، ذكرت الصحيفة أن بعض موظفي OpenAI كانوا قد أعربوا سابقًا عن مخاوفهم من إمكانية استغلال دول مثل الصين لهذه الهجمات لسرقة تقنيات الذكاء الاصطناعي، مما قد يشكل تهديدًا للأمن القومي الأمريكي. هذا التحذير يبرز القلق المتزايد حول الأمان الرقمي داخل الشركة والتحديات التي تواجهها في حماية تقنياتها.
أثار هذا الحادث جدلًا واسعًا بين موظفي الشركة حول مدى جدية OpenAI في التعامل مع مسائل الأمن الرقمي. وجاءت تقارير أخرى لتسلط الضوء على وجود انقسامات داخل الشركة بشأن المخاطر المحتملة لتقنيات الذكاء الاصطناعي. في تطورٍ آخر ذي صلة، كتب ليوبولد آشينبرينر، المدير السابق للبرامج التقنية في OpenAI، مذكرة إلى مجلس إدارة الشركة يتهمهم فيها بعدم بذل الجهود الكافية لمنع سرقة التقنيات السرية من “قوى أجنبية معادية”، على حد تعبيره.
ورغم أن الشركة قامت بفصل آشينبرينر بتهمة تسريب معلومات سرية، إلا أنه يزعم أن فصله كان لدوافع سياسية. تسريبات هذه المعلومات زادت من المشاكل التي تواجهها OpenAI، التي كانت قد شهدت مؤخرًا صراعًا بين الرئيس التنفيذي، سام ألتمان، ومجلس الإدارة. ففي وقت سابق، أقال المجلس ألتمان من منصبه، ولكنه عاد لاحقًا إلى منصبه بعد فترة وجيزة.
الشركة أيضًا شهدت استقالات عديدة بين الباحثين في مجال سلامة الذكاء الاصطناعي، بسبب خلافات حول مفهوم “التوافق الفائق” (Superalignment)، وهو مصطلح يشير إلى إيجاد طرق تتيح للبشر التحكم في الذكاء الاصطناعي الفائق. هذه الاستقالات تعكس التوترات الداخلية والمخاوف حول الاتجاه الذي تسير فيه الشركة بشأن تطوير التقنيات المتقدمة وضمان سلامتها.
في المجمل، تزايدت الضغوط على OpenAI وسط هذه التطورات، مما يسلط الضوء على التحديات المعقدة التي تواجهها في حماية تقنياتها وضمان الأمن الرقمي لموظفيها وعملائها. الحادثة الأخيرة تُظهر الحاجة الملحة لتعزيز أنظمة الأمان الداخلي للشركة والتعاون مع الجهات المعنية لضمان عدم تكرار مثل هذه الاختراقات في المستقبل، خاصة مع الأهمية المتزايدة لتقنيات الذكاء الاصطناعي في مختلف المجالات وتأثيرها المحتمل على الأمن القومي.

Leave a Reply
You must be logged in to post a comment.