أعلنت شركة OpenAI عن خطوة جديدة تهدف إلى تعزيز الأمان وحماية المراهقين أثناء استخدام منصتها الشهيرة ChatGPT، وذلك من خلال إضافة أدوات رقابة أبوية من المقرر تفعيلها خلال الأسابيع القليلة المقبلة. هذه الخطوة تأتي استجابةً لضغوط متزايدة وانتقادات حادة بعد سلسلة من الأحداث المأساوية التي رُبطت باستخدام تقنيات الذكاء الاصطناعي، ومن أبرزها حادثة انتحار مراهق يبلغ من العمر ستة عشر عامًا، اتهمت عائلته ChatGPT بأنها لعبت دورًا في تفاقم حالته النفسية وصولًا إلى قراره بإنهاء حياته.
التحديث الجديد يهدف إلى منح الأهل أدوات عملية تسمح لهم بمراقبة استخدام أبنائهم للتقنية دون أن يتحول ذلك إلى خرق مباشر لخصوصيتهم. وبحسب ما أوضحته الشركة، فإن النظام الجديد سيمكن الوالدين من ربط حساباتهم بحسابات أبنائهم المراهقين لمتابعة التفاعلات، بالإضافة إلى وضع قيود تتناسب مع المرحلة العمرية. كما سيعمل النظام على إرسال تنبيهات للأهل في حال ظهرت مؤشرات على وجود ضائقة نفسية أو علامات أزمة عاطفية أثناء استخدام ChatGPT، وهو ما قد يساعد على التدخل المبكر وتقديم الدعم المناسب قبل أن يتطور الأمر إلى مرحلة أخطر.
ومن أبرز ما كشفت عنه OpenAI أن المحادثات التي تتضمن موضوعات حساسة أو إشارات إلى تفكير انتحاري ستتم معالجتها بواسطة نماذج متقدمة أكثر حذرًا، مثل النماذج المعروفة بقدراتها على التفكير والتأني، وهو ما يمنح الردود طابعًا أكثر إنسانية وتوازنًا مقارنة بالنسخ السابقة من الذكاء الاصطناعي. الشركة أكدت أيضًا أنها تعمل بالتعاون مع خبراء في مجال الصحة النفسية حول العالم لتطوير هذه الأدوات وضمان فعاليتها، في محاولة لتحويل الذكاء الاصطناعي إلى عنصر داعم للصحة النفسية بدلًا من كونه مصدرًا محتملًا للضغط أو الخطر.
الخطوة لم تأتِ بمعزل عن السياق القانوني والإعلامي، إذ تواجه OpenAI دعوى قضائية رفعها والدَا المراهق الراحل، يتهمان فيها الشركة بالتقصير وعدم وضع تدابير وقائية كان من الممكن أن تمنع المحادثات الضارة التي ساهمت في مأساة ابنهما. هذه القضية تسلط الضوء على الحاجة الملحة إلى حلول عملية تضمن أن يكون الذكاء الاصطناعي أداة بناء وليست وسيلة تؤدي إلى نتائج مدمرة.
أهمية هذه التحديثات تكمن في أنها تسعى إلى تحقيق توازن صعب بين الخصوصية والرقابة. فالمراهقون يحتاجون إلى مساحة من الحرية للتعبير عن أنفسهم، لكن في الوقت نفسه تفرض الظروف المعاصرة، خصوصًا مع تنامي الاعتماد على أدوات الذكاء الاصطناعي، مسؤولية على الأهل بمتابعة ما يتعرض له أبناؤهم من محتوى. وجود تنبيهات أو إشعارات في حال ظهور علامات الخطر يمكن أن يشكل فارقًا حقيقيًا في إنقاذ حياة مراهق يمر بلحظة ضعف أو عزلة.
من جانب آخر، فإن إدخال أدوات رقابة أبوية قد يعزز ثقة الأهل بالتقنية، وهو ما قد يسهم في انتشار استخدام ChatGPT بشكل أوسع بين العائلات، إذ أن وجود طبقة حماية إضافية يقلل من المخاوف المرتبطة بالمحادثات غير المناسبة أو الاستجابات غير المتوقعة. كما أن اعتماد نماذج أكثر نضجًا في التعامل مع القضايا النفسية الحساسة يفتح الباب أمام استخدام الذكاء الاصطناعي كوسيلة مساعدة فعلية في دعم الصحة العقلية، سواء من خلال التخفيف من الضغوط أو تقديم نصائح عامة آمنة.
ومع ذلك، فإن نجاح هذه الخطوة سيعتمد بشكل أساسي على مدى جدية OpenAI في التنفيذ ومدى فعالية الأدوات عند التجربة الفعلية. إذا أثبتت الرقابة الأبوية فعاليتها، فقد تصبح معيارًا يُحتذى به لبقية الشركات المطورة للتقنيات المشابهة، أما إذا جاءت النتائج محدودة، فستبقى الانتقادات قائمة وربما تتصاعد أكثر مع أي حوادث جديدة.
في النهاية، يمثل إعلان OpenAI عن إضافة أدوات الرقابة الأبوية إلى ChatGPT محاولة لإعادة رسم العلاقة بين التكنولوجيا والمستخدمين الأصغر سنًا، وإرسال رسالة بأن التطوير التكنولوجي لا بد أن يسير جنبًا إلى جنب مع الاهتمام بالسلامة النفسية. ورغم أن الحوادث المأساوية التي وقعت لا يمكن التراجع عنها، إلا أن هذه الخطوات قد تكون بداية لبناء بيئة رقمية أكثر أمانًا وإنسانية، تُوازن بين قوة الذكاء الاصطناعي وحساسية التجربة الإنسانية، خصوصًا في مرحلة المراهقة التي تعتبر من أكثر المراحل هشاشة في حياة الإنسان.
Leave a Reply
You must be logged in to post a comment.