الذكاء الاصطناعي لم يبتكر مخاطر جديدة… بل ضاعَف المخاطر القديمة
في ظل الاندفاع العالمي نحو تبنّي تقنيات الذكاء الاصطناعي، تحذر شركات استشارية متخصصة مثل BDO في أستراليا من الوقوع في فخ المبالغة في تصوير المخاطر أو اعتبارها ظواهر جديدة بالكامل. فبرغم أن الذكاء الاصطناعي أصبح العنوان الأبرز في مجالات الأعمال والبحث والتعليم، إلا أن المخاطر التي يثيرها ليست مستحدثة، بل هي امتداد لمخاطر قديمة لطالما واجهتها المؤسسات، لكنها اليوم باتت أسرع تأثيراً وأوسع نطاقاً.
الذكاء الاصطناعي، وفق التحليل، لا يغيّر طبيعة التهديدات بقدر ما يضخّمها ويجعل آثارها أكثر سرعة وانتشاراً، مع قدرته على معالجة كميات هائلة من البيانات في وقت قصير وتكرار القرارات بسرعة تفوق القدرات البشرية.
ويشير التقرير إلى أنّ الجامعات تحديداً أصبحت في صلب العاصفة، كونها تمتلك كمّيات ضخمة ومتنوعة من البيانات الحساسة التي تجعلها هدفاً مغرياً للهجمات السيبرانية، مثل سجلات الطلاب، والبيانات البحثية المرتبطة بالملكية الفكرية أو الشراكات الدفاعية، وأنظمة الرواتب والتمويل، إضافة إلى البنى التحتية الحيوية.
ظهور الذكاء الاصطناعي لم يغير طبيعة هذه المخاطر، لكنه جعل أي ثغرة في الحوكمة أو حماية البيانات قابلة للاستغلال بشكل أسرع وأعمق. فمثلاً، يمكن أن تقود بيانات غير موثوقة إلى نماذج منحازة، وهي مشكلة معروفة منذ زمن؛ لكن حين تُستخدم هذه النماذج على نطاق واسع لاتخاذ قرارات سريعة، تصبح آثار الخلل مضاعفة.
ويؤكد التقرير أن الخطر الحقيقي لا يكمن في الذكاء الاصطناعي نفسه، بل في سرعة عمله، وهي العامل الأكثر حسماً في توسيع تأثير المخاطر التقليدية. فبينما كانت المشكلات التقنية أو الإدارية السابقة تظهر على مدى أشهر أو سنوات، يمكن للذكاء الاصطناعي أن يعجّل بظهورها خلال دقائق.
لذلك، يصبح غياب الضوابط المتعلقة بالخصوصية أو إدارة الوصول أو جودة البيانات عاملاً مضاعفاً للضرر، وليس منشئاً له. هذا “التسريع” يجعل من الضروري إعادة النظر في حوكمة البيانات لا بوصفها إجراءً إضافياً، بل كشرط أساسي لسلامة النماذج والأنظمة القائمة على الذكاء الاصطناعي.
ويرى خبراء BDO أن الحل لا يكمن في إنشاء هياكل جديدة أو لجان إضافية، بل في دمج الذكاء الاصطناعي داخل إطار الحوكمة القائم بالفعل، وتحديث سياسات الخصوصية والاستخدام والنزاهة الأكاديمية لتشمل تقنيات الذكاء الاصطناعي، إضافة إلى تبنّي أطر تنظيمية معتمدة مثل EU AI Act وNIST AI RMF وISO 42001.
أما في مجال البحث العلمي، فيتوجب التعامل مع البيانات المستخدمة في تدريب النماذج بالدرجة نفسها من الحذر والتدقيق التي تُطبق على البيانات الحساسة في الأبحاث الطبية أو الدفاعية، لضمان عدم تسربها أو إساءة استخدامها.
ويخلص التقرير إلى أن على قادة الجامعات ومراكز البيانات عدم الانجرار وراء الهالة التي تحيط بالذكاء الاصطناعي، فلا يبالغوا في تقدير مخاطره ولا يستخفّوا بها. فالمخاطر قديمة ومعروفة، وهي تتمحور حول حماية البيانات وإدارة الوصول وثقافة الأمن الرقمي.
الجديد هو تسارع العواقب واتساع نطاقها. ويؤكد الخبراء أن السؤال الحقيقي الذي ينبغي طرحه في غرف الاجتماعات ليس: “ما المخاطر الجديدة التي جلبها الذكاء الاصطناعي؟”، بل: “هل أنظمتنا مستعدة للتعامل مع المخاطر القديمة عندما تتضاعف؟”.
وتختتم BDO تحليلها بالإشارة إلى أن الذكاء الاصطناعي لم يعِد كتابة قواعد إدارة المخاطر، بل رفع مستوى التحدي فقط، وأن المؤسسات الجامعية التي ترغب في اعتماد الذكاء الاصطناعي بثقة تحتاج أولاً إلى تقوية أساساتها في حوكمة البيانات والأمن السيبراني، قبل الانتقال إلى التطبيقات الأكثر تعقيداً. فالمسألة لم تعد تتعلق بالخوف من المجهول، بل بالاستعداد الجاد للتعامل مع ما هو معروف… لكن بسرعة أكبر.
تعليقات الزوار