كيف يمكن للبشر السيطرة على المخاطر الناشئة عن الذكاء الاصطناعي؟
بقلم جوزيف سيفاكس
يمثل الذكاء الاصطناعي تحولاً جذرياً في النموذج التكنولوجي، يختلف عن أي اختراع سابق. فبدلاً من كونه أداة تعزز القدرات الجسدية، ينافس الذكاء الاصطناعي السمة الأساسية للبشر: القدرة على إنتاج المعرفة وتطبيقها. وهذا يمنحه قوة عميقة لإعادة تشكيل الهوية الفردية والبُنى الاقتصادية والتنظيم الاجتماعي.
وبقدر ما يحمل هذا التقدم من فوائد كبيرة، فإنه ينطوي على مخاطر كبيرة أيضاً، ما يستلزم استراتيجية شاملة وعالمية لإدارته. فالنقاش الثنائي الذي يقارن بين الكفاءة والسلامة غير كافٍ، بل يجب اعتماد رؤية شمولية لأشكال الذكاء الاصطناعي وتطبيقاته وتطوره المستقبلي.
يركّز جزء كبير من الخطاب العام على مفهوم "الذكاء الاصطناعي العام" (AGI)، وهو مفهوم غامض يعد بأداء يعادل الأداء البشري على جميع المهام الإدراكية. بالإضافة إلى غموض المصطلح، إذ يستحيل تحديد نطاق المهام الإدراكية التي يستطيع البشر تنفيذها، فإنه يتجاهل السمات الأساسية للذكاء البشري. فلكي يقترب الذكاء الاصطناعي من الذكاء البشري، لا يكفي أن يتفوق على البشر في مهام محددة؛ المهم هو القدرة على الاستقلالية، أي فهم العالم والتصرف بمرونة لتحقيق الأهداف عبر دمج مجموعة واسعة من المهارات عند الحاجة.
هناك فجوة كبيرة بين أنظمة الذكاء الاصطناعي الحوارية الحالية وبين الأنظمة المستقلة القادرة على استبدال المشغلين البشريين في مؤسسات معقدة كما هو متصور في "إنترنت الأشياء". فأنظمة القيادة الذاتية، والشبكات الكهربائية الذكية، والمصانع الذكية، والمدن الذكية، وأنظمة الاتصالات الذاتية، كلها أنظمة بالغة التعقيد ومؤلفة من مجموعة وكلاء لكل منهم أهدافه الخاصة (ذكاء فردي)، بينما ينسق الجميع لتحقيق أهداف النظام ككل (ذكاء جمعي).
العقبات التقنية أمام تحقيق هذا النموذج من الاستقلالية كبيرة جداً وتتجاوز قدرات التعلم الآلي الحالية، كما يتضح من الانتكاسات التي تعرضت لها صناعة المركبات الذاتية القيادة، والتي وعد بعضها ببلوغ الاستقلالية الكاملة قبل عام 2020. حالياً، تقتصر قدرات وكلاء الذكاء الاصطناعي على المهام الرقمية منخفضة المخاطر. ولكي تصبح جديرة بالثقة في المهام الحرجة، يجب أن تمتلك أنظمة الذكاء الاصطناعي المستقبلية قدرات استدلال متينة، وأن تتبع أهدافاً بطريقة عقلانية وفقاً للمعايير التقنية والقانونية والأخلاقية، وأن تحقق مستوى من الموثوقية يعتبر حالياً "حلماً بعيد المنال".
تكمن جوهر المشكلة في القيود الجوهرية المتعلقة بضمانات الموثوقية القوية. فالذكاء الاصطناعي، رغم فعاليته في إنتاج المعرفة من البيانات، يفتقر إلى الشفافية، مما يجعل من شبه المستحيل تحقيق مستويات الموثوقية المطلوبة للتطبيقات شديدة الحساسية. وهذا يعني أن سلامة الذكاء الاصطناعي لا يمكن ضمانها بالآليات التقليدية التي تُستخدم لاعتماد الأنظمة مثل المصاعد أو الطائرات.
وإضافة إلى خصائصه التقنية، صُمم الذكاء الاصطناعي ليحاكي البشر، ولذلك يجب أن يستوفي خصائص إدراكية محورها الإنسان. كثير من الدراسات تناولت مفاهيم مثل "الذكاء الاصطناعي المسؤول"، و"الذكاء الاصطناعي المنسجم"، و"الذكاء الاصطناعي الأخلاقي". لكن غالبية هذه الدراسات سطحية وتفتقر إلى الأساس العلمي، لأن هذه الخصائص –على عكس السلامة– يصعب التعامل معها تقنياً نظراً لاعتمادها على عمليات إدراكية بشرية معقدة وغير مفهومة بالكامل. فالذكاء الاصطناعي الذي يجتاز امتحان الطب النهائي لا يمتلك فهم الطبيب أو مسؤوليته. ومن ثم، يبقى إنشاء أنظمة ذكاء اصطناعي تحترم القواعد الاجتماعية وتظهر ذكاءً جمعياً مسؤولاً تحدياً كبيراً.
يمكن تصنيف المخاطر الناشئة عن الذكاء الاصطناعي إلى ثلاثة مجالات مترابطة:
1- المخاطر التكنولوجية
تتفاقم المخاطر التقنية بسبب طبيعة "الصندوق الأسود" للذكاء الاصطناعي، بما في ذلك مخاطر جديدة تتعلق بالسلامة والأمن لا تزال غير مفهومة جيداً. تتطلب مبادئ إدارة المخاطر الحالية موثوقية عالية في المجالات ذات الحساسية العالية، ولو طُبقت بصرامة لاستثنت الأنظمة الحالية من هذه المجالات. يمثل تطوير المعايير التقنية العالمية ركناً أساسياً لبناء الثقة، غير أن هذا الجهد يواجه عقبات تقنية ومعارضة من شركات التكنولوجيا الكبرى والسلطات الأمريكية التي ترى أن المعايير تعيق الابتكار وتدعو إلى "اعتماد ذاتي" غير كافٍ.
2- المخاطر البشرية
تختلف المخاطر البشرية لأنها ناتجة عن أفعال بشرية، مثل سوء الاستخدام أو الفشل في الامتثال. في القيادة الذاتية مثلاً، يؤدي ضعف المهارات، والثقة الزائدة، والخلط بين أوضاع التشغيل إلى سوء استخدام. وترتبط مخاطر الامتثال بإدارة الشركات المصنعة التي تعطي الأولوية للتوسع التجاري على حساب السلامة والشفافية. ويعد نظام "القيادة الذاتية الكاملة" من تسلا مثالاً على الفجوة بين الوعود التسويقية والقدرات التقنية الفعلية.
3- المخاطر النظامية
وهي اضطرابات واسعة وطويلة المدى تطال الأنظمة الاجتماعية والاقتصادية والثقافية والبيئية والحُكمية. بعض هذه المخاطر معروف، مثل الاحتكار التكنولوجي، وفقدان الوظائف، والتكاليف البيئية، لكن بعضها الآخر غير مفهوم بما يكفي. ومن المخاطر المهمة التي لا تحظى بالتقدير الكافي الاعتماد الإدراكي على الذكاء الاصطناعي، أي تفويض العمل الفكري للآلة، مما قد يؤدي إلى تآكل التفكير النقدي، وإضعاف المسؤولية الشخصية، وتوحيد طرق التفكير. ويتطلب التخفيف من هذه المخاطر رفع مستوى الوعي الجمعي بشأن هذه الآثار الإدراكية المتسللة.
رؤية جديدة لإدارة المخاطر
لمواجهة هذا المشهد المعقد، يجب تطوير رؤية شاملة محورها الإنسان للذكاء الاصطناعي، تتجاوز الهدف الضيق الذي تروّج له شركات التكنولوجيا بشأن الوصول إلى "الذكاء الاصطناعي العام". يجب أن تتضمن هذه الرؤية تقييماً صريحاً لضعف التقنية الحالية، وتعزيز البحث الدولي لاستكشاف مسارات جديدة لاستخدام الذكاء الاصطناعي في العلوم والصناعة والخدمات. وعلى المستوى الفكري، يجب التخلي عن عقلية "التحرك السريع وكسر القواعد"، لأنها تؤدي إلى تراكم الديون التقنية والهشاشة على المدى الطويل، وترتبط بعقيدة "الحتمية التكنولوجية" التي تنفي دور الإنسان في تحديد وظيفة التكنولوجيا في المجتمع.
دور الصين
تمتلك الصين موقعاً جيداً للمساهمة في هذه الرؤية الجديدة، فهي لا تركز فقط على تطوير أقوى أنظمة الذكاء الاصطناعي، بل تسعى لاستخدامه لخدمة المجتمع. ولديها قاعدة صناعية قوية وقطاعات تحتاج إلى منتجات وخدمات ذكية بشكل متزايد. وسيكون تطوير المعايير واللوائح العالمية أمراً حاسماً لتنفيذ هذه الرؤية. ويمكن للصين، بالتعاون مع الدول الأخرى، أن تلعب دوراً مهماً في إعادة التوازن للقوة العالمية عبر مواءمة تطوير الذكاء الاصطناعي مع الموثوقية والسلامة. وتشير مبادرات مثل "جمعية سلامة وتطوير الذكاء الاصطناعي في الصين" و"منظمة التعاون العالمي للذكاء الاصطناعي" إلى جهود مبكرة في هذا الاتجاه.
تعليقات الزوار