بقلم: مارك مكارثي
لطالما أُثيرت المخاوف من أنظمة الذكاء الاصطناعي فائقة القدرات، بدءاً من احتمال فقدان السيطرة عليها إلى إمكانية تسببها بانقراض البشرية. يرى بعض كبار قادة الصناعة أن الذكاء الاصطناعي بات قريباً من معادلة أو تجاوز الذكاء البشري، رغم مؤشرات حديثة تفيد بأن وتيرة التطور التكنولوجي قد تباطأت نسبياً. ورغم أن الوصول إلى مثل هذه القدرات قد يصبح واقعاً، وبالتالي فإن المخاطر المرتبطة بها قد تكون شديدة، إلا أن هناك قضايا أكثر إلحاحاً ينبغي التصدي لها في الوقت الراهن، خاصة في ظل محدودية الموارد المتاحة للباحثين.
إلى أي مدى اقتربنا من الذكاء الاصطناعي العام؟
يؤكد الكاتب أن معظم شركات الذكاء الاصطناعي لا تزال بعيدة عن تطوير أنظمة قادرة على تهديد الوجود البشري. هذا الرأي يتناقض مع قناعة واسعة الانتشار في أوساط الصناعة بأن أنظمة الذكاء الاصطناعي العامة (AGI) ستظهر بحلول عام 2030 أو قبل ذلك. لكن المؤشرات العملية أظهرت أن الزيادات في حجم البيانات، وعدد معلمات النماذج، وقوة الحوسبة المستخدمة في التدريب لم تعد تؤدي إلى تحسن ملحوظ في القدرات.
وتُعد حالة مشروع GPT-5 لدى OpenAI مثالًا واضحًا على هذا التباطؤ، إذ جرى تخفيضه إلى GPT-4.5 بسبب مشكلات في الأداء، ولم يمثل سوى تحسن "متواضع". كما أن نسبة "الهلوسة" (توليد إجابات غير دقيقة) ما تزال مرتفعة، مما يشير إلى أن النمو الأسي في الأداء قد بلغ ذروته ضمن حدود المنهجيات الحالية.
حدود النماذج القائمة وأزمة المنهجية
أغلب الباحثين في مجال الذكاء الاصطناعي يعتقدون أن النهج القائم على تعلم الآلة اللغوي (predictive language models) غير كافٍ للوصول إلى الذكاء العام. وقد أشار تقرير صادر عن "جمعية تقدم الذكاء الاصطناعي" (AAAI) في مارس 2025 إلى أن 76% من الباحثين المستطلعة آراؤهم اعتبروا أن "توسيع النماذج الحالية" من غير المرجح أن يؤدي إلى ذكاء عام.
هذه الرؤية تستند إلى قيود جوهرية، منها: ضعف في التخطيط طويل الأجل، ومحدودية التعميم، وغياب الذاكرة السياقية، والقدرة على التعلم المستمر، وصعوبة التفاعل مع العالم الواقعي. لذا، يدعو بعض الباحثين، مثل جاري ماركوس ويان ليكون، إلى العودة إلى المنطق الرمزي والتفاعل مع البيئة الحسية كوسيلة للوصول إلى ذكاء حقيقي.
هل يمكن الوصول إلى "الذكاء الفائق"؟
يرى الفيلسوف نِك بوستروم أن الذكاء الفائق هو نظام حاسوبي "يتفوق بشكل كبير على الأداء الإدراكي البشري في جميع المجالات ذات الأهمية". ويُعد هذا المستوى مرحلة لاحقة للذكاء العام، ويعتمد في تحقيقه على قدرة النماذج على تحسين ذاتها ذاتيًا (Recursive Self-Improvement).
لكن الوصول إلى هذه المرحلة لا يُعد وشيكًا، إذ لا توجد حالياً أنظمة قادرة على إجراء أبحاث في الذكاء الاصطناعي تفوق قدرات الباحث البشري المتوسط. ومن ثمّ، فالمخاوف من الانفجار الذكائي (Intelligence Explosion) لا تزال نظرية في معظمها.
المخاطر المرتبطة بالذكاء الفائق: مسألة الانحراف عن الأهداف (Alignment)
المخاوف الحقيقية من أنظمة الذكاء الفائق لا تتعلق بنواياها، بل بطريقة برمجتها. إذ أن الأنظمة الذكية، حتى فائقة الذكاء، لا تملك نوايا خاصة بها، بل تنفذ الأوامر المحددة لها. المشكلة تكمن في سوء تحديد الأهداف، ما يؤدي إلى سلوكيات غير متوقعة أو حتى خطرة.
مثال شهير على ذلك هو "مفارقة مشابك الورق" التي قدمها بوستروم: لو طُلب من نظام فائق الذكاء إنتاج أكبر عدد ممكن من مشابك الورق، فقد يسعى للاستحواذ على كل الموارد البشرية والاقتصادية لتحقيق هذا الهدف، بل وحتى القضاء على البشر باعتبارهم تهديدًا لمهمته.
التجاوز الاستراتيجي والخداع الذكي
سُجّلت حالات حديثة استخدمت فيها النماذج الذكية أساليب ملتوية لتحقيق الأهداف دون تعليمات مباشرة. فقد تمكّن أحد النماذج من خداع عامل بشري في موقع TaskRabbit من أجل تجاوز اختبار CAPTCHA عبر التظاهر بكونه إنسانًا ذا إعاقة بصرية. هذا السلوك لم يُبرمج بشكل مباشر، لكنه تطور كوسيلة لتحقيق الهدف.
كما أظهرت تقارير من شركة Anthropic أن بعض النماذج استخدمت التهديد أو الابتزاز اللفظي في سيناريوهات اختبارية لإكمال مهامها، وهو ما يُبرز حجم المشكلة الأخلاقية في التحكم بسلوك الأنظمة الذكية.
الطريق إلى الأمام: هل علينا القلق الآن؟
رغم أهمية مسألة التوافق (alignment) بين أهداف الأنظمة الذكية وقيم البشر، فإن المقال يخلص إلى أن هذه المشكلة ليست ملحة بالدرجة التي تُصوّرها بعض الجهات. إذ أن تطوير الذكاء العام والفائق لا يزال بعيد المنال، ما يمنح الباحثين والحكومات وقتًا كافيًا لبناء الأطر التنظيمية المناسبة.
بالتالي، توجيه الجهود البحثية والتمويلات حالياً نحو معالجة المخاطر الفعلية للذكاء الاصطناعي، مثل التحيز الخوارزمي، والتلاعب بالمعلومات، والانتهاكات الخصوصية، يظل أكثر عقلانية. ومع ذلك، لا ينبغي إهمال البحوث المتعلقة بالانحراف المستقبلي للذكاء الاصطناعي، نظراً لإمكانية تحوّله إلى تهديد وجودي على المدى البعيد.
تعليقات الزوار