صعود الذكاء الاصطناعي الوكيلي (Agentic AI)
من المتوقع أن يُحدث الذكاء الاصطناعي الوكيلي، الذي يتسم بسهولة الوصول والموثوقية والتركيز على النتائج، ثورة في طريقة عمل الشركات، بما في ذلك إحداث تحول جذري في طبيعة القوى العاملة.
وعلى عكس أنظمة الذكاء الاصطناعي التوليدي (GenAI)، التي تنتج نصوصًا أو محتوى آخر استجابةً لمطالبات (Prompts)، تُعد أنظمة الذكاء الاصطناعي الوكيلي شكلًا متقدمًا من الذكاء الاصطناعي يركز على اتخاذ القرار والعمل بشكل مستقل، إذ صُممت لمعالجة المعلومات، واتخاذ القرارات، وتنفيذ الأفعال دون الحاجة إلى تدخل بشري مباشر ومستمر.
وتتوقع دراسة أجرتها شركة أكسنتشر عام 2025 أنه بحلول عام 2030 ستصبح وكلاء الذكاء الاصطناعي (وهم اللبنات الأساسية للذكاء الاصطناعي الوكيلي) المستخدمين الأساسيين لمعظم الأنظمة الرقمية الداخلية في الشركات. كما يتوقع المنتدى الاقتصادي العالمي أن يُطلب من الرؤساء التنفيذيين قريبًا إدارة قوى عاملة هجينة تضم البشر ووكلاء ذكاء اصطناعي أذكياء.
من جانبها، تتوقع شركة غارتنر أنه بحلول عام 2028، سيتضمن أكثر من ثلث حلول البرمجيات المؤسسية تقنيات الذكاء الاصطناعي الوكيلي، بحيث تصبح ما يصل إلى 15% من القرارات اليومية قرارات ذاتية التنفيذ.
وكلاء الذكاء الاصطناعي والذكاء الاصطناعي الوكيلي: الفروقات الأساسية
غالبًا ما يُستخدم مصطلحا «الذكاء الاصطناعي الوكيلي» و«وكلاء الذكاء الاصطناعي» بشكل مترادف في الحديث اليومي، إلا أن هناك فرقًا جوهريًا بينهما.
وكلاء الذكاء الاصطناعي هم في جوهرهم أنظمة مستقلة لاتخاذ القرار تعمل بالذكاء الاصطناعي (وغالبًا ما تستخدم النماذج اللغوية الكبيرة LLMs بوصفها «عقولها»). ويمكن تشبيههم بموظفين متخصصين يُكلفون بمهام محددة، ويعملون بشكل مستقل لتحقيق أهدافهم دون الحاجة إلى فترات راحة للطعام أو النوم.
وتتفاوت درجة تعقيدهم من وكلاء انعكاسيين بسيطين يتبعون قواعد محددة مسبقًا، إلى وكلاء متقدمين يتعلمون من التجارب السابقة لتحسين الأداء. ومع ذلك، فإن وكلاء الذكاء الاصطناعي متمحورون حول المهام، وغالبًا ما يُصممون لتنفيذ مهام محددة ضمن معايير واضحة.
في المقابل، تُعد أنظمة الذكاء الاصطناعي الوكيلي أو أنظمة الوكلاء المتعددة أكثر تطورًا، إذ صُممت للعمل بدرجة أعلى من الاستقلالية لتحقيق مجموعة أوسع من الأهداف. وتعمل هذه الأنظمة بمثابة «قائد أوركسترا» أو مدير لوكلاء الذكاء الاصطناعي، حيث تقوم بنشرهم وتنسيقهم وإدارتهم.
ويمكن توضيح ذلك من خلال تشبيه بالأوركسترا: فـوكلاء الذكاء الاصطناعي هم الموسيقيون الأفراد (كعازف الكمان أو التشيللو أو الناي)، في حين أن نظام الذكاء الاصطناعي الوكيلي هو قائد الأوركسترا المسؤول عن إدارة هؤلاء الموسيقيين، وصياغة النغمة العامة، وتقديم الرؤية الفنية المتكاملة.
فبدلًا من تكليف النظام بمهمة محددة مثل تطوير أو توزيع مواد تسويقية، يُمنح نظام الذكاء الاصطناعي الوكيلي هدفًا عامًا مثل «تحسين الاستراتيجية التسويقية». وعندها يحدد النظام بنفسه الإجراءات اللازمة لتحقيق هذا الهدف، بما في ذلك استخدام وكلاء ذكاء اصطناعي لتطوير ونشر المواد التسويقية، وتتبع الأداء، وضبط الاستراتيجية التسويقية تلقائيًا بناءً على النتائج.
أمثلة على تطبيقات أنظمة الذكاء الاصطناعي الوكيلي
دعم تقنية المعلومات (IT Support)
تمثل أنظمة دعم تقنية المعلومات المعتمدة على الذكاء الاصطناعي الوكيلي تحولًا جذريًا في طريقة تقديم الدعم، إذ تنتقل من نموذج تفاعلي يقوده البشر إلى أنظمة آلية استباقية. حيث لا تكتفي هذه الأنظمة بالاستجابة لطلبات الدعم التي يطلقها البشر، بل تقوم أيضًا بالكشف المبكر عن الاختلالات، والتنبؤ بالحوادث، ومعالجة المشكلات مع تدخل بشري محدود أو معدوم.
فعلى سبيل المثال، إذا بدأ خادم ما بإظهار انحرافات عن سرعات المعالجة المتوقعة، يمكن للنظام الوكيلي تحديد المشكلة عبر المراقبة المستمرة وتحليل الأنماط، وتشخيص السبب، واتخاذ إجراء تصحيحي مستقل دون انتظار تقديم طلب خدمة أو حدوث تدهور كبير في الأداء. ويسمح ذلك بالاكتشاف المبكر للمشكلات وحلها، ويُمكّن فرق تقنية المعلومات من التركيز على الأهداف الاستراتيجية وتطوير الأنظمة.
المصنع الذكي
يُنشَر نظام ذكاء اصطناعي وكيلي بهدف تحسين الإنتاج وخفض التكاليف. وقد يقوم هذا النظام بما يلي:
الكشف عن مخاطر السلامة والتفاعل معها، بما في ذلك إيقاف المعدات تلقائيًا لمنع الإصابات.
المراقبة المستمرة لأداء الآلات لتحسين الكفاءة وتنفيذ الصيانة الاستباقية، ما يقلل من فترات التوقف غير المتوقعة وتكاليف الصيانة.
تنسيق أسطول الروبوتات ذاتية التشغيل، بما يشمل إدارة المسارات وتوزيع المهام لضمان تشغيل آمن وفعّال.
مراقبة استهلاك الطاقة وتنفيذ إجراءات لخفض التكاليف.
إدارة أداء الإنتاج من حيث السرعة والمخرجات والجودة وإدارة المخزون، وإجراء التعديلات اللازمة للاستجابة للطلب، وتقليل الهدر، وتعزيز الكفاءة والربحية الإجمالية.
الموارد البشرية (HR)
يمكن للذكاء الاصطناعي الوكيلي إحداث تحول شامل في إدارة الموارد البشرية عبر تولي المهام من البداية إلى النهاية، مثل:
التوظيف: إدارة أجزاء كبيرة من عملية التوظيف، بما في ذلك صياغة الوصف الوظيفي ومطابقة المتقدمين مع متطلبات الوظائف باستخدام نماذج قائمة على المهارات.
إدارة إجراءات الانضمام والمغادرة.
دعم الموظفين وخدمة المساعدة.
إدارة الأداء والمواهب، بما يشمل مراقبة بيانات الأداء والتوصية ببرامج التدريب والتطوير.
الامتثال والتنفيذ، عبر تتبع التغيرات التنظيمية ومراقبة برامج التدريب على الامتثال.
تحليلات القوى العاملة والتخطيط.
الأمن السيبراني
وجد تقرير حديث لشركة IBM أن المؤسسات تستغرق في المتوسط 241 يومًا لاكتشاف واحتواء الاختراقات الأمنية، وهي فترة تعرّض طويلة جدًا، خصوصًا مع احتمال التعرض لاختراقات متزامنة متعددة.
يمكن لأنظمة الذكاء الاصطناعي الوكيلي اكتشاف التهديدات والتحقيق فيها والاستجابة لها في الوقت الحقيقي مع تدخل بشري محدود، من خلال:
المراقبة المستمرة للشبكات على مدار الساعة، ورصد الشذوذات وإطلاق استجابات آلية قبل تصاعد التهديدات.
فرز تنبيهات المخاطر وتحليل الكم الهائل من الإشعارات الأمنية اليومية لتحديد ما يتطلب تدخلًا بشريًا عاجلًا.
إجراء اختبارات اختراق محاكاة عبر تقييمات استباقية للثغرات قبل استغلالها من قبل المهاجمين.
إعداد ملخصات زمنية مفصلة للحوادث لمراجعة البشر، ما يتيح للمحللين التركيز على المهام الاستراتيجية.
«الصيد» الذاتي للتهديدات عبر استكشاف البيانات وتحسين استراتيجيات البحث دون تعليمات صريحة، باستخدام تقنيات مثل التعلم التعزيزي.
الاعتبارات القانونية والمخاطر
رغم الفوائد الكبيرة التي يمكن أن يحققها الذكاء الاصطناعي الوكيلي للشركات من حيث الكفاءة والإنتاجية والقدرات التشغيلية، فإنه – مثل البشر – قد يخطئ. وبسبب طبيعته المستقلة وسرعة إنجاز المهام مع الحد الأدنى من التدخل البشري، تتضاعف المخاطر وتتعاظم آثارها.
أبرز المخاطر المفاهيمية
اتخاذ القرار المستقل: الاستقلالية العالية قد تؤدي إلى قرارات خاطئة، تتفاقم خطورتها بسبب تنوع المهام الموكلة للنظام.
التعلم التعزيزي: إذا كان التصميم سيئًا، قد يسعى النظام لتحقيق نتائج تؤدي إلى آثار غير مقصودة أو ضارة، مثل نظام خدمة عملاء يركز فقط على عدد الاستجابات أو «رضا العملاء» فيقدم معلومات غير دقيقة أو يتجه إلى المبالغة في الإرضاء.
الشفافية والإثبات: تعمل أنظمة الذكاء الاصطناعي غالبًا كـ«صناديق سوداء»، ما يصعّب فهم كيفية اتخاذ القرارات أو أسبابها، حتى على مطوريها.
الامتثال للقوانين
يشهد المشهد التنظيمي تغيرًا مستمرًا مع سعي الحكومات لتحقيق توازن بين دعم الابتكار وحماية الجمهور.
ففي الاتحاد الأوروبي، تم اعتماد تشريع شامل للذكاء الاصطناعي، بينما تتسم البيئة الأميركية بتعدد القوانين على مستوى الولايات والفيدرالية، في حين لا تمتلك المملكة المتحدة تشريعًا مركزيًا موحدًا، رغم خضوع استخدام الذكاء الاصطناعي لقوانين متعددة تتعلق بالمساواة وحماية البيانات والسلامة الرقمية.
وفي هذا السياق، أكّد مكتب مفوض المعلومات في المملكة المتحدة أن المؤسسات تظل مسؤولة عن الامتثال لقوانين حماية البيانات عند تطوير أو نشر أو دمج أنظمة الذكاء الاصطناعي الوكيلي.
المسؤولية المدنية والتعاقدية والتقصيرية
قد تواجه المؤسسات مسؤوليات قانونية متعددة، تشمل:
المسؤولية الصارمة عن عيوب المنتجات أو انتهاكات الملكية الفكرية أو التشهير.
المسؤولية التعاقدية، بما في ذلك إبرام عقود غير مصرح بها أو مخالفة قيود الاستخدام.
المسؤولية التقصيرية مثل الإهمال أو الإزعاج، كما في قضايا روبوتات أو أنظمة ذاتية تسببت بأضرار.
مخاطر أمن البيانات
تعالج أنظمة الذكاء الاصطناعي كميات ضخمة من البيانات الحساسة، ما يعرضها لمخاطر مثل تسريب البيانات، تسميم البيانات، التلاعب بالنماذج، والهجمات العدائية، مع ما يترتب على ذلك من خسائر مالية وتشغيلية وانتهاكات للملكية الفكرية.
نزاعات حقوق الملكية الفكرية
قد تنتهك المحتويات التي ينتجها الذكاء الاصطناعي حقوق النشر والعلامات التجارية. كما لا تزال ملكية الأعمال التي ينشئها الذكاء الاصطناعي موضع جدل قانوني، خاصة في ظل اشتراط وجود «مخترع بشري» في بعض الأنظمة القانونية، مع استمرار النقاش حول مدى مساهمة البشر في الابتكارات المدعومة بالذكاء الاصطناعي.
واجبات المدراء وفجوة المساءلة
تفرض القوانين على المدراء واجب العناية والإشراف، وهو ما يصبح أكثر تعقيدًا مع الأنظمة ذاتية القرار. ويبرز هنا ما يُعرف بـ«فجوة المساءلة»، حيث تصبح العلاقة بين التعليمات البشرية الأولية والنتائج النهائية للنظام بعيدة وغير مباشرة، ما يصعّب تحديد المسؤولية القانونية.
ورغم طرح فكرة منح الذكاء الاصطناعي شخصية قانونية مستقلة، فإن المحاكم والهيئات التشريعية حول العالم رفضت هذا التوجه، مؤكدة أن المسؤولية يجب أن تبقى على عاتق البشر أو الكيانات التي تنشر هذه الأنظمة.
الحد من مخاطر الذكاء الاصطناعي الوكيلي
ينبغي على المؤسسات اعتماد أطر حوكمة فعالة، تشمل:
تعيين مسؤول رفيع للإشراف على الذكاء الاصطناعي.
تطبيق ضوابط حوكمة ومساءلة واضحة.
ضمان الامتثال التنظيمي.
الإشراف البشري على القرارات الجوهرية.
بناء ضوابط وحدود تشغيلية (Guardrails).
أنظمة مراقبة وتبليغ آلية.
مفاتيح إيقاف طارئة (Kill Switches).
سجلات تفصيلية للقرارات.
تدقيقات واختبارات دورية.
آليات الطعن وجبر الضرر.
التفكير في التأمين ضد مخاطر الذكاء الاصطناعي.
بهذه الإجراءات، يمكن للمؤسسات الاستفادة من إمكانات الذكاء الاصطناعي الوكيلي مع تقليص مخاطره القانونية والتشغيلية.
تعليقات الزوار