
بين العبقرية والارتباك.. حينما أوكلتُ إلى الذكاء الاصطناعي إدارة شؤون يومي
في عالمٍ متسارع تُروَّج فيه أدوات الذكاء الاصطناعي لأداء مختلِف الخدمات، قررتُ أن أختبر بنفسي مدى قدرتها على إدارة تفاصيل يومي؛ من طلب الطعام الجاهز، إلى كتابة الرسائل، وإعادة صياغة العروض التقديمية. بدا الأمر كأنه تجربة واعدة، لكن سرعان ما تداخلت لحظات الإبهار مع لحظات من الإحباط والتساؤل: هل يمكن حقًّا الاعتماد على الذكاء الاصطناعي في المهام اليومية؟ وما الثمن الذي ندفعه مقابل هذه الراحة الرقمية؟
بقلم كريس ستوكيل-ووكر
لن أنسى مطلقًا طبق دجاج الكونغ باو الذي كان عليَّ تناوُله قبل بضعة أشهر؛ ليس لأن مذاقه كان رائعًا – فقد أفسدته، على نحو ما، عشرون دقيقة على ظهر دراجة سائق التوصيل – بل لأنني في الحقيقة لم أطلبه أصلًا، ومع ذلك كان أمامي على الطاولة.
لقد طلبه نيابة عني مساعدٌ مزوَّد بخوارزميات الذكاء الاصطناعي، يُدعى أوبريتُر Operator، طرحته شركة OpenAI التي طوَّرت برنامج ChatGPT. أطلق قطاع التكنولوجيا على هذه الفئة من الأدوات المساعدة اسم «وكلاء الذكاء الاصطناعي»AI agents ، أو برامج المساعَدة الذكية (المساعِدات الذكية)، وصار عديد منها متاحًا تجاريًّا. وتمتلك هذه الوكلاء القدرة على إحداث تحوُّل في حياتنا، عبْر تولّي مهامَّ روتينية، بدءًا من الرد على رسائل البريد الإلكتروني، ووصولًا إلى التسوق وشراء الملابس وطلب الطعام. ونُقل عن إيمي هود Amy Hood، المديرة المالية لشركة مايكروسوفت،
قولُها – في مذكرة داخلية حديثة – إن هذه الأدوات «تدفع كل واحد منا إلى التفكير والعمل بطريقة مختلفة»، وإنها ليست سوى «لمحة عمّا ينتظرنا». وبالمعنى نفسه، كان طبق الكونغ باو الذي وُضِع أمامي بمنزلة ما قد يكون عليه طعم المستقبل.
لكن كيف سيكون ذلك المستقبل؟ للإجابة عن هذا السؤال، قررتُ اختبار أداء أوبريتُر ومنتَج منافس يُدعى مانوس Manus، طورتْه شركة Butterfly Effect الصينية الناشئة. وكانت التجربة مزيجًا من الانبهار والإحباط؛ فعلى الرغم من لحظات التألق، لم يخلُ الأمر من مواقفَ مزعجة. وخلال ذلك، أدركت جانبًا من المخاطر التي قد نواجهها؛ فالاتكال تمامًا على مثل هذه الأدوات يعني تسليمها مفاتيح شؤوننا المالية، وقوائمَ معارفنا وجهاتِ اتصالنا، فضلًا على الثقة بقدرتها على تنفيذ المهام بالطريقة التي نرغب فيها؛ فهل نحن حقًّا مستعدون لعالَم وكلاء الذكاء الاصطناعي، أو أن تقبُّله سيكون صعبًا؟
منذ العام 2023، دخلنا عصر الذكاء الاصطناعي التوليدي، المبني على نماذج لغوية كبيرة Large language models (اختصارًا: النماذج LLMs) التي دُرِّبت على كمّيات ضخمة من البيانات المجمَّعة أساسًا من صفحات الويب. ويستطيع هذا النوع من الذكاء الاصطناعي إنتاج محتوًى أصلي، سواء من النصوص أو الصور، استجابة لأوامرَ تُعطى بلغة الحياة اليومية. ويمكن القول إنه أحدث ضجّة كبيرة بالنظر إلى حجم التغطية الإعلامية التي حظي بها، كما أنه أحدث تحولًا كبيرًا بصورة ملحوظة.
يبشر الذكاء الاصطناعي الوكيلAgentic AI، من خلال الوكلاء المعززين بالذكاء الاصطناعي، بترقية قدرات الذكاء الاصطناعي التوليدي. ويصفه بيتر ستون Peter Stone، من جامعة تكساس University of Texas في أوستن، بأنه «مُمَكَّنٌ لتنفيذ المهام بالنيابة عنك».
خلال السنوات القليلة الماضية، اعتاد كثيرون منا على فكرة طلب المعلومات من الذكاء الاصطناعي التوليدي؛ كأن نسأله، مثلًا: ما الأطباق المفضلة المتاحة في الجوار، وبيانات التواصل مع المطاعم التي تقدمها. لكن إذا سألتَ وكيلًا ذكيًّا: «ماذا عليَّ أن أتناول الليلة؟»، فسوف يختار لك أطباقًا يظن أنها ستعجبك من موقع أحد المطاعم، ثم – إن وُجِد نموذج طلب إلكتروني – يدفع ثمنها باستخدام بطاقتك الائتمانية، ويُنسق عملية توصيلها إلى منزلك، ويبلغك بموعد وصولها. يقول ستون: «ستكون هذه تجربة مختلفة تمامًا»؛ ففيها يؤدي الذكاء الاصطناعي دور طيار آلي لا مجرد مساعد طيار.
لكن إنشاء ذكاء اصطناعي وكيل بهذه القدرات أصعب مما يبدو؛ فما زالت النماذج اللغوية الكبيرة (النماذج (LLMs هي القوة المحركة في الخلفية، إلا أنها تركِّز في حالة الذكاء الاصطناعي الوكيل على القرارات التي يمكن اتخاذها، والإجراءات الفعلية الممكن تنفيذها عبر الأدوات الرقمية المتاحة، مثل متصفحات الويب وتطبيقات الحاسوب؛ فعندما يتلقى هدفًا مثل «اطلب العشاء»، أو «اشترِ لي حذاء»، يضع خطة متعددة الخطوات توظِّف تلك الأدوات، ثم يراقب مدى تقارب نتائج كل خطوة من الهدف النهائي، ويحللها، ويعيد التقييم عند الحاجة. وتستمر هذه العملية حتى يرى الوكيل أنه بلغ الهدف، أو اقترب منه قدر المستطاع. وبعد إتمام المهمة، يسأل النظام نفسه عمّا إذا كان قد أنجز الهدف بنجاح، في شكل من أشكال التغذية الراجعة الموجود أيضًا لدى روبوتات الدردشة، ويُعرَف بالتعلم التعزيزي من التغذية الراجعة البشرية Reinforcement learning from human feedback.
أمضى ستون، مؤسس ومدير «مجموعة أبحاث الوكلاء القادرة على التعلُّم» (مجموعة أبحاث الوكلاء التعليمية؟)Learning Agents Research Group، في جامعته، عقودًا في التفكير في إمكان تطوير وكلاء معززة بالذكاء الاصطناعي. ويعرِّفها بأنها أنظمة «تستشعر بيئتها، وتقرر ما يجب فعله، وتتصرف». وإذا نظرنا إلى الأمر بهذه البساطة، فقد يبدو كأن هذه الوكلاء موجودة منذ زمن؛ فمثلًا: بدا أن حاسوب ديب بلو Deep Blue الذي أنتجته IBM قد تفاعل مع رقعة شطرنج حقيقية ليفوز على بطل العالم السابق غاري كاسباروف Garry Kasparov في العام 1997. لكن ستون يوضح أن ديب بلو لم يكن أداة ذكاء اصطناعي وكيلًا، لأنه «كان يتخذ القرارات، لكنه لا يستشعر ولا يتصرف»، بل اعتمد على مشغلين بشريين لتحريك القطع وإبلاغه بحركات خصمه. أما الوكيل الذكي فلا يحتاج إلى تدخل بشري للتفاعل مع العالم الحقيقي. ويقول ستون: «النماذج اللغوية التي كانت معزولة أو منفصلة عن العالم، هي متصلة حاليًا [به]».
طرحت عديد من شركات التكنولوجيا إصدارات أولية من هذه الأنظمة، مثل: مايكروسوفت وأمازون وأوراكل، ولكل منها نسختها الخاصة. وقد رغبتُ في رؤية كيف تعمل على أرض الواقع، لكن الأمر ليس زهيد الثمن؛ إذ تصل رسوم الاشتراك السنوي في بعضها إلى آلاف الدولارات؛ لذا تواصلتُ مع شركتي OpenAI
وButterfly Effect لطلب تجربة منتجَيهما أوبريتُر ومانوس على التوالي بالمجان، فوافقتا. وكانت خطتي أن أستخدم هذه الأنظمة كمساعِدة شخصية تتولى الأعمال الروتينية بدلًا مني، لأكسب مزيدًا من وقت الفراغ.
لكن النتائج جاءت متباينة. كان من المفترض أن أُلقي عرضًا تقديميًّا خلال الأسابيع القليلة التالية، فرفعتُ ملف الشرائح إلى واجهة مانوس الإلكترونية، وطلبت من وكيل الذكاء الاصطناعي إعادة تنسيقه. بدا أن مانوس قد أتقن عمله، لكن بعد أن فتحتُ مجموعة الشرائح في برمجية باوربوينت، أدركت أنه وضع كل سطر من النص في مربع منفصل، وهو ما جعل أي تعديل أرغب في إدخاله لاحقًا أمرًا مزعجًا ومرهقًا. ومع ذلك، كان أداء مانوس أفضل في مهمة أخرى، حين طلبت منه تجميع الشفرة البرمجية لتطبيق أردت رفعه بصيغة جاهزة للنشر في متجر التطبيقات، وقد استخدم لذلك أدوات متعددة وواجهة الأوامر النصية على حاسوبه البعيد.
أما الوكيل أوبريتُر؛ فقد طلبت منه في البَدء إدارة نظام الفوترة الإلكتروني الخاص بي؛ غيرَ أنه تصرَّف مثل متدرب حسن النية لكنه قليل الفائدة، عندما أصرّ على ملء الحقول بطريقة خاطئة؛ فوضع وصف العمل الذي أصدر الفاتورة بشأنه في خانة مخصصة للأكواد الرقمية فقط. وبعد أن نجحت في النهاية في جعله يتخلى عن تلك العادة، ارتبك عند نسخ تفاصيل من قائمة لـ «الفوترة» إلى النظام، على نحو يمكن أن يسبب مواقف محرجة، أبرزها اقتراحه إرسالَ فاتورة إلى قسم المحاسبة في دورية نيو ساينتست New Scientist بمبلغ 8001 جنيه إسترليني عن مقال واحد فقط.
وبشيء من التوجُّس، منحتُ أوبريتُر ترقية، وطلبتُ منه مساعدتي في إعداد هذه المقالة. كنتُ قد استعنتُ مسبقًا بـ ChatGPT ليعطيني أسماء خبراء في الذكاء الاصطناعي يمكنهم التعليق على تطور الذكاء الاصطناعي الوكيل. ثم طلبتُ من أوبريتُر أن يرسل إلى كل خبير رسالة إلكترونية باسمي يطلب فيها إجراء مقابلة.
لكن النتائج التي لم أطلع عليها إلا بعد إرسال الرسائل، جعلتني أشعر بالحرج الشديد؛ خصوصًا لأن أوبريتُر اختار ألا يذكر دوره في صياغتها؛ ما أوحى أنني أنا من كتبها. كانت اللغة التي استخدمها ساذجة ومفرطة في الرسمية في آنٍ واحد، مع جمل متقطعة تحمل نبرة شبه عدائية؛ ما جعلني أشعر بالتوتر، وهو ما توقعت أن يشعر به من تلقّوا تلك الرسائل. كما أغفل أوبريتُر ذكر معلومات أساسية، منها أن المقالة ستُنشَر في مجلة نيو ساينتست. بدا الأمر كأنني أتعامل مع مساعد مبتدئ. ولأنه لا يعرف حقًّا كيف يكتب رسالة إلكترونية كما أفعل، ارتكب عدة أخطاء.
ومع ذلك، وإنصافًا لأوبريتُر؛ فقد حققت الرسائل نجاحًا جزئيًّا على الأقل؛ فقد تمكنتُ مثلًا من التواصل مع ستون عبر إحدى رسائله، وقد تقبل البريد الإلكتروني الذي أرسله الوكيل المساعد ببساطة ومن دون انزعاج. كما أثنى باحث آخر على الأسلوب؛ عندما أخبرتُه لاحقًا أن الرسالة كتبها أوبريتُر، قائلًا: «هذا اختبار جريء! »؛ لأنني جرَّبت منتجًا ما زال تجريبيًّا على أرض الواقع. ومع ذلك، رفض ذلك الباحث المشاركة في المقال؛ لأن ممولي المشروع الذي يعمل عليه لم يسمحوا له بذلك.
لمن يعمل وكيل الذكاء الاصطناعي حقًّا؟
تُقدِّم شركات التكنولوجيا وكلاء الذكاء الاصطناعي على أنها مساعِدات رقمية مستقلة لا تكلُّ ولا تملّ. لكن الحقيقة، من واقع تجربتي، أننا لم نصل بعد إلى تلك المرحلة. ومع افتراض أن التقنية ستتطور، كيف ينبغي لنا أن ننظر إلى هذه الأدوات الجديدة؟
تقول كاريسا فيليز Carissa Véliz، من جامعة أكسفورد University of Oxford : إن من المهم التفكير أولًا في الحوافز التجارية التي تقف خلف كل هذا الترويج لهذه الأدوات. وتضيف: «بالطبع، وكيل الذكاء الاصطناعي يعمل لمصلحة الشركة قبل أن يعمل لمصلحتك؛ لأنه أداة أنتجتها جهة لها مصالح مالية. ماذا سيحدث عندما تتعارض مصالح الشركة التي تؤجِّر لك وكيل الذكاء الاصطناعي مع مصالحك أنت؟».
يمكننا فعلًا رؤية أمثلة على ذلك في النماذج الأولية لهذه الوكلاء: فقد وقّعت OpenAI اتفاقيات تعاون مع شركات لاستخدام أنظمتها، وهذا يعني أنه عند البحث عن رحلات سفر، قد يُفضِّل أوبريتُر موقع Skyscanner على غيره، أو يختار البحث أولًا في فايننشال تايمز Financial Times، وأسوشيتد برس Associated Press، عندما تسأله عن آخر الأخبار.
وتنصح فيليز المستخدمين بالتفكير مليًّا في قضايا الخصوصية قبل الانخراط في استخدام الذكاء الاصطناعي الوكيل، نظرًا إلى قدرة هذه التقنية على الدخول إلى معلوماتنا الشخصية. وتقول: «جوهر الأمن السيبراني يكمن في الفصل بين الأشياء المختلفة»، مثل استخدام كلمات مرور فريدة للبنك الإلكتروني والبريد الإلكتروني، وعدم حفظها في مستند واحد. لكن استخدام وكيل الذكاء الاصطناعي يتطلب كسر هذه الحواجز التي تفصل بينها. وتضيف: «نحن نمنح هذه الوكلاء صلاحية الدخول إلى نظام مترابط بالكامل، وهذا يجعلها غير آمنة على الإطلاق من منظور الأمن السيبراني».
إنه تحذير أُقدِّره. لم أكن مرتاحًا على نحو خاص لأن تجربتي مع أوبريتُر كانت تقتضي – بالضرورة – التنازل له عن التحكم في بريدي الإلكتروني، وبرنامج المحاسبة الخاص بي، وبلغ شعوري بعدم الارتياح ذروتَه حين طلبت من أوبريتُر أن يطلب لي طبق دجاج كونغ باو. في مرحلة ما، طلب مني وكيل الذكاء الاصطناعي إدخال بيانات بطاقتي الائتمانية في نافذة حاسوب ظهرت داخل واجهة روبوت الدردشة الخاص بأوبريتُر. فعلتُ ذلك على مضض، على الرغم من شعوري بأنني لا أتحكم كليًّا في النافذة، وأنني أضع قدرًا كبيرًا من الثقة في أوبريتُر.
إضافةً إلى ذلك، ليس واضحًا تمامًا، في الوقت الراهن، إن اكتسبت وكلاء الذكاء الاصطناعي ما يكفي من الثقة؛ فهي تميل – بحكم طبيعتها – إلى «الوصول إلى عديد من الأدوات والتفاعل بدرجة أكبر مع العالم الخارجي»، كما تقول مهرنوش ساميكي Mehrnoosh Sameki، مديرة مشروع تقييم الذكاء الاصطناعي التوليدي وحوكمته لدى مايكروسوفت، وهو ما يجعلها عرضة لأنماط محددة من الهجمات.
الذكاء الاصطناعي الوكيل .. من تقديم المعلومات إلى إنجاز المهمات
أخيرًا، درست تيانشي ليTianshi Li ، من جامعة نورث إيسترن Northeastern University في ماساتشوستس، ستة من أبرز وكلاء الذكاء الاصطناعي ونقاط ضعفها تلك، فوجدت مع فريقها أن هذه الوكلاء قد تقع ضحية خُدع بسيطة نسبيًّا، مثلًا: قد يُخفي طرف خبيث، في أعماق نص سياسة الخصوصية التي لا يقرؤها سوى القليل من الناس، طلبًا للنقر على رابط وإدخال بيانات بطاقة الائتمان. ووجد فريق لي أن وكيل الذكاء الاصطناعي لن يتردد في تنفيذ الطلب. تقول لي: «أعتقد أن هناك كثيرًا من المخاوف المشروعة من أن هذه الوكلاء قد لا تتصرف بما يتماشى مع توقعات الناس… ولا توجد آلية فعّالة تتيح للناس التدخل، أو تذكير الوكلاء بهذه الاحتمالات، وتفادي العواقب المحتمَلة».
رفضت OpenAI التعليق على المخاوف التي أثارها بحث لي، وإن كانت تجربتي مع أوبريتُر توحي بأن الشركة تدرك إشكالية الثقة والتحكم؛ فمثلًا: بدا أن أوبريتُر يسعى جاهدًا إلى إرسال إشعارات متكررة إليَّ للتحقق مما إذا كانت الإجراءات التي يعتزم تنفيذها تتوافق مع توقعاتي. لكن الجانب السلبي الحتمي لهذه المقاربة هو أنها جعلتني أشعر بأنني أُهدر كثيرًا من الوقت لمتابعة أعمال الوكيل بدقة، وأنني كنت سأنجز المهام أسرع لو توليتها بنفسي.
يقول كولين جارفيس Colin Jarvis، قائد فريق الهندسة التطبيقية في OpenAI: «ما زلنا في المراحل الأولى من تجارب الوكلاء هذه». ويضيف أن الجيل الحالي منها بعيد عن بلوغ كامل إمكاناته، و«لا يزال الأمر يتطلب قدرًا كبيرًا من العمل للوصول إلى المستوى المطلوب من الموثوقية».
أدلت شركة Butterfly Effect بملاحظة مشابهة؛ فعندما تواصلتُ معها لمناقشة مشكلاتي مع وكيلها، قيل لي إن «مانوس ما زال في مرحلته التجريبية، ونحن نعمل بلا كلل على تحسين أدائه ووظائفه».
يبدو أن شركات التكنولوجيا تواجه – منذ سنوات – صعابًا لتشغيل الذكاء الاصطناعي الوكيل كما هو متوقع منه؛ ففي العام 2018 مثلًا، أعلنت «غوغل» أن نسخة من وكيلها المسمى دوبلكس Duplex ستُحدث تحولًا كبيرًا على مستوى العالم، وروَّجت له على أنه قادر على الاتصال بالمطاعم وحجز الطاولات للعملاء. لكن، ولأسباب غير معروفة، لم يتحول إلى أداة مفيدة واسعة الانتشار.
بعيدًا عن الضجيج
مع ذلك، ترى شركات الذكاء الاصطناعي، ومحللو التكنولوجيا، أننا على وشك أن نشهد ثورة في مجال الذكاء الاصطناعي الوكيل؛ ففي نهاية العام 2024، زاد عدد المرات التي ورد فيها ذِكر الذكاء الاصطناعي الوكيل خلال المكالمات التي تعقدها الشركات مع المستثمرين لمناقشة أرباحها المالية بمقدار 51 مرة، مقارنة بالربع الأول من العام 2022. ولا يقتصر الاهتمام هنا على استخدام الوكلاء لمساعدة الموظفين البشر، بل يشمل أيضًا الحلول محلهم؛ فمثلًا: تُطلق شركات من بينها Salesforce، المتخصصة في إدارة علاقات العملاء، وكلاء الذكاء الاصطناعي لتسويق خدماتها.
لا يظن ستون أن التكنولوجيا جاهزة بعد لهذا النوع من الاستخدامات. يقول: «هناك كثير من المبالغة في التوقعات الآن… من غير المحتمل أن تختفي كل الوظائف خلال السنوات القليلة المقبلة، ولن تضطلع وكلاء الذكاء بكل المهام». ويضيف أن تحقيق هذه الطموحات الكبيرة يحتاج إلى «اكتشاف خوارزميات جديدة وأساسية»، لم نطوِّرْها بعد.
ربما يعود الحماس المُبالَغ فيه إلى أن أدوات، مثل ChatGPT، تقدم أداءً مميزًا؛ ما يرفع سقف التوقعات بشأن ما يمكن أن يحققه الذكاء الاصطناعي بوجه عام. يقول ستون: «لقد استنتج الناس أنه إذا كان في إمكان هذه الأدوات أن تفعل ذلك، فهي قادرة على فعل كل شيء». وبالتأكيد، وجدتُ أن الذكاء الاصطناعي الوكيل قد يعمل بكفاءة عالية، في بعض الأحيان. لكن ستون يحذر من أن نستنتج أن وكلاء الذكاء الاصطناعي قادرة على فعل كل شيء بناء على عدد محدود من الأمثلة ليس إلا.
وبعد التفكير في الأمر، أميل إلى الاتفاق معه، على الأقل إلى أن يدرك أوبريتُر – في نسخته التي في حوزتي – أن أي طلب من مطعم صيني لا يُعد مكتملًا، من وجهة نظري، ما لم يأتِ مصحوبًا بطبق جانبي من رقائق القريدس (الروبيان).
© 2025, New Scientist, Distributed by Tribune Content Agency LLC