حرب البيانات المسمومة: كيف يواجه صانعو المحتوى جشع الذكاء الاصطناعي؟
في فضاء الإنترنت المفتوح، تتكاثر خوارزميات الزحف التي تلتهم المحتوى بلا إذن، لتغذية نماذج الذكاء الاصطناعي. لكن صانعي المحتوى بدأوا يردّون الصاع بالصاع، عبر تسميم المصدر؛ لكن هذه التقنية التي تُستخدَم للدفاع عن الملكية الفكرية يمكن توظيفها لنشر التضليل على نطاق واسع.
بقلم كريس ستوكل-ووكر
ولَّت الأيام التي كانت فيها الإنترنت فضاء يغلب عليه حضور البشر، ينشرون تحديثاتهم على وسائل التواصل الاجتماعي، أو يتبادلون الصور الساخرة؛ ففي النصف الأول من 2025، ولأول مرة منذ بدء تتبع البيانات، لم يعد البشر هم من يغلب حضورهم على حركة المرور على الشبكة العنكبوتية، بل نشاط الروبوتات المتصفحة Web-browsing bots.
أكثر من نصف حركة مرور الروبوتاتBot traffic تلك مصدره روبوتات خبيثة، كتلك التي تجمع – مثلًا – البيانات الشخصية غير المحمية على الإنترنت. لكن نسبةً متزايدة منها تأتي من روبوتات ترسلها شركات الذكاء الاصطناعي لجمع البيانات اللازمة لنماذجها، أو للاستجابة لطلبات المستخدمين. وفي الواقع، فإن الروبوت المُستخدَم في تشغيل تطبيق شات جي بي تي ChatGPT-User، من شركة أوبن إيه آي OpenAI، مسؤول – وفق أحدث البيانات المتوافرة – عن %6 من إجمالي حركة المرور على الإنترنت، بينما يمثل نظام كلود بوت ClaudeBot الذي طوَّرته شركة أنثروبيك Anthropic، 31% منها.
وما قد يزيد من نفور الجمهور تجاه شركات الذكاء
الاصطناعي هو الشك في أن روبوتاتها تستهدف بعض
المواقع التي تزحف إليها بكثافة لجمع معلومات
وتقول شركات الذكاء الاصطناعي إن جمع البيانات بهذه الطريقة ضروري لتحديث نماذجها ومواكبة المتغيرات. لكن صانعي المحتوى يرون الأمر بشكل مختلف، إذ يعتبرون هذه الروبوتات أدوات لانتهاك حقوق النشر على نطاق واسع؛ ففي يونيو 2025، رفعت شركتا ديزني Disney ويونيفرسال Universal دعوى قضائية ضد شركة ميدجورني Midjourney المتخصصة في الذكاء الاصطناعي التي اتهمتاها بأنها تسطو – عبر مولّد الصور الذي تطوره – على شخصيات من سلاسل شهيرة، مثل حرب النجوم Star Wars، وأنا الحقير Despicable Me.
ولا يملك معظم صانعي المحتوى الموارد المالية لخوض معارك قضائية؛ لذا بدأ بعضهم يتبنى أساليب أكثر جذرية في المقاومة؛ فهم يستخدمون أدوات رقمية تجعل من الصعب على روبوتات الذكاء الاصطناعي الوصول إلى محتواهم، أو يضللونها بطريقة تدفعها إلى تفسيره على نحو خطأ، كأن تخلط بين صور السيارات وصور الأبقار. ولكن في حين أن هذا النوع من تسميم الذكاء الاصطناعي AI poisoning قد يساعد على حماية الأعمال الإبداعية، إلا أنه قد يسهم – من جهة أخرى – في جعل الإنترنت فضاءً أكثر خطورة.
انتهاك حقوق النشر
على مدى قرون، سعى المزيفون إلى تحقيق أرباح سريعة عبر تقليد أعمال الفنانين، وهو أحد الأسباب التي دفعت إلى سن قوانين الملكية الفكرية وحقوق النشر. لكن ظهور مولّدات الصور المعتمدة على الذكاء الاصطناعي، مثل ميدجورني ودال-إي DALL-E من شركة أوبن إيه آي، في السنوات الأخيرة، فاقم المشكلة كثيرًا.
ومن أبرز القضايا المطروحة في الولايات المتحدة ما يُعرَف بمبدأ الاستخدام العادل Fair use الذي يسمح باستخدام عينات من مواد محمية بحقوق النشر في ظروف معينة، من دون الحاجة إلى إذن مسبق من صاحب الحق. ويتميّز قانون الاستخدام العادل بمرونة متعمدة؛ لكنه يقوم – في جوهره – على فكرة إمكان استخدام العمل الأصلي لإنتاج شيء جديد، بشرط أن يكون قد خضع لتحويل كافٍ، وألا يؤثر سلبًا على تسويق العمل الأصلي ومبيعاته.
يقول كثير من الفنانين والموسيقيين والناشطين إن أدوات الذكاء الاصطناعي تطمس الحدود بين الاستخدام العادل وانتهاك حقوق النشر، على حساب صانعي المحتوى؛ فمثلا لا يُعد من الضرر أن يرسم أحدهم صورة لميكي ماوس في عالم مسلسل عائلة سمبسون The Simpsons لأغراض شخصية. لكن مع الذكاء الاصطناعي صار في الإمكان إنتاج عدد كبير من هذه الصور بسرعة، وبطريقة تجعل الطابع التحويلي للعمل موضع شك. وبعد إنتاج هذه الصور يصير من السهل استخدامها في تصميم قمصان للبيع، وهو ما ينقل الاستخدام من الطابع الشخصي إلى التجاري، ويخرق بذلك مبدأ الاستخدام العادل.
لحماية مصالحهم التجارية، بدأ بعض صانعي المحتوى، في الولايات المتحدة، اتخاذ إجراءات قانونية؛ فدعوى ديزني ويونيفرسال ضد شركة ميدجورني التي رفعتاها في يونيو 2025، ليست سوى مثال حديث. ومن الأمثلة الأخرى المعركة القضائية المستمرة بين صحيفة نيويورك تايمز The New York Times وشركة أوبن إيه آي، بشأن الاستخدام غير المصرّح به لمحتوى الصحيفة.
تنفي شركات الذكاء الاصطناعي – بشدة – ارتكاب أي مخالفة، وتؤكد أن جمع البيانات مسموح به بموجب مبدأ الاستخدام العادل؛ ففي رسالة مفتوحة وُجِّهت في شهر مارس 2025 إلى مكتب السياسة العلمية والتكنولوجية في الولايات المتحدة US Office of Science and Technology Policy، حذّر كريس لِيهان Chris Lehane، المسؤول العالمي للشؤون العامة في شركة أوبن إيه آي، من أن قوانين حقوق النشر الصارمة، في بعض دول العالم التي تسعى إلى تعزيز حماية المحتوى، «تكبح الابتكار والاستثمار». وقبلها قالت الشركة إن تطوير نماذج ذكاء اصطناعي تلبي احتياجات الناس سيكون «مستحيلًا»، من دون استخدام أعمال محمية بحقوق النشر. وتتفق شركة غوغل مع هذا الرأي؛ إذ نشرت هي الأخرى رسالة مفتوحة في شهر مارس نفسه، جاء فيها أن «ثلاثة مجالات قانونية قد تعيق الوصول المناسب إلى البيانات اللازمة لتدريب النماذج الرائدة: حقوق النشر، والخصوصية، وبراءات الاختراع».
لكن يبدو أن المدافعين عن حقوق صانعي المحتوى يحظون، في الوقت الراهن على الأقل، بتأييد الرأي العام؛ فعندما حلّل موقع آي بي ووتش دوغ IPWatchdog ردود الجمهور على استفسار طرحه مكتب حقوق النشر الأمريكي US Copyright Office بشأن الذكاء الاصطناعي، وجد أن %91 من التعليقات عبّرت عن مشاعر سلبية تجاه الذكاء الاصطناعي.
وما قد يزيد من نفور الجمهور تجاه شركات الذكاء الاصطناعي هو الشك في أن روبوتاتها تستهدف بعض المواقع التي تزحف إليها بكثافة لجمع معلوماتها؛ مما يرهق مواردها، بل وقد يؤدي إلى إزالتها عن الشبكة، في حين يعجز صانعو المحتوى عن إيقافها؛ فمثلًا توجد تقنيات يمكن لصانعي المحتوى استخدامها لمنع الروبوتات من تصفح مواقعهم، منها تعديل ملف صغير في قلب الموقع؛ ليشير إلى حظر زحف الروبوتات. لكن هناك مؤشرات على أن بعض الروبوتات تتجاهل هذه التعليمات، وتواصل التصفح على أي حال.
تسميم بيانات الذكاء الاصطناعي
ليس من المستغرب – إذن – أن أدوات جديدة بدأت تظهر لتمنح صانعي المحتوى حماية أقوى ضد روبوتات الذكاء الاصطناعي. من بين هذه الأدوات ما أطلقته في 2025 شركة كلاودفلير Cloudflare، وهي شركة بنية تحتية رقمية توفر لمستخدميها الحماية من هجمات الحرمان من الخدمة الموزعة Distributed denial-of-service (اختصارا: الهجمات DDoS) التي تُغرق خادم الموقع بحركة مرور كثيفة تؤدي إلى تعطيله. ولمواجهة روبوتات الذكاء الاصطناعي التي قد تشكّل خطرًا مشابهًا، قررت كلاودفلير الرد بالمثل؛ إذ تنتج متاهة من صفحات مولَّدة بالذكاء الاصطناعي مملوءة بمحتوى لا معنى له، تهدر وقت الروبوتات ومواردها في تصفحها بدلًا من الوصول إلى المعلومات الفعلية.
تُعرف هذه الأداة باسم متاهة الذكاء الاصطناعي AI Labyrinth، وهي مصمّمة لاحتجاز خمسين بليون طلب يوميًّا من روبوتات الزحف التي تقول كلاودفلير إنها تواجهها على المواقع ضمن شبكتها. وتقول الشركة إن هذه الأداة تهدف إلى «إبطاء روبوتات الذكاء الاصطناعي – وغيرها من الروبوتات التي لا تحترم تعليمات الحظر – وتشويشها وإهدار مواردها». وقد لجأت كلاودفلير – لاحقًا – إلى أداة أخرى تطلب من شركات الذكاء الاصطناعي دفع مقابل للوصول إلى المواقع، وإلا مُنعت من تصفح محتواها.
وثمة خيار بديل يتمثل في السماح للروبوتات بالوصول إلى المحتوى، لكن مع تسميمه خلسة، بحيث يصبح أقل فائدة لأغراض الذكاء الاصطناعي. وفي هذا الإطار توجد أداتا غليْز Glaze ونايتشيْد Nightshade اللتان طُوِّرتا في جامعة شيكاغو University of Chicago ، في صميم هذا النوع من المقاومة. كلتا الأداتين متاحتان للتنزيل مجانًا من موقع الجامعة، ويمكن تشغيلهما على حاسوب المستخدم.
طُرحت غليْز في العام 2022، وعملها دفاعي، ويعتمد على إدخال تعديلات غير مرئية على مستوى البِكسل في أعمال الفنانين، تُعرف باسم «تمويه الأسلوب» Style cloaks. وتدفع نماذج الذكاء الاصطناعي إلى تفسير الأسلوب الفني على نحو خطأ – كأن تُفهَم لوحة بالألوان المائية على أنها مرسومة بالزيت. أما الأداة نايتشيْد التي طُرحت في العام 2023، فهي أكثر هجومية، وتسمّم بيانات الصور بطريقة غير مرئية للبشر، لكنها تدفع نموذج الذكاء الاصطناعي إلى تكوين ارتباطات خاطئة، مثل ربط كلمة «قطة» بصور كلاب. أُنزلت الأداتان أكثر من عشرة ملايين مرة.
يقول بن تشاو Ben Zhao، الباحث الرئيسي وراء أداتي غليْز ونايتشيْد من جامعة شيكاغو، إن أدوات تسميم الذكاء الاصطناعي تمنح الفنانين وسيلة لاستعادة السيطرة على أعمالهم: «هذه شركات تبلغ قيمتها السوقية تريليونات الدولارات، وهي حرفيًّا أكبر الشركات في العالم، وهي تأخذ ما تريد بالقوة».
واستخدام أدوات مثل تلك التي طوّرها تشاو يمنح الفنانين وسيلة لممارسة ما تبقى لديهم من سلطة لاستعادة زمام المبادرة في استخدام أعمالهم. يقول جيكوب هوفمان-أندروز Jacob Hoffman-،Andrews من مؤسسة الحدود الإلكترونيةElectronic Frontier Foundation، وهي مؤسسة خيرية أمريكية تُعنى بحقوق المستخدمين الرقمية: «غليْز ونايتشيْد أداتان مهمتان وتوفران طرقًا ذكية في المقاومة، لا تعتمد على تغيير القوانين الذي قد يستغرق وقتًا طويلًا، وقد لا يكون ذلك في مصلحة الفنانين».
تقول إلينورا روزاتي Eleonora Rosati، من جامعة ستوكهولم Stockholm University في السويد، إن فكرة تخريب المحتوى ذاتيًّا لردع التقليد ليست جديدة: «في السابق، عندما كان هناك استخدام غير مصرح به لقواعد البيانات – من أدلة الهاتف، إلى قوائم براءات الاختراع – كان يُنصح بإدخال بعض الأخطاء لتسهيل إثبات الانتهاك». مثلًا، قد يُدرج رسّام الخرائط أسماء أماكن وهمية عمدًا، وإذا ظهرت تلك الأسماء لاحقًا في خريطة من إنتاج جهة منافسة، فإنها تشكّل دليلًا واضحًا على السرقة. وهي ممارسة مازالت تثير الجدل؛ فقد ادّعى موقع جينيوس Genius المختص في كلمات الأغاني أنه أدخل أنواعًا مختلفة من علامات الاقتباس في محتواه، ليُثبت أن غوغل كانت تستخدمه من دون إذن. لكن غوغل نفت هذه الاتهامات، ورُفضت الدعوى القضائية التي رفعها الموقع ضدها.
ويرى هوفمان أندروز أن إسقاط صفة «التخريب» على هذه الممارسات أمر قابل للنقاش. ويقول: «لا أعتبرها تخريبًا بالضرورة. هذه صور الفنان نفسه، وهو يطبق عليها تعديلاته الخاصة. وله كامل الحرية في التصرف في بياناته».
لا يُعرَف إلى أي مدى تتخذ شركات الذكاء الاصطناعي إجراءات مضادة لمواجهة هذا التسميم، سواء عبر تجاهل المحتوى الذي تم العبث به، أو محاولة استبعاده من البيانات. لكن محاولات تشاو لاختراق نظامه الخاص أظهرت أن أداة غليْز مازالت فعَّالة بنسبة %85 ضد جميع التدابير المضادة التي استطاع التفكير فيها؛ مما يشير إلى أن الشركات قد ترى أن التعامل مع البيانات المسمومة أكثر كلفة من تجاهلها.
نشر الأخبار الزائفة
لكن ممارسات التسميم لا تقتصر على الفنانين الذين يسعون إلى حماية أعمالهم، فبعض الدول قد تستخدم المبادئ نفسها لنشر روايات مُضلِّلة. مثلًا، ذكر المجلس الأطلسيThe Atlantic Council ، وهو مركز أبحاث أمريكي، في النصف الأول من 2025، أن شبكة الأخبار الروسية برافدا Pravda، ومعناها «الحقيقة» بالروسية، استخدمت التسميم لخداع روبوتات الذكاء الاصطناعي؛ كي تنشر أخبارًا زائفة.
ويقول المركز إن «برافدا» تعتمد أسلوبًا مشابهًا لما تفعله شركة كلاودفلير في متاهة الذكاء الاصطناعي، لكنها في هذه الحالة تنشر ملايين الصفحات التي تبدو كأنها مقالات إخبارية حقيقية، وتُستخدَم للترويج لرواية الكرملين بشأن الحرب في أوكرانيا. وقد يؤدي الحجم الهائل لهذه الصفحات إلى دفع روبوتات الزحف إلى التركيز المفرط على روايات معينة عند الاستجابة للمستخدمين. ووجد تحليل نشرته – في مارس 2025 – شركة نيوزغارد NewsGuard الأمريكية التي تتابع أنشطة برافدا، وجد أن عشرة روبوتات دردشة رئيسية أنتجت محتوى يتماشى مع رواية برافدا في ثلث الحالات التي حللتها.
ويُظهر النجاح النسبي في تغيير مسار النقاشات المشكلةَ الجوهرية في كل ما يتعلق بالذكاء الاصطناعي؛ فالحيل التقنية التي يستخدمها أصحاب النوايا الحسنة يمكن أن يستغلها أصحاب الأهداف الخبيثة، وهذا يحدث على الدوام.
لكن تشاو يقول إن في جعبته حلًّا لهذه المشكلات، وإن لم يكن من النوع الذي ترغب شركات الذكاء الاصطناعي في تبنّيه؛ فبدلًا من جمع البيانات بشكل عشوائي من الإنترنت، يمكن لتلك الشركات أن تعقد اتفاقيات رسمية مع مزوّدي المحتوى الشرعيين، وتضمن تدريب نماذجها فقط على البيانات الموثوقة. غير أن هذا النهج له ثمن؛ لأن اتفاقيات الترخيص قد تكون باهظة. ويقول تشاو: «هذه الشركات لا ترغب في ترخيص أعمال الفنانين؛ فجوهر المشكلة هو المال».
© 2025, New Scientist, Distributed by Tribune Content Agency LLC