«فيسبوك» و«تويتر» لا يمكن لهما مراقبة ما ينشر* كاثي أونيل
النشرة الدولية –
مراراً وتكراراً، تعهدت شركات التواصل الاجتماعي المختلفة بالقيام بأداء أفضل. وفي عام 2018، صرح مارك زوكربيرغ رئيس شركة «فيسبوك» أمام الكونغرس بأن الذكاء الصناعي سوف يعمل على حل المشكلة تماماً. وفي الآونة الأخيرة، استحدثت شركة «فيسبوك» مجلس الإشراف والرقابة الخاص بها، وهو عبارة عن مجموعة من الخبراء يُزعم بأنها مستقلة، وهم نظروا خلال اجتماعهم الأخير في خمس حالات كبرى من التشكيك في قرارات إدارة المحتوى الخاصة بالشركة – وهو رقم ضئيل للغاية عند مقارنته بالكمية الهائلة من المحتوى الذي تعالجه شركة «فيسبوك» من منشورات المستخدمين بصفة يومية.
لا أرغب حالياً العمل في شركة لوسائل التواصل الاجتماعي. مع الأضواء المسلطة على التخطيط للتمرد، وشيوع نظريات المؤامرة، فضلاً عمَّا يؤيد ذلك من المحتويات المؤذية، أعتقد أن شركتي «فيسبوك» و«تويتر»، وغيرهما من منصات التواصل الاجتماعي المعروفة سوف تواجه ضغوطاً متجددة لمراجعة وتنقيح الإجراءات لديها. ومع ذلك، مهما حاولوا من مراجعة، أو تنقيح، أو خلافه من تدابير وإجراءات، فكل ما يمكنني رؤيته في أفق الأحداث ليس إلا المزيد من العقبات.
لقد خلفت لي تجربتي الشخصية من الإشراف على وإدارة المحتوى مزيداً من الشكوك العميقة، بشأن الدوافع الحقيقية لدى شركات التواصل الاجتماعي المختلفة. ولقد رفضت في ذات مرة العمل في مشروع للذكاء الصناعي لدى شركة «غوغل» العملاقة كان يهدف إلى تحليل التعليقات الضارة والمؤذية في موقع «يوتيوب» الشهير. وكان المبلغ المالي المخصص لهذا المشروع الجديد صغيراً للغاية، لا سيما عند مقارنته بجهود تقييم «يوتيوب» البالغة نحو 1.65 مليار دولار. حتى إنني خلصت إلى أن المشروع إما أنه لا يحظى بالجدية الكافية، أو من المتوقع له أن يفشل في خاتمة المطاف. وكنت قد مررت من قبل بتجربة مماثلة مع مشروع يهدف إلى مكافحة التحرش والمضايقات على منصة «تويتر». وكان الشخص الذي حاول توظيفي في ذلك المشروع قد فعل ذلك بعد فترة وجيزة للغاية من الحديث المتبادل بيننا.
ومنذ ذلك الحين، كانت المشكلة تزداد تفاقماً وسوءاً إلى درجة كبيرة من خلال التصميم. ففي أغلب شركات وسائل التواصل الاجتماعي المعروفة، يتألف الإشراف على وإدارة المحتوى من مكونين أساسيين: نظام الإبلاغ الذي يعتمد على مستخدمي المنصة أو على الذكاء الصناعي، ونظام التحكيم المعمول بها في المنصة. ولكي يخضع محتواك للرقابة، لا بد للمادة المنشورة أن تحمل علامة من نظام الإبلاغ مع إثبات انتهاكها لسياسات النشر على المنصة. يتركنا هذا الأمر أمام ثلاث طرق يمكن أن يمر من خلالها المحتوى المشكوك فيه: يمكن الإبلاغ عنه، ولكنه لا يعد انتهاكاً واضحاً، أو هو انتهاك ولكن لا يتم الإبلاغ عنه، أو لا يتم الإبلاغ عنه ولا يعد انتهاكاً بالأساس.
يمر كثير من المحتوى عبر هذه المرشحات الثلاث. يقضي الأشخاص الذين ينشئون المحتوى الضار وينشرونه على منصات التواصل الاجتماعي الساعات الطويلة التي لا تُحصى، في محاولة اكتشاف كيفية تفادي الإبلاغ عنهم من قبل الموظفين أو الذكاء الصناعي أو كليهما. ويكون ذلك في غالب الأمر عن طريق ضمان وصوله فقط إلى نوعية المستخدمين الذين لا يمثل لهم ذلك المحتوى أي مشاكل. كما تفتقد الشركات أيضاً إلى كثير من الأمور السيئة: ففي الآونة الأخيرة فقط، على سبيل المثال، قررت شركة «فيسبوك» إزالة المعلومات المضللة بشأن لقاحات فيروس كورونا المستجد. وفي بعض الأحيان تكون السياسات المعمول بها مرفوضة: فلقد أفادت التقارير الواردة بشأن منصة «تيك توك» بأن الشركة قد قامت بوقف مقاطع الفيديو التي تُظهر الأشخاص الفقراء، أو البدناء، أو القباح. كما وجهت الاتهامات ضد الشركة بإزالة الإعلانات التجارية التي تظهر فيها النساء الملونات.
في الشهر الماضي، استحدثت شركة «تويتر» خاصية «بيرد واتش»، التي تطلب من المستخدمين بصورة أساسية كتابة ملاحظات عامة توفر السياق الواضح للمحتوى المضلل، بدلاً من مجرد الإبلاغ عنه فحسب. ولكن، ما الذي يحدث إذا كانت تلك الملاحظات نفسها مضللة أو مرفوضة؟
إيجازاً للقول، كان الذكاء الصناعي، ولفترة من الوقت، يغطي الفشل الحتمي للإشراف على وإدارة محتوى المستخدمين. والآن، من المفترض أن يكون الإشراف على المحتوى بصفة رسمية أو من طريق طرف ثالث هو الذي يغطي على الفشل الحتمي الناجم عن الاستعانة بالذكاء الصناعي في معالجة تلك المشكلة. ولم يرقَ أحد حتى الآن إلى مستوى المشكلة، والأحداث من شاكلة أعمال العنف والشغب الكبيرة ينبغي أن تضع حداً واضحاً لعصر الإنكار المعقول للمسؤوليات في ذلك. وعند مرحلة معينة، سوف تحتاج هذه الشركات إلى الإفصاح المجرد عن الحقائق: الإشراف وإدارة المحتوى لم يعد يعمل بكفاءة، وهو لن ينجح في المستقبل المنظور.
* بالاتفاق مع «بلومبرغ»