خلف الستار: العاملون في تنظيف فيسبوك من المحتوى العنيف… بأي ثمن؟
![]() |
| خلف الستار: العاملون في تنظيف فيسبوك من المحتوى العنيف… بأي ثمن؟ |
في الوقت الذي يتنقل فيه المستخدم بين الصور الجميلة والمنشورات اللطيفة، هناك عالم خفي يسكن أقبية المكاتب في الفلبين، الهند، وأفريقيا، حيث يعمل آلاف الموظفين في مراقبة المحتوى على فيسبوك. هؤلاء الجنود المجهولون يشاهدون كل يوم مقاطع عنف، تعذيب، استغلال، وقتل — فقط ليبقى فيسبوك “آمنًا” لنا.
❖ من هم هؤلاء “المنظفون الرقميون”؟
هم متعاقدون مع شركات خارجية تعمل لحساب فيسبوك. يتلقون أجورًا منخفضة مقارنة بضخامة أرباح الشركة الأم، ويُطلب منهم مراجعة آلاف المنشورات يوميًا لتحديد ما إذا كانت تنتهك سياسات النشر.
لكن ما لا يقال هو أن هذه المهمة تترك ندوبًا نفسية عميقة. فالتعرض اليومي للصور المروعة يجعل كثيرين يعانون من اضطرابات النوم والاكتئاب واضطراب ما بعد الصدمة.
❖ بيئة العمل الصامتة: لا أحد يتحدث
كثير من هؤلاء الموظفين يوقعون اتفاقيات صارمة تمنعهم من التحدث عن طبيعة عملهم. وفي بعض الحالات، لا يُسمح لهم حتى بمغادرة المكتب أثناء نوبات المراقبة إلا في أوقات محددة. يتم تدريبهم على اتخاذ قرارات خلال ثوانٍ معدودة حول منشورات تحمل محتوى حساسًا قد يكون رماديًا في طبيعته.
إن هذا الضغط المستمر يخلق بيئة خانقة نفسيًا، حيث يختلط الواجب المهني بالضيق الإنساني.
❖ الذكاء الاصطناعي ليس المنقذ
على الرغم من أن فيسبوك يروّج لاستخدام الذكاء الاصطناعي لمراقبة المحتوى، إلا أن الواقع مختلف. الخوارزميات تفشل كثيرًا في فهم السياق الثقافي أو النية، فتُترك القرارات الحساسة للبشر. هؤلاء الأشخاص هم الجدار الأخير بين المستخدم والمحتوى الصادم.
لكن الاعتماد على الذكاء الاصطناعي زاد الضغط بدلًا من تخفيفه، لأن الأخطاء التقنية تُحمّل في النهاية على الموظف البشري الذي قد يُعاقب إذا حذف منشورًا بشكل خاطئ أو ترك محتوى مسيئًا يمرّ.
❖ الجانب الأخلاقي: من يحمي من؟
الأسئلة تتصاعد: من يحمي هؤلاء العاملين من الأذى النفسي؟ هل من الأخلاقي أن تُبنى راحة المستخدمين على حساب معاناة بشر آخرين؟ فيسبوك نفسه يعترف بصعوبة عمل هؤلاء، لكنه يقدم دعمًا نفسيًا محدودًا مقارنة بحجم الضرر.
بعض الموظفين السابقين رفعوا دعاوى قضائية على الشركة بدعوى الإهمال، مما أجبرها على دفع تعويضات في بعض القضايا. ومع ذلك، يبقى النظام كما هو: تكرار للألم في صمت.
❖ صراع بين الإنسانية والسياسة الرقمية
يُفترض أن “تنظيف” المنصة عمل نبيل، لكنه يحمل في داخله معاناة إنسانية لا تُرى. المفارقة أن من يحمي الآخرين من الصدمات البصرية يعيش هو في صدمة دائمة. خلف كل ضغطة “إبلاغ” هناك شخص يرى ما لا نراه ويعيش ما لا نحتمل تخيله.
❖ الحلول الممكنة
إن تخفيف الأعباء النفسية عن هؤلاء العاملين يتطلب حلولًا حقيقية: تدريب نفسي متخصص، ساعات عمل أقصر، رواتب عادلة، ودمج تدريجي للتقنيات الآمنة بدلًا من الاعتماد على الإنسان وحده. يجب أن تتحمل الشركات العملاقة مسؤوليتها الأخلاقية، لا أن تخفي الألم خلف خوارزمية.
❓الأسئلة الشائعة (FAQ)
هل يشاهد موظفو فيسبوك فعلًا محتوى عنيفًا؟
نعم، كثير من العاملين في مراكز المراجعة يتعرضون يوميًا لمحتوى صادم يتضمن عنفًا وقتلًا واستغلالًا.
هل يتم تعويضهم عن الأضرار النفسية؟
في بعض القضايا، دفعت الشركة تعويضات مالية، لكن الدعم النفسي الممنوح ما يزال محدودًا جدًا مقارنة بحجم المعاناة.
لماذا لا يتم استخدام الذكاء الاصطناعي بدل البشر؟
لأن الخوارزميات لا تستطيع فهم السياق أو النية البشرية، ما يجعل القرارات الدقيقة بحاجة إلى تدخل الإنسان.
هل يمكن تحسين أوضاع هؤلاء العاملين؟
نعم، من خلال تحسين بيئة العمل، تقليل ساعات المشاهدة، وتوفير دعم نفسي دائم ورقابة مستقلة على الشركات المتعاقدة.
