القائمة الرئيسية

الصفحات

رفعت تيك توك دعوى قضائية ضد وسيط المحتوى الذي ادعى أنها طورت اضطراب ما بعد الصدمة من مراجعة المحتوى المزعج


 رفعت مديرة محتوى في TikTok دعوى قضائية على منصة التواصل الاجتماعي بعد أن قالت إنها أصيبت بصدمة نفسية نتيجة لعملها ، والتي زعمت أنها طلبت منها مراجعة مقاطع الفيديو التي تعرض العنف التصويري ونظريات المؤامرة وغيرها من الصور المزعجة.


تزعم Candie Frazier ، المتعاقد في لاس فيغاس لشركة ByteDance الأم لـ TikTok ، أنها ومديري المحتوى الآخرين غالبًا ما يقضون 12 ساعة في مراجعة المحتوى المزعج. تدعي أن TikTok و ByteDance يفشلان في توفير الحماية الكافية والدعم النفسي لمشرفي المحتوى ، وفقًا للشكوى.

وجاء في الشكوى أن "المدعي فرايزر يشاهد مقاطع فيديو للإبادة الجماعية في ميانمار ، وعمليات إطلاق نار جماعية ، واغتصاب أطفال ، وتشويه حيوانات". "نتيجة للتعرض المستمر وغير المخفف للصور شديدة السمية والمزعجة للغاية في مكان العمل ، أصيبت السيدة فرايزر بصدمة نفسية كبيرة بما في ذلك القلق والاكتئاب واضطراب ما بعد الصدمة وتعاني منها."

من المرجح أن تزيد الدعوى الجماعية المقترحة ، التي تم رفعها الأسبوع الماضي في محكمة فيدرالية في كاليفورنيا ، من التدقيق في المحتوى الإشكالي وممارسات الاعتدال في TikTok. كانت المنصة القائمة على الفيديو القصير قد طارت في السابق تحت الرادار مقارنة بمنافسين أكبر مثل Facebook و YouTube ، لكنها لفتت الانتباه في الأشهر الأخيرة من النقاد والمشرعين بعد انفجار شعبيتها ، خاصة بين الشباب ، أثناء الوباء. وقالت الشركة في سبتمبر إنها وصلت إلى مليار مستخدم شهريًا.

قال متحدث باسم TikTok إن الشركة لا تعلق على الدعاوى القضائية الجارية.


قال المتحدث: "نحن نسعى جاهدين لتعزيز بيئة عمل تهتم بموظفينا ومقاولينا". "يشترك فريق السلامة لدينا مع شركات خارجية في العمل الحاسم للمساعدة في حماية منصة ومجتمع TikTok ، ونحن نواصل التوسع في مجموعة من خدمات الصحة حتى يشعر الوسطاء بالدعم العقلي والعاطفي."



Frazier ليس موظفًا في TikTok أو ByteDance ؛ بدلاً من ذلك ، تعمل لدى شركة كندية تسمى Telus International ، والتي تتعاقد مع العاملين في الإشراف على المحتوى مع TikTok ومنصات التواصل الاجتماعي الأخرى. لكن Frazier تدعي في الدعوى أن عملها تم إملاءه والإشراف عليه من قبل TikTok و ByteDance. قال متحدث باسم Telus ، الذي لم يذكر اسمه على أنه طرف في الدعوى القضائية ، إن فرايزر لم تثر من قبل مخاوف بشأن عملها و "مزاعمها تتعارض تمامًا مع سياساتنا وممارساتنا".

قال المتحدث باسم شركة Telus: "لدينا برنامج قوي للمرونة والصحة العقلية لدعم جميع أعضاء فريقنا ، بالإضافة إلى برنامج مزايا شامل للوصول إلى خدمات الصحة والعافية الشخصية". "يمكن لأعضاء فريقنا طرح الأسئلة والمخاوف بشأن أي جانب من جوانب عملهم من خلال العديد من القنوات الداخلية ، والتي تأخذها الشركة جميعًا على محمل الجد."

واجهت Facebook (FB) دعوى قضائية مماثلة في عام 2018 من مشرف محتوى قالت إنها أصيبت باضطراب ما بعد الصدمة بعد تعرضها لمحتوى يعرض الاغتصاب والانتحار والعنف في العمل. من بين الانتقادات التي واجهها فيسبوك بسبب ممارساته المعتدلة ، أن مقاولي الاعتدال لم يجنوا نفس الفوائد مثل موظفي الشركات ، على الرغم من تكليفهم بمثل هذه الوظيفة المرهقة. وافق عملاق وسائل الإعلام الاجتماعية في النهاية على تسوية دعوى جماعية بقيمة 52 مليون دولار ، والتي تضمنت مدفوعات وتمويل علاج الصحة العقلية لمشرفي المحتوى ، بالإضافة إلى تغييرات في مكان العمل.

أدلى مسؤول تنفيذي في TikTok بشهادته في مبنى الكابيتول هيل لأول مرة في أكتوبر وأقر بالحاجة إلى زيادة الحماية للمستخدمين الشباب على المنصة. وقال مايكل بيكرمان نائب رئيس TikTok ورئيس السياسة العامة أمام لجنة فرعية بمجلس الشيوخ: "نسعى لكسب الثقة من خلال مستوى أعلى من العمل والشفافية والمساءلة ، فضلاً عن التواضع للتعلم والتحسين". لكن دعوى فريزر القضائية قد تشير إلى تحديات تحسين مثل هذه الحماية.


تدعي الشكوى أن المحتوى الذي يمثل مشكلة لا تتم مراجعته إلا من قبل الوسطاء بعد تحميله على النظام الأساسي إذا أبلغ المستخدم عنه. نظرًا لحجم المحتوى المكلف بهم ، فإن الوسطاء لديهم 25 ثانية فقط لمراجعة كل مقطع فيديو وعرض "ثلاثة إلى عشرة مقاطع فيديو في نفس الوقت" ، كما جاء في النص. (لم ترد TikTok على الفور على طلب للتعليق على هذه الادعاءات).

ووفقًا للشكوى ، "تتضمن مقاطع الفيديو هذه القسوة على الحيوانات ، والتعذيب ، والانتحار ، وإساءة معاملة الأطفال ، والقتل ، وقطع الرؤوس ، وغير ذلك من المحتويات المصورة". "يتم إرسال مقاطع الفيديو إلى اثنين من المشرفين على المحتوى ، الذين يراجعون مقاطع الفيديو ويحددون ما إذا كان يجب أن يظل الفيديو على النظام الأساسي ، أو إزالته من النظام الأساسي ، أو كتم صوته."

أخبر ثيو بيرترام ، مدير السياسة العامة لأوروبا والشرق الأوسط وإفريقيا في TikTok ، المشرعين البريطانيين في سبتمبر 2020 أن الشركة لديها 10000 شخص يعملون في فريق "الثقة والأمان" في جميع أنحاء العالم. أطلقت TikTok في وقت سابق من هذا العام أيضًا نظام تعديل آلي لمسح وإزالة مقاطع الفيديو التي تنتهك سياساتها "عند التحميل" ، على الرغم من أن الميزة متاحة فقط لفئات محتوى معينة.

يتعامل النظام مع "فئات المحتوى التي تتمتع فيها تقنيتنا بأعلى درجة من الدقة ، بدءًا من انتهاكات سياساتنا المتعلقة بالسلامة البسيطة ، والعُري والأنشطة الجنسية للبالغين ، والمحتوى العنيف والرسومات ، والأنشطة غير القانونية والسلع الخاضعة للرقابة" ، وهي مشاركة مدونة في شهر يوليو من يقرأ إريك هان ، رئيس السلامة الأمريكية في TikTok. "نأمل أن يدعم هذا التحديث أيضًا المرونة داخل فريق الأمان لدينا من خلال تقليل حجم مقاطع الفيديو المزعجة التي يشاهدها المشرفون وتمكينهم من قضاء المزيد من الوقت في مناطق سياقية ودقيقة للغاية."

يقول TikTok أن 93 ٪ من مقاطع الفيديو المخالفة التي تمت إزالتها بين أبريل ويونيو 2021 تمت إزالتها في غضون 24 ساعة من نشرها - معظمها لم يحظ بأي مشاهدات وتم الإبلاغ عنها بواسطة نظامها الآلي بدلاً من الإبلاغ عنها من قبل المستخدم ، وفقًا لـ صدر تقرير تنفيذ إرشادات المجتمع في أكتوبر. (لم يعلق TikTok على مزاعم Frazier بأن المشرفين على المحتوى يراجعون مقاطع الفيديو فقط بعد الإبلاغ عنها من قبل المستخدم.)

تزعم Frazier أيضًا أن مديري المحتوى مطالبون بتوقيع اتفاقيات عدم إفشاء والتي "تفاقم الضرر" الناجم عن العمل ، وفقًا للشكوى. تعرضت ممارسة مطالبة العمال بتوقيع اتفاقيات عدم الإفصاح لانتقادات شديدة في صناعة التكنولوجيا مؤخرًا وسط نزاعات بين الموظفين في Pinterest و Apple وشركات التكنولوجيا الكبرى الأخرى. لم ترد TikTok على الفور على طلب للتعليق على ممارسات NDA الخاصة بها.

من خلال الدعوى القضائية ، تسعى Frazier إلى دفع TikTok تعويضات (بمبلغ سيتم تحديده لاحقًا) لنفسها ولغيرهم من مديري المحتوى ، وتطوير "صندوق مراقبة طبية" لدفع تكاليف فحص وتشخيص وعلاج المشكلات النفسية لمثل هذه العمال حسب الشكوى.

هل اعجبك الموضوع :

تعليقات