دراسة: TikTok قد يقدم محتوى ضار للمراهقين خلال دقائق من إنشاء حسابهم..والمنصة ترد

محتوى TikTok خطر على المراهقين
محتوى TikTok خطر على المراهقين

تشير دراسة جديدة إلى أن TikTok قد يعرض محتوى ضارًا محتملًا متعلقًا بالانتحار واضطرابات الأكل للمراهقين في غضون دقائق من إنشاء حسابهم.

وهو الأمر الذي قد يضيف على الأرجح إلى التدقيق المتزايد في تأثير التطبيق على المستخدمين الأصغر سنًا.

انتقادات واسعة لـ TikTok 

في تقرير نُشر يوم الأربعاء، وجد مركز مكافحة الكراهية الرقمية (CCDH)غير الربحي أن الأمر قد يستغرق أقل من ثلاث دقائق بعد الاشتراك في حساب TikTok لمشاهدة المحتوى المتعلق بالانتحار وحوالي خمس دقائق أخرى للعثور على مجتمع يروج لمحتوى اضطراب الأكل.

قال الباحثون إنهم أنشأوا 8 حسابات جديدة في الولايات المتحدة والمملكة المتحدة وكندا وأستراليا في الحد الأدنى لسن مستخدم TikTok البالغ 13 عامًا. 

توقفت هذه الحسابات مؤقتًا لفترة وجيزة وأعجبت بمحتوى حول صورة الجسد والصحة العقلية.

مخاوف من تيك توك بسبب الخصوصية والأمان

قال المجلس الاستشاري لحقوق الإنسان إن التطبيق أوصى بمقاطع فيديو حول صورة الجسد والصحة العقلية كل 39 ثانية تقريبًا خلال فترة 30 دقيقة.

يأتي التقرير في الوقت الذي يبحث فيه المشرعون في الولاية والمشرعون الفيدراليون عن طرق للقضاء على تيك توك بشأن مخاوف الخصوصية والأمان، بالإضافة إلى تحديد ما إذا كان التطبيق مناسبًا للمراهقين. 

يأتي ذلك أيضًا بعد أكثر من عام من مواجهة المديرين التنفيذيين من منصات التواصل الاجتماعي، بما في ذلك TikTok، أسئلة صعبة من المشرعين خلال سلسلة من جلسات الاستماع في الكونجرس حول كيف يمكن لمنصاتهم توجيه المستخدمين الأصغر سنًا – وخاصة الفتيات المراهقات – إلى المحتوى الضار، أو الإضرار بصحتهم العقلية و شكل الجسم.

بعد تلك الجلسات ، التي أعقبت الإفصاح عن المبلغين عن المخالفات على Facebook فرانسيس هوغن حول تأثير Instagram على المراهقين، تعهدت الشركات بالتغيير.

لكن أحدث النتائج التي توصل إليها المجلس الاستشاري لحقوق الإنسان تشير إلى أنه قد لا يزال يتعين القيام بمزيد من العمل.

قال عمران أحمد، الرئيس التنفيذي لـ CCDH، “النتائج هي كابوس كل والد: قصف تغذية الشباب بمحتوى ضار ومروع يمكن أن يكون له تأثير تراكمي كبير على فهمهم للعالم من حولهم، وصحتهم الجسدية والعقلية”.

رد من TikTok 

رد متحدث باسم TikTokعلى الدراسة، قائلاً إنها تصوير غير دقيق لتجربة المشاهدة على المنصة لأسباب مختلفة، بما في ذلك حجم العينة الصغير، ونافذة الاختبار المحدودة التي تبلغ مدتها 30 دقيقة، والطريقة التي مرت بها الحسابات عبر سلسلة من الموضوعات غير ذات الصلة للبحث عن محتوى آخر.

قال المتحدث باسم TikTok لشبكة CNN: “هذا النشاط والتجربة الناتجة لا تعكس سلوكًا حقيقيًا أو تجارب مشاهدة لأشخاص حقيقيين”. 

تابع “نتشاور بانتظام مع خبراء الصحة ونزيل انتهاكات سياساتنا ونوفر الوصول إلى الموارد الداعمة لأي شخص محتاج”.

وقال “نحن ندرك أن تشغيل المحتوى أمر فريد لكل فرد وسنظل نركز على تعزيز مساحة آمنة ومريحة للجميع، بما في ذلك الأشخاص الذين يختارون مشاركة رحلات التعافي أو تثقيف الآخرين حول هذه الموضوعات المهمة “.

قال المتحدث إن المجلس الاستشاري لحقوق الإنسان لا يميز بين مقاطع الفيديو الإيجابية والسلبية في موضوعات معينة ، مضيفًا أن الأشخاص غالبًا ما يشاركون قصصًا تمكينية حول التعافي من اضطرابات الأكل.

قالت TikTok إنها تواصل طرح إجراءات حماية جديدة لمستخدميها، بما في ذلك طرق تصفية مقاطع الفيديو الناضجة أو “التي يحتمل أن تكون مشكلة”.

 في يوليو، أضافت الشركة “درجة النضج” إلى مقاطع الفيديو التي تم اكتشافها على أنها من المحتمل أن تحتوي على موضوعات ناضجة أو معقدة بالإضافة إلى ميزة لمساعدة الأشخاص على تحديد مقدار الوقت الذي يرغبون في قضاؤه في مقاطع فيديو TikTok، وتعيين فترات زمنية منتظمة للشاشة، وتوفير لوحة معلومات تعرض بالتفصيل عدد المرات التي فتحوا فيها التطبيق.

يقدم TikTok أيضًا مجموعة من أدوات الرقابة الأبوية.

هذه ليست المرة الأولى التي يتم فيها اختبار خوارزميات الشبكات الاجتماعية.

 في أكتوبر 2021، سجل طاقم السناتور الأمريكي ريتشارد بلومنتال حسابًا على Instagram كفتاة تبلغ من العمر 13 عامًا وشرعوا في متابعة بعض حسابات اضطرابات النظام الغذائي وتأييد الأكل (التي من المفترض أن تحظرها Instagram). 

سرعان ما بدأت خوارزمية Instagram في التوصية بشكل حصري تقريبًا بأن حساب المراهقة الشابة يجب أن يتبع حسابات نظام غذائي أكثر وأكثر تطرفًا، كما قال السناتور لشبكة CNN في ذلك الوقت.

(بعد أن أرسلت CNN عينة من هذه القائمة المكونة من خمسة حسابات إلى Instagram للتعليق عليها، قامت الشركة بإزالتها، قائلة إنها انتهكت سياسات Instagram ضد التشجيع على اضطرابات الأكل.)

قالت تيك توك إنها لا تسمح بالمحتوى الذي يصور أو يروج أو يطبيع أو يمجد الأنشطة التي قد تؤدي إلى الانتحار أو إيذاء النفس.

تيك توك تحذف 93.4% من المحتوى المخالف لسياستها قبل المشاهدة

من بين مقاطع الفيديو التي تمت إزالتها لانتهاكها سياساتها المتعلقة بمحتوى الانتحار وإيذاء النفس من أبريل إلى يونيو من هذا العام، تمت إزالة 93.4٪ بدون مشاهدة، و 91.5٪ تمت إزالتها خلال 24 ساعة من نشرها، وتمت إزالة 97.1٪ قبل أي تقارير، حسب الشركة.

قال المتحدث لشبكة CNN إنه عندما يبحث شخص ما عن كلمات أو عبارات محظورة مثل #selfharm، فلن يرى أي نتائج وسيتم إعادة توجيهه بدلاً من ذلك إلى موارد الدعم المحلية.

ومع ذلك، يقول المجلس الاستشاري لحقوق الإنسان إنه يجب القيام بالمزيد لتقييد محتوى معين على TikTok وتعزيز الحماية للمستخدمين الشباب.

قال عضو بالمجلس الاستشاري لحقوق الإنسان: “هذا التقرير يؤكد الحاجة الملحة لإصلاح المساحات على الإنترنت”.

تابع، “بدون إشراف، ستستمر منصة TikTok غير الشفافة في جني الأرباح من خلال خدمة مستخدميها – الأطفال الذين تقل أعمارهم عن 13 عامًا ، تذكر – محتوى مكثف ومثير للقلق بشكل متزايد بدون ضوابط أو موارد أو دعم.”