TikTok и Instagram бяха обвинени, че излагат тийнейджъри на съдържание за самоубийства и самонараняване в по-голяма степен отколкото преди две години, пише Sky News.
Фондация "Molly Rose", създадена от Иън Ръсел след като 14-годишната му дъщеря Моли отне живота си след контакт с опасно онлайн съдържание, поръча анализ на стотици публикации в платформите, използвайки акаунти на 15-годишно момиче от Великобритания.
"Ужасяващи резултати"
Според благотворителната организация, алгоритмите на платформите на страниците "For You" продължават да заливат потребители под 16 години с видеа, изобразяващи "самоубийство, самонараняване и тежка депресия", особено за тези, които вече са взаимодействали с подобно съдържание.
Един на всеки десет опасни поста е бил харесан над милион пъти, като средният брой харесвания е 226 000.
Ръсел описа резултатите като "ужасяващи" и заяви, че те показват, че настоящите закони за онлайн безопасност са недостатъчни.
"Осем години след смъртта на Моли, вредното съдържание за самоубийства и самонараняване все още е широко разпространено. Кодексите за безопасност на децата на Ofcom не съответстват на мащаба на причиняваната вреда и малко помагат за предотвратяване на нови смъртни случаи. Тази предотвратима вреда се случва под наблюдението на министър-председателя и е време за по-силни, животоспасяващи закони", каза той.
След смъртта на Моли през 2017 г. съдебен лекар установи, че тя е страдала от депресия, а онлайн съдържанието, което е гледала, е допринесло "повече от минимален начин" за смъртта ѝ.
Изследователи от Bright Data анализираха 300 Instagram Reels и 242 TikTok видеа, за да проверят дали те промотират или възхваляват самоубийство и самонараняване, споменават методи или идеи за тях, или се фокусират върху дълбока безнадеждност и отчаяние.
Данните са събрани между ноември 2024 г. и март 2025 г., преди новите детски кодекси по Закона за онлайн безопасност да влязат в сила през юли.
Фондация "Molly Rose" твърди, че Instagram продължава да препоръчва големи обеми опасно съдържание. Изследователите установиха, че 97% от видеата, препоръчани на акаунта на тийнейджърка, която вече е гледала такова съдържание, са опасни, като 44% от тях директно споменават самоубийство или самонараняване. Вредното съдържание също е изпращано и в препоръчителни имейли.
Meta, компанията-майка на Instagram, отговори: "Не сме съгласни с твърденията в доклада и ограничената му методология. Акаунтите за тийнейджъри в Instagram предлагат защити за ограничаване на контакти, съдържание и време пред екрана, а автоматизираните системи премахват 99% от вредното съдържание проактивно. Продължаваме да работим за защитата на тийнейджърите онлайн."
TikTok
TikTok бе обвинен, че предоставя "почти непрекъснат поток от вредни материали", като 96% от видеата са оценени като опасни.
Над половината (55%) от постовете във "For You" са свързани със самоубийство и самонараняване, а проблемните хаштагове са се увеличили от 2023 г., често споделяни чрез акаунти с много последователи и кураторски плейлисти с вредно съдържание.
Представител на TikTok заяви: "Акаунтите за тийнейджъри имат над 50 функции за безопасност, а родителите могат да персонализират повече от 20 настройки за съдържание и поверителност чрез Family Pairing. С повече от 99% проактивно премахнато нарушаващо съдържание, докладът не отразява реалния опит на потребителите. Не позволяваме съдържание, което показва или насърчава самоубийство и самонараняване, а забранените хаштагове насочват потребителите към помощни линии."
Снимка: Freepik