Brasil

A mídia social ainda pressionando conteúdo relacionado ao suicídio para adolescentes, apesar das novas leis de segurança do Reino Unido | Segurança da Internet

As plataformas de mídia social ainda estão pressionando o conteúdo relacionado à depressão, suicídio e auto-prejudicação para os adolescentes, apesar das novas leis de segurança on-line destinadas a proteger as crianças.

A Molly Rose Foundation abriu contas fictícias posando como uma menina de 15 anos e depois se envolveu com postos de suicídio, auto-prejudicação e depressão. Isso levou os algoritmos a bombardear a conta com “um tsunami de conteúdo prejudicial nos bobinas do Instagram e na página de Tiktok para você”, segundo a análise da instituição de caridade.

Quase todos os vídeos recomendados assistidos nos bobinas do Instagram (97%) e Tiktok (96%) foram prejudiciais, enquanto mais da metade (55%) das postagens prejudiciais recomendadas nos tiktoks para sua página continham referências a suicídio e auto-dano e 16%de referência a métodos suicídios, incluindo alguns que os pesquisadores não foram encontrados.

Essas postagens também atingiram grandes públicos: um em cada 10 vídeos prejudiciais no Tiktok’s For You Page foi apreciado pelo menos 1 milhão de vezes, e no Instagram rolicios um em cada cinco vídeos recomendados prejudiciais foram apreciados mais de 250.000 vezes.

Andy Burrows, diretor executivo de A Molly Rose Foundation, disse: “Os algoritmos nocivos continuam a bombardear adolescentes com níveis chocantes de conteúdo nocivo e nas plataformas mais populares para jovens, isso pode acontecer em escala industrial.

“É chocante que nos dois anos desde a última vez que conduzimos esta pesquisa, a escala de dano ainda não foi abordada adequadamente e, em Tiktok, os riscos pioraram ativamente.

“As medidas estabelecidas pela Ofcom para combater os danos algorítmicos são, na melhor das hipóteses, um gesso e não serão suficientes para lidar com danos evitáveis. É crucial que o governo e o regulador atuem decisivamente para trazer medidas muito mais fortes que as plataformas não podem jogar ou ignorar”.

Os pesquisadores, que analisaram o conteúdo nas plataformas entre novembro de 2024 e março de 2025, descobriram que, embora ambas as plataformas tivessem permitido aos adolescentes oferecer feedback negativo sobre o conteúdo recomendado a eles, conforme exigido pela Ofcom sob a Lei de Segurança Online, essa função também permitiu que eles fornecessem feedback positivo sobre o mesmo conteúdo, resultando em seu ser mostrado mais.

O relatório da fundação, produzido em parceria com dados brilhantes, estabeleceu que, embora as plataformas tivessem tomado medidas para dificultar a busca de conteúdo perigoso usando hashtags, os sistemas de recomendação de AI personalizados amplificaram o conteúdo prejudicial depois que isso foi assistido, acrescentaram eles. O relatório observou ainda que as plataformas tendem a usar em definições estreitas de dano.

A pesquisa citou evidências crescentes da relação entre exposição ao conteúdo on-line prejudicial e riscos resultantes de suicídio e auto-mutilação.

Ele também descobriu que as plataformas de mídia social lucram com a publicidade adjacente a algumas postagens prejudiciais, incluindo marcas de moda e fast food populares entre os adolescentes e as universidades do Reino Unido.

A Ofcom começou a implementar os códigos de segurança infantil da Lei de Segurança Online, destinados a “domesticar algoritmos tóxicos”. A Molly Rose Foundation, que recebe financiamento da Meta, está preocupada com o fato de o regulador ter recomendado que as plataformas gastem apenas £ 80.000 para corrigi -las.

Um porta-voz da OFCOM disse: “A mudança está acontecendo. Desde que essa pesquisa foi realizada, nossas novas medidas para proteger as crianças on-line entraram em vigor. Isso fará uma diferença significativa para as crianças-ajudando a impedir a exposição ao conteúdo mais prejudicial, incluindo material suicida e auto-prejudicial. E pela primeira vez, os serviços serão necessários por lei para domar algoritmos toxics”.

O secretário de Tecnologia, Peter Kyle, disse que desde que a Lei de Segurança Online entrou em vigor, 45 sites estão sob investigação. “A Ofcom também está considerando como fortalecer as medidas existentes, inclusive propondo que as empresas usam tecnologia proativa para proteger as crianças do conteúdo da auto-mutação e que os sites vão além para tornar os algoritmos seguros”, acrescentou.

Um porta -voz da Tiktok disse: “As contas adolescentes no Tiktok têm mais de 50 recursos e configurações projetados para ajudá -los a se expressar com segurança, descobrir e aprender, e os pais podem personalizar ainda mais 20 configurações de conteúdo e privacidade por meio de emparelhamento familiar. Com mais de 99% do conteúdo violento, o que foi removido proativamente, que” os resultados não refletem a experiência real das pessoas em nossa plataforma, que é que a plataforma é que “os resultados não refletem a experiência real das pessoas sobre nossa plataforma, que é que a plataforma é que” os resultados não refletem a experiência real das pessoas sobre nossa plataforma, que é que os descobertos “não refletem a experiência real das pessoas que se refletem.

Um porta -voz da Meta disse: “Discordamos das afirmações deste relatório e da metodologia limitada por trás dele.

“Dezenas de milhões de adolescentes estão agora em contas de adolescentes do Instagram, que oferecem proteções embutidas que limitam quem pode contatá-las, o conteúdo que vê e o tempo que gastam no Instagram. Continuamos a usar a tecnologia automatizada para remover o conteúdo incentivando o suicídio e a autoconfiança, com 99% de adolescentes e, com 99%, continuamos a serem reportados para que os adolescentes sejam que os adolescentes.

Fonte

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo