Executivos do TikTok sabem sobre o efeito do aplicativo nos adolescentes, alegam documentos do processo

contente

Unredacted documents show TikTok is aware of the dangers caused by its app.

Pela primeira vez, comunicações internas do TikTok foram tornadas públicas, mostrando uma empresa indiferente aos danos que o aplicativo representa para os adolescentes americanos. Isso apesar de sua própria pesquisa validar muitas preocupações sobre a segurança das crianças.

O material confidencial fazia parte de uma investigação de mais de dois anos sobre o TikTok por 14 procuradores gerais que levou funcionários estaduais processando a empresa na terça-feira. O processo alega que o TikTok foi projetado com a intenção expressa de viciar os jovens no aplicativo. Os estados argumentam que a empresa de bilhões de dólares enganou o público sobre os riscos.

Em cada uma das ações judiciais separadas que os reguladores estaduais apresentaram, dezenas de comunicações internas, documentos e dados de pesquisa foram redigidos — ocultados da vista pública — uma vez que as autoridades firmaram acordos de confidencialidade com o TikTok.

Mas em uma das ações judiciais, movida pelo Escritório do Procurador Geral de Kentucky, as omissões eram falhas. Isso foi revelado quando a Rádio Pública de Kentucky copiou e colou trechos do material redigido, trazendo à tona cerca de 30 páginas de documentos que haviam sido mantidos em segredo.

Após a Kentucky Public Radio publicou trechos do material redigido, um juiz estadual selou toda a reclamação após um pedido do escritório do procurador-geral "para garantir que quaisquer documentos de acordo e informações relacionadas, informações comerciais e segredos comerciais confidenciais, e outras informações protegidas não fossem disseminadas de forma inadequada", de acordo com uma moção de emergência para selar a reclamação apresentada na quarta-feira por autoridades de Kentucky.

A NPR revisou todas as partes da ação que foram redigidas, destacando executivos do TikTok falando abertamente sobre uma série de perigos para crianças no aplicativo de vídeo extremamente popular. O material, principalmente resumos de estudos internos e comunicações, mostra que algumas medidas corretivas — como ferramentas de gerenciamento de tempo — teriam uma redução negligenciável no tempo de tela. A empresa decidiu seguir em frente e lançar e promover os recursos.

Separadamente, sob uma nova lei, o TikTok tem até janeiro para se desinvestir de sua empresa-mãe chinesa, ByteDance, ou enfrentar uma proibição em todo o país. O TikTok está lutando contra a repressão iminente. Enquanto isso, as novas ações judiciais das autoridades estaduais lançaram um olhar crítico sobre o aplicativo e sua capacidade de combater conteúdo que prejudica menores.

Em uma declaração, o porta-voz do TikTok, Alex Haurek, defendeu o histórico de segurança infantil da empresa e condenou a divulgação de material que antes era público e que agora foi selado.

"É altamente irresponsável da NPR publicar informações que estão sob um selo judicial", disse Haurek. "Infelizmente, esta reclamação seleciona citações enganosas e retira documentos desatualizados de contexto para deturpar nosso compromisso com a segurança da comunidade."

Ele continuou: “Temos salvaguardas robustas, que incluem a remoção proativa de usuários suspeitos de serem menores de idade, e lançamos voluntariamente recursos de segurança, como limites de tempo de tela por padrão, emparelhamento familiar e privacidade por padrão para menores de 16 anos.”

Procurador Geral de Kentucky: usuários do TikTok podem se tornar 'viciados' em 35 minutos

Os 170 milhões de usuários do TikTok nos EUA podem atestar que o algoritmo hiperpersonalizado da plataforma pode ser tão envolvente que se torna difícil fechar o aplicativo. O TikTok determinou a quantidade exata de visualizações necessárias para que alguém forme um hábito: 260 vídeos. Depois disso, de acordo com investigadores estaduais, um usuário "é provável que se torne viciado na plataforma."

Na parte anteriormente redigida da ação, as autoridades de Kentucky dizem: “Embora isso possa parecer substancial, os vídeos do TikTok podem ter apenas 8 segundos e são exibidos para os espectadores em rápida sucessão, automaticamente”, escreveram os investigadores. “Assim, em menos de 35 minutos, um usuário médio provavelmente se tornará viciado na plataforma.”

Outro documento interno descobriu que a empresa estava ciente de que seus muitos recursos projetados para manter os jovens no aplicativo levavam a um desejo constante e irresistível de continuar abrindo o aplicativo.

A própria pesquisa do TikTok afirma que "o uso compulsivo se correlaciona com uma série de efeitos negativos na saúde mental, como perda de habilidades analíticas, formação de memória, pensamento contextual, profundidade nas conversas, empatia e aumento da ansiedade", de acordo com o processo.

Além disso, os documentos mostram que o TikTok estava ciente de que "o uso compulsivo também interfere em responsabilidades pessoais essenciais, como sono suficiente, responsabilidades de trabalho/escola e conexão com entes queridos."

TikTok: Ferramenta de limite de tempo destinada a ‘melhorar a confiança pública’, não a limitar o uso do aplicativo

Os documentos não editados mostram que os funcionários do TikTok estavam cientes de que passar muito tempo nas redes sociais pode ser prejudicial à saúde mental dos adolescentes. O consenso entre os acadêmicos é que eles recomendam uma hora ou menos de uso das redes sociais por dia.

O aplicativo permite que os pais estabeleçam limites de tempo para o uso de seus filhos que variam de 40 minutos a duas horas por dia. O TikTok criou uma ferramenta que define o aviso de tempo padrão em 60 minutos por dia.

Documentos internos mostram que o TikTok mediu o sucesso dessa ferramenta pela forma como estava "melhorando a confiança pública na plataforma TikTok por meio da cobertura da mídia", em vez de como reduziu o tempo que os adolescentes passaram no aplicativo.

Após testes, o TikTok descobriu que a ferramenta teve pouco impacto – resultando em uma queda de cerca de 1,5 minutos no uso, com os adolescentes gastando cerca de 108,5 minutos por dia antes para aproximadamente 107 minutos com a ferramenta. De acordo com a reclamação do procurador-geral, o TikTok não revisitou essa questão.

Um documento mostra um gerente de projeto do TikTok dizendo: “Nosso objetivo não é reduzir o tempo gasto.” Em uma mensagem de chat que ecoa esse sentimento, outro funcionário disse que o objetivo é “contribuir para DAU \[usuários ativos diários\] e retenção” de usuários.

TikTok tem publicado seus vídeos de "pausa", que são incentivos para fazer os usuários pararem de rolar infinitamente e fazerem uma pausa. Internamente, no entanto, parece que a empresa não achou que os vídeos eram muito significativos. Um executivo disse que eles são "úteis como um bom ponto de conversa" com os formuladores de políticas, mas "não são totalmente eficazes."

Documento: TikTok rebaixou pessoas que considerou pouco atraentes em seu feed

A litígios multiestaduais contra o TikTok destacou os filtros de beleza da empresa, que os usuários podem sobrepor em vídeos para parecerem mais magros e mais jovens ou para terem lábios mais cheios e olhos maiores.

Uma característica popular, conhecida como o filtro Glamour em Negrito, usa inteligência artificial para reformular os rostos das pessoas para se parecerem com modelos de maçãs do rosto altas e mandíbulas fortes.

Internal documents show TikTok is aware of the harm that beauty filters, like Bold Glamour, can cause young users.

Documentos internos mostram que o TikTok está ciente do dano que filtros de beleza, como o Bold Glamour, podem causar aos jovens usuários.

Imagem criada por Grace Widyatmadja da NPR/TikTok

O TikTok está ciente do dano que esses filtros de beleza podem causar aos jovens usuários, mostram os documentos.

Os funcionários sugeriram internamente que a empresa "fornecesse aos usuários recursos educacionais sobre distúrbios de imagem" e criasse uma campanha "para aumentar a conscientização sobre questões de baixa autoestima (causadas pelo uso excessivo de filtros e outros problemas)."

Eles também sugeriram adicionar um banner ou vídeo aos filtros que incluísse "uma declaração de conscientização sobre filtros e a importância da imagem corporal positiva/saúde mental."

Isso vem à tona à medida que os documentos mostram outra faceta oculta do algoritmo do TikTok: o aplicativo prioriza pessoas bonitas.

Um relatório interno que analisou o feed principal de vídeos do TikTok viu "um alto volume de ... assuntos não atraentes" preenchendo o aplicativo de todos. Em resposta, investigadores de Kentucky descobriram que o TikTok reformulou seu algoritmo para amplificar usuários que a empresa considerava bonitos.

“Ao mudar o algoritmo do TikTok para mostrar menos ‘assuntos não atraentes’ no feed Para Você, [TikTok] tomou medidas ativas para promover uma norma de beleza restrita, mesmo que isso pudesse impactar negativamente seus Usuários Jovens,” escreveram as autoridades de Kentucky.

Exec do TikTok: algoritmo pode privar crianças de oportunidades como 'olhar alguém nos olhos'

Publicamente, o TikTok declarou que um de seus "compromissos mais importantes é apoiar a segurança e o bem-estar dos adolescentes."

No entanto, documentos internos pintam um quadro muito diferente, citando declarações de altos executivos da empresa que parecem estar bem cientes dos efeitos prejudiciais do aplicativo sem tomar medidas significativas para abordá-los.

Um executivo do TikTok não identificado colocou de forma clara, dizendo que a razão pela qual as crianças assistem ao TikTok é por causa do poder do algoritmo do aplicativo, "mas eu acho que precisamos estar cientes do que isso pode significar para outras oportunidades", disse o executivo da empresa. "E quando eu digo outras oportunidades, eu literalmente quero dizer dormir, comer, e se mover pelo quarto, e olhar alguém nos olhos."

Estimativa interna do TikTok: 95% dos usuários de smartphone com menos de 17 anos usam TikTok

O TikTok vê a si mesmo como estando em uma "corrida armamentista por atenção", de acordo com uma apresentação interna de 2021.

E os adolescentes foram fundamentais para o crescimento inicial do aplicativo nos EUA, mas outra apresentação mostrada a altos funcionários da empresa revelou que cerca de 95% dos usuários de smartphones com menos de 17 anos usam o TikTok pelo menos uma vez por mês. Isso levou um funcionário da empresa a afirmar que havia "atingido um teto entre os jovens usuários."

A própria pesquisa do TikTok concluiu que as crianças eram as mais suscetíveis a serem sugadas para o fluxo infinito de vídeos do aplicativo. "Como esperado, em quase todas as métricas de engajamento, quanto mais jovem o usuário, melhor o desempenho", de acordo com um documento do TikTok de 2019.

Em resposta à crescente preocupação nacional de que o uso excessivo de redes sociais pode aumentar o risco de depressão, ansiedade e problemas de imagem corporal entre as crianças, o TikTok introduziu ferramentas de gerenciamento de tempo. Isso inclui notificações informando os adolescentes sobre quanto tempo estão passando no aplicativo, recursos de supervisão parental e a capacidade de tornar o aplicativo inacessível por algum tempo.

Ao mesmo tempo, no entanto, o TikTok sabia quão improvável era que essas ferramentas fossem eficazes, de acordo com materiais obtidos por investigadores de Kentucky.

"Menores não têm função executiva para controlar seu tempo de tela, enquanto jovens adultos têm," dizia um documento interno do TikTok.

TikTok empurra usuários para bolhas de filtro como 'painhub' e 'sadnotes'

O TikTok está bem ciente das "bolhas de filtro". Documentos internos mostram que a empresa as definiu como quando um usuário "encontra apenas informações e opiniões que se conformam e reforçam suas próprias crenças, causadas por algoritmos que personalizam a experiência online de um indivíduo."

A empresa conhece os perigos das bolhas de filtro. Durante uma apresentação interna de segurança em 2020, os funcionários alertaram que o aplicativo "pode servir conteúdo potencialmente prejudicial de forma rápida." O TikTok realizou experimentos internos com contas de teste para ver quão rapidamente elas descem em bolhas de filtro negativas.

“Depois de seguir várias contas de ‘painhub’ e ‘sadnotes’, levei 20 minutos para entrar na bolha de filtro ‘negativo’”, escreveu um funcionário. “A densidade intensa de conteúdo negativo me faz sentir um humor mais baixo e aumenta meus sentimentos de tristeza, embora eu esteja de bom ânimo na minha vida recente.”

Outro funcionário disse: "há muitos vídeos mencionando suicídio", incluindo um que pergunta: "Se você pudesse se matar sem machucar ninguém, você o faria?"

Em outro documento, a pesquisa do TikTok descobriu que o conteúdo que promove transtornos alimentares, frequentemente chamado de "thinspiration", está associado a problemas como insatisfação corporal, alimentação desordenada, baixa autoestima e depressão.

Apesar desses avisos, o algoritmo do TikTok ainda coloca os usuários em bolhas de filtro. Um documento interno afirma que os usuários são "colocados em 'bolhas de filtro' após 30 minutos de uso em uma única sessão." A empresa escreveu que ter mais moderadores humanos para rotular conteúdo é possível, mas "exige grandes esforços humanos."

A moderação de conteúdo do TikTok está perdendo conteúdo sobre automutilação e transtornos alimentares

O TikTok tem várias camadas de moderação de conteúdo para eliminar vídeos que violam suas Diretrizes da Comunidade. Documentos internos mostram que o primeiro conjunto de olhos nem sempre é uma pessoa da equipe de Confiança e Segurança da empresa.

A primeira rodada geralmente usa inteligência artificial para sinalizar conteúdo pornográfico, violento ou político. As rodadas seguintes usam moderadores humanos, mas apenas se o vídeo tiver uma certa quantidade de visualizações, de acordo com os documentos. Essas rodadas adicionais muitas vezes falham em levar em conta certos tipos de conteúdo ou regras específicas de idade.

De acordo com os próprios estudos do TikTok, o processo não editado mostra que alguns conteúdos de suicídio e automutilação escaparam das primeiras rodadas de moderação humana. O estudo aponta para vídeos de automutilação que tiveram mais de 75.000 visualizações antes que o TikTok os identificasse e removesse.

O TikTok também tem políticas dispersas sobre conteúdo que inclui transtornos alimentares, uso de drogas, direção perigosa, gore e violência. Embora as Diretrizes da Comunidade do TikTok proíbam grande parte desse conteúdo, documentos internos de política afirmam que a empresa "permite" o conteúdo. Muitas vezes, o conteúdo é encontrável no TikTok e simplesmente não é "recomendado", o que significa que não aparece nos feeds Para Você dos usuários ou teve uma prioridade menor no algoritmo.

A empresa tem pontos de discussão sobre seu trabalho de moderação de conteúdo. Um exemplo destacado nos documentos detalha uma criança enviada para a sala de emergência após tentar um desafio perigoso do TikTok. Ao lidar com as repercussões negativas da imprensa, o TikTok disse aos funcionários para usarem uma lista interna de pontos de discussão que dizia: “De acordo com nossas Diretrizes da Comunidade, não permitimos conteúdo que retrate, promova, normalize ou glorifique [dangerous] comportamento, incluindo desafios perigosos.”

O TikTok reconhece internamente que tem taxas substanciais de "vazamento" de conteúdo que não é removido. Essas taxas de vazamento incluem: 35,71% de "Normalização da Pedofilia;" 33,33% de "Solicitação Sexual de Menores;" 39,13% de "Abuso Físico de Menores;" 30,36% de "levando menores para fora da plataforma;" 50% de "Glorificação do Abuso Sexual de Menores;" e "100% de "Fetichização de Menores."

TikTok lento para remover usuários com menos de 13 anos, apesar da política da empresa

Crianças menores de 13 anos não podem abrir uma conta padrão no TikTok, mas há um serviço "TikTok para Usuários Mais Jovens" que a empresa diz incluir rígidas diretrizes de conteúdo.

É um grupo vulnerável de usuários, uma vez que a lei federal determina que sites de mídia social como o TikTok não podem coletar dados de crianças menores de 13 anos, a menos que os pais sejam notificados sobre as informações pessoais coletadas. E mesmo assim, os aplicativos de mídia social devem primeiro obter consentimento verificável de um dos pais.

Em agosto, o Departamento de Justiça processou o TikTok por violar a lei federal que protege os dados de crianças menores de 13 anos, alegando que o aplicativo "sabiamente e repetidamente violou a privacidade das crianças."

Nos documentos internos, no entanto, os funcionários da empresa instruíram os moderadores do TikTok a ter cautela antes de remover contas de usuários suspeitos de ter menos de 13 anos.

Um documento interno sobre "usuários mais jovens/U13" diz que o TikTok instrui seus moderadores a não tomar medidas em relatórios de usuários menores de idade, a menos que sua conta os identifique como menores de 13 anos.

As partes anteriormente redigidas da ação sugerem que a empresa está ciente de que esses jovens usuários têm contas – através de reclamações de pais e professores — mas faz pouco para removê-las.

TikTok em modo de crise após relatório sobre TikTok Live sendo ‘clube de striptease cheio de adolescentes de 15 anos’

Após um relatório de 2022 na Forbes sobre crianças menores de idade se despindo na função ao vivo do TikTok, a empresa lançou sua própria investigação.

Foi então que os oficiais do TikTok perceberam que havia "um alto" número de streamers menores de idade recebendo moeda digital no aplicativo na forma de um "presente" ou "moeda" em troca de striptease — dinheiro real convertido em moeda digital, muitas vezes na forma de um brinquedo de pelúcia ou uma flor.

O TikTok descobriu "um número significativo" de adultos enviando mensagens diretas para TikTokkers menores de idade sobre se despirem ao vivo na plataforma.

Como parte desta investigação interna, os oficiais do TikTok descobriram que em apenas um mês, 1 milhão de "presentes" foram enviados para crianças envolvidas em comportamentos "transacionais".

Em uma avaliação discreta, um oficial do TikTok concluiu: “[Uma] de nossas principais descobertas durante este projeto que se transformou em um grande desafio com o negócio Live é que o conteúdo que recebe o maior engajamento pode não ser o conteúdo que queremos em nossa plataforma.”

Resumir
Documentos internos do TikTok revelam que a empresa está ciente dos perigos que seu aplicativo representa para adolescentes americanos, apesar de pesquisas que validam preocupações sobre segurança infantil. Uma investigação de mais de dois anos, conduzida por 14 procuradores gerais, resultou em processos contra a empresa, alegando que o TikTok foi projetado para viciar jovens. Os documentos mostram que a empresa reconhece que o uso compulsivo do aplicativo está associado a efeitos negativos na saúde mental, como aumento da ansiedade e interferência em responsabilidades pessoais. Além disso, o TikTok admitiu que suas ferramentas de gerenciamento de tempo têm impacto mínimo na redução do uso, com um executivo afirmando que o objetivo não é diminuir o tempo gasto no aplicativo. A empresa também foi criticada por priorizar usuários considerados 'bonitos' em seu algoritmo, o que pode afetar a autoestima dos jovens. Apesar de afirmar que apoia a segurança dos adolescentes, os documentos internos indicam que a empresa não tomou medidas significativas para mitigar os riscos associados ao uso do aplicativo entre os jovens.