Dois funcionários atuais e dois ex -meta divulgaram documentos ao Congresso, alegando que a empresa pode ter suprimido pesquisas sobre segurança das crianças, de acordo com um relatório Do Washington Put up.
De acordo com suas reivindicações, a Meta mudou suas políticas em torno da pesquisa de tópicos sensíveis – como política, crianças, gênero, raça e assédio – seis semanas depois que o denunciante Frances Haugen vazou documentos internos que mostraram como a pesquisa da Meta descobriu que o Instagram pode danificar a saúde psychological das meninas adolescentes. Essas revelações, que foram divulgadas em 2021, iniciaram anos de audiências no Congresso sobre a segurança infantil na Web, uma questão que continua sendo um tópico quente nos governos globais hoje.
Como parte dessas mudanças políticas, diz o relatório, a Meta propôs duas maneiras pelas quais os pesquisadores poderiam limitar o risco de conduzir pesquisas sensíveis. Uma sugestão foi lançar os advogados em suas pesquisas, protegendo suas comunicações de “partes adversas” devido ao privilégio do advogado-cliente. Os pesquisadores também podem escrever sobre suas descobertas de maneira mais vaga, evitando termos como “não compatíveis” ou “ilegais”.
Jason Sattizahn, ex-meta pesquisador especializado em realidade digital, disse ao Washington Put up que seu chefe o fez excluir gravações de uma entrevista na qual um adolescente alegou que seu irmão de dez anos havia sido proposto sexualmente na plataforma de VR da Meta, Horizon Worlds.
“Os regulamentos globais de privacidade deixarem claro que, se as informações de menores de 13 anos forem coletadas sem o consentimento verificável dos pais ou responsáveis, deverão ser excluídos”, disse um meta porta -voz ao TechCrunch.
Mas os denunciantes afirmam que os documentos que submeteram ao Congresso mostram um padrão de funcionários sendo desencorajados a discutir e pesquisar suas preocupações sobre como as crianças menores de 13 anos estavam usando os aplicativos de realidade digital social da Meta.
“Esses poucos exemplos estão sendo costurados para se encaixar em uma narrativa predeterminada e falsa; na realidade, desde o início de 2022, a Meta aprovou quase 180 estudos relacionados aos laboratórios de realidade sobre questões sociais, incluindo segurança para jovens e bem-estar”, disse Meta ao TechCrunch.
Evento do TechCrunch
São Francisco
|
27-29 de outubro de 2025
Em uma ação movida em fevereiro, Kelly Stonelake – ex -funcionária da Meta de quinze anos – levantou preocupações semelhantes a esses quatro denunciantes. Ela disse ao TechCrunch no início deste ano que liderou estratégias de “entrada no mercado” para levar o Horizon Worlds para adolescentes, mercados internacionais e usuários móveis, mas sentiu que o aplicativo não tinha maneiras adequadas de manter os usuários com menos de 13 anos; Ela também sinalizou que o aplicativo teve problemas persistentes com o racismo.
“A equipe de liderança estava ciente de que, em um teste, levou uma média de 34 segundos ao entrar na plataforma antes que os usuários com avatares negros fossem chamados insultos raciais, incluindo o ‘n-word’ e o ‘macaco'”, alega o processo.
Stonelake processou separadamente a meta por suposta assédio sexual e discriminação de gênero.
Enquanto as alegações desses denunciantes se concentram nos produtos de VR da Meta, a empresa também está enfrentando críticas sobre como outros produtos, como a IA Chatbots, afetam os menores. Reuters relatado No mês passado, que as regras da IA da Meta anteriormente permitiram que os chatbots tivessem conversas “românticas ou sensuais” com crianças.