A Meta está instituindo mudanças intermediárias de segurança para garantir que os chatbots da empresa não causem danos adicionais aos usuários adolescentes, pois as empresas de IA enfrentam uma onda de críticas por seus supostamente protocolos de segurança negligente.
Em um exclusivo com TechCrunchStephanie Otway, porta-voz da Meta, disse à publicação que os chatbots da AI da empresa estavam sendo treinados para não “se envolver com usuários adolescentes em auto-mutilação, suicídio, comer desordenado ou conversas românticas potencialmente inadequadas”. Anteriormente, os chatbots tinham permissão para abordar esses tópicos quando “apropriado”.
A Meta também permitirá apenas que as contas adolescentes utilizem um grupo seleto de personagens de IA – aqueles que “promovem educação e criatividade” – antes de uma revisão de segurança mais robusta no futuro.
No início deste mês, a Reuters relatou que algumas das políticas de chatbot da Meta, por documentos internos, permitiram que os avatares “envolvam uma criança em conversas românticas ou sensuais”. Reuters publicou outro relatório Hoje, detalhando os avatares de AI criados pelo usuário e funcionários que vestiram os nomes e semelhanças de celebridades como Taylor Swift e se envolveram em comportamentos “glamourosos”, incluindo avanços sexuais. Alguns dos chatbots também usavam personas de celebridades infantis. Outros foram capazes de gerar imagens sexualmente sugestivas.
O porta-voz da Meta Andy Stone disse à publicação que os chatbots não deveriam ter sido capazes de se envolver em esse comportamento, mas que os avatares inspirados em celebridades não foram proibidos completamente se fossem rotulados como paródia. Cerca de uma dúzia dos avatares já foram removidos.
A OpenAI anunciou recentemente medidas de segurança adicionais e instruções comportamentais para o mais recente GPT-5, após o registro de um processo por morte por conta de um adolescente que morreu por suicídio depois de confiar no ChatGPT. Antes do processo, o OpenAI anunciou novos recursos de saúde mental destinados a conter comportamentos “prejudiciais” entre os usuários. A antropia, fabricante de Claude, apresentou recentemente novas atualizações no chatbot, permitindo que ele termine as conversas consideradas prejudiciais ou abusivas. Personagem.aiuma empresa que hospeda os companheiros de IA cada vez mais popular, apesar das interações não saudáveis relatadas com visitantes adolescentes, introduziram os recursos de supervisão dos pais em março.
Nesta semana, um grupo de 44 procuradores gerais enviou uma carta às principais empresas de IA, incluindo meta, exigindo proteções mais fortes para menores que podem se deparar com o conteúdo sexual de IA. Em termos gerais, os especialistas expressaram crescente preocupação com o impacto dos companheiros de IA nos jovens usuários, à medida que seu uso cresce entre os adolescentes.
Não perca nossas últimas histórias: Add Mashable como uma fonte de notícias confiável no Google.