O Antrópico está fazendo grandes mudanças na maneira como lida com dados do usuário, exigindo que todos os usuários do Claude decidam até 28 de setembro se desejam que suas conversas sejam usadas para treinar os modelos de IA. Enquanto a empresa nos direcionou para o seu Postagem do blog Sobre a política muda quando perguntada sobre o que levou a mudança, formamos algumas teorias próprias.
Mas primeiro, o que está mudando: anteriormente, o antropic não usava dados de bate -papo para o consumidor para treinamento de modelos. Agora, a empresa deseja treinar seus sistemas de IA em conversas com usuários e sessões de codificação, e disse que está estendendo a retenção de dados a cinco anos para quem não optar por não participar.
Essa é uma atualização enorme. Anteriormente, os usuários dos produtos de consumo da Anthrópica foram informados de que suas instruções e saídas de conversas seriam excluídas automaticamente do again -end do Antrópico em 30 dias “, a menos que seja legalmente ou recebida para mantê -los por mais tempo” ou que suas contribuições foram sinalizadas como violar suas políticas.
Por consumidor, queremos dizer que as novas políticas se aplicam a usuários de Claude Free, Professional e Max, incluindo aqueles que usam o CAUDE Código. Os clientes comerciais que usam Claude Gov, Claude for Work, Claude for Training ou API Entry não serão afetados, que é assim que o OpenAI protege os clientes corporativos das políticas de treinamento de dados.
Então, por que isso está acontecendo? Nesse submit sobre a atualização, os quadros antrópicos são as mudanças em torno da escolha do usuário, dizendo que, ao não optar por não optar, os usuários “nos ajudarão a melhorar a segurança do modelo, tornando nossos sistemas para detectar conteúdo prejudicial mais preciso e com menor probabilidade de sinalizar conversas inofensivas”. Os usuários “também ajudarão os futuros modelos de Claude a melhorarem habilidades como codificação, análise e raciocínio, levando a melhores modelos para todos os usuários”.
Em suma, ajude -nos a ajudá -lo. Mas a verdade completa é provavelmente um pouco menos altruísta.
Como qualquer outra empresa de modelos de idiomas grande, a Anthropic precisa de dados mais do que precisa das pessoas para ter sentimentos confusos sobre sua marca. Os modelos de IA de treinamento requerem vastas quantidades de dados de conversação de alta qualidade, e o acesso a milhões de interações Claude deve fornecer exatamente o tipo de conteúdo do mundo actual que pode melhorar o posicionamento competitivo do Antrópico contra rivais como OpenAI e Google.
Evento do TechCrunch
São Francisco
|
27-29 de outubro de 2025
Além das pressões competitivas do desenvolvimento da IA, as mudanças também parecem refletir mudanças mais amplas na indústria nas políticas de dados, pois empresas como antropia e abertura enfrentam um escrutínio crescente sobre suas práticas de retenção de dados. O OpenAI, por exemplo, está atualmente lutando contra uma ordem judicial que força a empresa a manter todas as conversas de bate -papo do consumidor indefinidamente, incluindo bate -papos excluídos, devido a uma ação movida pelo New York Occasions e outros editores.
Em junho, o OpenAi COO Brad Lightcap chamou isso de “A demanda abrangente e desnecessária“Que” fundamentalmente entra em conflito com os compromissos de privacidade que assumimos aos nossos usuários “. A ordem judicial afeta o ChatGPT GRATUITO, os usuários do Professional e da equipe, embora os clientes corporativos e aqueles com acordos de retenção de dados zero ainda estejam protegidos.
O que é alarmante é quanta confusão todas essas políticas de uso estão criando para os usuários, muitos dos quais permanecem alheios a eles.
Para ser justo, tudo está se movendo rapidamente agora, assim como a tecnologia muda, as políticas de privacidade devem mudar. Mas muitas dessas mudanças são bastante amplas e mencionadas apenas fugavelmente em meio às outras notícias das empresas. (Você não pensaria que as mudanças políticas de terça -feira para usuários antropia eram grandes notícias com base em onde a empresa colocou esta atualização em sua página de imprensa.)
Mas muitos usuários não percebem as diretrizes às quais eles concordaram mudaram porque o design praticamente garante. A maioria dos usuários do ChatGPT continua clicando em “excluir” alternar que não estão excluindo tecnicamente nada. Enquanto isso, a implementação de sua nova política pelo Antrópico segue um padrão acquainted.
Como assim? Os novos usuários escolherão sua preferência durante a inscrição, mas os usuários existentes enfrentam um pop-up com “Atualizações para os termos e políticas do consumidor” em texto grande e um proeminente botão “aceitar” preto com um comutador de alternância muito mais minúsculo para permissões de treinamento abaixo em impressão menor-e automaticamente definido como “ativado”.
Como observado mais cedo Hoje, pelo The Verge, o design levanta preocupações de que os usuários possam clicar rapidamente em “aceitar” sem perceber que estão concordando com o compartilhamento de dados.
Enquanto isso, as apostas para a conscientização do usuário não poderiam ser mais altas. Os especialistas em privacidade há muito alertam que a complexidade em torno da IA torna o consentimento significativo do usuário quase inatingível. Sob o governo Biden, a Comissão Federal de Comércio até interveio, aviso que as empresas de IA arrisquem a ação de aplicação se se envolverem em “mudar de forma clandestina de seus termos de serviço ou política de privacidade ou enterrar uma divulgação por trás dos hiperlinks, em jurídicos ou em letras miúdas”.
Se a Comissão – agora operando com apenas três De seus cinco comissários – ainda está de olho nessas práticas hoje é uma questão em aberto, que colocamos diretamente na FTC.