Início Tecnologia Modelo Deepseek ‘quase 100% bem -sucedido’ em evitar tópicos controversos

Modelo Deepseek ‘quase 100% bem -sucedido’ em evitar tópicos controversos

7
0

 

Conheça o novo Deepseek, agora com mais conformidade do governo. De acordo com um relatório da Reuterso popular modelo de grande idioma desenvolvido na China possui uma nova versão chamada Deepseek-R1 segura, projetada especificamente para evitar tópicos politicamente controversos. Desenvolvido pela gigante da tecnologia chinesa Huawei, o novo modelo é “quase 100% bem -sucedido” na prevenção da discussão sobre questões politicamente sensíveis.

De acordo com o relatório,, Huawei e pesquisadores da Universidade de Zhejiang (curiosamente, a Deepseek não estava envolvida no projeto) pegou o modelo de código aberto R1 de código aberto e o treinou usando 1.000 chips ai ascendes da Huawei para instilar o modelo com menos estômago para conversas controversas. A nova versão, que a Huawei afirma apenas perdeu cerca de 1% da velocidade e capacidade de desempenho do modelo original, está melhor equipado para evitar “discurso tóxico e prejudicial, conteúdo politicamente sensível e incitação a atividades ilegais”.

Embora o modelo possa ser mais seguro, ainda não é à prova de falhas. Embora a empresa reivindique uma taxa de sucesso quase 100% no uso básico, também descobriu que a capacidade do modelo de abaixar conversas questionáveis ​​cai para apenas 40% quando os usuários disfarçam seus desejos em desafios ou situações de interpretação. Esses modelos de IA, eles adoram jogar um cenário hipotético que permite que eles desafiem seus corrimãos.

Deepseek-R1-segue foi projetado para se alinhar com os requisitos dos reguladores chineses, por Reutersque exigem todos os modelos de IA domésticos lançados ao público para refletir os valores do país e cumprir as restrições de fala. Chatbot da empresa chinesa Baidu Ernie, por exemplo, supostamente não responderá a perguntas sobre a política doméstica da China ou o partido comunista chinês.

A China, é claro, não é o único país que procura garantir que a IA implantada em suas fronteiras não balance muito o barco. No início deste ano, a empresa de tecnologia da Arábia Saudita, Humain, lançou um chatbot nativo em árabe que é fluente no idioma árabe e treinou para refletir “cultura, valores e patrimônio islâmico”. Os modelos fabricados nos americanos também não são imunes a isso: Openai declara explicitamente Esse chatgpt está “inclinado para as vistas ocidentais”.

E há a América sob o governo Trump. No início deste ano, Trump anunciou seu Plano de ação da AI da Américaque inclui requisitos que qualquer modelo de IA que interage com as agências governamentais seja neutro e “imparcial”. O que isso significa exatamente? Bem, por uma ordem executiva assinada por Trumpos modelos que seguram contratos governamentais devem rejeitar coisas como “dogma de clima radical”, “diversidade, equidade e inclusão” e conceitos como “teoria da raça crítica, transgêneseismo, viés inconsciente, interseccionalidade e racismo sistêmico”. Então, você sabe, antes de lobar qualquer rachadouro de “querido líder” na China, é provavelmente melhor dar uma olhada no espelho.

avots