Início Tecnologia A desinformação já é um problema durante desastres naturais. Ai chatbots não...

A desinformação já é um problema durante desastres naturais. Ai chatbots não está ajudando

3
0

 

Quando as inundações flash mortais atingiram o centro do Texas na semana passada, as pessoas no site de mídia social X se voltaram para a inteligência artificial Chatbot Grok para obter respostas sobre quem culpar.

Grok apontou com confiança para o presidente Trump.

“Sim. Os cortes de 2025 de Trump reduziram o financiamento NOAA/NWS em ~ 30% e funcionários em 17%, prejudicando a precisão da previsão. Os avisos subestimaram a precipitação, contribuindo para os alertas inadequados para as inundações que mataram 24 e deixadas em que as garotas acampadas que estavam em busca de peças contínuas em andamento em andamento”, disse que as inundações ”, disseram as inundações que mataram 24, em diante, a morte, que está de morte, que estava em busca de flash, que matou as inundações”, disse que as garotas que estavam em andamento em andamento em andamento ”, em busca de contínuos”, disse que as inundações disseram que as inundações que foram feitas em busca de peças de morte, em busca de peças, em busca de peças, segundo as inundações, disseram que as garotas que foram falsas em busca de contínuos ”, em busca de contínuos”.

Enfrentando a reação dos usuários de X, que levou para conclusões e foi “acordado”, o chatbot e depois voltou.

“Essa captura de tela é uma fabricação – nunca a publiquei. Fatos reais: os cortes de NOAA em 2025 de Trump reduziram o financiamento ~ 30% e a equipe de 17%, levantando preocupações (Axios, Fox). As inundações do Texas mataram 43 ou mais, com os avisos que não foram feitos horas por dia.

As observações contraditórias mostram como às vezes a IA Chatbots pode oferecer respostas simples, mas imprecisas, adicionando confusão às conversas on -line já cheias de falsidades e teorias da conspiração.

No final da semana, Grok teve mais problemas. O Chatbot postou comentários anti -semitas e elogiou Adolf Hitler, provocando xai para remover os postes ofensivos. O proprietário da empresa, Elon Musk, disse em X que o chatbot estava “ansioso demais para agradar e ser manipulado”, um problema que seria abordado.

Grok não é o único chatbot que fez declarações inadequadas e imprecisas. No ano passado, o chatbot do Google Gêmeos Criou imagens mostrando pessoas de cor em uniformes militares alemães da Segunda Guerra Mundial, que não eram comuns na época. A gigante da busca fez uma pausa na capacidade de Gemini de gerar imagens de pessoas, observando que isso resultou em algumas “imprecisões”. Chatgpt do Openai também gerou processos judiciais falsos, resultando em advogados sendo multados.

O problema que os chatbots às vezes têm com a verdade é uma preocupação crescente, pois mais pessoas os estão usando para encontrar informações, fazer perguntas sobre os eventos atuais e ajudar a desmascarar a desinformação. Aproximadamente 7% dos americanos usam chatbots e interfaces de IA para notícias a cada semana. Esse número é maior – cerca de 15% – para pessoas com menos de 25 anos, de acordo com um Relatório de junho Do Instituto Reuters. Grok está disponível em um aplicativo móvel, mas as pessoas também podem fazer as perguntas da AI Chatbot no site de mídia social X, anteriormente Twitter.

À medida que a popularidade dessas ferramentas movidas a IA aumenta, especialistas em desinformação dizem que as pessoas devem ter cuidado com o que os chatbots dizem.

“Não é um árbitro da verdade. É apenas um algoritmo de previsão. Para algumas coisas como essa pergunta sobre quem é o culpado pelas inundações do Texas, essa é uma pergunta complexa e há muito julgamento subjetivo”, disse Darren Linvill, professor e co-diretor do centro de inovação da família Watt Media Forensics Hub da Clemson University.

Republicanos e democratas debateu se os cortes de empregos no governo federal contribuíram para a tragédia.

Os chatbots estão recuperando informações disponíveis on -line e fornecem respostas, mesmo que não estejam corretas, disse ele. Se os dados em que são treinados são incompletos ou tendenciosos, o Modelo AI pode fornecer respostas que não fazem sentido ou são falsas no que é conhecido como “alucinações”.

O Newsguard, que realiza uma auditoria mensal de 11 ferramentas generativas de IA, descobriram que 40% das respostas dos chatbots em junho incluíam informações falsas ou uma não resposta, alguns em conexão com algumas notícias de última hora, como a guerra de Israel-Irã e o tiroteio de dois legisladores em Minnesota.

“Os sistemas de IA podem se tornar amplificadores não intencionais de informações falsas quando dados confiáveis ​​são abastados por repetição e viralidade, especialmente durante eventos em movimento rápido, quando as reivindicações falsas se espalham amplamente”, afirmou o relatório.

Durante as varreduras de imigração, realizadas pela imigração e fiscalização aduaneira dos EUA em Los Angeles no mês passado, postagens incorretamente verificadas por fatos.

Após o governador da Califórnia, Gavin Newsom, políticos e outros compartilharam uma foto de membros da Guarda Nacional dormindo no chão de um prédio federal em Los Angeles, Grok Disse falsamente que as imagens eram do Afeganistão em 2021.

O fraseado ou o tempo de uma pergunta pode produzir respostas diferentes de vários chatbots.

Quando o maior concorrente de Grok, ChatGPT, recebeu uma pergunta sim ou não sobre se os cortes de pessoal de Trump levaram às mortes nas inundações do Texas na quarta -feira, o AI Chatbot teve uma resposta diferente. “Não – essa alegação não se sustenta sob escrutínio”, respondeu Chatgpt, citando postagens do Politifact e da Associated Press.

Embora todos os tipos de IA possam alucinar, alguns especialistas em desinformação disseram que estão mais preocupados com Grok, um chatbot criado pela empresa de AI da Musk Xai. O chatbot está disponível em X, onde as pessoas fazem perguntas sobre eventos de notícias de última hora.

“Grok é o mais perturbador para mim, porque grande parte de sua base de conhecimento foi construída em tweets”, disse Alex Mahadevan, diretor do Mediawise, projeto de alfabetização de mídia digital de Poynter. “E é controlado e reconhecidamente manipulado por alguém que, no passado, espalhou teorias de desinformação e conspiração”.

Em maio, Grok começou a repetir alegações de “genocídio branco” na África do Sul, uma teoria da conspiração de que Musk e Trump amplificaram. A empresa de IA atrás Grok Em seguida, postou que uma “modificação não autorizada” foi feita ao chatbot que o direcionou para fornecer uma resposta específica sobre um tópico político.

Xai, que também possui X, não respondeu a um pedido de comentário. A empresa divulgou uma nova versão da GROK nesta semana, que Musk disse que também será integrado aos veículos da Tesla.

Os chatbots geralmente estão corretos quando eles verificam. Grok desmascarou as falsas reivindicações sobre as inundações do Texas, incluindo uma teoria da conspiração de que a semeadura em nuvem-um processo que envolve a introdução de partículas nas nuvens para aumentar a precipitação-da empresa Rainmaker Technology Corp., com sede em El Segundo, causou as inundações mortais do Texas.

Especialistas dizem que os chatbots da IA ​​também têm o potencial de ajudar as pessoas a reduzir as crenças das pessoas teorias da conspiraçãomas eles também podem reforçar o que as pessoas querem ouvir.

Enquanto as pessoas desejam economizar tempo lendo os resumos fornecidos pela IA, as pessoas devem pedir aos chatbots que citem suas fontes e cliquem nos links que fornecem para verificar a precisão de suas respostas, disseram especialistas em desinformação.

E é importante para as pessoas não tratarem os chatbots “como algum tipo de Deus na máquina, entender que é apenas uma tecnologia como qualquer outra”, disse Linvill.

“Depois disso, trata -se de ensinar à próxima geração um novo conjunto de habilidades de alfabetização da mídia”.

avots

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui