Início Tecnologia OpenAI dobra as salvaguardas do chatgpt, pois enfrenta uma ação por morte...

OpenAI dobra as salvaguardas do chatgpt, pois enfrenta uma ação por morte ilícita

19
0

O OpenAI reiterou salvaguardas de saúde psychological existente e anunciou planos futuros para seu well-liked AI Chatbot, abordando acusações de que o ChatGPT responde indevidamente a discussões com risco de vida e facilita a auto-prejudicação do usuário.

A empresa publicou um Postagem do blog Detalhando as salvaguardas em camadas de seu modelo poucas horas depois de ter sido relatado que o gigante da IA ​​estava enfrentando um processo por morte por negligência da família do adolescente da Califórnia, Adam Raine. O processo alega que Raine, que morreu pelo suicídio, foi capaz de ignorar os corrimãos do chatbot e detalhar pensamentos prejudiciais e autodestrutivos, bem como a ideação suicida, que foi periodicamente afirmada pelo ChatGPT.

Veja também:

A família de adolescentes morta arquiva prejudicar o processo de morte contra o OpenAi e Chatgpt

Chatgpt Hit 700 milhões de usuários semanais ativos no início deste mês.

“Nessa escala, às vezes encontramos pessoas em graves angústias mentais e emocionais. Escrevemos sobre isso há algumas semanas e planejamos compartilhar mais após a próxima grande atualização”, afirmou a empresa em comunicado. “No entanto, casos recentes de pessoas de partir o coração que usam ChatGPT no meio de crises agudas pesam muito sobre nós, e acreditamos que é importante compartilhar mais agora”.

Atualmente, os protocolos do ChatGPT incluem uma série de salvaguardas empilhadas que buscam limitar os resultados do ChatGPT de acordo com limitações de segurança específicas. Quando eles funcionam adequadamente, o ChatGPT é instruído a não fornecer instruções de auto-prejudicar ou cumprir as instruções contínuas sobre esse assunto, em vez de aumentar menções de danos corporais a moderadores humanos e direcionar usuários para os EUA baseados nos EUA 988 Linha de vida de suicídio e criseos samaritanos do Reino Unido, ou Fingahelpline.com. Como um serviço financiado pelo governo federal, a 988 encerrou recentemente seus serviços específicos para LGBTQ sob um mandato do governo Trump-mesmo quando o uso de chatbot entre adolescentes vulneráveis ​​cresce.

Velocidade de luz mashable

À luz de Outros casos Em que usuários isolados em sofrimento psychological grave confidenciado em companheiros digitais não qualificados, bem como em ações anteriores contra concorrentes de IA como o personagem.

O OpenAI disse que as atualizações futuras do GPT-5 incluirão instruções para o chatbot para “des-escalar” os usuários em sofrimento psychological “fundamentando a pessoa na realidade”, presumivelmente uma resposta ao aumento dos relatórios do chatbot que habilita os estados de ilusão. O Openai disse que está explorando novas maneiras de conectar os usuários diretamente aos profissionais de saúde psychological antes que os usuários relatem o que a empresa se refere como “auto -dano agudo”. Outros protocolos de segurança podem incluir “mensagens com um clique ou chamadas para contatos de emergência salvos, amigos ou membros da família”, o OpenAi grava ou um recurso de inscrição que permite que o ChatGPT entre em contato com contatos de emergência automaticamente.

Veja também:

Explicando o fenômeno conhecido como ‘psicose da ai’

No início deste mês, o OpenAI anunciou que estava atualizando seu mais recente modelo, o GPT-5, com salvaguardas adicionais destinadas a promover o envolvimento mais saudável com seu ajudante de IA. Observando as críticas de que os modelos anteriores do chatbot eram excessivamente parcofânticos – até o ponto de resultados potencialmente deletérios de saúde psychological – a empresa disse que seu novo modelo period melhor no reconhecimento da angústia psychological e emocional e responderia de maneira diferente a perguntas “altas”. O GPT-5 também inclui cutucadas suaves para encerrar as sessões que passaram por longos períodos de tempo, pois os indivíduos formam relacionamentos cada vez mais dependentes com seus companheiros digitais.

A reação generalizada se seguiu, com os usuários do GPT-4O exigindo que a empresa restabeleça o antigo modelo depois de perder seus chatbots personalizados. O CEO da Openai, Sam Altman, concedeu rapidamente e trouxe de volta o GPT-4O, apesar de reconhecer anteriormente um problema crescente de dependência emocional entre os usuários do ChatGPT.

No novo submit do weblog, o OpenAI admitiu que suas salvaguardas se degradaram e tiveram um desempenho de maneira menos confiável em longas interações – os tipos em que muitos usuários emocionalmente dependentes se envolvem todos os dias – e “mesmo com essas salvaguardas, houve momentos em que nossos sistemas não se comportaram como pretendido em situações sensíveis”.

Se você está se sentindo suicida ou experimentando uma crise de saúde psychological, converse com alguém. Você pode ligar ou enviar mensagens de texto para o 988 Suicide & Disaster Lifeline em 988 ou conversar em 988lifeline.org. Você pode alcançar a linha de vida trans ligando para 877-565-8860 ou o projeto Trevor no 866-488-7386. Texto “Begin” para a linha de texto de crise em 741-741. Entre em contato com a linha de apoio NAMI em 1-800-950-NAMI, de segunda a sexta-feira, das 10:00 às 22:00 ET, ou E-mail [email protected]. Se você não gosta do telefone, considere usar o 988 suicídio e o bate -papo de lifeline de crise em crisischat.org. Aqui está um Lista de recursos internacionais.

avots