Em um artigo Eleos AI publicou, a organização sem fins lucrativos defende a avaliação da consciência da IA usando uma abordagem de “funcionalismo computacional”. Uma idéia semelhante foi defendida por ninguém menos que Putnam, embora ele criticado Mais tarde, em sua carreira. O A teoria sugere que as mentes humanas podem ser pensadas como tipos específicos de sistemas computacionais. A partir daí, você pode descobrir se outros sistemas computacionais, como um chabot, têm indicadores de senciência semelhantes aos de um humano.
Eleos AI disse no artigo que “um grande desafio na aplicação” dessa abordagem “é que ela envolve julgamentos significativos, tanto na formulação dos indicadores quanto na avaliação de sua presença ou ausência nos sistemas de IA”.
O bem -estar do modelo é, obviamente, um campo nascente e ainda em evolução. Tem muitos críticos, incluindo Mustafa Suleyman, CEO da Microsoft AI, que recentemente publicou um blog sobre “AI aparentemente consciente”.
“Isso é prematuro e francamente perigoso”, escreveu Suleyman, referindo -se geralmente ao campo da pesquisa de bem -estar modelo. “Tudo isso exacerbará ilusões, criará ainda mais problemas relacionados à dependência, atacar nossas vulnerabilidades psicológicas, introduzir novas dimensões de polarização, complicar as lutas existentes por direitos e criar um novo erro de categoria para a sociedade.”
Suleyman escreveu que “hoje não há evidências” de que a IA consciente existe. Ele incluiu um link para um papel Aquela longa co -autoria em 2023, que propôs uma nova estrutura para avaliar se um sistema de IA possui “propriedades indicadoras” da consciência. (Suleyman não respondeu a um pedido de comentário da Wired.)
Conversei com Long e Campbell logo depois que Suleyman publicou seu blog. Eles me disseram que, embora concordassem com muito do que ele disse, não acreditam que a pesquisa de bem -estar do modelo deve deixar de existir. Em vez disso, eles argumentam que os danos de Suleyman referenciados são os motivos exatos por que Eles querem estudar o tópico em primeiro lugar.
“Quando você tem um grande problema ou pergunta confusa, a única maneira de garantir que você não resolverá é levantar as mãos e ser como ‘oh uau, isso é muito complicado'”, diz Campbell. “Acho que devemos pelo menos tentar.”
Testando consciência
Os pesquisadores do bem -estar do modelo se preocupam principalmente com questões de consciência. Se pudermos provar que você e eu estamos conscientes, eles argumentam, a mesma lógica poderá ser aplicada a grandes modelos de idiomas. Para ficar claro, nem Long nem Campbell pensam que a IA está consciente hoje, e eles também não têm certeza se jamais será. Mas eles querem desenvolver testes que nos permitiriam provar isso.
“Os ilusões são de pessoas preocupadas com a pergunta real ‘isso é AI, consciente?’ E ter uma estrutura científica para pensar nisso, eu acho, é simplesmente robustamente boa ”, diz Long.
Mas em um mundo onde a pesquisa de IA pode ser empacotada em manchetes sensacionais e vídeos de mídia social, questões filosóficas inebriantes e experimentos alucinantes podem ser facilmente interpretados. Pegue o que aconteceu quando o antropic publicou um Relatório de segurança Isso mostrou que Claude Opus 4 pode tomar “ações prejudiciais” em circunstâncias extremas, como chantagem de um engenheiro fictício para impedir que ele seja desligado.