Siga ZDNET: Adicione-nos como fonte preferencial no Google.
Principais conclusões da ZDNET
- As equipes de TI, engenharia, dados e IA agora lideram esforços responsáveis de IA.
- A PwC recomenda um modelo de “defesa” de três níveis.
- Incorpore, não se atrapalhe, IA responsável em tudo.
A “IA responsável” é um tema muito quente e importante nos dias de hoje, e a responsabilidade recai sobre os gestores e profissionais de tecnologia para garantir que o trabalho de inteligência synthetic que realizam cria confiança e, ao mesmo tempo, se alinha com os objetivos de negócios.
Cinquenta e seis por cento dos 310 executivos participantes de um novo PwC enquete dizem que suas equipes de primeira linha – TI, engenharia, dados e IA – agora lideram seus esforços responsáveis de IA. “Essa mudança coloca a responsabilidade mais perto das equipes que constroem a IA e faz com que a governança aconteça onde as decisões são tomadas, reorientando a IA responsável de uma conversa de conformidade para uma conversa de capacitação de qualidade”, de acordo com os autores da PwC.
Além disso: é mais provável que os consumidores paguem por ferramentas de IA “responsáveis”, diz pesquisa da Deloitte
A IA responsável – associada à eliminação de preconceitos e à garantia de justiça, transparência, responsabilização, privacidade e segurança – também é relevante para a viabilidade e o sucesso dos negócios, de acordo com o inquérito da PwC. “A IA responsável está se tornando um impulsionador do valor comercial, aumentando o ROI, a eficiência e a inovação, ao mesmo tempo que fortalece a confiança.”
“A IA responsável é um esporte de equipe”, explicam os autores do relatório. “Funções claras e transferências rígidas agora são essenciais para escalar com segurança e confiança à medida que a adoção da IA acelera.” Para aproveitar as vantagens da IA responsável, a PwC recomenda a implementação de aplicações de IA dentro de uma estrutura operacional com três “linhas de defesa”.
- Primeira linha: Constrói e opera com responsabilidade.
- Segunda linha: Revisa e governa.
- Terceira linha: Assegura e audita.
O desafio para alcançar uma IA responsável, citado por metade dos entrevistados, é converter os princípios da IA responsável “em processos escaláveis e repetíveis”, concluiu a PwC.
Cerca de seis em cada dez entrevistados (61%) da pesquisa da PwC afirmam que a IA responsável está ativamente integrada nas operações principais e na tomada de decisões. Aproximadamente um em cada cinco (21%) relata estar em fase de treinamento, focado no desenvolvimento de treinamento de funcionários, estruturas de governança e orientação prática. Os restantes 18% dizem que ainda estão nas fases iniciais, trabalhando para construir políticas e quadros fundamentais.
Além disso: Até brand, SaaS: por que a IA significa o fim das licenças de software program por usuário – e o que vem a seguir
Em toda a indústria, há um debate sobre quão apertadas devem ser as rédeas da IA para garantir aplicações responsáveis. “Definitivamente, existem situações em que a IA pode fornecer grande valor, mas raramente dentro da tolerância ao risco das empresas”, disse Jake Williams, ex-hacker da Agência de Segurança Nacional dos EUA e membro do corpo docente da IANS Analysis. “Os LLMs que sustentam a maioria dos agentes e soluções de geração de IA não criam resultados consistentes, levando a riscos imprevisíveis. As empresas valorizam a repetibilidade, mas a maioria dos aplicativos habilitados para LLM estão, na melhor das hipóteses, perto da correção na maioria das vezes.”
Como resultado desta incerteza, “estamos vendo mais organizações reverterem a adoção de iniciativas de IA à medida que percebem que não podem mitigar riscos de forma eficaz, especialmente aqueles que introduzem exposição regulatória”, continuou Williams. “Em alguns casos, isso resultará na redefinição do escopo de aplicativos e casos de uso para combater esse risco regulatório. Em outros casos, resultará no abandono de projetos inteiros.”
8 diretrizes de especialistas para IA responsável
Os especialistas do setor oferecem as seguintes diretrizes para construir e gerenciar IA responsável:
1. Construa uma IA responsável do início ao fim: Torne a IA responsável parte do design e implantação do sistema, e não uma reflexão tardia.
“Para líderes e gerentes de tecnologia, garantir que a IA seja responsável começa com a forma como ela é construída”, disse Rohan Sen, diretor de riscos cibernéticos, de dados e tecnológicos da PwC US e coautor do relatório da pesquisa, à ZDNET.
“Para construir confiança e dimensionar a IA com segurança, concentre-se na incorporação de IA responsável em todas as etapas do ciclo de vida de desenvolvimento da IA e envolva funções-chave como cibernética, governança de dados, privacidade e conformidade regulatória”, disse Sen.
Além disso: 6 regras essenciais para liberar IA em seu processo de desenvolvimento de software program – e o risco número 1
2. Dê um propósito à IA – não apenas implantar a IA pela IA: “Muitas vezes, os líderes e suas equipes de tecnologia tratam a IA como uma ferramenta de experimentação, gerando incontáveis bytes de dados simplesmente porque podem”, disse Danielle An, arquiteta sênior de software program da Meta.
“Use a tecnologia com bom gosto, disciplina e propósito. Use a IA para aguçar a intuição humana – para testar ideias, identificar pontos fracos e acelerar decisões informadas. Projete sistemas que melhorem o julgamento humano, e não o substituam.”
3. Sublinhe a importância da IA responsável desde o início: De acordo com Joseph Logan, diretor de informação da iManage, iniciativas responsáveis de IA “devem começar com políticas claras que definam o uso aceitável de IA e esclareçam o que é proibido”.
“Comece com uma declaração de valor em torno do uso ético”, disse Logan. “A partir daqui, priorize auditorias periódicas e considere um comitê diretor que abrange privacidade, segurança, jurídico, TI e compras. A transparência contínua e a comunicação aberta são fundamentais para que os usuários saibam o que está aprovado, o que está pendente e o que é proibido. Além disso, investir em treinamento pode ajudar a reforçar a conformidade e o uso ético.”
4. Faça da IA responsável uma parte elementary dos trabalhos: As práticas responsáveis de IA e a supervisão precisam ser tão prioritárias quanto a segurança e a conformidade, disse Mike Blandina, diretor de informação da Snowflake. “Garantir que os modelos sejam transparentes, explicáveis e livres de preconceitos prejudiciais.”
Também são fundamentais para esse esforço os quadros de governação que cumpram os requisitos dos reguladores, dos conselhos de administração e dos clientes. “Essas estruturas precisam abranger todo o ciclo de vida da IA – desde a fonte de dados até o treinamento de modelos, a implantação e o monitoramento.”
Além disso: Os melhores cursos e certificados gratuitos de IA para aprimoramento de habilidades – e eu experimentei todos eles
5. Mantenha os humanos informados em todas as fases: Torne uma prioridade “discutir continuamente como usar a IA de forma responsável para aumentar o valor para os clientes e, ao mesmo tempo, garantir que as preocupações com segurança de dados e IP sejam abordadas”, disse Tony Morgan, engenheiro sênior da Precedence Designs.
“Nossa equipe de TI analisa e examina cada plataforma de IA que aprovamos para garantir que ela atenda aos nossos padrões para proteger a nós e aos nossos clientes. Para respeitar a propriedade intelectual nova e existente, garantimos que nossa equipe seja informada sobre os modelos e métodos mais recentes, para que possam aplicá-los com responsabilidade.”
6. Evite riscos de aceleração: Muitas equipes de tecnologia têm “um desejo de colocar IA generativa em produção antes que a equipe tenha uma resposta à pergunta X ou ao risco Y”, disse Andy Zenkevich, fundador e CEO da Epiic.
“Uma nova capacidade de IA será tão empolgante que os projetos cobrarão antecipadamente para usá-la na produção. O resultado geralmente é uma demonstração espetacular. Então as coisas quebram quando os usuários reais começam a confiar nela. Talvez haja o tipo errado de lacuna de transparência. Talvez não esteja claro quem é o responsável se você devolver algo ilegal. Reserve um tempo further para um mapa de risco ou verifique a explicabilidade do modelo. A perda de negócios por perder o prazo inicial não é nada comparada à correção de uma implementação quebrada.”
Além disso: todos pensam que a IA transformará seus negócios – mas apenas 13% estão fazendo isso acontecer
7. Documento, documento, documento: Idealmente, “cada decisão tomada pela IA deve ser registrada, fácil de explicar, auditável e ter uma trilha clara para os humanos seguirem”, disse McGehee. “Qualquer governança de IA eficaz e sustentável incluirá um ciclo de revisão a cada 30 a 90 dias para verificar adequadamente as suposições e fazer os ajustes necessários.”
8. Verifique seus dados: “A maneira como as organizações obtêm dados de treinamento pode ter implicações éticas, de segurança e de privacidade significativas”, disse Fredrik Nilsson, vice-presidente para as Américas da Axis Communications.
“Se um modelo de IA mostra consistentemente sinais de parcialidade ou foi treinado em materials protegido por direitos autorais, os clientes provavelmente pensarão duas vezes antes de usar esse modelo. As empresas devem usar seus próprios conjuntos de dados cuidadosamente verificados ao treinar modelos de IA, em vez de fontes externas, para evitar a infiltração e exfiltração de informações e dados confidenciais. Quanto mais controle você tiver sobre os dados que seus modelos estão usando, mais fácil será aliviar as preocupações éticas.”
Receba as principais notícias da manhã em sua caixa de entrada todos os dias com nosso Boletim informativo da tecnologia hoje.











