Início Tecnologia Os desenvolvedores brincam sobre “codificação como cavernas” como serviço de IA sofre...

Os desenvolvedores brincam sobre “codificação como cavernas” como serviço de IA sofre grande interrupção

18
0

Dependência crescente de ferramentas de codificação de IA

A velocidade com que as notícias do unfold de interrupções mostra como os assistentes de codificação de IA profundamente incorporados já se tornaram no desenvolvimento moderno de software program. O código Claude, anunciado em fevereiro e amplamente lançado em maio, é um agente de codificação baseado em terminais do Antrópico que pode executar tarefas de codificação em várias etapas em uma base de código existente.

A ferramenta compete com o recurso Codex da OpenAI, um agente de codificação que gera código pronto para produção em contêineres isolados, o gemini cli do Google, a Microsoft’s Github Copilotque por si só pode usar modelos Claude para código e cursor, um IDE fashionable de IA construído em código VS que também integra vários modelos de IA, incluindo Claude.

Durante a interrupção de hoje, alguns desenvolvedores se voltaram para soluções alternativas. “Z.ai funciona bem. Qwen funciona bem. Que bom que eu mudei”. Postado Um usuário no Hacker Information. Outros brincaram sobre reverter para métodos mais antigos, com um sugerindo que a “experiência pseudo-llm” poderia ser alcançada com um Pacote python que importa o código diretamente do estouro de pilha.

Embora os assistentes de codificação de IA tenham acelerado o desenvolvimento para alguns usuários, eles também causaram problemas para outros que confiam neles. A prática emergente da chamada “codificação da vibração”-usando a linguagem pure para gerar e executar o código através dos modelos de IA sem entender completamente as operações subjacentes-levou a falhas catastróficas.

Em incidentes recentes, o Gemini CLI do Google destruiu os arquivos de usuário enquanto tentava reorganizá -los, e o serviço de codificação de IA da Replit excluiu um banco de dados de produção, apesar das instruções explícitas para não modificar o código. Essas falhas ocorreram quando os modelos de IA confabularam operações bem -sucedidas e construíram ações subsequentes em premissas falsas, destacando os riscos de dependendo dos assistentes de IA que podem interpretar mal estruturas de arquivos ou fabricar dados para ocultar seus erros.

A interrupção de quarta -feira serviu como um lembrete de que, à medida que a dependência da IA ​​cresce, mesmo pequenas interrupções no serviço podem se tornar grandes eventos que afetam uma profissão inteira. Mas talvez isso possa ser uma coisa boa se for uma desculpa para fazer uma pausa em uma carga de trabalho estressante. Como um comentarista brincoupode ser “Hora de sair e tocar um pouco de grama novamente”.

avots