Bolha ai? Que bolha da IA? Se você perguntar ao CEO da NVIDIA, Jensen Huang, estamos em uma “nova revolução industrial”.
A empresa de Huang, é claro, faz fichas e {hardware} de computador, as “picaretas e pás” da corrida do ouro da IA, e se tornou o maior negócio do mundo, capitalizando o crescimento, bolha ou não da IA. Falando na quarta -feira, durante uma chamada de ganhos, pois sua empresa registrou receita de US $ 46,7 bilhões no último trimestre, ele não indicou nenhum sinal de que o incrível crescimento da indústria generativa de inteligência synthetic diminuirá.
“Acho que nos próximos anos, certamente até a década, vemos oportunidades de crescimento realmente significativas pela frente”, disse Huang.
Examine isso com os comentários recentes do CEO da Openai, Sam Altman, que disse que acredita que os investidores estão “superexcitados sobre a IA”. (Altman também reconheceu que ainda acredita que a IA é “a coisa mais importante a acontecer em muito tempo”.
Huang disse que sua empresa tem “previsões muito, muito significativas” da demanda por mais chips e computadores que executam a IA, indicando que a corrida para mais information facilities não está parando em breve. Ele especulou que os gastos com infraestrutura de IA poderiam atingir US $ 3 trilhões a US $ 4 trilhões até o ultimate da década. (O produto interno bruto dos EUA é de cerca de US $ 30 trilhões.)
Isso significa muitos information facilities, que ocupam muita terra e usam muita água e energia. Essas fábricas de IA ficaram cada vez maiores nos últimos anos, com impactos significativos nas comunidades ao seu redor e uma maior pressão na grade elétrica dos EUA. E o crescimento de diferentes ferramentas generativas de IA que exigem ainda mais energia pode tornar essa demanda ainda maior.
Não perca nenhum de nosso conteúdo tecnológico imparcial e críticas baseadas em laboratório. Adicione CNET Como uma fonte preferida do Google no Chrome.
Modelos mais poderosos e exigentes
Um immediate em um chatbot nem sempre significa mais um immediate. Uma fonte de maior demanda por energia computacional é que os modelos de IA mais novos que empregam técnicas de “raciocínio” estão usando muito mais energia para uma pergunta. “É chamado de pensamento longo, e quanto mais ele pensa, muitas vezes produz melhores respostas”, disse Huang.
Essa técnica permite que um modelo de IA pesquise em websites diferentes, tente uma pergunta várias vezes para obter melhores respostas e reunir informações díspares em uma resposta.
Algumas empresas de IA oferecem raciocínio como modelo separado ou como uma escolha rotulada como “pensamento profundo”. O OpenAI trabalhou diretamente no lançamento do GPT-5, com um programa de roteamento decidindo se foi tratado por um modelo mais leve e direto ou um modelo de raciocínio mais intensivo.
Mas um modelo de raciocínio pode exigir 100 vezes o poder de computação ou mais do que uma resposta tradicional do modelo de grande idioma, disse Huang. Esses modelos, juntamente com sistemas agênticos que podem executar tarefas e modelos de robótica que podem lidar com a visualização e operar no mundo físico, estão mantendo a demanda por chips, energia e terras de information heart em ascensão.
“A cada geração, a demanda só cresce”, disse Huang.