O CEO da NVIDIA, Jensen Huang, comentou durante uma conferência da Morgan Stanley sobre o momento atual da inteligência artificial, que ele descreve como um ponto de virada ligado ao crescimento da chamada "agentic AI".
Na avaliação do executivo, o software OpenClaw se tornou um dos lançamentos mais importantes da história recente da tecnologia. Segundo Huang, a evolução da inteligência artificial pode ser vista como uma estrutura formada por cinco camadas.
Entre elas, a camada de aplicações tem grande valor para grandes empresas de computação em nuvem e laboratórios que trabalham com IA avançada.
É nesse ponto que entram os agentes de inteligência artificial, como o OpenClaw, capazes de atuar em ambientes personalizados e executar tarefas que antes exigiam trabalho humano.
- Leia também: Clawdbot vira OpenClaw após pedido da Anthropic
Durante o evento, Huang foi questionado sobre como a demanda corporativa por inteligência artificial deve crescer nos próximos anos.
Ao falar sobre mudanças marcantes no setor, ele citou o OpenClaw como um exemplo que chamou atenção pela velocidade de adoção.
O executivo disse que o sistema alcançou um número de downloads que levou décadas para o sistema operacional Linux atingir.
"Provavelmente o maior fenômeno que está acontecendo agora é o OpenClaw. Se você observar a adoção dele, o Linux levou cerca de 30 anos para chegar a esse nível. O OpenClaw, em apenas três semanas, já ultrapassou isso. Ele se tornou o software de código aberto mais baixado da história, e levou três semanas para chegar lá", afirmou Huang.
O executivo também comentou que ferramentas baseadas em agentes de IA conseguem executar tarefas complexas apenas a partir de sequências de comandos de texto.
Com esse tipo de sistema, atividades que antes exigiam conhecimento técnico avançado ou muito tempo de trabalho passam a ser realizadas automaticamente.
O crescimento do OpenClaw não está ligado a uma implementação complicada. Na visão de Huang, o sucesso ocorre porque o software mostrou aplicações práticas da inteligência artificial no dia a dia.
A tecnologia consegue simplificar tarefas repetitivas e facilitar atividades comuns para usuários e empresas. Para companhias de tecnologia como a NVIDIA, o avanço desse tipo de agente também gera uma nova demanda por poder computacional.
Huang explicou que o uso de tokens — unidades de processamento usadas por modelos de IA — cresceu cerca de mil vezes com a chegada de sistemas baseados em agentes. Esse aumento cria o que ele descreve como um "vácuo de computação".
- Leia também: Intel oferecerá suporte a arquitetura Xe2 no Linux
Mesmo com a expansão de infraestrutura e hardware, a necessidade por processamento continua crescendo à medida que agentes de IA passam a executar mais tarefas normalmente feitas por pessoas.
Entre as atividades que esses agentes podem realizar estão buscas em grande escala na internet, geração de imagens e análises complexas de dados.
Esse conjunto de funções eleva bastante o consumo de tokens, o que amplia a necessidade de capacidade de processamento no setor de inteligência artificial.

Huang também mencionou as arquiteturas de hardware usadas pela NVIDIA dentro do modelo de cinco camadas citado anteriormente. Plataformas como NVIDIA Hopper e NVIDIA Blackwell foram desenvolvidas com foco principal no treinamento de modelos de IA.
Já a futura arquitetura NVIDIA Vera Rubin deve concentrar esforços em tarefas ligadas à chamada "agentic AI". A ideia é lidar melhor com cargas de trabalho que utilizam contextos longos, com aumento de memória integrada e suporte a plataformas como ICMS.
Diante da diferença atual entre o volume de processamento disponível e a quantidade de tokens usada por sistemas de IA, a expectativa do executivo é que a procura por soluções baseadas na arquitetura Rubin seja muito alta nos próximos anos.
As declarações de Jensen Huang mostram como a indústria de tecnologia vê a chegada dos agentes de inteligência artificial. Softwares como o OpenClaw indicam uma nova fase da IA, com sistemas capazes de executar tarefas complexas de forma automática.
Esse avanço aumenta de forma intensa o uso de tokens e gera uma necessidade cada vez maior por infraestrutura de processamento, o que tende a impulsionar o desenvolvimento de novas arquiteturas de hardware voltadas para esse tipo de aplicação.







