Dispositivos compactos voltados a inteligência artificial já fazem parte do mercado, mas uma nova startup decidiu dar uma inovada.
A Tiiny AI anunciou o que chama de menor supercomputador do mundo, um equipamento pequeno no tamanho e ambicioso na proposta, ao menos no papel.
Batizado de Tiiny AI Pocket Lab, o dispositivo entra no segmento de edge AI com a promessa de rodar modelos de linguagem de grande porte diretamente no hardware local.
A ideia ganha força em um cenário no qual executar modelos open source na própria máquina dá mais controle sobre tarefas e dados, mas quase sempre exige equipamentos caros.
Soluções como o NVIDIA DGX Spark chegam a custar mais de R$ 20 mil, valor distante da realidade do consumidor comum. A proposta da Tiiny AI segue outro caminho.
O Pocket Lab mede apenas 14,2 × 8 × 2,53 cm, pesa cerca de 300 gramas e, ainda assim, segundo a empresa, consegue executar modelos com até 120 bilhões de parâmetros totalmente no próprio dispositivo.

A startup afirma que esses modelos atendem demandas que envolvem raciocínio avançado, análises em várias etapas e leitura profunda de contexto, tudo sem depender de nuvem ou internet.
O equipamento também serve para quem desenvolve modelos locais, já que todo o processamento acontece no próprio aparelho, algo ainda pouco comum fora de ambientes profissionais.
| Categoria | Especificação |
|---|---|
| Processador | CPU ARMv9.2 com 12 núcleos |
| Poder de computação em IA | Módulo heterogêneo customizado (SoC + dNPU), cerca de 190 TOPS |
| Memória e armazenamento | 80 GB de RAM LPDDR5X e SSD de 1 TB |
| Capacidade de modelos | Execução de modelos de linguagem com até 120 bilhões de parâmetros no próprio dispositivo |
| Eficiência energética | TDP de 30 W, com consumo típico do sistema em torno de 65 W |
| Dimensões e peso | 14,2 × 8 × 2,53 cm, aproximadamente 300 g |
| Ecossistema | Implantação em um clique para dezenas de modelos open source e frameworks de agentes |
| Conectividade | Funcionamento totalmente offline, sem uso de nuvem |
De acordo com a Tiiny AI, o Pocket Lab é compatível com modelos das famílias GPT-OSS, Llama, Qwen, DeepSeek, Mistral e Phi. Um dos pontos centrais do projeto está no módulo de NPU dedicado, responsável por alcançar até 190 TOPS de desempenho em IA.
A presença de 80 GB de RAM LPDDR5X abre espaço para quantização agressiva, algo essencial para rodar um modelo de 120B de forma local e estável. A empresa afirma que duas tecnologias tornaram esse cenário viável.
A primeira é o TurboSparse, uma técnica de ativação esparsa em nível de neurônio que melhora a eficiência durante a inferência sem comprometer a inteligência do modelo.
A segunda é o PowerInfer, um motor de inferência heterogêneo e open source, com mais de 8 mil estrelas no GitHub. Ele distribui as cargas de trabalho entre CPU e NPU de forma dinâmica, alcançando desempenho típico de servidores com consumo bem menor de energia.
Segundo a Tiiny AI, a combinação dessas soluções coloca o Pocket Lab em um patamar que antes dependia de GPUs profissionais com preços na casa dos milhares de dólares.
O Tiiny AI Pocket Lab deve aparecer publicamente durante a CES 2026. Até agora, a startup não divulgou data de lançamento nem informações sobre preço ou disponibilidade no varejo.
Ainda assim, o projeto chama atenção por levar a execução de grandes modelos de IA para um formato portátil, algo que pode mexer com o mercado caso as promessas se confirmem na prática.








