Tiiny AI anuncia o menor supercomputador do mundo com foco em modelos LLM

Imagem de: Tiiny AI anuncia o menor supercomputador do mundo com foco em modelos LLM

Dispositivos compactos voltados a inteligência artificial já fazem parte do mercado, mas uma nova startup decidiu dar uma inovada.

A Tiiny AI anunciou o que chama de menor supercomputador do mundo, um equipamento pequeno no tamanho e ambicioso na proposta, ao menos no papel.

Batizado de Tiiny AI Pocket Lab, o dispositivo entra no segmento de edge AI com a promessa de rodar modelos de linguagem de grande porte diretamente no hardware local.

A ideia ganha força em um cenário no qual executar modelos open source na própria máquina dá mais controle sobre tarefas e dados, mas quase sempre exige equipamentos caros.

Soluções como o NVIDIA DGX Spark chegam a custar mais de R$ 20 mil, valor distante da realidade do consumidor comum. A proposta da Tiiny AI segue outro caminho.

O Pocket Lab mede apenas 14,2 × 8 × 2,53 cm, pesa cerca de 300 gramas e, ainda assim, segundo a empresa, consegue executar modelos com até 120 bilhões de parâmetros totalmente no próprio dispositivo.

Interface de IA suportada pelo Tiiny AI Pocket Lab

A startup afirma que esses modelos atendem demandas que envolvem raciocínio avançado, análises em várias etapas e leitura profunda de contexto, tudo sem depender de nuvem ou internet.

O equipamento também serve para quem desenvolve modelos locais, já que todo o processamento acontece no próprio aparelho, algo ainda pouco comum fora de ambientes profissionais.

CategoriaEspecificação
ProcessadorCPU ARMv9.2 com 12 núcleos
Poder de computação em IAMódulo heterogêneo customizado (SoC + dNPU), cerca de 190 TOPS
Memória e armazenamento80 GB de RAM LPDDR5X e SSD de 1 TB
Capacidade de modelosExecução de modelos de linguagem com até 120 bilhões de parâmetros no próprio dispositivo
Eficiência energéticaTDP de 30 W, com consumo típico do sistema em torno de 65 W
Dimensões e peso14,2 × 8 × 2,53 cm, aproximadamente 300 g
EcossistemaImplantação em um clique para dezenas de modelos open source e frameworks de agentes
ConectividadeFuncionamento totalmente offline, sem uso de nuvem

De acordo com a Tiiny AI, o Pocket Lab é compatível com modelos das famílias GPT-OSS, Llama, Qwen, DeepSeek, Mistral e Phi. Um dos pontos centrais do projeto está no módulo de NPU dedicado, responsável por alcançar até 190 TOPS de desempenho em IA.

A presença de 80 GB de RAM LPDDR5X abre espaço para quantização agressiva, algo essencial para rodar um modelo de 120B de forma local e estável. A empresa afirma que duas tecnologias tornaram esse cenário viável.

A primeira é o TurboSparse, uma técnica de ativação esparsa em nível de neurônio que melhora a eficiência durante a inferência sem comprometer a inteligência do modelo.

A segunda é o PowerInfer, um motor de inferência heterogêneo e open source, com mais de 8 mil estrelas no GitHub. Ele distribui as cargas de trabalho entre CPU e NPU de forma dinâmica, alcançando desempenho típico de servidores com consumo bem menor de energia.

Segundo a Tiiny AI, a combinação dessas soluções coloca o Pocket Lab em um patamar que antes dependia de GPUs profissionais com preços na casa dos milhares de dólares.

O Tiiny AI Pocket Lab deve aparecer publicamente durante a CES 2026. Até agora, a startup não divulgou data de lançamento nem informações sobre preço ou disponibilidade no varejo.

Ainda assim, o projeto chama atenção por levar a execução de grandes modelos de IA para um formato portátil, algo que pode mexer com o mercado caso as promessas se confirmem na prática.

Romário Leite
Fundador do TecFoco. Atua na área de tecnologia há mais de 10 anos, com rotina constante de criação de conteúdo, análise técnica e desenvolvimento de código. Tem ampla experiência com linguagens de programação, sistemas e jogos. Estudou nas universidades UNIPÊ e FIS, tendo passagem também pela UFPB e UEPB. Hoje, usa todo seu conhecimento e experiência para produzir conteúdo focado em tecnologia.