Apple pode estar prestes a dar o maior salto em fotografia móvel desde que os iPhones começaram a usar recursos avançados de computação nas câmeras.
Um novo vazamento vindo do Weibo indica que a empresa já está testando internamente um sensor exclusivo chamado LOFIC, capaz de oferecer até 20 stops de alcance dinâmico, resultado comparável ao de câmeras de cinema profissionais.
Caso se confirme, será uma grande mudança na forma como os iPhones lidam com cenas de alto contraste, preservando mais detalhes tanto nas áreas claras quanto nas sombras.
A tecnologia LOFIC (Lateral Overflow Integration Capacitor) permite que cada pixel capture e armazene a luz de maneira inteligente, adaptando-se à intensidade luminosa de cada parte da cena.
O sensor também apresenta um design em camadas: uma parte superior dedicada à captação de luz e uma parte interna voltada ao processamento em tempo real.
Isso significa que recursos como redução de ruído poderão ser aplicados no próprio hardware, antes de qualquer tratamento por software, resultando em fotos naturalmente mais limpas e definidas em ambientes com pouca luz.
Atualmente os iPhones trabalham com sensores de 12 a 14 stops de alcance dinâmico, então essa novidade representaria um avanço agressivo de qualidade de captura.
Além da melhoria visual, o movimento reforça a estratégia da Apple de reduzir a dependência da Sony, tradicional fornecedora dos sensores utilizados nos iPhones.
Ao assumir o controle total do hardware de imagem, a Apple poderá integrar ainda mais o software ao sensor, aperfeiçoando o processamento e oferecendo uma experiência mais consistente.
A expectativa é que os modelos da linha iPhone 17 continuem utilizando sensores da Sony, mas existe a chance de o iPhone 18, previsto para o ano que vem, já adotar esse novo componente desenvolvido internamente.
Há também rumores de que a tecnologia possa desembarcar futuramente em versões do Vision Pro, ampliando as possibilidades de captura e compreensão do ambiente no uso de realidade mista.








