A Apple está preparando novos recursos de identificação de fotos com algoritmos de hash para combinar o conteúdo das fotos na biblioteca de fotos dos usuários com o objetivo de identificar materiais de abuso infantil.
A ferramenta será capaz de identificar conteúdos como pornografia infantil e agirá direto no dispositivo do usuário para a empresa não violar a privacidade do usuário.
No entanto, no caso de algum conteúdo ilegal ser detectado, o iPhone poderá relatar o conteúdo para análise humana. O sistema será constantemente atualizado com novas impressões digitais que representam conteúdo ilegal.
O sistema de hash de fotos da Apple foi relatado pela primeira vez pelo professor de criptografia da Universidade Johns Hopkins, Matthew Green, segundo ele, "esta é uma ideia muito ruim."
I’ve had independent confirmation from multiple people that Apple is releasing a client-side tool for CSAM scanning tomorrow. This is a really bad idea.
— Matthew Green is on BlueSky (@matthew_d_green) August 4, 2021
Anteriormente, a Apple já havia comunicado que utiliza técnicas de hash em fotos enviadas para o iCloud. Mas, este novo sistema será feito no lado do cliente, atuando no dispositivo do usuário.
Isso significa que os deveres da empresa com a privacidade do usuários seriam isentos, no entanto, a empresa ainda não anunciou o sistema oficialmente e pode haver alguns detalhes importantes que ainda não sabemos.
Basicamente, esse tipo de sistema é semelhante aos recursos de aprendizado de máquina para identificação de objetos e cenas já presentes no Apple Photos.
- Leia também: Apple perde pesquisador líder em robótica de IA para a Meta em meio à disputa por talentos
No entanto, Matthew Green, especialista em criptografia e segurança observa que as implicações de usar algo assim são complicadas. Os algoritmos de hash não são à prova de falhas e podem gerar falsos positivos.
A maior preocupação dos especialistas é que se a Apple permitir que os governos controlem o banco de dados de conteúdo de impressão digital, talvez eles possam usar o sistema para detectar imagens de outras coisas.
Como por exemplo, conteúdo para alimentar o ativismo político e manipular a opinião pública. Isso causaria uma grande confusão, principalmente em período eleitoral.
No entanto, todas as fotos enviadas para o Fotos do iCloud para backup e sincronização não são armazenadas e criptografadas de ponta-a-ponta.
Elas são armazenadas de forma criptografada nos servidores da Apple, mas as chaves para descriptografar também são propriedade da Apple.
- Leia também: Apple pressiona fornecedores a investir em automação para cortar custos de produção do iPhone
Isso significa que os órgãos de aplicação da lei podem intimar a Apple e ver todas as fotos carregadas de um usuário. Isso não é nenhuma surpresa, todos os serviços de fotos de terceiros funcionam dessa maneira.
É possível que, no futuro, a Apple possa lançar sistemas semelhantes para escanear conteúdo no lado do cliente, que mais tarde seria armazenado em um servidor de forma criptografada de ponta-a-ponta.
Muitos governos têm feito campanha por esse sistema a partir de aplicativos de mensagens privadas E2E, como o iMessage e o WhatsApp.
Isso por que a crescente mudança em comunicações criptografadas pode tornar mais difícil para a polícia encontrar e processar casos de abuso infantil.
Green ainda especula que a Apple não teria investido no desenvolvimento deste sistema se aplicá-lo a conteúdo criptografado de ponta-a-ponta se não fosse um objetivo de longo prazo.
Via: 9to5 Google