A Apple está lançando novas medidas de segurança para iPhone e iPad com o objetivo de proteger as crianças de predadores.
Uma investigação sobre material de abuso sexual infantil (CSAM) pode parecer positiva, no entanto, há diversos especialistas em proteção de dados preocupados com a situação.
Então, qual é o procedimento? A funcionalidade, que estará disponível no iOS 15 e posteriormente no iPadOS 15 neste ano, utiliza uma nova tecnologia exclusiva chamada NeuralHash para identificar imagens CSAM reconhecidas.
Antes de ser salva no Fotos do iCloud, a imagem é comparada com hashes específicos de CSAM no dispositivo.
Ele emprega a tecnologia conhecida como “compartilhamento secreto de limiar”, a qual impede a Apple de analisar uma imagem, a menos que a conta correspondente tenha ultrapassado um determinado limite de conteúdo CSAM.
A Apple tem a capacidade de relatar ao Centro Nacional de Crianças Desaparecidas e Exploradas (NCMEC) qualquer conteúdo de CSAM que identificar.
É importante destacar que existe a possibilidade de ocorrerem falsos positivos. Matthew Green, especialista em segurança digital e professor associado na Universidade Johns Hopkins, manifestou suas preocupações no Twitter.
A Electronic Frontier Foundation expressou profunda insatisfação com os planos da Apple, afirmando que mesmo um acesso especial completamente transparente, bem planejado e limitado ainda é uma forma de acesso não autorizado.
Chegamos à sede da Apple para fazer comentários e iremos atualizar esta história assim que tivermos mais informações.
A Apple afirma que seu limiar oferece “um alto grau de precisão e assegura uma probabilidade inferior a uma em um trilhão por ano de identificar erroneamente uma determinada conta”.
Quando um dispositivo ultrapassa essa fronteira, a análise do relatório é feita manualmente. Caso haja uma correspondência identificada pela Apple, a conta do usuário é desativada e um relatório é encaminhado para a NCMEC. Aqueles usuários que acreditam que sua conta foi desativada erroneamente precisarão solicitar uma revisão para recuperá-la.
Apesar de ser compreensível uma empresa querer combater a pornografia infantil, é preocupante o fato de a Apple ter a capacidade de escanear as fotos de um indivíduo. Ainda mais alarmante é pensar que uma pessoa real pode acessar imagens privadas para corrigir possíveis identificações incorretas.
É curioso notar que a Apple, que se orgulha de suas ações em prol da privacidade, como suas opções de rastreamento de transparência de aplicativos, tenha tomado essa decisão.
A Apple assegura aos usuários que o CSAM foi criado com foco na privacidade do usuário, razão pela qual ele é emparelhado com uma imagem no dispositivo antes de ser transferido para as Fotos do iCloud. No entanto, essa garantia lembra a situação dos AirTags, que se revelou um problema de privacidade.
Confidencialidade
Deixe uma resposta