Comportamento 07/08/2021 09:15
Apple vai checar iPhones à distância para verificar imagens de abuso sexual infantil
A Apple anunciou que vai colocar em uso um sistema para localizar material de abuso sexual infantil (identificado pela sigla CSAM, em inglês) em dispositivos de clientes dos Estados Unidos.

A Apple anunciou que vai colocar em uso um sistema para localizar material de abuso sexual infantil (identificado pela sigla CSAM, em inglês) em dispositivos de clientes dos Estados Unidos.
Antes de uma imagem ser armazenada no iCloud, a tecnologia irá procurar correspondências com material de abuso sexual infantil já conhecidos.
Assim, se uma correspondência for encontrada, um revisor humano avaliará o caso e relatará o usuário às autoridades, segundo disse a Apple.
Isso levantou, no entanto, preocupações com a privacidade – de que a tecnologia possa ser expandida para rastrear telefones em busca de conteúdo proibido ou mesmo discurso político. Especialistas temem que a tecnologia possa ser usada por governos autoritários para espionar seus cidadãos.
A Apple disse que as novas versões do iOS e iPadOS – que serão lançadas ainda este ano – terão “novos aplicativos de criptografia para ajudar a limitar a propagação do material de abuso sexual infantil online, ao mesmo tempo em que foram projetadas para a privacidade do usuário”.
O sistema funciona comparando imagens a um banco de dados de imagens de abuso sexual infantil conhecidas compilado pelo Centro Nacional para Crianças Desaparecidas e Exploradas dos EUA e outras organizações de segurança infantil.
Essas imagens são traduzidas em “hashes”, códigos numéricos que podem ser “combinados” com uma imagem em um dispositivo Apple.
A Apple diz que a tecnologia também será capaz de detectar versões editadas, mas semelhantes, das imagens originais.
“Antes que uma imagem seja armazenada nas fotos do iCloud, um processo de correspondência no dispositivo é executado para essa imagem em relação ao material de abuso sexual infantil conhecido”, disse a Apple.
A empresa afirmou que o sistema tem “um nível extremamente alto de precisão e garante menos de uma chance em um trilhão por ano de sinalizar incorretamente uma determinada conta”.
Além disso, a Apple diz que revisará manualmente cada relatório para confirmar se há uma correspondência. Em seguida, pode tomar medidas para desativar a conta de um usuário e relatar às autoridades.
A empresa diz que a nova tecnologia oferece benefícios de privacidade “significativos” em relação às técnicas existentes – já que a Apple só fica sabendo das fotos dos usuários se eles tiverem uma coleção de material de abuso sexual infantil conhecido em sua conta do iCloud.
Alguns especialistas em privacidade expressaram preocupações.
“Independentemente de quais sejam os planos de longo prazo da Apple, eles enviaram um sinal muito claro. Em sua opinião (muito influente), é seguro construir sistemas que examinam os telefones dos usuários em busca de conteúdo proibido”, disse Matthew Green, pesquisador de segurança da Johns Hopkins University, nos Estados Unidos.
“Se eles estão certos ou errados nesse ponto, pouco importa. Isso quebrará a barreira – os governos exigirão isso de todos.”
Deu em BBC

Descrição Jornalista
Desconstruindo a nota de Alexandre de Moraes
28/01/2026 18:06
Boas notícias do mundo que estão passando despercebidas
28/01/2026 17:15
Banda Mel, Eliane e mais: confira programação da Festa dos Santos Reis em Natal
02/01/2026 06:24 299 visualizações
01/01/2026 08:07 298 visualizações
02/01/2026 04:48 287 visualizações
02/01/2026 08:34 277 visualizações
Quem vai sacar dinheiro pelo caixa eletrônico em 2026 precisa saber disso
02/01/2026 09:41 271 visualizações
Moraes nega prisão domiciliar e determina que Bolsonaro volte à PF após alta
01/01/2026 10:16 265 visualizações
Dia seguinte às festas: como ajudar o corpo a se recuperar dos excessos
01/01/2026 11:25 238 visualizações
01/01/2026 12:56 233 visualizações
Globo despenca 36% de audiência no horário das 21h em sete anos
01/01/2026 09:12 226 visualizações