A Apple elimina a maioria das menções de recursos controversos do CSAM após a atualização do iOS 15.2

A Apple lançou esta semana o iOS 15.2 com uma série de novos recursos, incluindo um recurso de segurança de comunicação para o aplicativo Mensagens que se concentra na proteção infantil. No entanto, a empresa não incluiu o controverso recurso de digitalização de material de abuso sexual infantil no iCloud Photos e parece ter eliminado todas as menções à sua existência.

Recapitulando, o iOS 15.2 foi originalmente planejado para vir com um recurso de detecção de material de abuso sexual infantil (CSAM). A atualização teria implementado um recurso de digitalização no dispositivo com o objetivo de varrer a biblioteca de fotos do iCloud de um usuário em busca de material CSAM. A empresa observou que faria isso no dispositivo, para o máximo de privacidade. Especialistas em privacidade objetaram , observando que o próprio conceito de escanear a biblioteca de fotos de um usuário em busca de material proibido era uma violação de privacidade em si, que poderia se expandir para incluir outro material uma vez que o precedente fosse aberto.

Três telas que ilustram como arrastar e soltar imagens do Safari para o aplicativo Fotos em um iPhone.
Jesse Hollington / Tendências digitais

“Anteriormente, anunciamos planos para recursos destinados a ajudar a proteger as crianças de predadores que usam ferramentas de comunicação para recrutá-los e explorá-los e para ajudar a limitar a disseminação de material de abuso sexual infantil. Com base no feedback de clientes, grupos de defesa, pesquisadores e outros, decidimos reservar um tempo adicional ao longo dos próximos meses para coletar informações e fazer melhorias antes de lançar esses recursos de segurança infantil extremamente importantes ”, disse a Apple em uma nota previamente adicionada ao sua página original de segurança infantil .

Conforme detectado pelo MacRumors , a empresa já excluiu esse segmento da página e qualquer menção ao recurso de digitalização de fotos do iCloud. Entramos em contato com a Apple para obter esclarecimentos sobre este ponto.

A Apple também fez algumas pequenas mudanças na segurança de comunicação em seu recurso Mensagens. Em vez de notificar automaticamente os pais se um filho com menos de 18 anos decidir ver ou enviar uma imagem nua por meio do aplicativo Mensagens, a empresa retirou o requisito de notificação em resposta ao feedback de especialistas.

Em vez disso, todos com menos de 18 anos serão avisados ​​de que a imagem pode conter materiais confidenciais e receberão uma explicação sobre o que são fotos confidenciais e como podem ser usadas para causar danos, em vez de especificar a natureza da própria foto explícita.