Em um comunicado publicado em seu site oficial, a Apple anunciou que vai conduzir varreduras em iPhones a fim de encontrar usuários que consumam pornografia infantil e salvem esse tipo de material em seus dispositivos ou mesmo no iCloud, a plataforma de hospedagem em nuvem da maçã. Há também outras medidas, como mais ferramentas de monitoramento para os pais.

A empresa de Cupertino assegurou a segurança das medidas anunciadas, o que agradou entidades de proteção à criança. Entretanto, especialistas como a Electronic Frontier Foundation (EFF) não foram muito complacentes, afirmando que, embora o objetivo seja o mais nobre possível, não há como evitar que esse tipo de brecha seja usado no futuro por autoridades governamentais ou hackers.

Alertas que a Apple vai inserir no Messages, seu app de troca de mensagens em tempo real, a fim de coibir a prática de veiculação de pornografia infantil / Imagem: Apple/Divulgação

A primeira medida mencionada pela Apple contra a pornografia infantil refere-se à segurança de comunicações via Messages. O aplicativo de conversas em tempo real passará a alertar crianças que tenham um iPhone de que a imagem recebida tem conteúdo não recomendado à elas, desfocando a figura. Mais além, um alerta avisará que, caso a criança persista na visualização, seus pais serão notificados disso por meio do ecossistema de aparelhos conectados da empresa.

O mesmo vale para o caso de a criança tentar enviar tais materiais por conta própria, como acontece quando adolescentes são convencidas por predadores online a tirarem fotos explícitas. Os pais é quem poderão fazer o ajuste desse sistema – inclusive ligando-o ou desligando-o.

Isso se dá, segundo a Apple, por um processo de machine learning on device – ou seja, o uso da inteligência artificial do próprio aparelho -, que analisa as imagens recebidas antes de elas serem abertas, determinando sua natureza sexual. Pelo processo ocorrer dentro do aparelho, não há compartilhamento com a Apple e a empresa não ficará sabendo do que está acontecendo.

Depois disso, o comunicado falam da detecção do que a Apple chama de “Material de Abuso Sexual de Crianças” (CSAM), outro nome para “pornografia infantil”: “Antes de uma imagem ser armazenada no iCloud, um processo de listagem do dispositivo é executado e as imagens são comparadas com bases de dados (hashes) conhecidas de CSAMs”, diz o trecho do texto.

“Este processo é conduzido por uma tecnologia criptografada chamada ‘interseção fixa’, que determina se uma imagem conhecida está sendo usada, mas sem revelar o resultado. O dispositivo então cria um voucher criptografado de segurança que codifica o resultado comparativo junto com dados, também criptografados, da imagem. Esse voucher é armazenado no iCloud junto da imagem”.

A própria Apple assegura que o conteúdo não será compartilhado com a empresa – a não ser que a imagem em questão bata com algum resultado de bases de CSAM. Caso isso ocorra, a Apple poderá “ver” o conteúdo, analisar por conta própria e, se constatada a violação, desabilitar a conta do usuário permanentemente – mas não sem antes compartilhar todo o material com o Centro Nacional para Crianças Desaparecidas e/ou Exploradas (NCMEC, no inglês), uma ONG de combate à pedofilia estabelecida em 1984 pelo governo dos Estados Unidos.

Finalmente, a Siri e outros mecanismos de buscas dos iPhones e iPads que se conectem à internet também receberão mudanças: a assistente virtual da Apple poderá apontar o usuário para entidades que recebem denúncias de veiculação de material de pedofilia, além de barrar buscas que ambicionem encontrar tais materiais. Neste segundo tópico, a Siri exibirá alertas do quão prejudicial é esse tipo de conteúdo e direcionará o usuário a mecanismos e entidades de ajuda psicológica.

Todas as novidades acima têm previsão para chegar “em 2021”, mas sem um comprometimento específico de data. Os usuários notarão essas alterações nas próxima atualizações do iOS, iPadOS e outros sistemas operacionais.

*Com informações de Olhar Digital

LEAVE A REPLY

Please enter your comment!
Please enter your name here