top of page

Apple intensifica combate ao abuso infantil em seus telefones e servidores

psb40df

Imagem: Reprodução

A gigante de informática Apple apresentou nesta quinta-feira (5) novas ferramentas destinadas a detectar imagens sexuais de crianças armazenadas nos Iphones, Ipad e nos seus servidores iCloud nos Estados Unidos, o que acabou provocando preocupação nos defensores da privacidade na internet.


A apple publicou uma mensagem em sua página oficial dizendo que não poupará esforços para combater a pedofilia.

“Queremos ajudar a proteger as crianças dos predadores que usam ferramentas de comunicação para recrutá-las e explorá-las, e limitar a difusão de pornografia infantil” Apple

A empresa usará ferramentas criptografadas que analisem e vinculem imagens que considerarem suspeitas com um número específico para cada uma.


Também planeja comparar as fotos armazenadas no iCloud com as guardadas em um arquivo administrado pelo Centro Nacional de Crianças Desaparecidas e Exploradas (NCMEC), uma corporação privada americana que trabalha para reduzir a exploração sexual infantil. A Apple assegura que não tem acesso direto às imagens.


Quando uma foto se parecer com alguma do arquivo, a Apple a revisará manualmente, desabilitará a conta do usuário se necessário e enviará um relatório ao NCMEC.


O grupo também planeja novas ferramentas para prevenir crianças e pais que tenham uma conta para “Compartilhar em família” (Family Sharing) quando fotos explícitas lhes forem enviadas ao aplicativo de mensagens.As fotos ficarão embaçadas e o menor receberá mensagens preventivas como advertência de que não é obrigado a abri-las.


Os pais podem optar por receber uma mensagem quando o filho abrir as fotos. Serão implementadas proteções similares para crianças que enviarem fotos sexualmente explícitas.

A Apple também incrementará a informação de prevenção difundida pela assistente de voz Siri quando as crianças ou os pais pedirem conselhos sobre situações determinadas.


A Siri e o Search também podem intervir quando os usuários buscarem imagens de pornografia infantil, advertindo-lhes que o conteúdo é problemático.


Estas ferramentas estarão disponíveis gradativamente com as próximas atualizações dos sistemas operacionais no iPhone, iPad, iWatch e iMac.

Apple garante privacidade

O Centro para a Democracia e Tecnologia (CDT) estima que as medidas representam uma mudança significativa nos protocolos de privacidade e segurança estabelecidos há muito tempo.


“A Apple está substituindo seu sistema de mensagens criptografadas de ponta a ponta por uma infraestrutura de vigilância e censura, que será vulnerável a abusos e uso indevido não apenas nos Estados Unidos, mas em todo o mundo”, criticou Greg Nojeim, do CDT, em uma mensagem enviada para a AFP.


India McKinney e Erica Portnoy, da ONG em defesa da liberdade na Internet Electronic Frontier Foundation destacaram que a exploração infantil é um problema sério e a Apple não é a primeira empresa de tecnologia a mudar sua postura sobre a proteção da privacidade na tentativa de combatê-la.


Mas, mesmo desenvolvido com a melhor das intenções, um sistema projetado para detectar pornografia infantil “abre a porta para novos abusos”, completaram em um post em blog.



Basta a Apple modificar um pouco a configuração para buscar outros tipos de conteúdo ou escanear as contas não só das crianças, mas de todos, explicam.


O recurso deve utilizar uma “função de correspondência neural” para detectar se as imagens no dispositivo de um usuário correspondem às impressões digitais de material de abuso sexual infantil conhecido (CSAM, na sigla em inglês).

Criptografia de ponta a ponta

O recurso utilizado pela Apple deve utilizar uma “função de correspondência neural” para detectar se as imagens no dispositivo de um usuário correspondem às impressões digitais de material de abuso sexual infantil conhecido (CSAM, na sigla em inglês).


A notícia foi revelada pelo especialista em segurança Matthew Green, professor associado do Instituto de Segurança da Informação Johns Hopkins. Green é uma fonte confiável que já escreveu sobre os métodos de privacidade da Apple ao longo dos anos. Inclusive, ele trabalhou com a empresa no passado para corrigir uma falha de segurança no iMessage.

“Tive a confirmação independente de várias pessoas de que a Apple lançará ainda esta semana uma ferramenta do lado do cliente para digitalização CSAM. Mas essa é uma ideia ruim”, destacou Green em seu perfil no Twitter. “Essas ferramentas permitirão que a Apple escaneie as fotos do seu iPhone em busca de imagens que correspondam a um hash perceptivo específico e as relate aos servidores da Apple se muitos deles aparecerem” Matthew Green

Apesar de parecer que a Apple levou em consideração a privacidade do usuário, também existem preocupações de que a tecnologia pode abrir a porta para o uso indevido não intencional, especialmente quando se trata de vigilância.


A questão é que, mesmo que várias empresas de tecnologia, incluindo a Apple, tenham adicionado criptografia de ponta a ponta a seus serviços e produtos, vários governos se opõem a essa ferramenta. O argumento é que a criptografia dificulta a aplicação da lei nas tentativas de reprimir conteúdo ilegal, como pornografia infantil. De acordo com Green, um “compromisso” é usar essas tecnologias de digitalização no “lado do cliente” ou no telefone antes de serem enviadas e criptografadas na nuvem.


Green também afirma que a versão da Apple não seria inicialmente usada em imagens criptografadas, apenas na biblioteca de fotos do seu iPhone se (e somente se) você tiver o backup do iCloud habilitado. Em outras palavras: o recurso digitalizaria apenas fotos que já estão nos servidores da Apple. No entanto, Green também questiona por que a Apple se esforçaria para projetar esse tipo de sistema se não tivesse planos eventuais de usá-lo para conteúdo criptografado de ponta a ponta.


Com informações do GizModo e da Istoé Dinheiro

8 visualizações0 comentário

Posts recentes

Ver tudo

Comments


bottom of page