Na sexta-feira, a Apple anunciou que decidiu adiar o seu plano de explorar as bibliotecas de imagens dos utilizadores. O seu objetivo seria encontrar imagens de pornografia infantil. Mas, afinal, recebeu várias objeções sobre os direitos de privacidade.
Comunicado
No mês passado, anunciamos planos para recursos destinados a ajudar a proteger as crianças de predadores que usam ferramentas de comunicação para recrutá-las e explorá-las, e limitar a disseminação de material de abuso sexual infantil. Com base no feedback de clientes, grupos de defesa, pesquisadores e outros, decidimos reservar um tempo adicional nos próximos meses para coletar informações e fazer melhorias antes de lançar esses recursos de segurança infantil extremamente importantes.
comunicado da Apple
Polémica
Desde a manhã de sexta-feira que as ações da Apple caíram ligeiramente. Depois de anunciar que o seu sistema iria analisar todos os equipamentos dos seus utilizadores em busca de material ilegal relacionado com pornografia infantil, a Apple originou uma polémica imediatamente.
Alguns críticos assinalaram que o sistema pode analisar as imagens armazenadas numa conta iCloud a partir de uma base de dados de imagens CSAM conhecidas, mas não estaria em conformidade com a política de privacidade dos seus clientes. Se o sistema detetasse imagens suficientes na conta de um determinado utilizador, elas seriam analisadas a partir de uma monitorização humana, com o objetivo de confirmar as imagens e até informar as autoridades policiais, caso houvesse necessidade.
Outras empresas usam CSAM
É uma prática comum entre as empresas de tecnologia, tais como a Dropbox, o Facebook e a Google, que tenham nos seus sistemas, a possibilidade de detetar automaticamente o CSAM através dos seus serviços.
A ideia da Apple seria o sistema de deteção de CSAM entrar em vigor para os seus clientes ainda este ano. Mas, até ao momento, não está esclarecido por quanto tempo a gigante tecnológica vai adiar o seu lançamento.