Análise de fotos da Apple ‘abre portas para ameaças’, diz especialista

A Apple anunciou a criação de uma ferramenta de verificação que vai procurar por Material de Abuso Infantil (CSAM, na sigla em inglês), com intuito de combater a circulação de conteúdos sexuais com crianças. Cercado de controvérsias, especialistas dizem que a plataforma precisa de ajustes que garantam o uso correto e a privacidade das crianças possivelmente expostas.

“A revisão é essencial para garantir a efetividade. Porém, as diretrizes dão a entender que quem vai realizar a checagem é um profissional da Apple. Isso acarretaria uma nova exposição da criança, caso o material seja ilegal mesmo. Seria interessante se ela [Apple] pudesse explicar novamente este ponto ou simplesmente fazer de um outro jeito, se for este mesmo o procedimento”, destaca Marcos Barreto, professor da Escola Politécnica (Poli) da USP, especialista em cibersegurança e pesquisador em áreas como arquiteturas de sistemas para aplicações críticas e de tempo real.

Leia a matéria na íntegra.