A Apple está em um grande problema nos Estados Unidos. Uma mulher de 27 anos, vítima de abuso, acusa a empresa. Ela diz que a Apple não usou uma ferramenta chamada NeuralHash para parar o abuso.
Essa ferramenta foi anunciada em 2021, mas a Apple a abandonou em dezembro de 2022. Isso, segundo a mulher, deixou as imagens abusivas circulando livremente.
O processo pede mais de US$ 1,2 bilhão. Cada uma das 2.680 vítimas pode receber pelo menos US$ 150 mil. Isso mostra o tamanho do problema.
Enquanto isso, a Apple enviou apenas 267 relatórios ao NCMEC em 2020. Isso é muito menos do que Google e Facebook, que enviaram mais de um milhão de relatórios.
Contexto do Processo Judicial contra a Apple
A Apple anunciou em 2021 uma ferramenta para monitorar fotos no iCloud. Ela buscava encontrar material de abuso sexual infantil. Mas, a empresa cancelou o projeto, gerando preocupações sobre a segurança online.
Esse cancelamento levantou debates sobre direitos dos usuários e responsabilidade das grandes empresas. A segurança das crianças foi um dos pontos focados.
Desistência da Ferramenta de Monitoramento
A ferramenta de monitoramento era uma inovação para a segurança digital. Mas, a Apple desistiu após críticas. Esse cancelamento pode ter aumentado os abusos.
Em 2020, a Apple enviou apenas 267 relatórios ao NCMEC. Isso é muito menos que o que Google e Facebook enviaram.
Motivações da Ação Judicial
Uma mulher não identificada, vítima de abuso na infância, movimentou o processo judicial. Ela representa um grupo de até 2.680 vítimas. A ação busca reparações financeiras e responsabilidade da Apple.
As indenizações podem chegar a US$ 1,2 bilhão. Cada vítima tem direito a pelo menos US$ 150 mil. A ação mostra a importância de monitorar abuso sexual infantil e proteger as crianças.
Impacto nas Vítimas
O impacto nas vítimas é muito grande. Sem uma ferramenta para detectar CSAM, crianças estão mais expostas. Materiais criminosos ainda estão disponíveis e acessíveis.
Enquanto outras empresas reportaram mais de um milhão de casos, a Apple reportou apenas 267. Isso mostra que a Apple não está fazendo o suficiente para proteger as crianças.
Argumentos dos Réus
Os argumentos dos réus focam na privacidade. A Apple acredita que proteger os dados dos usuários é mais importante. Ela diz que usar tecnologia de monitoramento pode colocar todos os usuários em risco.
A decisão de parar a detecção de abuso infantil no iCloud em 2022 foi por causa de preocupações. Especialistas alertaram sobre o uso inadequado da tecnologia por agentes governamentais.
Reações ao Abandono da Tecnologia NeuralHash
A Apple decidiu parar com a tecnologia NeuralHash. Ela era para encontrar fotos e vídeos de abuso infantil no iCloud. Muitos especialistas em segurança estão criticando essa decisão.
Eles dizem que essa tecnologia poderia ter ajudado muito. Ela poderia ter protegido crianças e cuidado com a privacidade dos usuários.
Críticas de Especialistas em Segurança
Os especialistas acham que a tecnologia NeuralHash era uma boa ideia. Ela seria segura e não invadiria a privacidade das pessoas. Mas a Apple decidiu parar por causa de preocupações com abusos.
Essa decisão fez muita gente se preocupar com a segurança online. Eles temem que a segurança digital vá piorar. A Apple notificou apenas 267 casos de abuso infantil em 2020. Isso é muito menos do que Google e Facebook notificam.
O que você achou?
0 resposta(s)