Apple desiste do plano ambicioso no iCloud que deixaria o ambiente online mais seguro
A Apple, anunciou que abandonou oficialmente um plano que iniciado há cerca de um ano para impedir a propagação de CSAM.
A Apple, uma gigante da tecnologia, anunciou que abandonou oficialmente um plano apresentado há cerca de um ano. A empresa tinha a intenção de escanear fotos no iCloud em busca de conteúdos de abuso sexual infantil (ou CSAM). Você confere agora que fim levou este recurso, e o motivo por trás disso.
Por que a Apple desistiu?
A Apple oficializou que não tem mais a intensão de seguir com um plano de digitalizar imagens do iCloud. Assim, a empresa faria uma varredura em cada galeria, para encontrar qualquer arquivo de abuso sexual infantil (CSAM). O anúncio do projeto veio em agosto do ano passado e gerou muito burburinho.
Esta seria uma escolha muito controversa da empresa que levanta a bandeira da privacidade. Na prática, este recurso escanearia os aparelhos, e se encontrasse evidências de CSAM, ele acionaria técnicos humanos.
Desse modo, especialistas em segurança e privacidade argumentaram que a ferramenta poderia ser usada para localizar outros tipos de conteúdos.
Além disso, era uma escolha que estava a um passo de cometer maiores abusos de vigilância. Outro ponto em questão, é que este meio poderia ser facilitador para investigações policiais.
Apesar da crítica em massa, a Apple bateu os pés inicialmente e defendeu a sua proposta. Após um ano, a empresa pensou melhor e decidiu que de fato a melhor opção seria dar outro rumo para o recurso.
A data do lançamento vai chegar?
A primeira vez que a Apple sinalizou uma pausa neste recurso, foi em setembro de 2021, exatamente um mês após o primeiro anúncio. Entretanto, se havia alguma esperança da ferramenta ser lançada, a empresa confirmou para o Wired que atualmente o projeto morreu.
A intenção da Apple está alinhada com inúmeras big techs, que têm se movido para combater o CSAM. Contudo, existe uma linha muito tênue entre varredura em busca de conteúdo ilícito e invasão de privacidade. Por este motivo, o passo em direção ao combate a este tipo de material tem se desenvolvido com cautela.
Em um comunicado fornecido ao Wired, a Apple informou sobre a sua decisão, alegando que a escolhe veio a partir de feedbacks dados por especialistas, e disse mais:
“Decidimos ainda não avançar com nossa ferramenta de detecção de CSAM proposta anteriormente para o iCloud Photos. As crianças podem ser protegidas sem que as empresas vasculhem dados pessoais.
Continuaremos trabalhando com governos, defensores da criança e outras empresas para ajudar a proteger os jovens, preservar seu direito à privacidade e tornar a Internet um lugar mais seguro para as crianças e para todos nós.”
Com informações: Gizmodo, Wired
O que você achou? Siga @bitmagazineoficial no Instagram para ver mais e deixar seu comentário clicando aqui