Neste guest blog do nosso colega John Carr trazem-nos algumas boas notícias sobre os últimos movimentos da Apple que irão ajudar a proteger as crianças da exploração sexual na Internet. Você pode encontrar todos os blogs de John em Desiderata.

“Houve uma grande alegria na sede global da ECPAT International em Bangkok. Semana passada o trabalho que temos feito com nossos parceiros em torno de criptografia forte recebeu um enorme impulso quando a Apple fez um anúncio extremamente importante sobre seus planos para manter as crianças seguras online. Nem todo mundo gosta, mas nós amamos.

O gato está fora da bolsa

O gato agora está definitivamente fora de questão. A Apple confirmou uma contenção central avançada pela ECPAT. Existem soluções escaláveis ​​disponíveis que não quebram a criptografia, que respeitam a privacidade do usuário e, ao mesmo tempo, afetam significativamente certos tipos de comportamento criminoso, neste caso crimes terríveis que prejudicam crianças.

Se as pessoas acreditam que a Apple ou governos malévolos podem fazer mau uso da tecnologia, esse é um ponto extremamente importante, no entanto, é diferente. Fala sobre como regulamos ou supervisionamos a Internet. Não se trata, enfaticamente, de um argumento que permita às empresas continuarem a não fazer nada para conter a ilegalidade onde existe tecnologia que lhes permite fazê-lo. Da mesma forma, não é um argumento para a Apple “Uninvent” o que já inventou. 

O que é um argumento para os governos e legislaturas recuperarem o atraso. Rapidamente. 

No mundo da tecnologia, os álibis para a inação são sempre abundantes. A Apple deve ser aplaudida. Eles não apenas moveram a agulha, mas também deram um empurrão enorme e totalmente benéfico. A empresa não se moveu rápido e quebrou as coisas. Demorou e os corrigiu.

Então, o que a Apple está planejando fazer?

Apple anúncio continha três elementos. Ainda este ano, na próxima versão de seu sistema operacional, primeiro nos EUA e depois em cada país, eles irão:

  1. Limitar a capacidade dos usuários de localizar material de abuso sexual infantil (csam) e alertar sobre ambientes online que não são seguros para crianças.
  2. Apresente novas ferramentas para ajudar os pais a ajudarem seus filhos a ficarem seguros em relação às comunicações online. Em particular, advertência sobre conteúdo sensível que pode ser enviado ou recebido.
  3. Habilite a detecção de csam em dispositivos individuais antes que a imagem entre em um ambiente criptografado. Isso tornará impossível para o usuário fazer upload do csam ou distribuí-lo de qualquer outra forma. 

O número três é o que causou o maior clamor.

Uma virada de jogo

O simples fato de uma empresa como a Apple ter reconhecido que tem a responsabilidade de atuar nesta área, e ter apresentado uma solução escalável, muda fundamentalmente a natureza do debate. Agora nós sabemos algo pode ser feito o "não é possível"posição foi vencida. Qualquer empresa online que se recuse a mudar seus hábitos provavelmente se encontrará do lado errado da opinião pública e, provavelmente, da lei, enquanto legisladores em todo o mundo agora se sentirão encorajados a agir para obrigar empresas a fazer o que a Apple voluntariamente escolheu fazer.

E toda a angústia?

Vários comentaristas que de outra forma pareceram expressar simpatia pelo objetivo declarado da Apple não resistiram em tentar tirar o brilho de seus coup de théâtre reclamando sobre o maneira eles fizeram isto. 

No entanto, em 2019, o anúncio unilateral do Facebook de que pretendia fazer exatamente o oposto do que a Apple está propondo agora sugere que a possibilidade de chegar a um consenso da indústria era totalmente ilusória.

Tenho certeza que muitos “é" precisa ser pontilhado, muitos “T's” precisa ser cruzado, mas às vezes eu sinto que quando se trata de proteger as crianças tudo tem que estar perfeito fora das armadilhas. É normal para a Big Tech agir rapidamente e quebrar coisas em todos os outros lugares e consertá-las mais tarde, ou não. Mas isso não pode acontecer neste departamento. É normal inovar loucamente, mas não aqui. Somos julgados por um padrão diferente.

Não me entenda mal. Não sou a favor da imperfeição. Não aplaudo a inovação que não dá atenção ao lado negativo. 

A verdade simples, porém, é que todo esse negócio tem a ver com valores e prioridades. É totalmente binário. Ou você acha que medidas devem ser tomadas para minimizar os riscos para as crianças antes que o conteúdo seja criptografado ou não. Não há meio-termo porque, quando criptografado, fica invisível para sempre. Os bandidos vencem. A Apple mostrou como eles perdem.

Boas notícias da Apple

A criptografia não é quebrada. Nenhum novo dado está sendo coletado ou explorado

Em outra declaração emitida pela Apple ontem eles deixam bem claro que não estão quebrando nenhum tipo de criptografia. Eles também deixam claro que sua tecnologia é limitada em escopo e não a usarão para nenhum outro propósito.

Se você não acredita que estamos de volta ao ponto que mencionei antes. Vamos discutir isso, mas qualquer que seja o resultado da discussão que possa vir a ser, a Apple deve ser permitida e encorajada a continuar. Aguardo ansiosamente para ouvir outras empresas se comprometendo a seguir seus passos. Em breve."

Carta no Financial Times

Em 12 de agosto de 2021, John Carr também publicou uma carta sobre este assunto no Financial Times. Ele aplaude a decisão da Apple sobre seus planos de limitar a possibilidade de material de abuso sexual infantil ser distribuído por meio de seus dispositivos ou rede. John também sugeriu que isso forçará o Facebook a reconsiderar suas intenções extremamente ruins. O texto completo da carta é ...

“Em seu artigo sobre os planos da Apple de introduzir novas políticas de proteção infantil, Richard Waters sugere que a maneira como a Apple fez isso“ interrompeu o debate ”sobre o impacto potencial de suas medidas planejadas (Opinião, 10 de agosto). 

Especificamente, Waters se refere ao plano da Apple de inspecionar o conteúdo nos dispositivos dos usuários antes de ser carregado e colocado em um ambiente fortemente criptografado como o iCloud. A Apple vai fazer isso para garantir que a empresa não esteja ajudando e incitando a distribuição de material de abuso sexual infantil. 

Infelizmente, o “debate” já dura há pelo menos cinco anos e na maior parte desse tempo está completamente congelado. As coisas se intensificaram quando, em março de 2019, o Facebook anunciou que faria exatamente o oposto do que a Apple está propondo agora. Essa também foi uma decisão unilateral, que piorou ainda mais porque, ao contrário da Apple, era contra um histórico bem documentado de Facebook já sabendo que suas plataformas Messenger e Instagram Direct não criptografadas estavam sendo massivamente exploradas para fins criminosos. 

Em 2020, houve 20,307,216 denúncias às autoridades dos EUA de material de abuso sexual infantil que foi trocado pelo Messenger ou Instagram, mas o Facebook até agora não deu nenhum sinal de que vai voltar. 

Uma escolha deve ser feita

O argumento é, infelizmente, binário. Uma vez que o material é fortemente criptografado, ele se torna invisível para as autoridades policiais, os tribunais e a própria empresa. Então, ou você está disposto a viver com isso ou não. O Facebook é. A Apple não é. 

No entanto, suspeito que a decisão da Apple forçará o Facebook e outros a reconsiderar. Existem soluções escaláveis ​​disponíveis que podem respeitar a privacidade do usuário e, ao mesmo tempo, atacar pelo menos certos tipos de comportamento criminoso, neste caso crimes terríveis que prejudicam crianças.

Se as pessoas acreditam que a Apple ou mesmo governos malévolos podem fazer mau uso da tecnologia, esse é um ponto importante, mas diferente, que fala sobre como regulamos ou supervisionamos a internet. Enfaticamente não é um argumento que permite às empresas continuarem a não fazer nada para conter a ilegalidade onde existe tecnologia que lhes permite fazê-lo. A Apple deve ser aplaudida. Não apenas moveu a agulha, deu-lhe um empurrão enorme e totalmente benéfico. ”