Nos últimos dias, a Apple tem estado no centro das atenções com muitas críticas devido a Recurso de digitalização de imagem Com seus dispositivos, lançados para proteger as crianças e evitar o abuso ou exploração delas, ou o que é conhecido como imagens CSAM, e muitas organizações de privacidade e até mesmo especialistas expressaram preocupação em transformar esse recurso em uma brecha que hackers ou mesmo governos podem explorar para violar a privacidade dos usuários do iPhone e para remover qualquer confusão ou Esclareça e explique as coisas corretamente. A Apple lançou um arquivo na forma de FAQs que explica tudo sobre seu novo recurso e o que está acontecendo nos bastidores, e vamos aprender tudo sobre o recurso de segurança infantil e se ele realmente ameaça a privacidade dos usuários ou não.

A Apple responde a acusações de violação de privacidade no recurso contra exploração infantil


Qual é a diferença entre Message Protection e CSAM no iCloud Photos?

Esses dois recursos são diferentes e não usam a mesma tecnologia que o Communication Security in Messages foi projetado para fornecer aos pais e filhos ferramentas adicionais para ajudar a proteger seus filhos de enviar e receber imagens sexualmente explícitas no aplicativo Mensagens. Ele só funciona com as fotos enviadas ou recebidas no aplicativo Mensagens para contas de crianças configuradas com o Compartilhamento Familiar e, em seguida, analisa as fotos no dispositivo e, portanto, não expõe a privacidade das mensagens. Útil e reconfortante que está tudo bem se não o fizer t querem ver ou enviar a foto e, como precaução extra, as crianças também podem ser informadas de que, para sua própria segurança, seus pais receberão uma mensagem se a virem.

O segundo recurso, CSAM Photo Scan no iCloud, foi projetado para manter o CSAM fora do iCloud Photos sem fornecer informações à Apple sobre quaisquer fotos além daquelas que correspondem às fotos CSAM conhecidas. A posse de imagens CSAM é ilegal na maioria dos países, incluindo os Estados Unidos. Além disso, esse recurso afeta apenas os usuários que optaram por usar o iCloud Photos para armazenar suas fotos e não afeta os usuários que não optaram por usar o iCloud Photos. Não há efeito em nenhum outro dado no dispositivo e este recurso não se aplica a mensagens.


Quem pode usar a segurança de conexão em mensagens?

A segurança de comunicação no Mensagens está disponível apenas para contas configuradas como famílias no iCloud. Os pais ou responsáveis ​​devem optar por habilitar o recurso para a família e as notificações dos pais só podem ser habilitadas pelos pais ou responsáveis ​​para contas de crianças com 12 anos de idade ou menos.


Isso significa que as mensagens serão compartilhadas com a Apple ou com as agências de aplicação da lei?

Claro que não, a Apple nunca poderá acessar as informações em Mensagens como resultado desse recurso em Mensagens. Este recurso não compartilha nenhuma informação com a Apple, NCMEC ou agências de aplicação da lei. O recurso de segurança de comunicação em Mensagens é separado do recurso CSAM para o iCloud Photo Scan.


Isso interrompe a criptografia de ponta a ponta no app Mensagens?

Não. Isso não resulta em violação da privacidade das mensagens, e a Apple nunca poderá acessar seus contatos como resultado deste recurso. Qualquer usuário do aplicativo Mensagens, incluindo aqueles que têm a segurança de contato ativada, tem controle total sobre o que é enviado e para quem.

 Se o recurso estiver habilitado para a conta de uma criança, o dispositivo avaliará as imagens nas mensagens e fornecerá uma intervenção se uma imagem for identificada como inadequada. É inadequada e a Apple não pode acessar mensagens, interferir nas notificações ou classificar fotos.


Este recurso evita que crianças abusadas peçam ajuda?

O recurso de segurança de conexão se aplica apenas a imagens sexualmente explícitas compartilhadas ou recebidas em mensagens e não tem nada a ver com outros aplicativos que as vítimas podem usar para buscar ajuda, incluindo mensagens de texto. Instruções sobre como procurar ajuda.


Os pais serão notificados sem avisar os filhos e dar-lhes uma escolha?

Não. O não; As contas dos pais ou responsáveis ​​devem se inscrever para habilitar a segurança da comunicação em mensagens. As notificações dos pais são habilitadas para contas de crianças de 12 anos de idade ou menos, mas antes disso, qualquer imagem obscena ou inadequada é enviada ou recebida, a criança é avisada de que, se continuar para visualizar ou enviar a imagem, uma notificação será enviada aos seus pais e se a criança continuar a enviar ou visualizar uma imagem após este aviso, os pais são notificados. Para contas de crianças de 13 a 17 anos, a criança ainda é avisada e questionada se eles gostariam de ver ou compartilhar uma foto sexual, mas os pais não são notificados.


Isso significa que a Apple verificará todas as fotos armazenadas no meu dispositivo?

Este recurso se aplica apenas às fotos que o usuário opta por enviar para o iCloud. O recurso não funciona com usuários que têm as fotos do iCloud desativadas e também não funciona na biblioteca de fotos do seu iPhone.


As imagens CSAM são baixadas para o meu dispositivo para corresponder às minhas imagens?

Não, as imagens CSAM não são armazenadas ou enviadas para o dispositivo. Em vez de imagens reais, a Apple usa hashes ilegíveis que são armazenados no dispositivo. Esses hashes são cadeias de números que representam imagens CSAM conhecidas, mas não podem ser lidos ou convertidos em imagens irrelevantes novamente. Este conjunto de hashes de imagem é baseado em imagens obtidas e validadas como CSAM por organizações de segurança infantil. Com novos aplicativos de criptografia, a Apple pode usar esses hashes para identificar apenas contas do iCloud que armazenam lotes de fotos que correspondem a fotos CSAM conhecidas e, então, ser capaz de identificar fotos inapropriadas de crianças sem reconhecer ou ver nenhuma outra foto.


porque agora?

Um dos grandes desafios da Apple é ajudar a proteger as crianças e, ao mesmo tempo, preservar a privacidade dos usuários. Com o novo recurso, a Apple detectará fotos CSAM que estão armazenadas no iCloud e a empresa não aprenderá nada sobre outros dados armazenados em seu dispositivo.

As tecnologias existentes nas quais outras empresas confiam fazem a varredura de todas as imagens do usuário armazenadas na nuvem. Isso cria riscos de privacidade para os usuários, mas é diferente com o recurso Photo Scan da Apple, como não ser capaz de reconhecer fotos, a menos que ambas correspondam às fotos CSAM conhecidas e estejam incluídas em uma conta iCloud que inclui muitas fotos CSAM canônicas.


O sistema de detecção de imagem CSAM do iCloud pode ser usado para detectar outras coisas?

A Apple disse que o design do processo para evitar que isso aconteça. A detecção de imagem CSAM foi projetada para imagens iCloud para que o sistema funcione apenas com hashes de imagem CSAM fornecidos pelo NCMEC e outras organizações de segurança infantil.

Este conjunto de hashes de imagem é baseado em imagens obtidas e validadas como CSAM por organizações de segurança infantil. Não há relatórios automatizados para as autoridades policiais e a Apple conduz uma análise humana antes de enviar seu relatório ao Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC).

Como resultado, o sistema foi projetado apenas para relatar fotos conhecidas como CSAM no iCloud Photos. Na maioria dos países, incluindo os Estados Unidos, a posse dessas imagens é crime e a Apple é obrigada a relatar quaisquer casos de que tenhamos conhecimento às autoridades competentes.


Os governos podem forçar a Apple a adicionar imagens não CSAM a um arquivo de lista de hash?

A Apple recusará tais demandas. A capacidade de detecção de CSAM foi projetada para detectar apenas fotos de CSAM conhecidas armazenadas em Fotos do iCloud que foram identificadas por especialistas do NCMEC e outros grupos de segurança infantil.

Já enfrentamos demandas para criar e publicar mudanças impostas pelo governo que prejudicam a privacidade dos usuários e rejeitamos firmemente essas demandas. Continuaremos a rejeitá-lo no futuro. Para ser claro, esta tecnologia se limita a detectar CSAM armazenados no iCloud e não aprovaremos qualquer solicitação governamental que possa envolver outros arquivos.

Além disso, a Apple conduz uma análise humana antes de enviar um relatório ao NCMEC. Se o sistema sinalizar imagens que não correspondam às imagens CSAM conhecidas, a conta não será desabilitada e nenhum relatório será enviado ao NCMEC.


O CSAM pode ser personalizado para direcionar outras coisas ou pessoas específicas?

Nosso processo é projetado para evitar que isso aconteça. Os hashes de imagem usados ​​para correspondência são retirados de imagens CSAM conhecidas e existentes que foram obtidas e validadas por organizações de segurança infantil e o mesmo hash é armazenado no sistema operacional de cada usuário de iPhone e iPad, portanto, ataques direcionados são apenas contra indivíduos específicos. habilitado por nosso design e não há relatórios automatizados para as autoridades, a Apple conduz uma análise humana antes de enviar seu relatório e, no caso de o sistema não sinalizar imagens que não correspondam às imagens CSAM conhecidas, a conta não será desativado e nenhum relatório será arquivado.


Pessoas inocentes podem errar por causa do recurso?

Não, o sistema foi projetado para ser extremamente preciso e a probabilidade de o sistema sinalizar incorretamente qualquer conta é inferior a uma em cada trilhão de contas por ano. Além disso, sempre que uma conta é sinalizada pelo sistema, a Apple realiza uma análise humana antes de enviar seu relatório ao NCMEC e, como resultado, erros de sistema ou ataques não resultarão no relato de inocentes.

O que você acha do novo recurso da Apple para detectar imagens inadequadas para crianças, diga-nos nos comentários

Fonte:

maçã

Artigos relacionados