Nos últimos dias, a Apple tem estado no centro das atenções com muitas críticas devido a Recurso de digitalização de imagem Com seus dispositivos, lançados para proteger as crianças e evitar o abuso ou exploração delas, ou o que é conhecido como imagens CSAM, e muitas organizações de privacidade e até mesmo especialistas expressaram preocupação em transformar esse recurso em uma brecha que hackers ou mesmo governos podem explorar para violar a privacidade dos usuários do iPhone e para remover qualquer confusão ou Esclareça e explique as coisas corretamente. A Apple lançou um arquivo na forma de FAQs que explica tudo sobre seu novo recurso e o que está acontecendo nos bastidores, e vamos aprender tudo sobre o recurso de segurança infantil e se ele realmente ameaça a privacidade dos usuários ou não.
Qual é a diferença entre Message Protection e CSAM no iCloud Photos?
Esses dois recursos são diferentes e não usam a mesma tecnologia que o Communication Security in Messages foi projetado para fornecer aos pais e filhos ferramentas adicionais para ajudar a proteger seus filhos de enviar e receber imagens sexualmente explícitas no aplicativo Mensagens. Ele só funciona com as fotos enviadas ou recebidas no aplicativo Mensagens para contas de crianças configuradas com o Compartilhamento Familiar e, em seguida, analisa as fotos no dispositivo e, portanto, não expõe a privacidade das mensagens. Útil e reconfortante que está tudo bem se não o fizer t querem ver ou enviar a foto e, como precaução extra, as crianças também podem ser informadas de que, para sua própria segurança, seus pais receberão uma mensagem se a virem.
O segundo recurso, CSAM Photo Scan no iCloud, foi projetado para manter o CSAM fora do iCloud Photos sem fornecer informações à Apple sobre quaisquer fotos além daquelas que correspondem às fotos CSAM conhecidas. A posse de imagens CSAM é ilegal na maioria dos países, incluindo os Estados Unidos. Além disso, esse recurso afeta apenas os usuários que optaram por usar o iCloud Photos para armazenar suas fotos e não afeta os usuários que não optaram por usar o iCloud Photos. Não há efeito em nenhum outro dado no dispositivo e este recurso não se aplica a mensagens.
Quem pode usar a segurança de conexão em mensagens?
A segurança de comunicação no Mensagens está disponível apenas para contas configuradas como famílias no iCloud. Os pais ou responsáveis devem optar por habilitar o recurso para a família e as notificações dos pais só podem ser habilitadas pelos pais ou responsáveis para contas de crianças com 12 anos de idade ou menos.
Isso significa que as mensagens serão compartilhadas com a Apple ou com as agências de aplicação da lei?
Claro que não, a Apple nunca poderá acessar as informações em Mensagens como resultado desse recurso em Mensagens. Este recurso não compartilha nenhuma informação com a Apple, NCMEC ou agências de aplicação da lei. O recurso de segurança de comunicação em Mensagens é separado do recurso CSAM para o iCloud Photo Scan.
Isso interrompe a criptografia de ponta a ponta no app Mensagens?
Não. Isso não resulta em violação da privacidade das mensagens, e a Apple nunca poderá acessar seus contatos como resultado deste recurso. Qualquer usuário do aplicativo Mensagens, incluindo aqueles que têm a segurança de contato ativada, tem controle total sobre o que é enviado e para quem.
Se o recurso estiver habilitado para a conta de uma criança, o dispositivo avaliará as imagens nas mensagens e fornecerá uma intervenção se uma imagem for identificada como inadequada. É inadequada e a Apple não pode acessar mensagens, interferir nas notificações ou classificar fotos.
Este recurso evita que crianças abusadas peçam ajuda?
O recurso de segurança de conexão se aplica apenas a imagens sexualmente explícitas compartilhadas ou recebidas em mensagens e não tem nada a ver com outros aplicativos que as vítimas podem usar para buscar ajuda, incluindo mensagens de texto. Instruções sobre como procurar ajuda.
Os pais serão notificados sem avisar os filhos e dar-lhes uma escolha?
Não. O não; As contas dos pais ou responsáveis devem se inscrever para habilitar a segurança da comunicação em mensagens. As notificações dos pais são habilitadas para contas de crianças de 12 anos de idade ou menos, mas antes disso, qualquer imagem obscena ou inadequada é enviada ou recebida, a criança é avisada de que, se continuar para visualizar ou enviar a imagem, uma notificação será enviada aos seus pais e se a criança continuar a enviar ou visualizar uma imagem após este aviso, os pais são notificados. Para contas de crianças de 13 a 17 anos, a criança ainda é avisada e questionada se eles gostariam de ver ou compartilhar uma foto sexual, mas os pais não são notificados.
Isso significa que a Apple verificará todas as fotos armazenadas no meu dispositivo?
Este recurso se aplica apenas às fotos que o usuário opta por enviar para o iCloud. O recurso não funciona com usuários que têm as fotos do iCloud desativadas e também não funciona na biblioteca de fotos do seu iPhone.
As imagens CSAM são baixadas para o meu dispositivo para corresponder às minhas imagens?
Não, as imagens CSAM não são armazenadas ou enviadas para o dispositivo. Em vez de imagens reais, a Apple usa hashes ilegíveis que são armazenados no dispositivo. Esses hashes são cadeias de números que representam imagens CSAM conhecidas, mas não podem ser lidos ou convertidos em imagens irrelevantes novamente. Este conjunto de hashes de imagem é baseado em imagens obtidas e validadas como CSAM por organizações de segurança infantil. Com novos aplicativos de criptografia, a Apple pode usar esses hashes para identificar apenas contas do iCloud que armazenam lotes de fotos que correspondem a fotos CSAM conhecidas e, então, ser capaz de identificar fotos inapropriadas de crianças sem reconhecer ou ver nenhuma outra foto.
porque agora?
Um dos grandes desafios da Apple é ajudar a proteger as crianças e, ao mesmo tempo, preservar a privacidade dos usuários. Com o novo recurso, a Apple detectará fotos CSAM que estão armazenadas no iCloud e a empresa não aprenderá nada sobre outros dados armazenados em seu dispositivo.
As tecnologias existentes nas quais outras empresas confiam fazem a varredura de todas as imagens do usuário armazenadas na nuvem. Isso cria riscos de privacidade para os usuários, mas é diferente com o recurso Photo Scan da Apple, como não ser capaz de reconhecer fotos, a menos que ambas correspondam às fotos CSAM conhecidas e estejam incluídas em uma conta iCloud que inclui muitas fotos CSAM canônicas.
O sistema de detecção de imagem CSAM do iCloud pode ser usado para detectar outras coisas?
A Apple disse que o design do processo para evitar que isso aconteça. A detecção de imagem CSAM foi projetada para imagens iCloud para que o sistema funcione apenas com hashes de imagem CSAM fornecidos pelo NCMEC e outras organizações de segurança infantil.
Este conjunto de hashes de imagem é baseado em imagens obtidas e validadas como CSAM por organizações de segurança infantil. Não há relatórios automatizados para as autoridades policiais e a Apple conduz uma análise humana antes de enviar seu relatório ao Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC).
Como resultado, o sistema foi projetado apenas para relatar fotos conhecidas como CSAM no iCloud Photos. Na maioria dos países, incluindo os Estados Unidos, a posse dessas imagens é crime e a Apple é obrigada a relatar quaisquer casos de que tenhamos conhecimento às autoridades competentes.
Os governos podem forçar a Apple a adicionar imagens não CSAM a um arquivo de lista de hash?
A Apple recusará tais demandas. A capacidade de detecção de CSAM foi projetada para detectar apenas fotos de CSAM conhecidas armazenadas em Fotos do iCloud que foram identificadas por especialistas do NCMEC e outros grupos de segurança infantil.
Já enfrentamos demandas para criar e publicar mudanças impostas pelo governo que prejudicam a privacidade dos usuários e rejeitamos firmemente essas demandas. Continuaremos a rejeitá-lo no futuro. Para ser claro, esta tecnologia se limita a detectar CSAM armazenados no iCloud e não aprovaremos qualquer solicitação governamental que possa envolver outros arquivos.
Além disso, a Apple conduz uma análise humana antes de enviar um relatório ao NCMEC. Se o sistema sinalizar imagens que não correspondam às imagens CSAM conhecidas, a conta não será desabilitada e nenhum relatório será enviado ao NCMEC.
O CSAM pode ser personalizado para direcionar outras coisas ou pessoas específicas?
Nosso processo é projetado para evitar que isso aconteça. Os hashes de imagem usados para correspondência são retirados de imagens CSAM conhecidas e existentes que foram obtidas e validadas por organizações de segurança infantil e o mesmo hash é armazenado no sistema operacional de cada usuário de iPhone e iPad, portanto, ataques direcionados são apenas contra indivíduos específicos. habilitado por nosso design e não há relatórios automatizados para as autoridades, a Apple conduz uma análise humana antes de enviar seu relatório e, no caso de o sistema não sinalizar imagens que não correspondam às imagens CSAM conhecidas, a conta não será desativado e nenhum relatório será arquivado.
Pessoas inocentes podem errar por causa do recurso?
Não, o sistema foi projetado para ser extremamente preciso e a probabilidade de o sistema sinalizar incorretamente qualquer conta é inferior a uma em cada trilhão de contas por ano. Além disso, sempre que uma conta é sinalizada pelo sistema, a Apple realiza uma análise humana antes de enviar seu relatório ao NCMEC e, como resultado, erros de sistema ou ataques não resultarão no relato de inocentes.
Fonte:
Este artigo me garantiu em grande medida que a Apple ou outros não tiram proveito da privacidade
Vejo que se trata de um detalhe e um esforço equivocados. A primeira coisa é a Apple intensificar seus esforços para resolver o problema de esgotar suas baterias rapidamente e adicionar os aplicativos que o usuário precisa e sente falta em comparação com os aplicativos Android. Por exemplo, eu possuía um Lumia XNUMX XL móvel e foi incluído nos programas do sistema e sem a necessidade de adicionar um aplicativo ou adquirir um sistema de gravação de chamadas E repito dentro dos programas do sistema, por que a Apple não se preocupa com o que beneficia o usuário mais do que perder seu tempo na navegação de aplicativos que pretendem servir à sociedade em um momento em que se levantam suspeitas sobre o real propósito do aplicativo, como proteger crianças de imagens nocivas !!!! ???
A verdade da questão é perturbadora.
A Apple não é uma delegacia de polícia nem uma agência de inteligência.
Possui dezenas de maneiras de ajudar as crianças.
Podemos ficar tranquilos se pudermos confiar totalmente na Apple e em suas palavras e declarações ... mas ..
Não acho que a Apple ou outros possuam essa honestidade absoluta porque vivemos em um mundo cheio de mentiras que são regidas por interesses !!
Obrigado por este bom tópico
Obrigado esforço
Uma empresa que se dedica ao combate à exploração infantil
E as empresas interessadas no carregador de 65 watts e 200 watts
E a câmera tem 108 pixels
🙃🙃🙃
Com sorte, você ficará bem e manterá a privacidade no iPhone
Nem é preciso dizer que lembramos ao nosso querido leitor de como a maçã toma decisões, e simplesmente que elas devem ser estudadas em todos os aspectos legais e práticos, especialmente porque qualquer maçã fornece um modelo incomparável no gerenciamento de privacidade e segurança para o usuário.
Então, minha querida, você acreditaria que a maçã sacrificaria sua história por causa de uma fotografia?
Este serviço é excelente e muito confiável após uma explicação tão longa no artigo, especialmente no que se refere à segurança infantil e é opcional, a propósito.
Se você é um defensor da teoria da conspiração em todas as inovações - e a maioria delas em nosso mundo árabe distorcida pela suspeita - você não precisa disso, coloque a segurança de seus filhos nas mãos de verdadeiros conspiradores.
Se você entendeu o que foi dito, não há problema em pelo menos experimentar ou esperar alguns anos para ter certeza.
É melhor nos livrarmos das mentalidades de conspiração e é melhor entendermos os detalhes das coisas lentamente. É verdade que estamos acostumados a muitas conspirações, mas para cegar o insight para estender a todos os recém-chegados, isso é a porta do atraso que deve ser fechada, e a questão das vacinas corona não está longe dessas polêmicas.
Se você estivesse acompanhando o assunto, saberia que não foram os árabes que colocaram as teorias da conspiração aqui
Mas os próprios sites e contas dos EUA.
Eu acho que é bom, é bom cuidar das crianças. Obrigada Apple 👏🏻
السلام عليكم
Você tem um problema, não sei se é um problema ou não
É um iPad 8 e funciona muito bem
Depois de atualizar o dispositivo, provavelmente era a atualização 14.5, o som das notificações ficou fraco
Quando você entra nas configurações e define um toque, o som é muito forte, e o som de jogos, YouTube e todos os programas
Mas quando você define o tom para mensagens, e-mails ou qualquer outra coisa, o som é fraco e o som dos logotipos também
Isso é para todos os dispositivos ou apenas meu dispositivo ou há algo nas configurações que precisa ser alterado
Este não é um recurso
Quando seus olhos estão no iPad, o som de notificação será esmaecido e quando a tela estiver desligada ou não estiver prestando atenção a ela, o som de notificação será naturalmente alto.
Ok, e em caso de erro, a Apple compensa os usuários cujas fotos foram submetidas à análise humana e cuja privacidade foi violada ao visualizar suas fotos sem permissão?
Eles serão notificados?
Não é a regra das leis não procurar coisas proibidas, exceto na presença de suspeita contra uma determinada pessoa e por um motivo?
Existe uma lei que permite e reconhece que o princípio é submeter todo o conteúdo a escrutínio e inspeção para todas as pessoas, mesmo que seja uma verificação automática?
Os cidadãos não são iguais perante a lei? E quanto aos usuários de outros sistemas?
Tudo é feito pela Apple Radi ... # Juntos _ Oh _ Apple 🎧💪🏻
Paz e misericórdia de Deus
Como faço para saber o Mac que estudo no iPhone e como adicioná-lo ao roteador
ولكم جزيل الشكر
Vá para configurações gerais -> sobre
Você receberá um endereço WiFi
Além disso, pesquise no Google e você encontrará muitos explicando o que você está pedindo. Acho que é melhor desligar o endereço privado nas configurações de Wi-Fi porque ele define um endereço Mac diferente a cada conexão para protegê-lo.