为了打击儿童性虐待,Apple 打算在美国 iPhone 上安装一个程序来搜索非法图像,特别是包括虐待或剥削儿童的图像,但是,许多专家认为这可能会对用户的隐私构成威胁,因为如果他们这样做这可以为全球用户监控数百万台设备打开大门。
苹果的新系统
本周早些时候,苹果公司向一些美国学者详细介绍了其提议的名为 NeuralMatch 的系统,据两位听取了虚拟会议简报的安全研究人员称,预计苹果公司的计划将在本周尽快得到更广泛的实施。
NeuralMatch 是一个自动化系统,如果他们认为检测到非法图像,它会主动提醒一组人类审查人员,之后审查人员将联系执法部门并报告设备所有者。
苹果和执法机构
苹果和 Facebook 等科技公司与执法机构之间的紧张局势加剧,因为苹果在 2016 年拒绝帮助 FBI 访问枪击案嫌疑人的 iPhone横冲直撞,加利福尼亚州圣贝纳迪诺。
为了满足所有各方,无论是用户还是当局,Apple 宣布了新的 Neural Match 系统,这是其保护客户隐私的承诺与政府和执法机构对刑事调查(包括恐怖主义)提供更多协助的持续要求之间的折衷方案。和儿童色情。
神经匹配如何工作?
NeuralMatch 算法会不断扫描存储在美国用户 iPhone 上的照片并上传到 iCloud 备份系统中的已知儿童性虐待图像。
苹果公司根据美国非营利组织国家失踪和受虐儿童中心收集的大约 200000 万张性侵犯图像对系统进行了训练。
据知情人士透露,在美国上传到iCloud的每张照片都会得到一张“安全凭证”,说明是否可疑,如果有可疑,将立即向当局报告。
苹果与隐私
Apple 可能认为隐私是每个用户的权利,尽管在儿童剥削和虐待问题上有着良好的意图,但许多安全专家担心 Apple 可能会冒着让世界各国政府寻求访问其公民个人数据的风险,这可能会导致超越原来的目标。
“这是一个绝对可怕的想法,因为它会导致大规模监视,因为可以操纵 Apple 的系统来寻找任何其他有针对性的图像和文本,最重要的是,Apple 的想法会增加其他科技公司使用类似技术的压力,”剑桥大学安全工程教授罗斯安德森说。
曾在 Facebook 和 Deliveroo 工作的安全研究员和隐私活动家亚历克·莫菲特 (Alec Moffitt) 表示,苹果的举动“完全出乎意料,是隐私方面的重大倒退”。
约翰霍普金斯大学安全学教授马修格林被认为是第一个就这个问题发推文的研究人员,他也认为苹果所做的将打破大坝,因为政府会迫使其他公司也这样做。
萨里大学计算机安全教授艾伦伍德沃德说:“苹果的系统侵入性较小,因为扫描是在手机上完成的,如果有匹配,就会通知当局,这种分散的方法是你最好的方式可以采用以保护隐私。”
相片:
这一决定是主管当局能够说服 Apple 的一个面具,所有的不公正都以一种崇高的、良好的方式蔓延,因为如果它拒绝,它将与违规行为站在一起。
明天许多穆斯林会变得像 Humaidan Al-Turki
因为穆斯林和孩子一起玩
以及由此引发的骚扰
(如果你不这样做,地球上就会有fitnah和广泛的腐败。)
不视为违规
但他们看到了什么?
这很可疑,也很危险,而且时不时地,我们发现苹果在政府压力下转向Android系统并侵犯隐私,它捍卫并进行了大量营销。解决方案是您作为用户的复制您的数据并将其放在私人硬盘上。 您或购买带有内部存储空间的 iPhone。 非常高,从iCloud取消和删除你的照片和数据,防止苹果等入侵和窃取你的数据。我仍然认为iCloud像iCloud系统一样很棒的服务,但现在摆脱iCloud已经成为必要。不幸的是,未来我们可能会看到很多来自苹果的坏事。
谢谢你这个好话题
科技公司侵犯隐私!:我们必须与他们作斗争 - Apple 正在侵犯隐私!
该程序被认为是实验性的,所以没有必要恐慌
苹果系统是最强大的保护用户隐私的系统
在这些情况下(骚扰+人口贩卖),有几个阶段,每次都能找到解决方案
第一阶段(从一开始就防止骚扰)
并且苹果公司宣布,一旦发现任何消息中出现异常图片或儿童骚扰,它就会阻止它发生在孩子身上并向父母发送警报(天才的一步)
第二阶段是当孩子丢失或丢失时,可疑部门对嫌疑人进行检查,如果他有孩子的新照片,则通知当局逮捕他并将被绑架的孩子归还(天才步骤)
谁对这些步骤感到不安?
每个不满意的人都有禁忌或秘密,最好不要应用,因为它可能会到达当局并对其造成伤害(解决方案是你是一个正常的人,品格良好)
我认为这是一扇窥探人们隐私的大门,尤其是政府(尤其是中东地区设备中的技术,因此尽管设备价格高,人们还是想要它! 我认为它(苹果)如果采取这样的步骤会在这方面损失很多!?
苹果能做的最糟糕的事情就是将自己设置为监督人们的上帝。 它从“良好”的意图开始,然后变成一个新的麦卡锡主义者,就像同性恋公司总裁决定让我们对使用“同性恋”这个词负责。 该设备是我的设备,我用大量金钱购买它,没有人有权监视我。 习俗是被告在被证明有罪之前是无辜的,但苹果公司表示每个人都被指控。 操她。
这个借口会导致出于其他目的侵犯隐私,坦率地说,这是以隐私为荣的苹果公司非常糟糕的一步。不幸的是,我对苹果公司失去了信心,尤其是因为它是唯一一家唱隐私的公司。
最重要的是孩子们的安全
感谢苹果
这件事的主要问题是用借口,目的是证明手段,而这扇门打开了就关不上了,这就给了一些人监视你认为是对手的人的借口,而这必然会导致不公正和违法。
目标很美,但当然会被滥用……此外,这实际上让苹果处于不能再说隐私的位置,因为它现在已经省去了一部分,其他部分将在一段时间后开始虽然在隐私方面它和Android没有区别
我祝贺大多数人的天真
从相册分类照片的时间
输入武器、人物、儿童、树木,并找到分类!
我遇到了拍摄个人遗产武器的情况。 当天,在路上,我发现了一个新地点的检查站,好像是为我准备的,车子被彻底搜查了!!!
在这些文章之前,我知道拍摄这些武器的效果,XNUMX% 的我认为我在搜索,但我对自己的状况充满信心
反对这个想法,可以找到其他解决方案来对抗犯罪
当然反对,因为一开始是可能的,苹果和其他公司都不关心孩子。如果他们关心孩子,他们会从剩余的数十亿中捐赠。世界上有多少孩子死于饥饿,没有人想过他们会做些什么。有多少孩子在学校找不到座位,政府和苹果都没有做任何事情
对资本主义和政府来说,如果苹果这样做,我将是第一个摆脱他们设备的人
反对,当然,因为首先有可能真正逮捕犯罪分子,但是当消息通过苹果的手机照片显示器传播时,没有犯罪分子会敢拍可疑照片,并热衷于不在这些照片中使用它们。事情,唯一的受益者是政府监视公民
在此之前,苹果宣布了一项新功能,即在设备关闭时对其进行跟踪,现在以儿童安全为借口打开隐私,仿佛苹果是立法和行政来源! 这不是 Apple 允许自己跟踪犯罪的犯罪预防工具
我完全同意,该死的隐私以牺牲孩子的安全为代价,无论他是谁
这些西方国家都遵循同样的做法
它打开了禁忌之门,直到罪犯达到不合理的境地,无论是谋杀、剥削、毒品……等等。
然后你会通过一项法律,包括所有人,好人和坏人,因为开门很宽容,正如我之前提到的
一个理智的人在犯罪发生之前通过制定严格的威慑法律来寻找原因并解决它们
这与美国在处理毒品走私和滥用方面的做法类似
她知道并允许合法或非法图像进入毒品,但随后她通过了针对这些物质的法律!!
苹果和任何商业实体都无权成为该地区的军事老板或超人
最好是不要干涉并给用户他的隐私
世界上有多少儿童被剥削?
– 你会在程序中出现多少错误并将另一种类型的图像识别为虐待,并以寻找儿童剥削者为借口破坏此人的隐私
我没有和虐待儿童的人在一起
但我的隐私
如果用户受到儿童剥削者的影响或社区受到影响,并将决定付诸表决,结果是该软件被允许
没关系
👎
捕获和消除犯罪是一个人道主义问题,Apple 能够设计解决方案来保护隐私,这是其优先事项之一。
它有正面和负面
没有啊啊啊
我不同意苹果的这种行为,它也无权这样做,即使这会导致杀戮。
的大动作
伙计们,这家公司的想法超出了我们的想象
我们想到了屏幕内的指纹
她想办法防止对儿童的性剥削
你几岁了😍