无独有偶,马克账户被禁用的第二天,德克萨斯州上演了同样的戏码 。
另一位孩子爹根据儿科医生的要求,用安卓手机拍了自家宝贝“内脏部位”感染处的照片,照片自动备份到了谷歌云,而后他又用谷歌聊天把照片传给了孩子妈 。
结果惊人的相似,他的Gmail账户同样被禁用 。因为没有电子邮件地址,他差点没法买房 。
文章图片
休斯顿警方邀请他到警局喝杯咖啡,在出示和儿科医生的聊天记录后,他很快被放出警局 。
警察认为他无罪,谷歌却不这么认为 。尽管他是用了10年付费账户的老谷歌用户了,账号还是找不回来 。
现在,这位孩子爹不得不用Hotmail地址发送电子邮件,并被朋友们无情嘲笑 。
AI标记儿童性虐待,每年数百万次
【谷歌|私人相册照片被谷歌AI举报:全网封杀、喊冤无门】2021年,谷歌提交了超过62万份涉嫌虐待儿童的报告,禁用了超过27万名用户的账户,提醒当局发现了4260名潜在的儿童性虐待受害者 。
当然,其中包括了上文被冤枉的两位奶爸 。
文章图片
收集大量数据的科技巨头们会充当把关哨兵,检查内容,以监测和预防犯罪行为 。每年,它们会标记儿童被剥削或性虐待的图像数百万次 。
但内容检查可能需要窥视私人档案,比如偷看你的电子相册 。两位奶爸就是没有料到这一遭,才让“求医心切”在谷歌那儿变成了“儿童性虐待” 。
把关的时候,科技巨头们一般会用两种工具:
一种是微软2009年发布的PhotoDNA 。
文章图片
△PhotoDNA工作原理
它建立了一个虐童照片数据库,把每个人电子相册的照片和数据库里的照片对比,就算照片有细微不同,也能找出传播虐童图像的用户 。
包括Facebook、Twitter和Reddit在内,都使用PhotoDNA 。
另一种是2018年,谷歌发布的开发者工具包Content Safety API 。
它使用深度神经网络来处理图像,让审查员在相同时长内,处理的虐童图像内容增加了700% 。
谷歌自己使用这个AI工具包,也开源给Facebook等使用 。
文章图片
这个AI工具包的大致审查流程是这样的:
两位奶爸的照片自动备份到谷歌云,并被标记人工审核↓人工审核,确认这些照片符合对虐童图像的定义↓锁定用户账户,继续搜索账户中其他虐童图像(马克还有一张晨起全家赖床的照片,因衣衫不整,又又又被标记了)↓向国家失踪和受虐儿童中心(NCMEC)的CyberTipline报告
不得不说,谷歌AI工具包在识别图像内容方面展现出了惊人能力,CyberTipline2021年每天收到约8万份报告,由40名分析师审核,以便NCMEC能进一步报告给警方 。
CyberTipline主管说,这是“系统正常工作” 。
但这无疑是双刃剑,毕竟如果情节被判严重,哪怕父母是无辜的,也可能失去孩子的监护权 。
文章图片
虽然上文提到的两位奶爸都是用安卓拍照遭的殃,但苹果用户别高兴得太早 。
- Google|拦不住了!谷歌对华为再次加码,任正非亮出底牌
- 华为鸿蒙系统|对标华为鸿蒙,谷歌新一代操作系统开始推送!
- 软件|因为拍照不行想换手机?试过谷歌相机再说!
- 华为鸿蒙系统|脱胎换骨?央视公开透露,谷歌也没料到,华为会这么快
- 社交|谷歌凶猛入局区块链 魔域开发商网龙策划首款区块链元宇宙游戏
- 本文转自:红网“领导者要跟别人学|平安私人银行企望会名师大课长沙开讲 以中国智慧提升企业家领导力
- Google|年轻人把TikTok当搜索引擎用?谷歌正遭遇新的挑战
- |谷歌IoT Core停服倒计时:用户蒙圈,物联网市场再次洗牌?
- 安卓|Android 13正式开源
- 华为鸿蒙系统|华为被针对打压?谷歌Android 13正式开源,鸿蒙3.0局势不明