前员工揭露Facebook滔天罪行:用放大仇恨言论算法赚钱

前员工揭露Facebook滔天罪行:用放大仇恨言论算法赚钱
文章图片
新智元报道
来源:cbs
编辑:yaxin
【新智元导读】周日 , 前女雇员FrancesHaugen在美国60Minutes采访上揭露Facebook用放大仇恨言论的算法谋利 。 为了提高用户参与度 , Facebook发现最好的方式便是向用户灌输恐惧和憎恨 。
Facebook数万页内部文件一夜之间尽数曝光!
告密者揭露了Facebook一直以来不肯承认的罪行——用「放大仇恨言论的算法」谋取利益 。
这只披着羊皮的狼终现原形 。
前员工揭露Facebook滔天罪行:用放大仇恨言论算法赚钱】周日 , 告密者在美国60Minutes节目上揭露了这个世界上最强大的社交媒体平台Facebook更多的内部运作机制 。
与此同时 , 这位告密者也公布了自己的身份——Facebook前雇员FrancesHaugen , 并与《华尔街日报》分享了大量内部文件 。
前员工揭露Facebook滔天罪行:用放大仇恨言论算法赚钱
文章图片
她表示 , 一家致力于产品优化的公司 , 却采用了放大仇恨言论的算法 。
大量性爆炸指控都有哪些?
Facebook算法黑箱:抓住人性的弱点
此前一项数据显示 , Facebook在致力于反对仇恨言论所做的努力 。
现在看来更像是一场笑话 。
前员工揭露Facebook滔天罪行:用放大仇恨言论算法赚钱
文章图片
虽然该公司一再声称 , 至少在自己的产品上 , 它正在帮助阻止仇恨言论 , 但Haugen泄露的一份Facebook内部文件表明:
「我们预计 , 我们的优化可能只会对Facebook上3%-5%的仇恨言论、大约0.6%的暴力和煽动内容产生作用 , 尽管在这一点上我们已经做到世界上做好了 。 」
另一份文件甚至更加直白:我们从各种渠道获得的证据表明 , 仇恨言论、分裂性政治言论以及Facebook和旗下其他应用程序的错误信息正在影响世界各地的社会 。
Haugen声称问题的根源在于「2018年推出的算法控制了你在平台上看到的东西」 。
前员工揭露Facebook滔天罪行:用放大仇恨言论算法赚钱
文章图片
你用手机滑动五分钟 , 可能只能看到100条内容 。 但是Facebook可以向你展示成千上万种选择 。
该算法根据你过去接触最多的内容类型来推送信息 , 通过参与度优化内容 。
她表示 , Facebook为了提高用户的参与度 , 发现最好的参与方式便是向用户灌输恐惧和憎恨 。
因为激发人们的愤怒比激发其他情绪更容易 。
1.6国会暴乱 , Ins青少年自杀倾向 , 还有什么?
当时 , 扎克伯格称算法的改变是正面的 。
「我们觉得有责任确保我们的服务不仅仅是有趣的 , 而且有益于人们的福祉 。 」
前员工揭露Facebook滔天罪行:用放大仇恨言论算法赚钱
文章图片
对社会负面影响案例不是没有 , 2018年缅甸军方利用Facebook发动种族灭绝 , 包括种族暴力 。
还有2020年大选 , Facebook明白其潜在的危险 , 因此启动了安全系统 , 以减少错误信息 。
前员工揭露Facebook滔天罪行:用放大仇恨言论算法赚钱
文章图片
但Haugen表示 , 许多变化都是暂时的 , 选举一结束 , 他们就把安全系统关闭了 。
但是 , 在选举之后 , Facebook被一些人用来组织1月6日的起义 , 即2021年美国国会大厦遭冲击事件 。
检察官引用Facebook上的帖子作为证据——武装游击队员的照片和文字 , 包括「通过子弹或选票恢复共和国即将到来!」这样的信息 。
这些极端分子使用了很多平台 , 但Facebook反复出现 。
前员工揭露Facebook滔天罪行:用放大仇恨言论算法赚钱