有女性每天接触大量色情图片 , 在矛盾的情绪中度过每日 。
这已经是幸运的情况 , 还有些人 , 看的不是小黄图 , 是恐怖分子的斩首视频 。
一位审查员在镜头前提起自己始终忘不掉的一个画面:在一次审查直播的过程中 , 他看到一场自杀直播 , 画面中的人已经套上了绳圈 , 但他不能中断直播 , 因为此人尚未真正实施自杀 。
如果贸然中断 , 他们可能会受到指责 , 管理机制将对他会问责 。
“他踢开椅子 , 就这样死了 。 他痛苦挣扎但已经晚了 , 脖子的骨头都断了 。 ”
刺激、压抑、愤怒、冷漠、恐惧、恶心…… 各种千奇百怪的内容 , 不断冲刷审核员的感官 , 把他们的神经敏度推至极限 , 然后坐如过山车一样 , 激荡过后慢慢习惯 , 情感开始变得麻木 。
然后 , 要么离职;要么忍受麻木加班 , 晚上回家做梦都会见到各种各样千奇八怪生殖器 。
最终 , 他们的时间被分割成秒 , 变成重复着“删除” , “通过”指令的机器人 。
6
有人会问 , 说好的人工智能呢?2022年了 , SIRI都会讲冷笑话了啊 。
抱歉 , AI还不行 , 或者准确的说法 , 还不足够行 。
虽然现在由于每天在互联网产生的海量内容 , 人力根本不可能够用 ,, 所以几乎所有大型平台都在采用“人+AI”的审核方法 。
但因为自然语言处理本身的高难度 , 导致机器在理解语言上 , 还远不如人类 。
这导致即使如简单的文字信息 , 机器审核也很容易出错 , 更不用说复杂的图片 , 视频和音频 。
在机器视觉“国考”中的ImageNet国际挑战赛上(数据集有1400多万幅图片 , 涵盖2万多个类别) , 深度学习的系统DeepID2可以达到99.47%的识别率 。
△人工智能在决策中使用到的函数
这意味着每一千张图片 , 机器最多只会出错53次 , 怎样 , 听上去是不是已经很厉害了?
但是即便是每一千张图片 , 机器只出错53次 , 也意味着需要人工复查53次 。
因此AI识别在海量内容面前 , 大量犯错是必然的 。
最常见的 , 是漏判 , 隐晦的色情和暴力它们看不出来;然后是误判——是把战争映像当作暴力内容 , 把母乳喂养辨别为色情内容 。
就连加菲猫也经常惨遭毒手 , 因为它们的颜色在AI眼里看上去像人类大片裸露的皮肤 。
要解决这个问题 , 就需要AI在数百万个违规内容数据的基础上进行重复训训练 , 这意味着公司需要为此付出大量的时间和成本 。
FACEBOOK曾经表示他们还需要5-10年才能开发出准确识别仇恨言论的AI 。
而现在 , 人显然比人工智能便宜 。
7
矛盾的是 , 比起普通的内容 , 人们就是更喜欢那些碍于良俗上不了台面的内容 。
包括B站在内 , 所有内容平台都遵循着一个生存法则——如何吸引用户的注意力 。
而人性本身就会被吸引刷新底线的、挑战禁忌的、煽动对立的、制造愤怒的内容所吸引 。
- AMD|有些人总说AMD稳定性不如英特尔,问他哪里不稳定,他又说不出来?
- 物联网|十几万互联网大厂“保安”,谁能保证他们的“安全”
- AMD|AMD 将用可编程逻辑和其他 XILINX IP 做什么?
- 运动员|苏翊鸣冠军!每天拒100个代言,他说还有个愿望想实现
- Windows|对比下其他企业,华为的存在,已对资本至上理论来说形成致命打击
- 安卓|测试报告:GalaxyS22的信号接收能力优于其他安卓手机
- 微软|马斯克豪捐57亿美元给联合国?其实,他做事从不吃亏……
- 王兴|全国800万骑手无社保,但王兴一口气捐出107亿元,他在想什么?
- bilibili|B站2百万粉“正义”UP主被扒?假仁假义、敲诈勒索、年度反转,无间巨制...
- 本文转自:上海长宁本着从小对于蓝天的向往和热爱|结棍!他们可在飞机运营和维修过程中,快速找到零部件!