荣耀|陈根:算法侵袭互联网,算法背后什么人?( 二 )


很大程度上 , 这是一种“自我”设限——用户就像蚕一样被自己吐的丝禁锢在自己制造的“信息茧房”里 。 长期生活在“信息茧房”之中 , 无疑会令用户越来越沉溺于自己的回音 , 在信息茧房中越陷越深 。 “数据化”的人将会失去对整个社会的理解与全局批判的能力 , 甚至会造成群体“极化”现象 。
再比如 , 算法在描绘社会现实的同时也体现出现实中的偏见 , 算法依赖于大数据 。 显然 , 大数据并非中立 。 于是 , 它们可能有利于白人男性 , 而不利于女性、老年人、单亲父母、有色人种、非英语居民等 。
事实证明 , 新生的人工智能推特机器人可以在几个小时内成为白人至上主义者 , 自动生成的标签将非裔美国人的照片标记为大猩猩 。 在亚马逊公司开发的一款用于筛选简历的算法中 , 也曾意外“培养”出歧视女性应聘者的偏好 。 显然 , 算法从受相同偏见影响的内容中学习到更多偏见 , 这些认知偏见经网上广泛传播后导致更为广泛的社会冲突 。
当然 , 不论是信息茧房 , 还是技术偏见 , 都是我们能看到的最直接的算法带来的社会问题 。 除此之外 , 更重要的是受到商业偏好的影响 , 控制着算法的利益市场 , 使得算法日益沦为利益的砝码 , 造成几千年来人类社会所追求与构建的民主、自由的社会受到挑战和损伤 。

算法背后的利益市场
当前 , 随着算法在信息的管理与分发领域占据了支配地位 , 并逐渐在把关机制中代替了传统媒体把关人的角色 , 开始发挥主导作用 。
然而 , 算法由各个互联网平台组织设计 , 我们将信息的把关交给算法时 , 也就意味着交给了算法背后的利益市场 。 在完全自由的信息市场中 , 算法作为一种垄断性技术 , 通过技术的方式 , 实现对信息产品生产和消费的控制 。
传统媒体时代 , 人们能够主动选择信息;而在算法时代里 , 信息的选择则由算法进行分配 , 将所有信息“对号入座” , 根据用户需求的数据决定把关的强弱 , 即用户需求越多 , 就给予越多的信息资源 。 这种把关机制的运行导致信息成为一味迎合用户市场的纯粹的消费品 , 失去其本身的价值意义 。
事实上 , 在互联网刚出现之时 , 人们也曾憧憬过:网络空间代替城市空间接管公共领域 , 创造前所未有的理想公共领域的可能 。 所谓公共领域 , 用德国著名哲学家哈贝马斯的话说 , 就是指“政治权力之外 , 作为民主政治基本条件的公民自由讨论公共事务、参与政治的活动空间” 。
毕竟那个时候 , 人们所看到的 , 都是算法运用的无可比拟的优势——立足于大数据之上 , 算法通过对海量数据样本的全盘分析可能得以窥探事物的全貌 , 避免人类因有限的观察体验而产生的局限性 , 可以更为准确地反映客观世界 , 并尽力排除人的主观因素的影响 , 由此作出更为科学的判断 。
人们渴望通过公共领域 , 得以展现自我 , 用社会的规则知识填补先验知识的缺陷 , 并与他人建立现实的联系 。 然而 , 虽然互联网极大地促进了公共讨论的发展 , 看似具备公共领域的基本特征 , 但显然这只是表象——它不是公共领域 , 政治权力与大企业完全有能力迫使互联网按照自己的意愿发展 。
所谓的算法权力 , 正是指其背后潜藏着的控制算法设计和研发过程的资本的权力 , 技术权力只是表征而已 。 资本驱动下的算法权力倘若缺少必要的规制 , 势必倾向于将利益置于人的价值的之上 。 早在2015年 , Facebook就因其人工智能推荐内容存在政治偏见 , 饱受用户对的指责 。