谷歌前CEO、马斯克认为AI比核武器更危险;周鸿祎称人工智能最后的底线必须是人

(全球TMT2022年8月13日讯)此前不久 , 谷歌研究员声称“人工智能LaMDA具有人的意识 , 甚至智商堪比7岁小孩”的言论引发热议 , 这名工程师已被谷歌辞退 。 虽然 , 目前来看我们距离“人工智能意识觉醒”还很远 , 但不得不说“人工智能”确实被认为是引领新一轮科技革命的重点技术 , 也是当下科技巨头投资的主要领域之一 。 与人工智能发展及道德相关的问题也成为科技行业乃至全人类所关心的焦点 。
本期TMT大咖说的主题就是“人工智能AI” , 我们来看看谷歌前CEO埃里克·施密特、特斯拉CEO埃隆·马斯克、Midjourney创始人大卫·霍尔兹、360集团创始人周鸿祎、AMD首席执行官苏姿丰等科技大咖们对该项技术发展的看法 。
谷歌前CEO、马斯克认为AI比核武器更危险;周鸿祎称人工智能最后的底线必须是人
文章图片
谷歌前CEO埃里克·施密特(EricEmersonSchmidt)在阿斯彭安全论坛“关于国家安全和人工智能”的小组讨论中谈到了人工智能的危险 。 施密特语出惊人称 , AI就像核武器一样 。 在回答有关科技界道德价值的问题时 , 施密特解释说 , 早期他自己在谷歌公司时也曾低估了大数据的力量 。 时至今日 , 他呼吁 , 科技应该要更好地符合其服务对象的道德 。
谷歌前CEO、马斯克认为AI比核武器更危险;周鸿祎称人工智能最后的底线必须是人
文章图片
特斯拉CEO埃隆·马斯克认为应该成立一个人工智能监管机构 , 来监督人工智能 。 马斯克曾在与InsiderAxelSpringer首席执行官MathiasDpfner交谈时表示 , “担心人工智能会出错 。 ”更早在2018年 , 马斯克在德克萨斯州的一次技术会议上说:“我真的很接近AI的新技术 。 这让我感到害怕 。 记住我的话 , AI比核武器危险得多 。 ”不过 , 近日马斯克在2022年特斯拉股东大会上表示 , 长期来看 , 擎天柱(Optimus)机器人将比汽车更有价值 , 将会彻底改变经济 。 擎天柱的机器人原型将在9月30日的“特斯拉AI日”上亮相 。
利用AI作画是个很有意思的事情 , 用户只需要进行语言描述 , AI就可以画出精美的画作 , AI生成的艺术品正悄然开始重塑文化 。 Midjourney就是一款AI绘画工具 , 而该公司的创始人大卫·霍尔兹(DavidHolz)则与施密特的观点相反 , 他认为 , “AI更像是水而不是老虎 。 ”他表示 , “现在 , 人们完全误解了AI到底是什么 。 他们把它看成凶猛而危险的老虎 , 它可能会吃掉我们 。 当然 , 水也有危险 , 你可能会被淹死 , 但奔流的河水带来的危险和老虎带来的危险完全不同 。 水是危险的 , 但它也是文明的驱动力 , 懂得如何与水共处和利用水的力量让人类过得更好 。 ”
谷歌前CEO、马斯克认为AI比核武器更危险;周鸿祎称人工智能最后的底线必须是人
文章图片
在2022年新智者大会上 , 360集团创始人周鸿祎表达了自己对AI武器的看法 。 周鸿祎称 , 当年阿西·莫夫在讲“机器人三原则”的时 , 有一个重要的原则 , 就是机器人不能伤害人 。 这一原则如今已被打破 , 实际上各种无人战车、无人飞机 , 已经应用在战场上 。 周鸿祎称 , 把AI武器最后的决定权交给人类 , 让人来做最后的控制至关重要 , 人工智能最后的底线必须是人 。
谷歌前CEO、马斯克认为AI比核武器更危险;周鸿祎称人工智能最后的底线必须是人
文章图片
AI的投资前景被看好 。 AMD首席执行官苏姿丰(LisaSu)表示 , AMD的下一个目标是人工智能 , 就像几年前瞄准数据中心市场一样 。 AMD此前收购了赛灵思 , 有了赛灵思的技术 , 人工智能正处于拐点 。 苏姿丰对分析师表示 , 这是该公司最大的增长机会 , 也是未来几年最大的增长机会 。 返回搜狐 , 查看更多