——公开部分回复诺贝尔奖获得者的邮件
致:
各国领导人、联合国秘书长、顶级科学家与学者、知名企业家、知名媒体负责人。
文章图片
尊敬的各位领袖:
自2007年首次致信人类领袖以来,这是第七次为了科学技术的非理性发展会很快灭绝人类的问题致信人类领袖,呼吁全人类尽快采取应对措施。鉴于过去的呼吁所收到的回复中存在许多质疑的问题,这次致信人类领袖想借回复诺贝尔化学奖获得者雅克·杜波谢教授的一段邮件作为本次公开信的主要内容(事先征求过杜波谢教授的意见),因为杜波谢教授提出的问题想必也是各位领袖普遍质疑的问题。
在引用该邮件的内容时我想再次阐述我的几个基本观点:1、科学技术的继续发展必将很快灭绝人类,长则两三百年,短则就在本世纪;2、要避免科技灭绝人类必须严格限制科学技术的发展;3、要限制科技的发展在今天的国家社会做不到,只有实现人类大统一,用世界政权的力量掌控科学技术。
以下就是我回复雅克·杜波谢教授的部分内容:
“非常感谢您回复我《第六次致人类领袖的公开信》,对于您原则上同意我限制科学技术发展的观点我表示钦佩,也感到欣慰。因为,我研究人类问题40多年,对于科学技术照此发展会很快灭绝人类这一严峻的问题我一直在用各种方式进行呼吁,屡战屡败,屡败屡战。您是第一个极有分量的科学家对我限制科学技术发展的观点持一定程度的赞同者。
“您在信中提出科学是知识,问题不在于知识,而在于我们用它做什么,并肯定了我们没有做好这件事。您还进一步提出由联合国的机构负责监督管理所有技术的开发和使用的设想。这里我想坦率地谈一谈我对这些问题的看法:
“对于科学技术这种知识在我看来我们永远都不可能完美地用好它,其主要道理有这么两点,第一,我们不可能完全准确地掌握科学技术的性能。科学技术具有不可确定性,常常我们认为最好的恰恰是最坏的,科技层级越高越难准确判断其安全性。正如氟利昂的使用导致臭氧层的破坏,DDT的使用影响了生物多样性。我们使用这些科技产品最初都是善意,但却没有得到善报。第二,我们不可能完全善意地使用科学技术成果。人类是一个特定的物种,再好的道德价值观和再好的法律体系只能对社会整体起到较好的约束作用,但不可能限制每一个人都不干坏事,任何时候都有敢于干极端坏事的,科学家也不例外。因此,绝对希望科学技术会很好的被应用是不可能实现的奢望。
“我说这些的目的不是否定必须对科学技术的研究内容把关,也不是否定必须对科技成果的使用方向把关。只是强调这样的把关不能完全解决问题。正因为有这样的无奈现实,就必须要考虑以下的问题:
“过去不论我们做得有多不好,哪怕真的会发生核大战全球毁灭几十亿人,总有一部分人可以生存下来,人类还有重新开始的机会。但是今天的情况发生了实质性的变化,多项科学技术再往前发展几十年都有可能对人类整体产生威胁。那么科学技术有一万个好,如果它会灭绝人类我们就必须得限制它,人类的整体生存高于一切。
因此,在我们既没办法准确判断所有科学技术的安全性又不可能完全用好每一项科学技术的情况下,就只有一个选择,那就是不能够让科学技术发展到具备灭绝人类的层级,即限制科学技术的发展。如果科技水平处在足够安全的层级,哪怕被人有意或无意用其伤害人类也不能够灭绝人类。
- 五维时空是怎样的?人类即使进入也看不到?或是我们的形态太低级
- 未来科学家发明的机器人有没有可能理解人类的情绪,读懂心里的话?
- 未来人类会怎么进化?科学家给出答案,知情者都不愿接受
- 同人类共演化,解开人类“褪毛之谜”的虱子,如今怎么消失了?
- 淘汰的骨头重现,人类开始退化?科学家给出2种猜测
- 随着我们人类的科学技术水平的提高|为什么航天员回来后都要被隔离,科学家:他们身上携带这种物质
- 是什么在阻止人类前进?科学家给出答案,看后每个人都沉默
- 导语:上一个世纪时|人类难以找到外星文明?“天眼”收到信号,霍金:不要招惹它们!
- 人类非物质文化遗产|“中国传统制茶技艺及其相关习俗”申遗成功 总数43个位列世界第一
- 手机|人类 需要一部“去中心化”的手机吗