分布式|雪崩才是元宇宙的必然( 四 )


因为传统主权国家和商业机构对互联网应用的控制,遍及互联网技术的每一个链条。除非你将应用的构建、数据的存储、云计算、分发以及用户的每日触达的每个环节都分布式,那么你的分布式应用就没有任何意义。
比如使用以太坊似乎可以逃避主权国家关于支付和金融监管的各项规定,但是上如果你的交易量足够大,你的域名、服务器等非中心化的部分就会被查封,你的公司实体就会被关闭,你自身甚至会因为违反证监会或 SEC 的相关规则而锒铛入狱。
以上例子并不针对中国,在美国和任何监管完备的国家同样适用。
相比之下,第一种似乎更能实现分布式网络本来的诉求——创造真正由每个用户个体自己所控制的互联网。
然而,这种模式的难点是,既然它完全被用户所控制,意味着它完全依赖用户的资源来构建,因此易用性极低。
我们以微博为例,知乎上曾有人推算微博在 2011 年全年生产的数据为 370T(知乎问题:新浪微博每天几亿用户产生上万G信息是怎么储存的?),这一数字在进入视频时代之后有爆炸性增长,但我没能找到更新的数字,因此我们就以 2011 年的数字来计算。
尽管看起来这个数字对于一家互联网企业来说并不算大,但对于普通用户来说仍是一个天文数字。
如果我们要以纯粹分布式的技术构建一个微博,这意味着我们需要在用户端存储这 370T 的数据。并且是以复数的形式存储,因为我们不能保证用户是实时在线的。
为了保证这 370T 的数据随时可被任何地理位置、任何时区的用户访问,每条数据可能要至少在 100 个 用户那里被存储,因为与 24 小时高质量在线的中心化数据中心不同,用户可能随时离线。这意味着,即便这份数据被 100 个用户存储,任何一个时间点可访问到的数据源可能也只有其中的 10 个。
那么,存储需求会迅速膨胀到 100 倍,也就是 37000T。
考虑到根本不可能有普通用户会贡献出 370T 的存储空间,因此实际的情况是每份完整数据,大概需要被存储在 740 个愿意贡献出 512G 空间的用户那里。这意味着想要稳健的以分布式存储这一年份的微博数据(100 倍容错),需要至少 74,000 十分慷慨的做种用户。
而实际上,这还只考虑了存储的问题。还记得经典版微博遇到的最大困境是什么嘛?是明星出轨时的扩容问题,也就是带宽与计算性能问题。
由于目前主流的民用宽带均为不对等带宽,实际上 74,000 个普通用户所提供的上传带宽,根本不可能满足微博用户日常的浏览需求,也就是说这些数据虽然被安全的存储了,却不能被实时预览。体现在用户体验上,就是这个分布式微博的“卡顿”和“炸”将成为日常。
事实上,分布式的微博一直存在于上文举例的 ZeroNet、I2P 和 IPFS 中。但由于易用性问题,即便是在 Tumblr 扫黄和川普卸任时引发的百万人卸载 Twitter 这种大规模的“数字迁徙”中,普通用户也绝不会选择这些易用性差但“真正属于自己”的互联网应用。
他们只会从一个中心化的坑,跳进另一个中心化的坑。
因为实践证明,互联网应用的易用性才是互联网普及的真正原因,如果互联网为了某种哲学或意识形态上的执着而降低易用性,那么大多数人的选择只会是“不用”。
回到去中心互联网与元宇宙的关系上,去中心互联网自己所遇到的这些问题,在元宇宙中可以被解决吗?
不可以。
甚至恰恰相反,元宇宙中精致的模型,海量的数据和庞大的计算量都会要求更加集中化成本更低的云形态,这一点与 Web 3 所能解决的完全相反。
推出的 Libra 在经历了几次白皮书修改和更名后,至今也处于难产状态。与它的 VR 业务一样,属于“你做的很好,但不要算进估值哦”的业务。