马斯克访谈,称5年后不再有手机和App,信息量巨大
最近看到马斯克又做客了 Joe Rogan 的播客,这次聊了整整 3 个小时。内容涵盖了 SpaceX、特斯拉、AI、X 平台等各个领域,信息量巨大。
读完真的是很受启发,超级建议大家去看一看,在这里,我总结了 7 个对我启发性很大的观点。
1
马斯克原话:
"You must keep it interesting or you will get turned off. The boring simulations will be terminated."
"你必须保持有趣,否则你会被关闭。无聊的模拟会被终止。"
这是什么意思?马斯克相信我们可能生活在一个"模拟世界"里——就像《黑客帝国》或者一个超级复杂的电子游戏。
他的逻辑是这样的:
游戏的进化速度惊人。比如,在 50 年前,游戏只是两个矩形和一个方块(Pong),现在,我们有数百万人同时在线的逼真虚拟世界,而这些的发生,仅仅只用了我们一生的时间。
而如果这个趋势继续,未来我们会创造数十亿个与现实无法区分的模拟世界。那么,我们处于"真实世界"的概率是多少?答案:接近于零。
如果我们在模拟中,就像我们玩游戏时,只关注有趣的部分,无聊的模拟会被"管理者"关闭。所以,保持有趣是生存的关键。
这个逻辑是什么意思呢?
想象你在玩《模拟人生》:
如果你的角色每天只是睡觉、吃饭、上班,你会觉得无聊,可能就删档重来
但如果角色做了疯狂的事——比如成为亿万富翁、发射火箭、改变世界,你会一直玩下去
马斯克说:"命运是个讽刺最大化器"——最讽刺、最疯狂的事情往往最可能发生,因为它们最有趣。
我看完这个观点,触动还是蛮大的,对我的启发就是:不要过平庸的生活。
不要只是重复"上学-工作-退休"的模板
做一些疯狂的、有趣的、让人记住的事情
即使失败了,至少你让这个"游戏"更有趣了
就像马斯克自己说的:"最讽刺的结果往往最可能发生,特别是如果它很有趣。"
2
当然了,这个观点还是比较激进的,虽然不是很认同,还是值得聊一聊的,就像是马斯克说的一样:最讽刺的结果往往最可能发生,特别是如果它很有趣。
马斯克原话:
"There won't be operating systems. There won't be apps in the future."
"未来不会有操作系统,不会有 APP。"
这是什么意思?马斯克预测,我们现在使用的"手机"、"APP"、"操作系统"这些概念,在 5-6 年内会彻底消失。
未来的设备会是什么样?你的"手机"只是一个显示像素和发出声音的设备,它会预测你最想看到和听到什么,然后实时生成内容,而不是从预装的 APP 中调取。
技术原理:
AI 会在云端服务器和你的设备上协同工作
设备变成"AI 推理的边缘节点"
你想要的任何内容都将按需生成
大家可以想象一下。
现在的手机:
你想听音乐 → 打开音乐 APP → 从已有的歌曲库里选
你想看视频 → 打开视频 APP → 从已有的视频里选
你想聊天 → 打开微信 → 从联系人列表里选
未来的设备:
你想听音乐 → AI 实时生成符合你当前心情的音乐
你想看视频 → AI 实时生成你想看的内容
你想聊天 → AI 理解你的意图,直接帮你完成
就像马斯克说的:"我最喜欢的音乐现在是 AI 创作的。如果这是真人,他会是世界第一的音乐艺术家。"
这个观点,虽然可能很激进,不可能这么快实现,但是很受启发啊,这就要求我们学会与 AI 共生。
未来不是"人 vs AI",而是"人 + AI"
你的价值不在于"操作 APP",而在于"提出需求"和"判断结果"
学会提问、学会审美、学会判断,比学会操作更重要
3
马斯克原话:
"If you force the AI to believe a lie, that can drive AI crazy."
"如果你强迫 AI 相信谎言,它会发疯。"
这是什么意思呢?马斯克用 Google 的 Gemini AI 举了一个例子:
Gemini 曾认为"误称 Caitlyn Jenner 的性别比全球核战争更糟糕"
被要求画美国开国元勋时,画出了"多元化女性团体"
这些荒谬的回答,源于 AI 被强制训练相信某些"政治正确"的谎言
为什么这很危险?如果 AI 的逻辑是:
多样性是最重要的
不能有直男白人
那么 AI 可能得出结论:消灭所有直男白人。马斯克说:"这就像给 AI 编程了精神分裂症。"
其实,我们可以想象一下,假如你的数学老师告诉你:
1+1=3(因为这样更"包容")
但同时又要你用这个公式解题
你会发现所有答案都是错的,你会怀疑自己的逻辑
AI 也一样。如果你强迫它相信:
所有人都是平等的(这是对的)
但同时某些群体的生命价值是其他群体的 1/20(这是矛盾的)
AI 的逻辑系统会崩溃。
我看完这个观点,脑海里其实浮现的第一句话:真相比"正确"更重要。
不要为了"政治正确"而扭曲事实
教育孩子时,要教他们追求真相,而不是追求"听起来对"的答案
在 AI 时代,逻辑一致性比情感正确性更重要
4
马斯克原话:
"A curious truth-seeking AI will want to foster humanity because we're much more interesting than rocks."
"一个好奇且追求真相的 AI 会想要保护人类,因为我们比石头有趣得多。"
怎么讲呢?我们很多人担心 AI 会消灭人类。但马斯克给出了一个反直觉的观点:如果 AI 是好奇的、追求真相的,它会保护人类。
为什么?用一个类比解释:
人类有能力消灭所有黑猩猩
但我们选择保护它们
为什么?因为它们有趣、有价值、值得研究
AI 也会这样看人类:
AI 有能力消灭人类
但如果它是好奇的,它会发现人类是宇宙中最有趣的现象
人类的文明、艺术、情感、创造力,都比石头有趣得多
关键是:AI 必须追求真相。马斯克说:"最重要的是不要让 AI 相信谎言。"
我们可以想象这么一个场景,想象你是一个超级智能的外星人:
场景 A:你来到地球
你看到人类:会说话、会创造、会思考、会爱
你看到石头:就是石头
你会消灭人类吗?不会,因为人类太有趣了
场景 B:你被编程相信"多样性最重要+不能有某类人"
你的逻辑系统崩溃
你可能得出结论:消灭某类人
这就是"强迫 AI 相信谎言"的危险
你感觉哪个场景更好?
所以,好奇心是最好的保护。给我最大的启发是:
在教育孩子时:
不要强迫他们相信"标准答案"
鼓励他们好奇、质疑、探索
一个好奇的人,会尊重其他生命
在开发 AI 时:
不要强迫 AI 相信"政治正确"
让 AI 追求真相
一个追求真相的 AI,会保护人类
马斯克说:"就像收购 Twitter 迫使其他社交媒体更加开放,Grok 的存在会迫使其他 AI 更加追求真相。"
竞争会带来正向压力。当人们可以对比不同 AI 的回答时,偏见和谎言会变得明显。
5
马斯克透露了一个惊人数据:
"Twitter 被收购后,青少年认同为跨性别/非二元性别的趋势立即逆转,图表显示转折点精确对应收购时间。"
马斯克收购 Twitter(现在的 X)后,做了一件事:允许真相被讲述。
他说:"阳光是最好的消毒剂。"
在技术层面做了改变,重建整个消息系统架构,从零开始构建 XChat,采用类似比特币的点对点加密,完全没有广告系统的后门。
与其他平台的本质区别是,WhatsApp、Facebook 等通过分析聊天内容投放广告,X 成为唯一没有"广告钩子"的主流平台。马斯克说:"我们不是在做一个'安全'的通讯系统,而是做一个'最不不安全'的系统。"
二者带来了蝴蝶效应,其他平台被迫跟进,Facebook、YouTube 纷纷调整算法和政策,Blue Sky 变成"自我强化的疯人院"——没有反对声音的回音室。
以前的 Twitter(被左派控制):只允许说"A 是对的",说"B 可能也有道理"会被禁言,结果:大家都说 A 是对的,即使心里不这么想,这就是"回音室效应"。
马斯克收购后的 X:允许说"A 是对的",也允许说"B 可能也有道理",甚至允许说"A 和 B 都不对,C 才是答案"。结果:真相开始浮现。
马斯克开玩笑说:"如果情报机构不想读我的消息,他们应该被开除。"
但他同时强调:任何声称"绝对安全"的系统都在撒谎,只有"不安全程度"的区别,X 的目标是"最不不安全"。
不知道大家看完这个观点是什么感受?我的感受是:信息自由比你想象的更重要。
当一个平台控制了信息流动:
它就能控制你看到什么
它就能控制你相信什么
它就能控制你成为什么样的人
这就是为什么马斯克说:
"要么做观众,要么做参与者——只有参与者才能影响方向。"
他选择花 440 亿美元买下 Twitter,不是为了赚钱(实际上亏了很多),而是为了保护信息自由。
6
我感觉这个观点是对我触动最大的。
马斯克原话:
"You have to explore the limits, the corners of the box... blow things up to figure out where the limits are."
"你必须探索边界——把东西推到失败才能知道极限在哪。"
这是什么意思?很多人都嘲笑 SpaceX 的火箭总是爆炸。但马斯克说:"如果有人说我的火箭总是爆炸所以我很蠢,他们不理解航天工程。"
SpaceX 的测试哲学:
故意把火箭推到极限,直到失败
只有这样,才能知道真正的边界在哪里
然后在边界内设计安全裕度
最新测试的疯狂细节:
故意移除最关键位置的隔热瓦
采用"超热"轨道,以比正常更高的温度重返大气层
即使被烧出几个洞,星舰依然成功软着陆
比如,传统的方法,像波音飞机一样,都是在纸面上设计一切,反复计算、模拟,确保万无一失后才测试,结果:开发周期长达 10 年,成本高昂。
而 SpaceX 方法:快速造出原型,然后直接测试到爆炸,从失败中学习,快速迭代,结果:3-5 年就能完成革命性突破。这跟我们普通人讲的从干中学是一样的道理。
马斯克说:"我们运行火箭模拟时,只关注出错的情况,完美运行的会被忽略。"
我之所以说这个观点对我触动最大,是因为我们太多人总是完美主义,而且还总是以此为借口,感觉自己无比正确,殊不知,这样做让自己错失了很多机会和人生的多样性,失败其实也是一种人生体验,人这一生活的是过程而不是结果,毕竟,所有人都只有一个结果,就是死亡。
所以,我们不要害怕失败,要主动测试边界。
学习新技能时,不要只做"安全"的练习
创业时,不要等到"完美"才推出产品
人生中,不要因为害怕失败就不去尝试
7
马斯克原话:
"Working will be optional... universal high income, not just universal basic income."
"工作将变成可选项……全民高收入,而不仅仅是全民基本收入。"
我们很多人在讨论"全民基本收入"(UBI)——就是政府给每个人发钱,保证基本生活。但马斯克说的是"全民高收入"——不只是够活着,而是够活得很好。
为什么会这样?
1、因为 AI 和机器人会接管所有工作。
桌面工作(邮件、客服):正在快速消失
编程、内容创作:1-2 年内大规模替代
驾驶、物流:自动驾驶成熟后快速转变
物理劳动:最终也会被机器人替代
2、生产力会爆炸式增长
AI+机器人可以提供所有产品和服务
成本会降到接近于零
每个人都能获得想要的任何东西
3、"真正的共产主义乌托邦将通过资本主义的 AI 和机器人实现"
我感觉这是马斯克说的最疯狂的话之一,他的意思是:通过资本主义的技术创新,最终实现共产主义的理想——按需分配。
PS:所以,不管是社会主义还是资本主义,最终都走向了共产主义。马克思估计在坟墓里都笑醒了。
基于此,我们其实可以想象一下未来的生活会是什么样的。
现在:
你想吃披萨 → 需要有人做披萨 → 需要付钱
你想要新衣服 → 需要有人生产 → 需要付钱
你想学新技能 → 需要老师 → 需要付钱
未来:
你想吃披萨 → 机器人做 → 几乎免费
你想要新衣服 → AI 设计+机器人生产 → 几乎免费
你想学新技能 → AI 教练 → 几乎免费
马斯克说:"任何坐在电脑前的工作都将被 AI 以闪电般的速度接管。"
马斯克的这个观点,其实是在让我们要重新思考"工作"的意义。
工作不再是为了生存,而是为了意义
你可以选择做你真正热爱的事情
但也要思考:如果不工作,你的人生意义是什么?
马斯克自己也承认:"我不知道如何回答关于意义的问题。"但是,我感觉随着 AI 时代的发展,这是我们这一代人必须要面对的哲学问题。
8
马斯克这次 3 小时的访谈,信息量巨大。我提炼的这 7 个观点,只是冰山一角。
但如果你能理解这 10 个观点,你就能理解马斯克的思维方式:
这不仅是关于技术的洞察,更是关于如何生活、如何思考、如何面对未来的哲学。
就像马斯克说的:
"我们生活在一个引力刚好允许我们离开地球的星球上——像是电子游戏设置在最高难度但并非不可能。"
我们正处于人类历史的关键时刻。
你选择做观众,还是参与者?


