用户名:  密码:   
网站首页即时通讯活动公告最新消息科技前沿学人动向两岸三地人在海外历届活动关于我们联系我们申请加入
栏目导航 — 美国华裔教授专家网人在海外创业就业
关键字  范围   
 
未来10年,学什么不会失业?|专访《人类简史》作者尤瓦尔·赫拉利
来源:后浪研究所 | 作者:许嘉婧、曲枚 | 2024/9/29 20:46:46 | 浏览:961 | 评论:0

人的一天只有24小时,一份合理的安排是8小时睡觉,8小时工作,另外8小时自由娱乐。可我们却经常感到时间不够用,或者是另一个极端——不知不觉,时间就不见了。

互联网危机感始终笼罩着年轻人。在老一辈看来,Z时代青年玩转网络、懂得很多,能做到许多他们做不到的事;但年轻人在互联网里泡得越久,越觉得自己好像永远2G网速,什么都不知道。

在这焦虑感的背后,无处不在的算法却永恒地奔跑者,新闻永不停歇,市场永不休市,社交网络永远运转。

算法带来了强烈的社交媒体倦怠。我们通过大数据系统打分选择衣食住行,通过电子屏幕待在算法为我们准备的信息茧房里,甚至通过虚拟的聊天软件建立和真实的人的连接——却还时常有种搭不上时代列车的感觉。

十几年前,尤瓦尔·赫拉利撰写《人类简史》时就已经做出过这样的预言:几千年万年来,人类能够站在智人顶峰、发展进化出繁荣的文明就在于我们拥有讲故事的能力。我们能够创造并相信虚构的概念,诸如法律、宗教、公司和国家,它们有效地维持着人类社会的运行秩序。

然而,计算机的发展却可能超越人类在决策、数据处理和创造力方面的能力,逐渐取代人类在社会中的主导地位。

这个预言正在一步步变为现实。


从2018年他开始撰写新书《智人之上:从石器时代到AI时代的信息网络简史》,伴随着人工智能大爆发的背景,他更加关心这会对普通人产生什么影响。

未来10年,学什么不会失业?|专访《人类简史》作者尤瓦尔·赫拉利


“我们是有机动物,按照昼夜、夏冬的有机循环规律生活,有时活跃,有时放松。但现在,我们被迫生活在永不休息的计算机主导的环境中。它们也逼迫着我们保持永远活跃——但如果你强迫一个有机体永远活跃,结局一定是崩溃而死。”尤瓦尔·赫拉利对36氪“后浪研究所”说。

很多年轻人也意识到信息网络对自己的负面影响,他们开始主动训练算法、挑战XX天不用手机、戒断网络、不用社交媒体——但人不可能逆势而为,永远隔绝算法。在信息时代,如何与不确定性和焦虑自处是每个人必修的课题。

这本新书正是关于一个碳基生物在硅基世界中,应该如何做好准备来适应这个无机硅芯片主导的世界。36氪“后浪研究所”采访到尤瓦尔·赫拉利,和他聊了聊中国年轻人时代情绪的变化,与他们最关心的问题。


未来10年,学什么不会失业?|专访《人类简史》作者尤瓦尔·赫拉利
未来10年,学什么不会失业?|专访《人类简史》作者尤瓦尔·赫拉利
Q1
算法在掌控我们的注意力。

我看过一个段子,说一个年轻人打开手机想帮受伤的朋友叫一辆救护车,结果被弹窗带到短视频平台点开就是刷,完全忘了朋友受伤的事。

现在很多人都在反省,自己已经失去了主动检索信息的能力,大部分都在被动地接收信息,如果从历史学的视角看,人类是在什么时候开始逐渐遗失这项能力的?

A1
赫拉利:

要理解我们对信息的消费方式发生了什么变化,可以用食物做个比喻。100年前食物很稀缺,所以人们吃他们能找到的一切食物,并且大家喜欢富含脂肪和糖的能量充足的食物。时至今日食物已经很充足了,如果人们还是什么都吃,过量摄入脂肪和糖的话就会生病。所以大家开始节食。

信息也是一样。在过去信息很稀缺,所以我接受能获得的任何信息。现在我们已经被大量信息淹没,尤其是那些无用信息——这也会让我们生病。我们需要进行信息节食。

信息节食的第一步就是放弃“更多信息总是对我们有益”这样的想法。第二步则要有意识地筛查信息质量。就像我们必须对摄入的食物谨慎一般,我们也应该对放入大脑的精神食粮谨慎。特别要注意,避免用过量的仇恨、贪婪和垃圾信息填满大脑。

现在许多国家都会为垃圾食品标注成分表——“这含有40%的糖,20%的脂肪”。也许我们也应该强迫信息提供者们做同样的事情,比如在观看某些视频前,列出该视频包含的内容——“这含有40%的贪婪,20%的仇恨”。如果你想摄入一些这样的“有害”信息,至少要理解它的危害性。

最后,定期开展“信息断食”是有益的。我个人每年会进行为期几周的冥想闭关,期间完全断开与外界的联系。我不看新闻,不读任何电子邮件,不写书,只冥想。我花时间来消化我的头脑已经摄入的信息,而不是填充更多。对大多数人来说几周是有点长了,但偶尔进行一两天的禁食也是不错的选择。

Q2
然而互联网时代的“信息焦虑”无处不在。

以前我们总觉得知道得越多越好,一天没浏览社交媒体就担心自己错过什么。但现在我们开始难以区分究竟哪些是有效信息,而那些看似无效的信息又是不是真的不被需要。说到底,你认为哪些信息能称得上知识?

A2
赫拉利:

是的,以前我们将所有信息等同于知识,觉得拥有的信息越多,拥有的知识也就越多。很明显这是错误的——大多数信息都是垃圾,而知识是那一小部分稀有且昂贵的信息。

想编造一个引人入胜的“假新闻”是很容易的——你只需随心所欲地写,无需花费一分钟进行研究。但相比之下,写一篇真实的报道则很困难,因为这背后需要做的研究费时费力。而且,你所写的真相收获的关注度可能远小于“假新闻”,因为事实往往很复杂,而人们不喜欢复杂的故事。这也就导致错误的信息总是会比真相传播得更容易。

所以为了保护那些稀缺而珍贵的知识,我们需要自我修正机制——主动去识别、承认并纠正错误。

“自我修正机制”在大自然中无处不在,儿童学会走路就是依靠有效的自我修正机制:你迈出一步,摔倒了,再尝试稍微不同的方式,再次摔倒,再次纠正自己,直到做对——科学也是这样运作的。我们提出一个模型,效果不佳,我们就承认错误、改变模型。在政治中亦然,好的政府会承认错误,并相应地调整政策,而暴君和宗教狂热者声称自己是完美无缺的,声称自己什么都懂,从不犯任何错误。他们永远不去学习,也不值得被信任。

所以,如果有人拒绝承认错误,永远不要相信他们。如果有人承认错误,他们就是真正的知识源泉。

Q3
延续上一个问题,近几年“知识无用论”,尤其是“文科无用论”甚嚣尘上。

当很多名校毕业的年轻人毕业即失业,找不到工作时还是会陷入迷茫——早知道就学数理化了。如您所言,人类更擅长讲故事,但这种能力如今却成了利益最小的、效率最低的领域,被大家所摒弃。您怎样看待这种现状?

A3
赫拉利:

现在人们觉得就业前景有很大的不确定性,人工智能迅速改变了就业市场,以至于我们无法预测未来还需要哪些技能。对理工科的认知也是一样,很多人觉得学编程、代码很重要,因为计算机是未来。但几年后,AI编码可能比人类更好,那是不是我们也不需要人类程序员了?相反,也许到时候我们会更需要哲学家、心理学家,因为世界剧变会带来更多哲学和心理问题。

举个例子,要实现车辆智能无人驾驶,我们必须将道德规则也编码到驾驶程序中。那假如出现紧急情况,车辆必须为了救行人而危及车内乘客的安全呢?也许并不需要人类程序员解决此类问题,因为 AI 可以编写这段代码,但(我们)却需要人类哲学家来为AI制定道德规则。

同样,理工科专家也无法告诉你AI会如何影响人类心理健康、亲密关系和社会生活。为此你需要历史学家、心理学家和艺术家。看看我们周围的世界——计算机科学家发明了社交媒体算法,但他们不能预见算法对儿童的负面影响。你认为谁最适合帮助改善儿童处境——研究计算机的人,还是研究人类的人?


未来10年,学什么不会失业?|专访《人类简史》作者尤瓦尔·赫拉利
未来10年,学什么不会失业?|专访《人类简史》作者尤瓦尔·赫拉利
Q4
算法也在影响我们的行为。

现在我们习惯于在吃穿用度上都听听算法是怎么评分的,甚至包括亲密关系的潜在对象也可以用软件量化。但反而我们感觉很多事都变难了——高评分的餐馆也可能不好吃,软件匹配到的人也合不来。算法真的提升了效率吗?为什么我们觉得生活越来越无聊了?

A4
赫拉利:

依赖算法来评价一切的做法会带来毁灭性的影响。逐渐地,我们都被迫变成“被动的消费者”,而不是“主动的生产者”。

以亲密关系为例,我可以试着通过算法匹配来找到另一半。如果要这么做,前提一定是假设在世界某处真的存在这样一位真命天子——我只需要找到他或她。这就像一个非常困难的寻宝游戏,地球上有80亿人,我要怎么找?

为了解决这个问题,我把这份工作外包给了算法。我自己不需要做什么,只需要坐下来等待算法大显神通就行了。基于海量数据,算法会为我潜在的对象们打分,让我试试那些最高评分的人。如果我对这些“产品”不满意,我就直接把它丢回架子上,等着算法给我推更好的产品。反正我的灵魂伴侣仍然在世界某处,算法迟早会为我找到他的是不是?

这种态度很可怕,它刺激着我们不断因为微小的瑕疵而拒绝潜在候选人,转而去等待一个完美的人出现——反之它不会鼓励我来改变自己,我只是被动地在接受“伴侣”这项产品。

但我们也可以试试另一种做法——把人类看成亲密关系的创造者,而不是消费者。问题压根不是如何找到完美伴侣,“完美伴侣”是不存在的。真正的问题是,无论算法为我找到谁,我都需要通过自己的努力去建立一段良好的关系。找到爱真正的困难之处不是找到那个难以捉摸的灵魂伴侣,而是每天努力去与身边真实存在的人建立关系,并努力改变自己的行为和思维模式里的问题。这项工作,我不能指望任何算法来替我完成。

Q5
很多人都在担心AI取代我们的工作,也有一部分人觉得无须担心,至少10年内AI还无法理解人类的创造力和共情能力。

对此你怎么看?如果要为即将到来的人工智能时代做技能和知识储备,又或者说心理准备,你会给Z时代年轻人怎样的建议?

A5
赫拉利:

诚然,AI将会改变就业市场,但我们很难准确预测哪些工作会发生变化或消失。在这个问题上,直觉判断可能会带来误导。

例如,我们通常认为医生比护士更重要,至少从薪水和社会地位来看是的。但人工智能可能更容易取代医生而不是护士。为什么?许多医生的工作主要是分析数据,他收到大量关于我的症状和病史的数据,他们分析数据、诊断疾病,并推荐治疗方案。这种数据分析恰恰是人工智能的优势,它们马上就能比人类做得更好。

但护士的工作就不仅是分析数据了,他们还需要良好的动手能力和社交技能来换绷带、给哭泣的孩子注射疫苗。这都是更难自动化的事情。因此,人工智能医生可能会出现得比机器人护士快。

因此,如果要给年轻人一些建议,最安全的做法是去更广泛地学习技能,而不是专注于某种垂类技能,比如编程。他们应该提升动手能力、发挥同理心,就像过去锻炼智力一样,运动技能和社交技能同样重要。当然最重要的就是——能够在一生中不断学习和改变。要在21世纪蓬勃发展,你需要一个非常灵活的头脑。

那么如何培养一个灵活的头脑呢?你要先了解你的头脑是如何工作的。你的思维和感情来自哪里?为什么你喜欢某些事物而讨厌其他事物?是什么塑造了你的恐惧和欲望?有些人会通过冥想来探索这些问题,还有的通过心理治疗、艺术或运动解决。无论哪种方法适合你,你都要在上面投入时间和精力。了解自己的头脑是你能给自己的最好的礼物。

Q6
“人工智能不必发展出意识也能做决策,威胁到人类文明”,根据目前AI发展的态势,最先受到冲击的会是哪些行业领域?你觉得未来5年(以现在的发展速度来说10年都有点太久了),人类世界的秩序会迎来怎样重大的改变?

A6
赫拉利:

人工智能对世界秩序的威胁很好理解,例如某个暴君用AI控制他国的核武器,或者恐怖分子指示AI制造新的流行病。再想象一下对金融界,对于AI来说,金融是它们理想的游乐场——这是一个纯粹的信息和数学领域。人工智能仍然很难自主驾驶汽车,因为这需要在混乱的物理世界中移动交互。你很难在物理世界定义什么是“成功”,但在数字世界里,数学是很容易界定“成功的”,用AI处理贸易,更多的美元就等于任务完成。

假设一家投资基金会分配给AI一项任务,让其赚取尽可能多的美元,人工智能不仅能制定新的投资战略,甚至还可能开发出完全超越人类理解的全新金融工具。

或许几年来一切都很美好,AI发明的新金融工具导致市场飙升,投资者赚取了数万亿美元,可再然后,如果出现了比2008年金融危机更大的崩盘该怎么解决?人工智能创造的金融工具就是一个黑匣子,就算事实证明它存在危险的缺陷,人类也没有办法监管它,因为金融学家和政客都不懂它的运行原理。


未来10年,学什么不会失业?|专访《人类简史》作者尤瓦尔·赫拉利
未来10年,学什么不会失业?|专访《人类简史》作者尤瓦尔·赫拉利
Q7
社交媒体会重复放大那些人类社会的错误,更令人忧心的是我们很难察觉哪些判断是由算法决定的。

比如重男轻女思想和“白幼瘦审美”,其实很多人在抵制,但这些抵制的声音不会传递到支持它的人们的手机中去。那么,想要自己保持开放的思想和自我修正机制,我们应该怎么做?

A7
赫拉利:

正如前文所述,最重要的是更好地了解我们自己的思想,因为算法会利用我们自身的弱点来对付我们。操纵性算法不能无中生有地制造贪婪与仇恨,它们需要发现你内心已有的渴望和仇恨,才能按下你情绪的按钮,操控你完成他想做的事。

自古以来,智者们一再建议人们要先“知己”。然而,在佛陀和孔子的时代还没有这么大的压力。如果你不想了解自己,对于其他人来说,你依然是一个黑匣子,没人能猜透你。但现在情况不同了——当你阅读这些文字时,各大公司和机构的算法都在努力解读你这个人。如果算法比你还要更了解你自己,他们就可以轻松地操纵你。所以,这个时代要求我们必须努力去“知己”。

Q8
《人类简史》中你提到人类文明“分久必合才是不变的大趋势”。那么在人工智能登上历史舞台后,这个结论依然不变吗?

可我们为什么会觉得在后疫情时代,人们似乎越来越无法理解他人的话语了?尤其是那些和自己不同的人。

A8
赫拉利:

确实很不幸,当下我们看到全球合作在减少,国际紧张局势升级。这非常危险,因为任何一个国家,无论多么强大,都无法单凭自身来阻止生态环境崩溃、避免第三次世界大战,或者规范人工智能。如果各国不能就这些问题找到合作方式,人类将会毁灭。

尽管如此,一些政客反对全球合作,因为他们认为这是“反爱国主义”。这是一个危险的错误——爱国主义与全球主义并没有矛盾,爱国主义并不意味着仇视外国人。爱国主义需要热爱你的同胞,但确保你同胞的安全和繁荣是需要与其他国家合作的。就像环境和人工智能的问题,善于全球合作就是一种爱国的行为。

Q9
坦白说,作为内容从业者我们也深深感觉越来越难做。阅读量高的文章和真正有价值的文章往往是两回事,但往往是阅读量高的文章才会正向反馈在我们的工资上。作为信息的加工生产者,媒体又该怎样应对这场和算法的战争?

A9
赫拉利:

首先我们应该时刻保持责任感。媒体生产和发布的信息就像播种在数百万人心中的种子,如果我们在数百万人心中播下贪婪、仇恨或无知,将会在极大范围内造成痛苦。其次,我们不应对算法机制感到绝望——这并不是我们在对抗算法的尝试中失败了,而是因为我们根本还没有尝试过。

汽车行业是个很好的对比项。每个人都认同,当一个公司生产汽车时,他们必须投入大量预算和精力来保证安全,现在也有许多规定来限制汽车的行驶方式。但当公司开发算法时,他们几乎不投入任何资源来保证赛博世界的安全,也没有什么规定限制算法在世界的运行。这是非常危险的,因为算法比汽车强大得多,它可以造成更多生理和心理上的损害。

因此,我们应该将对待汽车的原则也应用于算法上,人工智能公司应该至少将其预算的20%投入安全研究,而人工智能也必须像汽车一样遵守人类世界的规则,媒体应当鼓励公众和政府支持这些政策。

相关栏目:『创业就业
人才招聘 | 十大工科学院,200+教职岗位!南京大学苏州校区以诚相邀! 2024-11-16 [26]
【CSSA X Tripalink招聘会】校友助力留美新机遇!美国地产科技公司等你加入 2024-11-16 [23]
America is educating a nation of investors 美国财经济素养教育 2024-10-10 [729]
这样写才是有效推荐信! 2024-10-09 [773]
查理芒格:真正成功的人,一生只专注做5件事,远离物欲,空色 2024-10-06 [780]
AI时代来临的6种稀缺能力,未来拥有这些能力,不会被淘汰 2024-09-25 [796]
未来怎么学好就业?文科生不再吃香?《人类简史》作者最新观点 2024-09-26 [734]
张雪峰:本科已严重饱和的五个专业,1、临床医学,2、法学,3、计算机…考研是唯一出路! 2024-09-22 [845]
留服认证越来越难办了?新国立、南洋理工都被卡 2024-09-19 [850]
留学学术简历CV如何撰写? 2024-09-12 [629]
相关栏目更多文章
最新图文:
:天安门广场喜迎“十一”花团锦簇的美丽景象 马亮:做院长就能够发更多论文?论文发表是不是一场“权力的游戏”? :印裔人才在美碾压华裔:我们可以从印度教育中学到什么? :北京452万人将从北京迁至雄安(附部分央企名单) :《2019全球肿瘤趋势报告》 :阿尔茨海默病预防与干预核心讯息图解 :引力波天文台或有助搜寻暗物质粒子 :Sail Through the Mist - SoCal Innovation Forum 2019(10/5)
更多最新图文
更多《即时通讯》>>
 
打印本文章
 
您的名字:
电子邮件:
留言内容:
注意: 留言内容不要超过4000字,否则会被截断。
未 审 核:  是
  
关于我们联系我们申请加入后台管理设为主页加入收藏
美国华裔教授专家网版权所有,谢绝拷贝。如欲选登或发表,请与美国华裔教授专家网联系。
Copyright © 2024 ScholarsUpdate.com. All Rights Reserved.