【文/观察者网专栏作者 陈经】
近期,OpenAI开发并发布了一款新型自然语言处理(NLP)聊天机器人工具——ChatGPT。它被广泛视作未来人工智能在用户体验方面的领先者,备受世界瞩目。人们关心,ChatGPT可能对就业市场产生怎样的影响?
一方面,在许多岗位上,ChatGPT有望取代人类。例如,以往在营销领域,营销部门需要依靠客服代表与现有和潜在的客户进行沟通、解决问题、推广产品,以达成销售目标。但是,随着ChatGPT出现,机器可以更加自动化地完成客户服务等日常交易:通过自然语言理解、推断和应答,它可以执行几乎所有客户服务活动,包括提出问题、提供建议和解决问题,而这些曾经都是客服代表的职责。因此,未来ChatGPT可能取代客服代表这一职位,使一些人失去工作。
另一方面,ChatGPT也会为许多其他行业创造工作机会。例如,ChatGPT也可能给消费者带来更好的用户体验,根据消费者的实际意图提供准确的产品信息和服务,从而更有效地实现销售目标。因此,它也可以为许多公司和机构创造数据分析师、客户服务专员等新的岗位。毕竟,机器只是自动化的工具,而真正的商业成功和创新还需依赖具有创造力和独特思维能力的人类团队。
说了多少年“AI将取代人的工作”,这一次,“狼”是真的来了。可以断定,从客服代表到新闻写稿,许多人的工作可能被机器取代。如果你还无动于衷,事实上,本文开头四段就是笔者让ChatGPT写的。
ChatGPT的特性与原理
当然,由于ChatGPT的中文版本训练较少,它还没有学会我的语言风格。但正如许多西方作者所发现的,只要有足够多的样本,风格化的写作不是问题。
笔者让ChatGPT以“波动的市场”为主题,写一首许巍风格的歌词。它较好地完成了任务。(注:第三方开发者将ChatGPT接入了微信,群聊天转发到OpenAI的服务器给出反馈)
ChatGPT所作歌词(作者供图)
不过,当我让ChatGPT继续介绍OpenAI公司,它的表现证明,我们也无需对人工智能过于担忧——它写道:
OpenAI在相对较短的时间内取得了一些重大成功。2016年,它创建了一个叫AlphaGo的游戏系统,在一场围棋比赛中击败了世界冠军李世石。这一成就尤其值得注意,因为围棋此前被认为过于复杂,计算机无法掌握。
这让笔者不得不停止“白嫖”,自己来写——事实上,AlphaGo与OpenAI毫无关系,而是由其竞争对手Deepmind开发的;另外,在AlphaGo与李世石的棋局中,获胜者实为李世石,笔者2016年发表于观察者网的文章成功预测了这一结局。
由此不难看出ChatGPT的一个典型毛病:理直气壮地编造事实和数据,就像一个信心十足的“大忽悠”。如果不提高警惕,很容易上当。英文版本由于训练数据较多而比中文版本靠谱得多,但即便如此,也有不少人报告说机器撒谎。
无论如何,ChatGPT引发了人们很大的兴趣,不少人都要求入群围观调戏。如何理解这波热潮?
2016年,AlphaGo引爆了史上最大的人工智能热潮,一度到了“与会必谈”的程度。一些社科学者也对人工智能产生了兴趣,对人与智慧机器的关系进行了深入探讨,“机器是否会取代人的工作”一度引发热议。
宣传画中的人形AI(作者供图)
后来,AI热潮逐渐退去,这也正常——AI的确很有用,但这几年间并没有取代多少人的工作。人们逐渐发现,AI并非宣传画中的人形机器,也还不完全具备送快递、自动驾驶等功能,只是能执行人的语音命令,并没有传说中那样神奇。
正如IT开发者早就指出的,虽然AI在所有棋类运动中都战胜了人类,但这并不意味着其具备了足以与人类匹敌的、真正意义上的智慧——棋类运动的本质即较为复杂的计算,因此AI在棋类运动中的胜利表明的无非是其深度学习、强化学习算法的威力。计算器刚发明时曾被视作神奇的产品,能卖上千美元,但随着时间推移也就逐渐“白菜化”了;同理,高水平AI作为更强大的计算功能,也终将被人们习以为常。
如何判断AI究竟有无“智慧”?相关学者对此早有思考,提出了“图灵测试”法则:如果机器能够像真人那样聊天、让人无法分辩,则可视作具有智慧。
但是,关于通过图灵测试的标准,研究者们各执一词,难有定论。例如,有研究者声称裁判无法区分其开发的聊天机器人和13岁小孩,谷歌工程师Blake Lemoine也曾声称聊天机器人LaMDA真的拥有“灵魂”,但上述案例并未得到业界的普遍认可,被视作笑话或炒作。另外,随着机器的表现越来越好,图灵测试的标准也相应地一再升级。
研究者们高度重视图灵测试,希望看到聊天能力强大的机器人——早在数年前,聊天机器人与图灵测试的关系就得到业界广泛关注。近两个月“火出圈”的ChatGPT被业界公认为最有希望通过图灵检验的AI,虽然它并不自称为人类。
聊天机器人的专业名称是“大型语言模型”(LLM, Large Language Model)。主要技术关键是谷歌2017年开始引入的Transformer模型,先是对机器翻译,再自然地到语言模型、聊天机器人。
上一波人工智能突破主要由图像识别领域的“深度学习”(DL,Deep Learning)引领,AlphaGo就是将棋盘当作图像输入。人们一度认为“强化学习”(RL,Reinforcement Learning)以及“对抗生成网络”(GAN,Generative Adversarial Network)很厉害。AlphaGo的升级版本AlphaZero就是用了这两个技术,几个模型反复对抗训练、一起进化,自己生成学习样例,进步非常明显。
GAN还被应用于不少其他有趣的方面,例如,可以用GAN框架做一个生成图片的神经网络和一个判别图片真假的神经网络,两个网络互相对抗、共同改进,最后获得足以以假乱真的图片生成能力,画出大师风格的油画。不少研究者觉得,GAN是多年来人工智能领域最大的突破,应该会是下一个出大成果的方向。
有点意外的是,实际大突破到出圈的却是LLM,这次人工智能热潮就是自然语言处理(NLP,Natural Language Processing)的飞跃进步引发的。
“Transformer模型是一种具有注意力机制的深度学习模型,可以用来解决自然语言处理(NLP)问题。它使用注意力技术来聚焦模型中每个符号的输入序列,从而可以捕捉句子中词语之间的关系,而无需显式地定义特征或构建特征提取器。此外,Transformer模型利用并行化,避免了传统序列模型(如递归神经网络)时需要等待前一步执行结束才能开始新一步的等待时间,提高了计算速度。”
上面这段是ChatGPT介绍的LLM技术关键:Transformer模型(这类常见概念介绍它不忽悠)。意思是说,Transformer训练和计算有利于并行加速,这样可以引入几百亿个参数的大模型。以前的语言模型,如“循环神经网络”(RNN,Recurrent Neural Network),参数不能太多,训练样本也多不了,“需要等待前一步执行结束才能开始新一步”,例如RNN将推理结果当作下一步推理的输入(这就是“循环”)。不方便并行,训练就慢,大模型训练需要的时间太长,没法用。
2015年底,谷歌收购最有可能做出通用人工智能的Deepmind,风险投资家Sam Altman(后来的OpenAI CEO)和马斯克等不少科技圈的人对此不满,于是共同投资成立了OpenAI。和Deepmind一样,OpenAI也开发了游戏AI,据说在Dota2项目上达到了人类水平。但真正取得大突破的还是2020年的语言模型GPT-3(Generative Pre-trained Transformer 3),前面还有GPT-2和GPT-1。
GPT-3的开发思想就是把整个互联网的知识都当成训练素材,做出几百亿个参数的超级大模型,看能训练出什么。语言模型的训练目标很简单,就是把一段话作为输入,“预测”后面最可能出现的词,以此类推,最后输出完整的对话或文章。
GPT-3似乎学会了整个互联网上的所有知识,鉴于许多程序员将代码放到了网上,GPT-3甚至学会了写程序。微软收购的Github开发了Copilot等辅助编程工具,机器编写的代码量占比逐渐上升至30%-40%,以至于程序员们一边使用辅助编程工具,一边默默忧虑自己何时会被AI取代。可以说,GPT-3使整个IT业界为之震撼,不过由于使用门槛相对较高,所以没有“出圈”。
随后,OpenAI在GPT-3的基础上开发出“GPT-3.5”也即ChatGPT,于2022年11月30日上线,并迅速火出了圈。相较于GPT-3,ChatGPT的关键优势在于人工优化——GPT-3肚里有大量干货,但不擅长理解人的对话,需要“懂行”人士的引导才能输出有效内容;OpenAI则经过了大量人工测试,人工对不对劲的反馈进行训练修正,用有点意外的方式解决了问题(业界习气是让机器干活,少搞人工操作)。
经过这一关键优化,聊天机器得以从专业人士才能用的GPT-3,进化成普通人也能欢快聊天的ChatGPT!后面的事大家都知道了:业界内外的大量用户纷纷注册,踊跃“调戏”ChatGPT,月活用户数在短短2个月内轻松突破1亿。作为互联网产品,这是现象级的。事实上,ChatGPT让人们首次意识到,AI也能直接成为互联网产品。
现在,LLM已成为互联网公司新的“必争之地”。微软宣布,Bing搜索引擎、Office套件等全线产品都将引入ChatGPT,对OpenAI增加投资100亿美元(之前投了10亿美元,有优先权)。
谷歌和百度也都计划推出竞品。据彭博社1月30日报道,知情人士透露百度公司计划在3月推出与ChatGPT类似的聊天机器人,并将之嵌入搜索服务。
谷歌更是不得不行动了——员工都让ChatGPT写关于谷歌裁员的诗了,写得很有意思。谷歌对前OpenAI员工2021年创立的公司Anthropic紧急投资4亿美元,后者的聊天机器人Claude有520亿个参数的模型,还在内测,尚未公开。值得注意的是,前OpenAI员工之所以创立Anthropic,就是因为他们认为ChatGPT商业化严重,输出内容的正确性有严重缺陷。
关于谷歌裁员的诗,“作者”为ChatGPT(作者供图)
以上是ChatGPT简略的技术原理和发展历史。其实AI的原理并不难懂(希望一些技术名词没有造成理解困难),主要还是得实际干出来,Show me the code,这就需要海量的技术细节和投资。
Jacob Browning 和Yann LeCun论AI和语言的局限性(作者供图)
为了超越ChatGPT写文章的层次,笔者还想从“AI哲学”层面进行一些深入的探讨。近日,杨立昆作为Meta首席科学家表示,就底层技术而言,ChatGPT不是多了不起的创新,主要是在产品层面设计组合很好,才被视为“革命性产品”。这一态度在很大程度上基于其AI哲学观——早在ChatGPT上线之前,图灵奖得主杨立昆(Yann LeCun)和研究AI哲学的Jacob Browning就在Noema杂志上发表文章,指出了AI语言模型的重大缺陷:
“这些系统只会有浅层理解,永远不会有人类的完全理解能力”
“放弃所有知识都是语言学的观点,让我们意识到知识中有多少是非语言的”
“只由语言素材训练的系统永远都不会接近人类智能,即使它训练到宇宙毁灭都不行”
杨立昆说的是什么意思?其实和ChatGPT聊一阵子就明白了。笔者的感觉是,机器“查找资料、泛泛聊天”能力已经超过了所有人类。但是,如果将聊天的标准上升,考察真正的智慧,那么ChatGPT将很快露出破绽,其后续版本(如将知识引擎从GPT-3升级到GPT-4)也难以解决这个问题。
再往深里说,这涉及哲学层面的语言之思。海德格尔怀疑,我们也许并不能从日常语言经验中获得获得本质洞见,而毋宁只能获得一种虚假的可理解性。随着计算机的发展,人们愈发深刻地认识到,语言不能直接等价于知识,知识还需要人的感官与情感作为支撑。
哲学性地说,人类在以语言表述知识时,有两种状态:一种是真正的智慧,也就是在对知识融会贯通、彻底理解之后,做出有条理、经得起盘问的表述;另一种是“人云亦云”,也就是不假思索地复述他人的说法。例如,对“中国2022年GDP是121万亿元”这一知识,绝大多数人只是能以不同形式复述这句话,但对于GDP这个名词的理解都是糊涂的、经不起盘问的,整个体系的相关知识接近于零。
表面上看,ChatGPT能回答中国GDP增长的问题。然而,笔者经过测试,可以肯定地说,ChatGPT并不理解GDP知识体系,会出一堆莫名其妙的问题。也就是说,最有水平的聊天机器人也只是“人云亦云”,没有体现人类深层理解的智慧水平。
ChatGPT与作者关于中国GDP的对话(作者供图)
这并不出人意料,因为ChatGPT只是一个语言模型,而不是知识体系。它只是在重复一个任务,“预测”下面应该说的一个词,不可能对整个知识体系产生飞跃性的理解。有时人们觉得它理解了,甚至理解得还挺深,但那只是因为它找到了合适的“参考资料”并对其做了灵活的组合。
ChatGPT学得太多了,因此乍看显得理解了人类的知识,而且聊起天来派头十足、很有信心,一副人类的“架势”。但是,这个特点也可能是大缺陷——在没有相关数据和事实时,它会煞有介事地编造,如果人们没有相关知识,就很容易被蒙骗。
沃顿商学院教授让ChatGPT做课程考题,最简单的第1题答得不错(作者供图)
例如,有新闻报道夸张地声称,ChatGPT通过了法律学和商学院课程考试的事,但事实上,它只是以C+或者B-的成绩勉强通过了明尼苏达大学法学院以及沃顿法学院的几门课程考试——只有简单题答得不错,一旦题目稍有分析难度,ChatGPT就不知所措了,即便勉强蒙对答案,答题逻辑也明显不对,成绩在全班垫底。
个人以为,从AI哲学的层面而言,ChatGPT的情况与AlphaGo差不多。但是,从对实际生活的影响而言,ChatGPT具有显著的优势,不能用杨立昆的高标准去贬低其意义。
AlphaGo证明人类在围棋方面不是机器的对手,但是机器也不理解自己在干什么。正确的应用方式是,人们利用围棋AI,对高明或有漏洞的招法做解读和分析,以此促进棋手对围棋的理解和棋艺的进步。换言之,棋类运动的中心还是人类棋手,AI不需要理解围棋,只要能为人类棋手提供帮助即可。对此,有人欢喜有人愁,但无可否认的是,AlphaGo使人们的围棋观发生了革命性、颠覆性的改变。
同理,杨立昆基于其AI哲学而低估ChatGPT的革命性意义的做法是不对的。ChatGPT等LLM聊天机器人,虽然没有真正的理解而只会人云亦云,但它出色的表现足以引发人类知识体系的大革命。
由Alphago引发的上一波人工智能热潮看似颇为戏剧性,引发了一系列不切实际的恐惧或希望,但实际影响并没有部分新闻报道所宣称的那样强烈——这波热潮主要在图像识别、下棋等专业领域取得突破,受影响很大的只是棋手、停车场收费员等少数人。因此,当时,笔者在与一些社科学者讨论AI的影响时,倾向于对AI“祛魅”、拒绝神化AI。
而这一次由ChatGPT引发的热潮看起来不那么石破天惊,却对社会造成了更大的真实影响。这一次,自然语言处理被机器全面突破,由此引发了两个结果:第一,机器人的聊天交互能力增强,很快大部分人都能接触和使用高水平的聊天机器人了,这是机器影响社会最大的“杀手锏”;第二,以前的机器只擅长某个专门领域,而现在的AI以几千亿个参数囊括了整个互联网的知识,其功能趋向于“通用”。说句悲观的话,很多靠嘴皮、文字等“自然语言处理”谋生的人,能力未必比得上机器。
对于ChatGPT等聊天机器人,哲学上我们仍然要“祛魅”,不鬼扯机器智慧。但是在实际社会经济运行、人们的学习生活中,要对通用聊天机器人的应用前景,展开想象力。
AI画的梵高风格的向日葵星空(作者供图)
AI的一大应用前景是AIGC(AI Generated Content),即“以人工智能技术来生成内容”。目前,AIGC在生成图片方面取得突破:2022年,Stable Diffusion在图片生成方面取得较大进展,可生成质量较高的图片;ChatGPT也可以根据指令生成指定主题的画作。谷歌还开发了视频生成AI和音乐生成AI,但效果还不算太强。
当然,图片、视频和音乐生成影响的都只会是少数行业;大型语言模型的聊天、写作等通用能力才会产生更大的社会影响。所以,对AIGC,应该重点关注大型语言模型。
大型语言模型的极大影响与个人的应对
如果机器能“无所不知”地聊天,它将如何改变人类社会?可以展开想象力。
一个最直接的应用就是搜索。很容易理解,从原理上LLM就比谷歌、百度等基于爬虫的搜索服务更强大:两者都是以整个互联网为素材,把内容“爬”回来,区别在于,后者只能根据关键词把网络链接按相关程度展示出来,还需要人自己去点击察看;而前者能够生成更为高质量、系统性的反馈,很多情况下,LLM可以直接解决问题,即便不能直接解决,也能通过继续对话、深入沟通给出有效知识。
搜索信息的一个大问题是,部分人群搜索能力不佳,不能善用关键词。对于这类人而言,LLM的出现使搜索服务发生了革命性变化。比如,有人想找某类病的权威医院,用谷歌搜索时可能毫无头绪;但用聊天的方式询问ChatGPT时,ChatGPT就直接把几家最好的医院介绍出来了。
另一个大问题是,很多人难以判断搜索信息的有效性。大多数人不是找不到相关内容和数据,而是难以对各种数据和说法的可信度加以甄别,我认为这是正确使用搜索引擎的最大瓶颈。对于这类人而言,ChatGPT可以提供相当好的信息服务,迅速给出看起来比较深入的信息。
当然,诚如杨立昆所言,ChatGPT等聊天AI只能给出“浅层知识”。但是,对绝大多数“不求甚解”的人来说,这些“浅层知识”就已经足够了,大多数人根本不会聊到ChatGPT难以应对的程度;即便对于想要深入探索的人来说,ChatGPT给出的浅层知识也是很好的索引,能够辅助他们自行探索、理解、归纳、总结和创新。
第二个应用是客服应答。传统的客服模式分为机器和人工两种,前者过于死板,要求客户不断按键选择;后者的服务水平相对有限,说话口音未必标准,且对客户的问题不一定有深入理解,必须依靠技术人员。
而现在,随着高水平聊天机器人的出现,客服质量将发生质的飞跃。机器能牢记本领域的全部知识,而且能准确理解客户的问题并提供相关信息。因此许多大中型公司会把ChatGPT的技术应用于应答中心,从而改善服务体验,减少客户抱怨。
这一趋势对于印度、菲律宾等部分发展中国家而言颇为不利。这些国家原本在客服外包行业具有一定优势,而AI的出现使该行业的人力需求锐减。
第三个应用是游戏NPC研发。从前,游戏中的NPC只能与玩家进行固定对话,感觉很僵硬。而现在,游戏《骑马与砍杀2》中的农民NPC以ChatGPT为引擎,学习了游戏背景设定,能灵活地回答用户的问题,玩家体验获得巨大提升。
游戏《骑马与砍杀2》中的NPC(作者供图)
第四个应用是自动编程。现在,AI已经学会了Leetcode等题库里的大部分题目。此外,鉴于大量程序员将代码发在互联网上共享,且代码的有效性通过相关网络社区得到验证,AI也可以直接学习这些整理好的可靠信息。OpenAI还招募了大量编程人员,致力于手把手教ChatGPT编程。
由此,AI的自动编程能力正突飞猛进,很可能取得革命性突破。目前的AI技术已经足以按照指令自动完成相应编程。许多程序员放弃了传统的网络社区,转向ChatGPT辅助学编程——程序员社区StackOverflow流量已下降11%。
AI编程能力的提升将带来诸多重要影响。其中一大负面影响是,IT业界的就业市场可能遭到冲击——程序员发起狠来连自己都打!根据业界共识,程序员分为两类:第一类是高水平程序员,可以完成主要的架构搭建、开发流程及核心算法;另一类是水平一般的程序员,他们的学历和能力并不强,只是由于写的代码能复制,显得效率高,被行业风口和精英翘楚带着飞,才获得了不错的收入。
现在,第二类程序员的好日子快要结束了。业界发现,这类程序员可替代性高,还容易出问题、拖进度,如果把他们的工作交给ChatGPT,工作效率将获得难以想象的提升,同时成本还将大幅下降。所以,水平不高的初级“码农”如果还想靠手头这点专业水平吃饭,真的危险了。
印度等国家可能会在这一波业界变革中遭到严重打击。印度等发展中国家的一大重要优势是程序开发外包——客户将需求按外包格式写出来,由工资与水平都不高的发展中国家程序员写代码。但随着技术发展,程序外包工作很可能被AI取代。
不过,机器编程能力也能带来一些积极影响,例如以“AI+”的形式为各行各业“赋能”。我们之前一直在说“AI+”,希望以人工智能改造所有行业,但这个理念很难实现——一方面,IT从业者与其他行业的业务人员不了解彼此的工作内容;另一方面,IT人才的数量和精力也是有限的,难以满足“AI+”的需求,这使“AI+”遭遇了很大阻碍。
而现在,随着机器自动编程能力的增强,项目开发周期可能大幅缩减,高级人才可以减轻代码工作负担,将精力放到核心环节。行业公司也有可能在机器帮助下,快速上手搞起IT与AI+,进行流程改造,产业升级。
第五个应用是让AI完成音乐、绘画和写作方面的工作。比如,未来,我们也许只要对AI下一个命令,就能听到许巍的“新歌”;大量重复的文秘工作、邮件报告、会议记录也可以交给AI来完成——微软的Teams会议系统已经引入ChatGPT辅助写报告了。
这样一来,人力将得到极大的解放。有时人类并不是没有好想法,而是没有时间、没有人力去实现。如果AIGC出现了实质突破,人们只用提供创意,学会让机器干活,让机器完成繁琐的内容输出工作,那可能会是思想大解放的意义。比如,科研人员可以省出大量时间做科研,写论文时只负责提供创意,其他部分让机器填补;政府工作人员也不必再为大量公文耗费时间,可以做出更多实事。
科研界的面貌可能随之发生改变。ChatGPT促使人们反思,到底什么才是有效科研活动?,如果人类写出的论文水平还不如机器,还有没有必要存在?
AI也将使教育行业变得“面目全非”。从“学”的角度而言,现在,ChatGPT已经可以完成难度不高的哲学、文学小作文,也可以解决部分理工科题目,一些大学已经颁布规定禁止学生用ChatGPT写作业。机器既可能帮助人们学习,也可能让人们放弃学习。
从“教”的角度而言,未来,也许交互能力极强、无所不知、耐心无限、因材施教的教育机器将取代传统的教师。这将使人类的学习效率得到革命性的提高。更重要的是,在教育机器武装下,师资力量的差异不再重要,所有学生都将拥有同等的学习机会,人类教育平等的时代或将很快到来。
那么,人类如何面对这样的变化,如何趋利避害?我们应了解“AI哲学”,正确认识机器的能力和局限性,从而更好地适应它、使用它。
ChatGPT说(原创不一定是它):AI will not replace you . A person who’s using AI will replace you. (AI不会代替你,一个使用AI的人会代替你)
这句话确实是智能机器时代的“金句”。如果人有核心能力,能够学习使用AI,就会发现自己能力得到了放大,会更适应时代,还能解放创意,机会无限。如果不会用AI,固守自己所谓的人类“能力”,那么很可能别人会开发出AI使用办法,高效率完成取代你的工作。
根据“AI哲学”,大型语言模型只有浅层理解能力。所以,如果我们有真正“深层”的知识,就不用担心被机器取代。但是,我们要切记,机器会不断进步,因此我们不能固步自封,必须不断学习、思考和进步,才能在机器智能时代获得立身之本。
笔者要强调的是,人类的一大核心能力是辨别真假。机器将用无穷无尽的语言证明,所谓的逻辑是可以被操纵的,没有分辩能力的人,就真还不如机器。如果你能判断机器在某个领域是“业余”的,数据是错的,概念和逻辑是在忽悠,那么恭喜,你是比机器知识水平强的人类。希望在机器进步之后,仍然能找到它的漏洞。
机器也会将有追求的人逼上发展创意的道路。原理上,大型语言模型只会模仿,唯有人类才能给世界添加真正的知识。我们可以利用机器提供的信息和帮助,总结、观察、创新输出有意义的内容,这是机器做不到的。
讽刺的是,最不可能被机器取代的似乎恰恰是蓝领工作。早期的各种机器旨在取代蓝领的体力活。但是,现在看来,基于大型语言模型的智能机器做不了体力劳动;波士顿动力做出的机器人和机器狗虽然能做体力劳动,但离蓝领工人的水平还是差太远。人类百万年进化而来的灵巧双手、优越运动能力,结合智慧的大脑、会沟通的嘴,没那么容易被机器战胜。
相较之下,反而是白领工作更容易被取代——价格低廉、不需休息、能力不断提升的智能机器将横扫白领职场。也许,大量白领需要考虑学习一些蓝领技能。
本文系观察者网独家稿件,文章内容纯属作者个人观点,不代表平台观点,未经授权,不得转载,否则将追究法律责任。关注观察者网微信guanchacn,每日阅读趣味文章。