AI会让谁失业?
![]() 最近在读《AI极简经济学》,除了翻译得读着很痛苦,确实是本好书。国内的翻译作品给译者的报酬实在是太低了,也难保出现大量的谷歌翻译式的作品。 这本书核心解释了一件事情:人工智能的预测,与经济学之间的关系。因为当人工智能的预测效果与成本都足够可控,那很快就会进入寻常百姓家、渗透进我们的衣食住行。 读的过程中我在即刻发了一个消息: ![]() 不少朋友留言表示比较疑惑,到底什么算替代品、什么算互补品?到底哪些会被取代?哪些比较安全?确实怪我直接引用了本就翻译略差的原文。 我过去也跟AI算是有一些接触。我读研的实验室是哈工大信息检索实验室(已改名哈工大社会计算与信息检索研究中心),做过一些机器翻译和机器学习的项目,身边的同学毕业也大都去做算法研究或算法工程了。 所以今天就基于这个问题,结合我过去的经验,跟你分享下我的想法。 1。 常见的AI都是如何运转的 现阶段大部分优异的人工智能,都是绝佳的模仿者,而非思考者。从AlphaGo,到AlphaStar,都是学习了无数人类的操作才变得这么厉害的,而人类为什么要如此操作,它们全然不知。 ![]() 要解释AI的运转逻辑,机器翻译就是很典型的课题。 早在计算机出现之前,就有苏联科学家提出了基础的构想,在ENIAC之后,IBM为首的企业也参与进机器翻译的研究中。不少学者都期待,能够出现一个像科幻片里那种实时翻译器一样的工具,全球各族人民肯定能够更加团结,这必然是划时代的发明。 翻译这件事,乍一看好像没有太难。一个事物,在绝大多数语言中,都有对应的词汇,“妈妈”对应“mother”,“桌子”对应“desk”,可以建立对应关系;语言学也有了成熟的体系,语言的语法规则特点做拆解后,变成有效的算法策略,岂不应该是水到渠成的吗。 可是事与愿违,机器翻译却直到20年前才算有长足的进步。为什么呢? 因为基于规则的机器翻译太难了,同一个词语,在不同的情景下,含义全然不同。 比如: ![]() 大量的俚语和用词习惯都是在人类实际使用语言的过程中毫无规律地出现的,用规则方式解读,几乎没有可能。 无数语言学家和计算机科学家探索了几十年,都没有做出一个哪怕看起来勉强可用的翻译器。 而在规则机器翻译流派之外,49年就有科学家提出了统计机器翻译的理念,认为是否可以用“猜”的方式去做翻译。也就是说,机器不关心“意思”到底是什么含义,而是看“不好意思”和“是我不好意思”同时出现的时候,大概率会对应哪个英文短语。 可以想象机器是一个学舌的鹦鹉,左边站着一个中国人,右边站着一个美国人,他们每次说同样含义的话。鹦鹉就会疯狂学习和记忆他们的说话内容,等到再有第三个人来跟它讲话,它就把记忆中最高频的同时出现的句子或者短语讲出来就好了。 这个方法在早期没有特别受重视,因为效果跟规则机器翻译比也好不到哪去。机器翻译的发展,一直在基于规则的路上,每年提升零点几个点的速度前进。 2005年,机器翻译突然有匹黑马出现。NIST的年度机器翻译评测里,Google一跃成为冠军,而且比第二名要超出5%,引起了轰动。 ![]() 这是划时代的一幕。究其原因,说来也简单,Google有两个武器:做搜索引擎积累下的海量语言数据库,以及互联网大公司才有的分布式计算能力。前者让统计机器翻译的数据更全面,后者让模型可以变得非常庞大复杂。 此后,机器翻译就走上了统计之路。在2016年,Google发布了基于神经网络的更强大的翻译系统,始终是机器翻译的领军角色。直到现在,各位手里用到的机器翻译工具,也全部都是基于统计原理设计的。 想必说到这里,绝大多数AI的原理也就容易理解了。它们全都是出色的鹦鹉,在模仿学习人处理事物的行为,做出准确的复现或者预测。 2。 现在的AI做不好什么 绝大多数AI都是基于统计的,训练出一个“出色的鹦鹉”,是要靠反复的、海量的输入。AlphaGo要输入无数的棋谱,AlphaStar要输入无数的游戏录像。 当然,现在的机器学习尤其深度学习,已经能够让鹦鹉变得略聪明一些,不只是学舌,还知道总结部分方法和规律,来验证新的内容。像人脸识别系统,就可以对一张全新的脸,做有效的识别模型。但它依然不知道本质的原理,这也是基于统计似乎很难走到的终点。 在这样的背景下,输入的数据是影响AI质量最重要的点。最优秀的AI大都在互联网公司和政府手里,他们拥有最全面的数据输入;而不是研究规则和理论为主的学界。 这样看,AI存在的瓶颈有这样几种。 首先,输入不足的事物AI就很难预测。 有的事情属于迭代太慢。 像美国总统大选,每4年才举行一次,每次的影响因素又太多,拿到的“训练集”实在太少,就根本无法预测。 还有的事情是输入几乎不可能完备,或者以现今技术根本做不到。 像“女朋友生气了到底是为什么”就是输入几乎不可能完备的预测。因为人的心理变化涉及的因素太多,有可能就是女朋友看到朋友圈你为别人点了个赞,又联想到了上次你没有给她买生日礼物,再想到你给前任买的礼物特别贵… …衍生出一系列的结果,你压根都无从推理。在这种缺乏输入的判断上,人和机器一样无能。 其次,AI只能学会教给它的东西,不会学习新的,除非你再教给它。 比如,之前特斯拉的无人驾驶系统出了误判,就是把卡车上的蓝白色车身当做了蓝天白云。人工智能没有结合周边更多显而易见的场景来推测这是个卡车——因为系统里没有这些输入。总之,看到车身颜色就按照统计概率看认为是蓝天白云,才做出了误判。 (编辑:顺游网_765游戏网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |