您确定要删除吗?

取消
首页 算法大全 应用模型 分析软件 算法学院数据中心 关于本站
在线咨询
400-820-6981
意见反馈
返回顶部

五个你们想问的人工智能问题

发布时间:2017-07-21

为什么要建立人工智能的知识体系?

必须明确的是,关于人工智能所有的衍生物、技术、商业,最终会落实到人工智能的本质。看一个产业的发展时,如果没有体系架构,只从解决问题角度来考虑,就会陷入一叶障目的窘境。

知道了人工智能的定义,就容易判断人工智能的边界在哪里、判断与人工智能相关的每一件事。反之,如果我们对人工智能的边界还非常模糊的话,不论是看产业还是社会经济,甚至就连看围棋大战都会一头雾水。

      什么是人工智能?

我把人工智能的几种定义分成四个象限。上面两个象限属于仿生学,下面两个属于实用主义。

机理相似论

第一个象限认为,人工智能就是和人脑工作机理非常相似的程序,人脑怎么工作,程序就怎么工作;我们称之为机理相似派。围绕“深度学习和人脑机理是否能关联在一起”的争论有很多,也是一个有趣的话题。

我们现在不评判它的对错,但要小心,总有人把人脑的机理过分夸大。现实情况是,我们对人脑的了解太少了,目前的脑科学研究和人工智能研究,其实还是非常不同的路径。

思维逻辑模仿论

第二个象限是指模仿人的思维逻辑。它的基本思想是:只要人工智能的思考过程和人一样,不就非常像人了吗?

人类从古希腊开始就研究自己的思维方式,到现代发展出高度抽象的数理逻辑。人工智能刚刚兴起时的符号语义学派,就希望把人的思维方式教给机器。程序员和领域专家配合,把专家头脑里的知识、逻辑代码化,构建成庞大的知识库。但是,把人类大脑里的知识用形式语义表示出来非常困难,而且没有通用性。所以这种专家系统虽然在各自的领域里走了很远,但都没有太大成果。

“好猫”论

从实用主义出发,出现了另外两种收获颇丰的思路。

第三个象限主张“不管什么样的猫,只要抓住老鼠就是好猫”;不管是符合人类的思维逻辑还是思考机理,只要做好事情,那就是好程序。这个思路造成我们今天把许多不同思路、不同算法的程序,通通叫做人工智能。比如,大家几乎都同意,1997年的深蓝和2016年的AlphaGo都是人工智能。实际上深蓝和AlphaGo使用的算法几乎是天壤之别,可是从结果上看,它们都战胜了人类棋王,那就都是“好猫”。

行为近似论

“好猫”论着重结果,而第四个象限认为:如果机器能够在行为上和人类的行为近似,不必在乎思维逻辑和实践机理,就可以叫做人工智能。

这种观点也有很多悖论。比如,日本有一种跳舞机器人,它唯一的能力就是保持平衡,其能力和人类非常近似,算不算人工智能?它与同样会保持平衡的平衡车有什么本质区别呢?再比如,人类的一个重要行为就是学习,如果一台机器也可以用某种方法学习,那它是人工智能吗?它和在学习中长大的人类小朋友有本质区别吗?

在以上四个象限里,当你考察重点不一样的时候,划定人工智能的范围会非常不同。

一个例子说清什么是机器学习

计算机有很多算法,哪些是机器学习,哪些不是?以搜索引擎为例。如果你的查询内容里出现了五个词A、B、C、D、E,有这样几种搜索方法。

A 和查询到的结果 A 完全匹配,这是非常基本的索引技术。 B 和 B’ 就涉及到词根规范化的问题。它们虽然形式不完全一样,但是我们认为它们是一个词,例如汉字的“十”和罗马数字“X”。把 B 和 B’ 通过简单的映射、转换或算法关联起来,这也是一种非常基本的技术。

如果查询里面出现的是A、B、C、D、E,而你的文档里出现了X、Y,这两者一定有关吗?工程师也不知道。有关还是无关,我们可以通过一些更为复杂的方式来知道,这个方式就是机器学习。机器学习的是每一个词在高维空间里的表征值:当我们把A、B、C、D、E、X、Y映射到高维空间里,如果高维空间里的点 X 和 A 有一定的相近性,虽然表面上它们完全不同,我们还是会把 X 和 A 看作紧密关联。

一句话说,机器学习就是一个试图在现实空间里面做数学建模的过程。

为什么人工智能的核心是机器学习和深度学习?

大家都知道,机器学习是今天人工智能的重要内容,深度学习又是机器学习的重要内容。实际上,除了机器学习和深度学习之外,人工智能还有很多其他东西。但我们为什么谈它们最多呢?因为它们最有用。

机器如何学习?例如,样本空间中有一些北京房价的数据点,计算机用一条曲线拟合之后,就能掌握房价变化的规律。现实世界的情况十分复杂,很少能直接进行线性拟合,而要通过特征工程简化数据分布特征、选择更复杂的拟合方法等手段来描述空间里样本数据点的分布情况。

我们认为深度学习好,也正是因为它在这两个方面都展示出了无与伦比的强大能力,既可以在样本数据的特征工程方面得出更好的特征分布,也可以用非常复杂的函数拟合空间中的样本点。

人工智能的技术边界在哪里?

机器学习走过了一个从简单到复杂的建模过程。建模的复杂程度是否会达到质变?从今天的任何一种人工智能技术来看,我们都无法预测。换句话说,我们没有任何科学证据表明五十年、一百年后的人工智能具有和人类一样的智慧,甚至超越、统治人类。相反,我们却能清楚地认识到今天的人工智能不能做什么:它缺乏人类的抽象能力,缺乏知其然并知其所以然的能力,缺乏常识。


还有哪些机器学习的方法?

深度学习并不完美,许多前沿技术应运而出。迁移学习可以把已学习到的东西迁移到新领域里去,用以往的经验来解决新问题。例如在虚拟环境中模拟现实中不太可能出现的路况,再让机器人迁移到实际道路中。可惜,现在迁移学习的使用范围还非常有限。强化学习是把机器放在环境中,让它接受环境的刺激和反馈,根据环境对它的打分更新模型。强化学习在人机对弈、自动驾驶、自动助理等领域都有非常有趣的应用。

再举一个更时髦的例子,现在许多人喜欢看直播。传统的新闻或视频推荐方法考虑的是静态内容,但是直播内容是动态的。静态推荐的结果是越火越推荐,所以头部主播往往人气最高,那些尾部主播即便非常出色,也很难被所有的人看到。

假如有一个粉丝200人的长尾主播,某次直播造成了粉丝内部小轰动,能不能把这个情况快速反馈到整个推荐系统里去,让更多人看到她的优质内容?这时候强化学习是一种候选解决方案。

生成对抗网络是非常前沿的新技术。它其实是强化学习思路的延伸:为了让计算机的表现越来越好,就用一个判定机给每次生成的结果打分,生成机根据这些分数调整模型。这个思路是在训练中完成的,所以称为生成对抗网络。生成对抗网络已经有了一些扎实的商业应用,比如反欺诈。新的欺诈方式总是不断出现,我们能不能提前猜测它的样子呢?这就是生成对抗网络可以研究的。再比如,现在的购物网站推荐的都是我们已经购买的或关联紧密的商品,比如买电视推荐电视柜。可是用户真正需要什么呢?我买了电视,已经装修了客厅,那我的卧室是不是需要点什么?生成对抗网络有希望做到这点。

总之,完全用计算机生成一些从未见过的组合,这就是生成对抗网络的用武之地。