李开复AI五讲|今天的人工智能还不能做的7件事 您所在的位置:网站首页 旅游不能做的事情 李开复AI五讲|今天的人工智能还不能做的7件事

李开复AI五讲|今天的人工智能还不能做的7件事

2024-05-22 04:46| 来源: 网络整理| 查看: 265

编者按:从惊呼“人工智能来了”到察觉“人工智能无处不在”,人类社会才走过寥寥数年。在提出建设国家人工智能高地的上海,许多率先试水的应用在各行各业写下了“AI+”的故事。此时此刻,我们更加要冷静地思考自身与人工智能的关系。我们真的知道什么是人工智能吗?我们真的准备好与人工智能共同发展了吗?我们该如何规划人工智能时代的未来生活?

本月底,2019世界人工智能大会将在黄浦江畔揭开序幕。澎湃新闻特邀李开复、王咏刚将著作《人工智能》精编为系列短文,试析与AI相关的若干关键问题。

AI只是人类的工具。弱人工智能在很多领域表现出色,但这并不意味着人工智能已无所不能。用人类对“智能”定义的普遍理解和一般性的关于强人工智能的标准去衡量,今天的AI至少在以下七个领城还“稚嫩”得很。

跨领域推理

人和今天的AI相比,有一个明显的智慧优势,就是举一反三、触类旁通的能力。

很多人从孩提时代起,就已经建立了一种强大的思维能力——跨领域联想和类比。三四岁的小孩就会说“太阳像火炉子一样热”“兔子跑得飞快”,更不用提东晋才女谢道韫看见白雪纷纷,随口说出“未若柳絮因风起”的千古佳话了。

以今天的技术发展水平,如果不是程序开发者专门用某种属性将不同领域关联起来,计算机自己是很难总结出“雪花”与“柳絮”,“跑”与“飞”之间的相似性的。

人类强大的跨领域联想、类比能力是跨领域推理的基础。侦探小说中的福尔摩斯可以从嫌疑人的一顶帽子中遗留的发屑、沾染的灰尘,推理出嫌疑人的生活习惯,甚至家庭、婚姻状况。

赢得德州扑克人机大战的人工智能程序在辅助决策方面有不错的潜力,但与一次成功的商务谈判所需的人类智慧相比,还是太初级了。

今天,一种名叫“迁移学习”(Transfer Learning)的技术正吸引越来越多研究者的目光。这种学习技术的基本思路就是将计算机在一个领城取得的经验,通过某种形式的变换,迁移到计算机并不熟悉的另一个领域。

比如,计算机通过大数据的训练,已经可以在淘宝商城的用户评论里,识别出买家的哪些话是在夸奖一个商品好,哪些话是在抱怨一个商品差,那么,这样的经验能不能被迅速迁移到电影评论领域呢?

迁移学习技术已经取得了一些初步的成果,但这只是计算机在跨领域思考道路上前进的一小步。一个能像福尔摩斯一样,从犯罪现场的蛛丝马迹,抽丝剥茧一般梳理相关线索,通过缜密推理破获案件的人工智能程序将是我们在这个方向上追求的终极目标。

抽象能力

抽象对人类至关重要。漫漫数千年间,数学理论的发展更是将人类的超强抽象能力表现得淋满尽致。最早,人类从计数中归纳出1,2,3,4,5的自然数序列,这可以看作一个非常自然的抽象过程。

人类抽象能力的第一个进步,大概是从理解“0”的概念开始的,用0和非0,来抽象现实世界中的无和有、空和满、静和动………这个进步让人类的抽象能力远远超出了黑猩猩、海豚等动物界中的“最强大脑”。

接下来,发明和使用负数一下子让人类对世界的归纳、表述和认知能力提高到了一个新的层次,人们第一次可以定量描选相反或对称的事物属性,比如温度的正负、水面以上和以下等。

引入小数、分数的意义自不必说,但其中最有标志性的事件,莫过于人类可以正确理解和使用无限小数。比如,对于1=0.99999……这个等式的认识(好多数学

不好的人总是不相信这个等式居然是成立的),标志着人类真正开始用极限的概念来抽象现实世界的相关特性。

计算机所使用的二进制数字、机器指令、程序代码等,其实都是人类对“计算”本身所做的抽象。基于这些抽象,人类成功地研制出如此众多且实用的人工智能技术。

那么,AI能不能自己学会类似的抽象能力呢?就算把要求放低一些,计算机能不能像古人那样,用质朴却不乏创意的“一生二、二生三、三生万物”来抽象世界变化,或者用“白马非马”之类的思辨来探讨具象与抽象间的关系呢?

目前的深度学习技术,几乎都需要大量训练样本来让计算机完成学习过程。可人类,哪怕是小孩子要学习一个新知识时,通常只要两三个样本就可以了。这其中最重要的差别,也许就是抽象能力的不同。

计算机就很难做到这一点,或者说,我们目前还不知道怎么教计算机做到这一点。人工智能界,少样本学习、无监督学习方向的科研工作,目前的进展还很有限。但是,不突破少样本、无监督的学习,我们也许就永远无法实现人类水平的人工智能。

知其然,也知其所以然

目前基于深度学习的人工智能技术,经验的成分比较多,输入大量数据后,机器自动调整参数,完成深度学习模型,在许多领域确实达到了不错的效果,但模型中的参数为什么如此设置,里面蕴含的更深层次的道理等,在很多情况下还较难解释。

人通常追求“知其然,也知其所以然”,但目前的弱人工智能程序,大多都只要结果足够好就行了。

想一想中学时学过的“一轻一重两个铁球同时落地”,如果人类仅满足于知道不同重量的物体下落时加速度相同这一表面现象,那当然可以解决生活、工作中的实际问题,但无法建立起伟大、瑰丽的物理学大厦。

而计算机呢?按照现在机器学习的实践方法,给计算机看一千万次两个铁球同时落地的视频,计算机就能像伽利略、牛顿、爱因斯坦所做的一样,建立起力学理论体系,达到“知其然,也知其所以然”的目标吗?显然不能。

几十年前,计算机就曾帮助人类证明过一些数学问题,比如著名的“地图四色着色问题”,今天的人工智能程序也在学习科学家如何进行量子力学实验。但这与根据实验现象发现物理学定律还不是一个层级的事情。至少,目前我们还看不出计算机有成为数学家、物理学家的可能。

常识

人的常识,是个极其有趣,又往往只可意会、不可言传的东西。

仍拿物理现象来说,懂得力学定律,当然可以用符合逻辑的方式,全面理解这个世界。但人类似乎生来就具有另一种更加神奇的能力,即使不借助逻辑和理论知识,也能完成某些相当成功的决策或推理。

深度学习大师约书亚•本吉奥举例说:“即使两岁孩童也能理解直观的物理过程,比如丢出的物体会下落,人类并不需要有意识地知道任何物理学就能预测这些物理过程。但机器做不到这一点。”

那么,人工智能是不是也能像人类一样,不需要特别学习,就可以具备一些有关世界规律的基本知识,掌握一些不需要复杂思考就特别有效的逻辑规律,并在需要时快速应用呢?

拿自动驾驶来说,计算机是靠学习已知路况积累经验的。当自动驾驶汽车遇到特别棘手、从来没见过的危险时,计算机能不能正确处理呢?也许,这时就需要一些类似常识的东西,比如设计出某种方法,让计算机知道,在危险来临时首先要确保乘车人与行人的安全,路况过于极端时可安全减速并靠边停车,等等。

自我意识

显然,今天的弱人工智能远未达到具备自我意识的地步。至今,我们在自己的宇宙中,只发现了人类这一种具有自我意识的生物。茫茫宇宙,尚无法找到如《三体》中所述的外星智慧的痕迹。这一不合常理的现象就是著名的费米悖论。科幻小说《三体》用黑暗森林理论来解释费米悖论。而费来悖论的另一种符合逻辑的解释就是,人类其实只不过是更高级别的智慧生物养在VR实验室里的试验品而已,人类的所谓自我意识,也许不过是“上帝”为了满足我们的虚荣心而专门设计的一种程序逻辑。

好了好了,不聊科幻了。拥有自我意识的人类能否在未来制造出同样拥有自我意识的智能机器?在我看来,这更多的是一个哲学问题,而非一个值得科研人员分心的技术问题。

审美

虽然机器已经可以仿照人类的绘画、诗歌、音乐等艺术风格,照猫画虎般地创作出电脑艺术作品来,但机器并不真正懂得什么是美。

审美能力同样是人类独有的特征,很难用技术语言解释,也很难被赋予机器。审美能力并非与生俱来,但可以在大量阅读和欣赏的过程中,自然而然地形成。审美缺少量化的指标,比如我们很难说这首诗比另一首诗高明百分之多少,但只要具备一般的审美水平,我们就很容易将美的艺术和丑的艺术区分开来。审美是一件非常个性化的事情,每个人心中都有自己套关于美的标准,但审美又可以被语言文字描述和解释,人与人之间可以很容易地交换和分享审美体验。这种神奇的能力,计算机目前几乎完全不具备。

情感

2016年3月,谷歌AlphaGo与李世石“人机大战”的第四盘,当李世石下出惊世骇俗的第78手后,AlphaGo自乱阵脚,连连下出毫无道理的招法,就像一个本来自以为是的武林高手,一下子被对方点中了要害,急火攻心,竟干脆撒泼要赖,场面煞是尴尬。那一刻,AlphaGo真的是被某种“情绪化”的东西所控制了吗?

我想,一切恐怕都是巧合。AlphaGo当时只不过陷入了一种程序缺陷,机器只是冷冰冰的机器,它们不懂赢棋的快乐,也不懂输棋的烦恼,它不会看着对方棋手的脸色,猜测对方是不是已经准备投降。

不过,抛开机器自己的情感不谈,让机器学着理解、判断人类的情感,这倒是一个比较靠谱的研究方向。



【本文地址】

公司简介

联系我们

今日新闻

    推荐新闻

      专题文章
        CopyRight 2018-2019 实验室设备网 版权所有