诺奖经济学得主说“AI不过是统计学”,业界专家—— 那只是人工智能的一种工具

2年前

        “人工智能其实就是统计学,只不过用了一个很华丽的辞藻。”近日,2011年诺贝尔经济学奖获得者托马斯·萨金特在世界科技创新论坛上表示,好多公式都非常老,但所有的人工智能都是利用统计学来解决问题。

   

        托马斯·萨金特一席话,有人评论说弄明白了人工智能是什么,也有人并不认同这一观点。支撑人工智能迅猛发展的,只有统计学而已?

   

人工智能的理论基础远超统计学范畴

        “60多年来,人工智能不断吸收和借鉴数学、计算机科学、脑科学、认知心理学、物理学、信息科学等不同学科的理论、方法和技术,形成了体系庞大、分支丰富、学派纷呈的新一代人工智能发展态势,推动了科技进步和产业转型,岂是一个统计学能够概括的!”中国人工智能学会智能产品与产业工作委员会主任、原中国人工智能学会副理事长韩力群说,研究和开发具有人类智能特点的智能机器,使其能够像人一样处理信息、提炼规律和调度知识,是科技发展的必然趋势。

   

        中国人工智能产业发展联盟副理事长、京东集团副总裁、AI平台与研究部负责人周伯文认为,人工智能的发展不仅依赖于算法和算力,数据的积累也很重要。以目前深度学习大热的研究领域计算机视觉为例,一个好的识别需要庞大的数据库,这样才能不断降低误识率。

   

        “人工智能绝不仅仅只是一种统计学。虽然在分类、预测、随机分布等常见问题上,它深度融合和借鉴了统计学的一些经典理论,让人工智能建立在严格的数学基础之上。”周伯文告诉科技日报记者,除此之外,人工智能的重要理论基石还包括认知科学、计算机科学、优化和博弈论、图灵机理论、信息论等,这都远远超出统计学的范畴。

  

三次发展浪潮中统计学作用有限

        起源于20世纪50年代的人工智能,其发展经历了三次大的浪潮。那么,统计学究竟起到了什么作用?


       “第一次浪潮是以注重逻辑推理为标志的问题求解和语言处理时代,在支撑这类人工智能成果的关键技术中,统计学的应用难觅踪影。”韩力群说,第二次浪潮是以依托知识积累构建模型为标志的专家系统时代,同时霍普菲尔德网络(是一种反馈型神经网络)和基于误差反向传播算法的前馈多层神经网络也有一席之地。在离散霍普菲尔德网络中,美国加州工学院物理学家约翰·霍普菲尔德使用了统计力学的方法,分析网路的存储和优化特性,解决了数学领域中著名的旅行商(TSP)问题。

   

        正在进行的第三次浪潮,则是以重视数据、自主学习为标志的认知智能时代,高等代数、概率统计、优化理论等不同学科的数学工具被引入机器人学习领域,一大批新的数学模型和算法被提出且得以发展。

  

         “在前向神经网络的基础上,多伦多大学教授杰弗里·辛顿提出深度学习,并在AlphaGo、无人驾驶汽车、语音识别、自然语言理解等方面取得良好进展。深度学习涉及的数学基础,除了概率统计理论,还有线性代数、优化理论和微积分等。”在韩力群看来,显然,统计学是人工智能的众多数学工具中的一种,但绝非全部。

   

        周伯文则表示,未来,在进一步利用和发展已有的数学、统计学、计算机科学等基础理论的前提下,人工智能的研究和进一步突破,还需我们全面理解智能和认知的产生和表达机制,从而真正掌握认知的科学规律,达成从狭义人工智能到广义人工智能,再到通用人工智能的飞跃。


相关推荐