【干货】AI学术前沿与趋势
副标题[/!--empirenews.page--]
人工智能作为一项赋能技术,如今已在多个行业领域逐步落地应用,不过现阶段,人工智能在某些方面仍然处于技术提升期。本文将聚焦于人工智能的学术研究方面,简要探讨一下AI学术前沿和技术发展趋势。 人工智能热门技术研究课题 当前人工智能在诸多行业领域已经实现了广泛应用,但在热门技术方面来看,安全性等方面依然存在一定缺陷。 用简单的“对抗性补丁”(adversarial patch)可以使得人脸识别在可靠性、安全性等失效。这也让AI技术研究需要更加注重人工智能 “攻”和“防”的课题,如何确保AI算法的高安全性、可靠性还有它的鲁棒性,人工智能算法在安全方面 “攻”和“防”当前也是一个相当热门的技术研究方向。 另外一个研究课题是生成对抗网络(GAN, Generative Adversarial Networks ),生成对抗网络有非常多的应用,典型的应用在“图像生成”和“数据增强”等方面,比如在安防领域人脸识别图像的生成。生成对抗网络如今也逐渐被应用在其他的一些应用领域,如生命科学中的材料设计,还有食品、药物的设计,这些也成为人工智能技术新的研究方向。 边缘计算同样也是当下人工智能技术研究的重点之一。随着物联网时代的到来,越来越多的数据在边缘端产生,边缘计算由此成为显著趋势。现阶段边缘计算有多种计算方式决定什么应该放在边缘端。目前人工智能的算法在主流方面是把算法放在云端,把编程中推理的部分放在边缘端,这样可以保证数据运算和训练这一类需要大功率运算的过程在云端进行,而推理的过程则在边缘端发生。不过这种模式可能会导致边缘端的算法不够智能,如何在边缘端提升算法的智能程度是一个重要的研究方向。 宽度学习网络的诞生,被认为是可以很好地替代原本的深度学习网络,它基于将输入随机映射成为扩充节点作为输入的思想而设计(依据早期随机向量函数链接神经网络,random vector functional-link neural network)。它可以非常快速的算出正确的映射,在数据的增量部分也可以实时的学习。 根据大量的测试结果显示,在边缘计算过程中,宽度学习的实时性应用效果非常不错。 人工智能在理论上的瓶颈问题 谭铁牛院士曾表示现阶段的人工智能依然存在很大的局限性,用四句话概括便是:有智能没智慧,有智商没情商,会计算不会“算计”,有专才无通才。具体解释一下在理论上局限的瓶颈问题主要包括: (1)数据瓶颈:深度学习需要大量的数据;(2)泛化瓶颈:这是模式识别、计算机视觉、人工智能方法面临的一个共同的问题,现有方法在一些实际问题中仍无法取得理想的泛化性能,或者训练好的模型用在变化的环境或领域其泛化性能明显下降;(3)能耗瓶颈:人的大脑尽管是一个通用的人工智能系统但是能耗很低(只有20瓦),但现有计算机上实现的人工智能系统能耗很高;(4)语义鸿沟瓶颈:目前语言服务大多为简单查询,不涉及语义推理问题,缺乏真正的语言理解能力,比如一些有歧义的自然语言句子,人很容易根据上下文或常识理解其真正含义,计算机却很难理解;(5)可解释性瓶颈:现有人工智能系统都是知其然而不知其所以然,其过于依赖训练数据,缺乏深层次数据语义挖掘。因此,可解释性非常重要,人工智能不仅要知其然还要知其所以然,知其然只是浅层智能,知其所以然才叫深层智能;(6)可靠性瓶颈:现有人工智能系统可靠性较差,有些错误识别结果会带来致命后果,尤其在自动驾驶这样的领域。 人工智能值得关注的技术研究方向 为了更好地破除上述人工智能技术研究的瓶颈问题,在AI学术研究领域,一些新的技术发展趋势和研究方向也值得关注,包括: (1)从专用人工智能到通用人工智能是大势所趋,一些科技巨头包括国家机构都在布局通用人工智能的研究,微软成立人工智能实验室以挑战通用人工智能为主要目标; (2)可解释的人工智能系统备受关注,也将成为突破统计学习瓶颈问题的一个重要方向。DARPA的报告:第一个波次是基于规则的,例如以专家系统为代表的系列方法和技术;第二个波次就是当前以大数据驱动为代表的统计学习;同时,他们认为第三个波次很可能是可解释的人工智能,就是人工智能要知其然还要知其所以然,以此可见人工智能可解释性的重要意义; (3)小样本甚至零样本学习成为提高人工智能系统泛化能力的一个重要方向。最近提出的生成对抗网络、胶囊网络、生成模型等都是为了降低对训练数据的需求,提高人工智能系统泛化能力的有益尝试; (4)非深度神经网络计算模型成为机器学习创新的一个重要方向。当前深度学习理论基础薄弱、模型结构单一、资源消耗过高、数据依赖性强,以非神经网络、资源节约型机器学习模型有望成为下一个突破口; (5)脑科学与人工智能深度融合、协同发展、相得益彰,IBM的TrueNorth芯片、美国DARPA的MICRONs研究项目以及最近Science和Nature杂志上发表的一些受脑启发的智能计算模型都是这方面的典型例子。 宽度学习(BLS)网络的研究和应用 除了上述这几大AI学术研究要点之外,还有宽度学习(BLS)网络也值得重点关注。宽度学习(BLS)自2018年由我们(陈俊龙教授及其团队)首次在学术界提出,便迅速在科研机构(中科院)、国内知名高校及企业展开了较为广泛的研究与应用。 虽然深度学习网络非常强大,但大多数网络都被极度耗时的训练过程所困扰。首先深度网络的结构复杂并且涉及到大量的超参数。另外,这种复杂性使得在理论上分析深层结构变得极其困难。另一方面,为了在应用中获得更高的精度,深度模型不得不持续地增加网络层数或者调整参数个数。为了克服这些问题,宽度学习系统提供了一种深度学习网络的替代方法,同时,如果网络需要扩展,模型可以通过增量学习高效重建。 宽度学习(BLS)在设计思路方面,首先,利用输入数据映射的特征作为网络的「特征节点」;其次,映射的特征被增强为随机生成权重的「增强节点」;最后,所有映射的特征和增强节点直接连接到输出端,对应的输出系数可以通过快递的伪逆得出(或者梯度下降方法)。BLS 最重要的特点在于它的单隐层结构,具有两个重要的优势,一个是「横向扩展」,另一个则为「增量学习」,与深度神经网络不同之处在于,BLS 不采用深度神经网络的结构,而是基于单隐层神经网络构建,可以用「易懂的数学推导来做增量学习」。 (编辑:威海站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |