人工智能技术现状剖析及发展趋势

AI技术一直处于计算机技术的前沿,其研究的理论和发展在很大程度上将决定计算机技术的发展方向。目前很多AI的研究成果深刻地改变着人们的生活,将来,AI的发展将会更加快速,会给人们的生活工作和教育带来更大的影响。

【安防在线 www.anfang.cn】从1956年达特茅斯会议提出AI开始,AI的研究经历几次沉浮。在一次次的高潮和低谷的交替中,不可否认的是,AI无论是在理论还是实践中都取得了长足的进步。尤其是近期以深度学习为代表的AI技术取得了突破性的进展,在计算机视觉、机器学习、自然语言处理、机器人技术方面取得了巨大的进步,深刻改变了我们的生活。在这次变革中,实验室的成果很快就可以进入工业界,这在以往的技术发展史上是非常罕见的。2016年5月国家发展改革委员会等四部门联合下发《互联网+AI三年行动实施方案》,李克强总理的政府报告中也提到了AI产业发展,中国科学技术部“科技创新2030重大项目”将增加“AI2.0”,AI已经上升为国家战略。面对AI的热潮,我们应该如何理解现状?如何看待其进步?又如何理解其功能和限制?本文将从AI的核心理论基础,当前存在的一些问题以及未来可能发展的方向等诸多方面对AI做介绍。

  一、 AI的核心基础

1.专用AI算法

人工智能技术现状剖析及发展趋势

深度学习本质上是一个自主学习系统,是从传统的模式识别衍生而来。通过大量数据进行训练,深度学习网络会自动找到这些数据的模式,然后通过这些模式来对未知数据进行预测。以Kaggle大赛中的猫狗分类为例,具体步骤是:(1)让计算机“看”数以万计包含猫和狗的图像;(2)程序通过对图像数据进行分类和聚类(例如:边缘、形状、颜色、形状之间的距离等)来建立模式,足够多的的模式可以得到最终的预测模型;(3)运行程序通过预测模型来查看新的图像集,之后与预测模型比对,确定图像中是猫还是狗。

深度学习算法通过模拟我们大脑神经元网络的人工神经网络来实现类似人类大脑的功能。算法在运行中会执行各种循环,通过缩小模式与实际的差距来改进每个循环的预测,最终建立一个最优预测模型。

安防行业中人脸识别应用是一个很好的关于深度学习的工业应用案例。人脸识别算法通过大量带有标签的人脸数据来训练模型,算法会自动识别出人脸的关键点。通过调用算法,设备会捕获到多个关键点,这些关键点会送到深度学习模型中,通过内置引擎和执行预测模型判断是谁。

强化学习也是一种自主学习系统,但它主要是通过反复试验来学习的。通过有限次执行行动以得到最大化奖励从而确定最佳答案,换句话说,它是通过实践来学习,从实践中找到最佳结果。这就好比小时候学习骑自行车,刚开始的时候会经常摔倒,但随着摔的次数多了,慢慢就掌握窍门了,这个学习的过程就是强化学习。当计算机使用强化学习时,它们会尝试不同的行为,从反馈中学习该行为是否能够得到更好的结果,然后将能得到好结果的行为记住,规范点说就是计算机在多次迭代中进行自主重新修正算法,直到能做出正确的判断为止。

使用强化学习一个很好的例子是让机器人学习走路。首先机器人向前迈出一大步然后跌倒,这一大步和摔倒是强化学习系统关注的响应点。由于反馈是负面的,所以继续调整,系统会根据多个负反馈进行调整,最终确定机器人应该把步子迈小一点,不停地小,直到机器人走路不会摔倒为止。

深度学习和强化学习首先都是自主学习系统。它们之间的区别在于,深度学习是从训练集中学习,然后将学习到的知识应用于新数据集,这是一种静态学习。而强化学习是通过连续的反馈来调整自身的动作以获得最优结果,是一种不断试错的过程,这是动态学习。另外现阶段投入市场应用的深度学习算法和强化学习算法都属于有监督学习,不同于无监督学习在数据集中自动寻找规律,有监督学习需要大量已标注的训练数据作为训练集,在训练集中寻找规律。

深度学习和强化学习都属于专用AI算法,在面向特定任务(比如下围棋、分类、检测)时,由于任务单一、需求明确、应用边界清晰、领域知识丰富、模型相对简单,形成了AI的单项突破,在单项测试中可以超过人类智能。AlphaGo在围棋比赛中战胜人类获得冠军,AI程序在大规模图像识别和人脸识别中超过了人类水平,AI系统诊断皮肤癌达到专业医生的水平。

2.算力

除了专用AI算法,近些年计算机硬件的发展构成了AI发展的基础。AI早期进入第一个发展低谷的原因之一正是因为计算机计算能力不足。深度神经网络的训练本质就是矩阵运算,反向传播寻找整个网络的损失最小值,使得训练很容易并行化。使用英伟达的GPU可以大大加快深度神经网络的训练速度,越来越多传统的信息厂商都在利用英伟达的GPU构建GPU集群。Intel的Xeon芯片提供了强大的多核计算能力,而且可以在服务器上组成多路,以及通过多节点集群进行并行优化计算。对于负载不是特别大的任务可以直接用cpu完成,目前Intel正在开发将cpu和FPGA计算能力整合的芯片。

专用的神经网络芯片发展迅速,主要有FPGA、DSP、ASIC、ARM扩展模块等技术路线,具有速度快、带宽高、功耗低等特点,主要面向移动和嵌入式系统。很多厂家在芯片里已经固化的图像处理、目标识别等基础模型和算法,快速集成到嵌入式设备中,目前主要功能以人脸识别、照片分类、图像处理、图像风格迁移、图像超分辨率重建、车牌识别、智能安防、自动驾驶、无人机姿态保持与位置追踪等领域为主。

3.数据

当前正处于数据爆发的时代。根据希捷科技赞助、国际数据公司(IDC)发布的白皮书《数据时代2025》预测:到2025年,全球数据圈将扩展至163ZB,相当于2016年所产生16.1ZB数据的十倍;属于数据分析的全球数据总量将增长至原来的50倍,达到5.2ZB;而认知系统“触及”的分析数据总量将增长至原来的100倍,达到1.4ZB。大量涌现的数据催生出了一系列全新的技术,AI将数据分析从不常见的、追溯式的实践转变为战略决策和行动的推动因素。

  二、存在的一些问题

1.数据成本

前面提到过,在工业领域广泛应用深度学习网络需要大量的已经标注的数据进行训练才有可能达到预期的效果,这些训练数据的标注需要人为进行,这造成巨大的人力成本。虽然互联网有着取之不尽的海量数据,但是绝大部分都是未进行标注的数据。为了解决这个问题,可以从以下两方面尝试解决:

(1)无监督学习

相对于监督学习,无监督学习能够充分利用这些数据,不需要花费大量的人力物力去标注训练数据,这样就大大减少了训练模型的成本。另一方面,目前的深度学习模型的训练需要使用大量的数据。

(2)小样本学习

机器学习能力与人的学习能力相差甚远,比如小孩只需要几张猫的照片就能准确的识别猫,但是深度学习的模型需要几百万张图像,目前很热门的自动驾驶技术,需要几百万公里才能训练到令人满意的效果,但是人只需要几千公里就可以成为老司机。事实上,小样本学习更接近人的智能模型,小样本学习能力的发展能够将AI技术应用到更多更广泛的领域。小样本学习研究的一个重大突破是三名分别来自麻省理工学院、纽约大学和多伦多大学的研究者在2015年提出的“Bayesian?Program?Learning”方法,并利用它解决?“看一眼就会写字”的问题。

2.模型可解释性

AI另一个难题就是机器学习模型的可解释性和稳定性。目前大部分机器学习模型都是“黑盒”模型,很难让人理解。而且模型稳定性也一直是个问题,例如给图片加些白噪音,深度学习模型会给出令人大跌眼镜的预测结果。

3.模型大小限制

目前的计算能力难以训练大型的深度学习模型,比如GB级的模型训练过程对带宽要求很高。GPU比CPU更适合训练深度学习模型的原因之一是,相对于内存来说显存的带宽更大。另外模型很大往往会过度拟合基准数据,并不会从样本中提取更抽象的特征,在实际应用中,如果深度网络有偏差将会带来非常严重的后果。比如在训练自动驾驶的数据集中,不会有婴儿坐在马路中间。深度神经网络对标准的对抗性攻击很敏感,这些攻击会对图像造成人类难以察觉的变化,但会改变神经网络对物体的认知。Alan Yuille说这些问题的背后都是组合爆炸导致的,真实世界的图像利用组合观点来看数量太大了,从一定程度上说是无限的。任何一个数据集,不管多大,都很难表达出现实的复杂程度。

4.泛化性能

从专用智能算法到通用智能算法是下一代AI发展的必然趋势,也是研究与应用领域需要挑战的问题。通用智能被认为是AI皇冠上的明珠,从目标来看,通用智能意味着神经网络泛化能力的提高,为了解决这个问题,科研人员进行了各种努力。从正则化技术到dropout技术再到BN技术,这些技巧从一定程度上减缓了神经网络过度拟合的问题,提高了泛化能力。但是这些只是技巧,并不能从根本上解决问题。目前解决这个问题的方法是迁移学习,迁移学习是将一个场景中学到的知识迁移到另一个场景中。比如我们可以将利用猫和狗图像训练的分类模型迁移到其他相似的任务,用来分别鹰和布谷鸟。利用迁移学习,在一个模型训练任务中针对某种类型数据获得的关系也可以轻松地应用于同一领域的不同问题。迁移学习一定程度上缓解了标记数据的压力,对于我们接近通用AI迈进了一步。

  三、发展趋势

虽然深度学习在某些方面还是存在一些不足,但是目前科学界已经有了一些可喜的突破,并且基于深度学习的AI深刻地改变了人们的生活,未来AI将会更加快速地发展,本文认为有以下四个发展趋势:

1.AI芯片加速发展

即使是最快和最先进的CPU也无法提高AI模型的速度,在AI模型运行的时候,需要额外的硬件来进行复杂的数学计算。尤其是前端设备,在安防行业中的应用,需要体积更小,功能更加强大的嵌入式芯片来运行性能更好的算法,用于实时跟踪、面部识别等应用。

2.AI边缘计算以及物联网融合开发

目前AI在边缘侧不断发展是驾驭数据洪流的关键之一,也是物联网未来发展的重要趋势。随着AI技术如火如荼地发展,海量数据需要快速有效的提取和分析,这大大加强了对于边缘计算的需求。未来AI技术、边缘计算和物联网将更加密切进行融合发展,尤其在安防行业视频监控领域的应用。

(1)神经网络之间的互操作性

神经网络的训练是基于框架的,一旦模型在特定的框架中完成了训练和评估就很难移植到另一个框架,这阻碍了AI的发展,未来神经网络之间的互操作性将成为AI行业的重要技术。

(2)自动化AI将会更加突出

从根本上改变AI解决方案的一个趋势是自动化AI,它使业务分析师和开发人员能够高效发掘出可以解决复杂场景的机器学习模型,而无需经过机器学习模型的典型培训,业务分析师可以更加专注于业务问题。

  四、结语

AI技术一直处于计算机技术的前沿,其研究的理论和发展在很大程度上将决定计算机技术的发展方向。目前很多AI的研究成果深刻地改变着人们的生活,将来,AI的发展将会更加快速,会给人们的生活工作和教育带来更大的影响。

阅读剩余 63%

该文观点仅代表作者,本站仅提供信息存储空间服务,转载请注明出处。若需了解详细的安防行业方案,或有其它建议反馈,欢迎联系我们

(0)
小安小安

相关推荐

  • 高清视频监控信息安全解决方案

    在网络监控设备几乎覆盖日常生活的今天,如何在使用监控设备保障财产安全的同时,保障网络高清视频数据在视频采集、传输、解码回放、录像等过程中的安全性,成为业界迫切需要思考的问题。为此,公司从防控视频监控系统访问安全性的角度入手,提出了开拓性的网络高清监控安全加密解决方案。

    2024年1月15日 方案
  • 智能监控视频的分析

    随着无线技术的发展,监控视频技术也在不断更新迭代,从模拟时代进入了数字化、高清化与智能化的发展过程。它包含多种智能分析技术,如行为识别、入侵检测、物检测、群体行为识别、违规车辆检测等方面。

    2024年4月9日 知识
  • 习近平:推动我国新一代人工智能健康发展

    中共中央总书记习近平在主持学习时强调,人工智能是新一轮科技革命和产业变革的重要驱动力量,加快发展新一代人工智能是事关我国能否抓住新一轮科技革命和产业变革机遇的战略问题。要深刻认识加快发展新一代人工智能的重大意义,加强领导,做好规划,明确任务,夯实基础,促进其同经济社会发展深度融合,推动我国新一代人工智能健康发展。

    2024年6月16日
  • 智能家居终端应用介绍

    智能家居在国内已经有十多年的发展历程,前期主要集中在一些分散的智能家庭控制子系统的研究上,如楼宇可视对讲系统、家居安防报警系统、门禁系统、三表抄送系统、家电智能控制等等。近年来,随着计算机技术、自动控制技术、多媒体技术、网络技术、无线通信技术的快速发展,并且不断加深在智能家居领域的渗透和应用,智能家居已经可以让家庭内更多的的子系统集成起来,系统的有机结合度更加紧密,同时所有的子系统可以通过一个智能终端操作平台来进行控制,从而实现家庭内各个子系统之间的互联互通。下面笔者就智能家居的终端技术与读者朋友们进行一些探讨。

    2024年4月8日
  • NB-IoT技术应用于开放式停车管理中

    相比第三代路边停车管理,NB-IoT提供运营商级别网络保障,可靠性安全性极大提高;减少了汇聚网关部署,整体成本(设备成本、部署成本、维护成本)下降30%左右;车辆检测器即插即用,安装施工简单,无需网络技术人员支持,后续智能车位扩容简单,不用考虑网络兼容性问题,再通过统一的手机APP及停车管理数据平台,可以为城市居民提供统一的智能停车服务。

    2024年4月12日
  • AI芯片未来该怎么走?联发科P90提供了一个思路

    目前深度学习需要大量的算力进行支撑,所以早期只有Google、Facebook以及Amazon等大型企业才有所投入。而在移动互联早期时代,以Nvidia(英伟达)为代表的GPU通用运算方案曾冠绝群雄,成为了各大企业在云运算领域的标配方案。但随着人工智能应用场景的延伸,GPU这样的解决方案并非适合于所有内嵌深度学习任务的设备使用,而以Google为首的TPU专核方案则迅速壮大,开启了AI芯片专核专用的先河。

    2024年4月3日