AI在企业运营和决策过程中的重要性不言而喻。近年来,人工智能在各行各业可谓家喻户晓,云计算也为AI的普及搭建了一座桥梁。对于企业用户来说,希望借助AI实现降本增效、需求预测以及个性化的服务,不过在享受这些红利之前,企业还需要理清人工智能的迷局。
调查显示,2018年企业在人工智能领域的平均投资将达到500万美元,超过70%的企业客户宣称正在组织内部使用AI技术。考虑到部署成本,多数企业在智能化初期会选择外部方案。随着AI与业务结合逐级深入,企业关注的重点也从提升效率渗透到流程决策管理层面。也就是说,AI不再是简单的工具,而是开始向生产力转变。
从产业层面来看,上游的芯片厂商无论是主打CPU还是GPU,都将聚焦点放在人工智能;中间的平台和数据厂商,则是通过自研或开源技术去打造AI工具,并且借助数据对模型进行训练;落地到行业端,即使是传统制造业的生产线上也在积极尝试自动化机器人,更不要说沾上AI概念后的公司引来资本市场的垂青。
对于公有云平台来说,其是自带Al属性的,像AWS、Azure、IBM、谷歌、阿里云、腾讯云等厂商相继推出了基于云平台的AI开发工具,降低了企业迈向智能化的门。举个例子,云服务商提供用于图像分析的认知计算API,当企业用户想构建一套面部识别解决方案时,无需从零开始编写代码,甚至不用知道这些代码的实现逻辑,而是只需要直接调用API实现功能即可。按照这个思路,自然语言处理、计算机视觉等技术同样可以让开发者拿来即用。
当然,就像人类要靠学习知识丰富自身,AI也要有自己的书本,这就引出了知识图谱的概念。继谷歌在六年前提出Google Knowledge Graph(知识图谱)的概念后,像Facebook、百度、搜狗等社交、搜索、电商领域的公司迅速跟进,基于数据库、自然语言系统推出了一系列的“知识图谱”,背后的推动力是对数据处理和理解能力的快速升温。
基于数据的模型训练是机器学习的过程,其可以模仿视觉和听觉,算法、算力、数据并不能让机器“鲜活起来”,而创造力就是机器通过认知获取的,知识图谱就是帮助机器利用深度学习等技术在海量知识中找到其中的关联性。当然,构建知识图谱的过程也是抽丝剥茧的,先要对繁杂的数据进行清理,之后将过滤后的信息进行理解分析,通过输出结构化数据让行业专家去建立知识库,并在此之上构建决策系统。
可以说,知识图谱是AI应用于行业的基础,制造、金融、医疗、教育……每个领域都有自己的业务特性,只有了解了行业和场景才能实现真正的智能化。举个例子,电商行业的个性化商品推荐需要机器不仅要掌握不同细分产品的信息,还要了解消费者行为,例如销售最佳的区域、时段、季节等,以及打折优惠对于用户行为的影响。只有这样,才能让机器用导购人员的思维去工作。
不过,并不是所有企业都有构建完整知识图谱的能力,这就需要人工进行干预。当机器理解了人类行为之后,还要让算法可以自己佐证自己的决策,此时引入了AI可解释的概念。如果机器不能理解自己的行为,一旦出现劣质数据或虚假信息时就会导致学习偏差,人类对其的信任度更要大打折扣。事实上,美国研究机构去年就在打造“可解释的AI系统”,用于将复杂的算法决策转变为能够理解的语言。
当深度学习利用数据训练的层级逐步深入,其在学习训练过程中的不可解释性成为了一些企业客户的障碍,例如机器在判断一株植物时,背后的黑盒模型是不可见的。为了调查探索AI的可解释性,甚至还引申出了独立的学科——Explainable AI。可以说,这也是深度学习未来发展的重要方向,即让AI既能阐述过程,也能解释结果,只有这样才能让人类给予信任,毕竟遇到错误也能从中找到解决的办法。
此外,可解释的AI系统也提供了新的图像识别方式。谷歌的图像分类神经网络Inception Network测试过一项名为“LIME”的技术,其在图像识别时会根据图片本身搜索解释,而不是触发神经网络中的某个神经元,具体来说就是将原始图像的各个部分变黑,通过Inception反馈所产生的“扰动”图像,检测哪些扰动将算法抛离得最远。这一测试表明了原始图像特征对于神经网络的影响,传统识别过程更多是集中在对象的某一特定部位。
除了AI系统的完善性,像机器学习框架TensorFlow也遭遇了安全危机,这让企业在开发之初就承担着风险。去年底,TensorFlow被曝出首个漏洞,黑客可利用其生成恶意模型文件攻击用户,并对使用者的AI应用进行窃取、篡改或破坏。对此,谷歌官方予以了确认。考虑到TensorFlow的开源特性,其被攻击后在终端的应用很可能会受到大规模影响。
#p#分页标题#e#
由此,也可以看出黑客早已将目光瞄向AI的基础学习框架,像Caffe、Torch等都会成为潜在目标。站在黑客的角度,他们清楚知道掌握了漏洞就掌握了控制权,而AI开发对框架的依赖也让多数开发者难以躲避内在的危机。
AI在企业未来发展中是一项必备技能,但如何运用并控制这种能力务必要引起企业的重视。通常,AI学习模型要经过一定数据规模和时间的训练,而此过程使得用户难以快速发现漏洞,最终当风险爆发时为时已晚。因此,企业想用好AI,还是先要走出盲区。