人工智能(Artificial Intelligence,简称“AI”)是一门前沿交叉学科,它诞生于20世纪50年代初,经过60多年的技术演进和持续积累,其理论知识技术日益成熟,应用范围领域也在不断扩大。从2014年开始我国在人工智能领域取得重要进展,汉字识别、语音合成、语义理解、生物特征识别、机器翻译等部分领域核心关键技术实现重要突破。国家先后发布了《中国制造2025》《国民经济和社会发展第十三个五年规划纲要(草案)》《新一代人工智能发展规划》等规划和文件,从科技研发、应用推广和产业发展等方面提出了一系列措施,我国的人工智能技术已经成为经济发展的新引擎之一,并为社会建设提供了新的机遇,进入了一个全新的快速发展阶段。
人工智能将成为未来发展的重要科技技术之一,但是人工智能技术会对信息安全、个人隐私、社会伦理带来较大的影响和冲击,使网络与信息安全面临新的问题、新的挑战,必须紧盯科技发展大势,高度重视人工智能技术可能带来的安全风险挑战,进行安全风险及应对措施分析,从而推动和保障相关技术安全保密应用,最大限度降低风险,确保人工智能技术对保密管理和保密技术体系的影响可控。
人工智能信息安全威胁分析
人工智能技术的特点,导致人工智能信息安全威胁随之有以下新的特点。
第一,伦理安全威胁。
大数据驱动知识学习、跨媒体协同处理、人机协同增强智能、群体集成智能、自主智能系统成为人工智能的发展重点,受脑科学研究成果启发的类脑智能蓄势待发。随着人工智能技术的发展,人们在日常生活中会接触越来越多具有“自主操控”特征的设备和机器,面临现有法律、社会规范和道德伦理的挑战。此外,人工智能技术的进步,可能会导致某些简单、重复工作类职业的消失,导致相关从业人员的心理恐慌。
第二,社会秩序破坏安全威胁。
和传统的信息系统不同,通过人工智能技术可实现对设备或者机器一定程度的自主智能操控。一方面,人工智能系统控制的机器人、无人驾驶汽车、无人驾驶飞机等设备或机器具备一定的自主行为,在受到安全威胁时对社会秩序有较大的破坏性,典型的就是无人驾驶汽车失控对交通系统的破坏;另一方面,人工智能系统机器行为给同一系统中的人带来不可预见的干扰和影响,可能会导致破坏现有的秩序。
第三,隐私安全威胁。
由于大数据、传感器等技术的广泛应用,对于人、事、地、物、组织等社会管理和经济运行实体的综合、立体全方位刻画成为可能。以人员为例,从孤立的、局部的个人情况、家庭信息、联系方式、账号密码等信息,延伸到出行轨迹、社会交往、消费情况、健康状况等,并且通过智能手机、互联网、传感设备的实时数据获取、汇聚使得上述全方位刻画数据从静态发展为动态。如果上述被刻画人员的数据曝光,将毫无个人隐私可言。
第四,系统整体性安全威胁。
在人工智能系统中,大量数据存储于云端,经过大数据分析后向控制端发送指令,是一个形成“感、传、智、用”闭环的统一系统。一旦受到攻击和发生故障,造成的安全影响往往是整体性的、全局性的。即使局部的安全风险,也会被迅速扩散和放大,造成更为严重的安全威胁。
人工智能信息安全威胁的特点
一是影响面大。
人工智能作为一门交叉学科,涉及芯片、网络、软件、信息资源处理、传感网、图像处理、计算机视觉、语言识别、语义处理、机器学习等多种学科及技术领域,具有“跨界融合”的新特征。因此,人工智能带来的信息安全威胁相比传统的信息安全威胁影响面大,更难定位和分析。
二是危害性大。
传统的信息安全攻击和漏洞带来的损失本质上是信息泄漏,信息的泄漏往往是静态的、损失是可衡量的。而人工智能具有“自主操控”的新特征,与其控制的设备或机器(如机器人、无人驾驶汽车、无人驾驶飞机等)相结合,针对人工智能的攻击具有强烈的动态性,甚至会威胁生命、影响人和社会的伦理,这给传统的“保密就是保信息”的观念带来了极大的挑战。
三是传导性强。
随着技术的迅速发挥和完善,人工智能已越来越多地进入到制造、金融、安防、医疗、教育、零售等社会各领域以及人们的家居、驾驶等诸多领域,摄像头、拾音器、定位设备、感温器、人体体征检测设备、感光器等大量多种传感器遍布于人们的工作和生活的各个角落,连接密集、节点增多、数据密集,导致非法入侵的触点也大大增加,人工智能的信息安全漏洞可快速蔓延,迅速从设备传导到使用的人员。
四是不可预见性强。
人工智能的“深度学习”特征以及其发展的相对不成熟,会导致较强的不可预见性,给信息安全和保密管理带来更大的困难。相比人类而言,人工智能需要从学习样本或者数据中学习有价值的信息,并针对某个情境独立建造一个抽象模型进行具有一定高度的归纳总结。学习样本或者数据并不是全样本的实际数据,加之这些数据的不稳定性或潜在缺陷会给人工智能带来不可靠、不准确和不公平,存在较大的安全风险。同时,由于数据在云端汇集、存储,各数据要素的产生者、数据全集的所有者对信息的不可控性也大大增加。
人工智能技术在带来机遇的同时,也带来了安全挑战,需要提前在立法、机制、技术和管理方面做好信息安全应对。
人工智能信息安全威胁的应对措施
人工智能技术在带来机遇的同时,也带来了安全挑战,需要提前在立法、机制、技术和管理方面做好信息安全应对。
首先,立法应对措施。
2016年10月,美国发布的《美国国家人工智能研究和发展战略计划》(The National Artificial Intelligence Research and Development Strategic Plan)中的7项重大计划之一就是“了解并解决人工智能的伦理、法律和社会影响”,要解决人工智能技术带来的安全影响,必须从立法角度进行应对。
欧盟、日本等人工智能技术起步较早的地区和国家,已经意识到人工智能进入生活将给人类社会带来的安全与伦理问题,并已着手开展立法探索。2016年5月,欧盟法律事务委员会发布《就机器人民事法律规则向欧盟委员会提出立法建议》的报告草案,探讨如何从立法角度避免机器人对人类的伤害。有效应对未来风险挑战需强化立法研究,明确重点领域人工智能应用中的法律主体以及相关权利、义务和责任,建立和完善适应智能时代的法律法规体系。2016年11月,我国出台了《网络安全法》,全面规范了网络空间安全管理方面的问题。我国应在人工智能相关法律法规制定上体现后发优势,紧密关注国内外已经出现的人工智能技术伦理问题,做好相关防范工作。
其次,机制应对措施。
由于人工智能技术信息安全的复杂性,需要从机制上控制其带来的信息安全风险和威胁,包括数据云存储、大数据分析利用、智能终端设备管理、人工智能信息安全测评方法等。国家2017年7月发布的《新一代人工智能发展规划》强调,要建立健全公开透明的人工智能监管体系,实行设计问责和应用监督并重的双层监管结构,实现对人工智能算法设计、产品开发和成果应用等的全流程监管,促进人工智能行业和企业自律,切实加强管理等。
再次,技术应对措施。
加强人工智能的技术研究,对人工智能安全提出监测预警、风险评估、安全问责、研发设计人员安全准则等要求,强化人工智能技术的安全和可控。《美国国家人工智能研究和发展战略计划》认为主要应当具体体现在以下几个方面:(1)透明,即以用户可见的方式进行操作;(2)可信,即用户可接受的系统输出;(3)可审计,系统可评估;(4)可靠,系统按照用户期望行动;(5)可恢复,用户可在需要时恢复控制。
同时,需要在保密技术方面加强研究及开发,推动和保障人工智能技术安全保密应用,推出有针对性的安全保密管理软件。同时,应在人工智能安全风险的技术应对中,采用大数据智能分析技术,辅助有效检测识别各类网络安全威胁,综合分析网络安全要素,评估网络安全状况,预测其发展趋势,甚至结合当前安全策略和威胁情报形成安全智慧,主动调整已有安全防护策略,“人工智能+网络安全”成为当前重要热点技术之一。
国家《新一代人工智能发展规划》指出“加强人工智能标准框架体系研究,逐步建立并完善人工智能基础共性、互联互通、行业应用、网络安全、隐私保护等技术标准”。
结语
人工智能技术由人发展,最终服务于人,因此人工智能信息安全问题的最终产生者也是人,而人也是信息安全的关键要素,所以务必紧盯科技发展大势,做好严密应对,以保障人工智能技术和产业的健康发展。