点击右上角微信好友
朋友圈
请使用浏览器分享功能进行分享
【网络强国·百人谈】
随着人工智能技术的快速发展,AI大模型逐渐成为业界焦点。然而,大模型AI在带来便利的同时,也暴露出了诸多安全隐患。在ISC 2023第十一届互联网安全大会期间,中国工程院院士邬江兴接受采访时表示,AI大模型存在“三不可”内生安全个性问题,以及漏洞、后门等内生安全共性问题。
“人工智能的应用系统由基础软硬件、数据系统和人工智能算法、模型和上层应用组成,自身存在内生安全问题。”邬江兴介绍,深度学习AI模型存在“三不可”内生安全个性问题,这也是AI技术的基因缺陷。一是神经网络“黑箱”特点导致人工智能存在不可解释性;二是深度学习对训练样本过度依赖,导致学习结果的不可判定性;三是神经网络前向推进过程的不可逆,导致结果不可推论性。
此外,内生安全共性问题同样不可忽视。邬江兴表示,AI应用系统硬件环境总要放在服务器上,有操作系统、CPU、存储器等,这些数据软硬件环节存在漏洞、后门等内生安全共性问题。
“内生安全个性和共性问题,往往是交织存在的,使得AI应用系统的安全问题变得极其复杂,给政府、企业使用和维护应用带来前所未有的挑战。在当前人工智能技术快速发展的背景下,AI大模型的安全问题亟待解决。”邬江兴认为,AI大模型安全问题需要监管部门、企业共同发力;还需要从多个方面入手,包括政策、文化、人才训练等。
采访:李政葳 摄制:刘昊
光明网要闻采访部出品
“网络强国·百人谈”更多内容欢迎扫码关注专栏