当前位置: 首页 >  独家 >  >  详情
邬江兴:大模型安全“个性”“共性”问题亟待解决
2023-08-11 12:59:25    来源:光明网


(相关资料图)

【网络强国·百人谈】

随着人工智能技术的快速发展,AI大模型逐渐成为业界焦点。然而,大模型AI在带来便利的同时,也暴露出了诸多安全隐患。在ISC 2023第十一届互联网安全大会期间,中国工程院院士邬江兴接受采访时表示,AI大模型存在“三不可”内生安全个性问题,以及漏洞、后门等内生安全共性问题。

“人工智能的应用系统由基础软硬件、数据系统和人工智能算法、模型和上层应用组成,自身存在内生安全问题。”邬江兴介绍,深度学习AI模型存在“三不可”内生安全个性问题,这也是AI技术的基因缺陷。一是神经网络“黑箱”特点导致人工智能存在不可解释性;二是深度学习对训练样本过度依赖,导致学习结果的不可判定性;三是神经网络前向推进过程的不可逆,导致结果不可推论性。

此外,内生安全共性问题同样不可忽视。邬江兴表示,AI应用系统硬件环境总要放在服务器上,有操作系统、CPU、存储器等,这些数据软硬件环节存在漏洞、后门等内生安全共性问题。

“内生安全个性和共性问题,往往是交织存在的,使得AI应用系统的安全问题变得极其复杂,给政府、企业使用和维护应用带来前所未有的挑战。在当前人工智能技术快速发展的背景下,AI大模型的安全问题亟待解决。”邬江兴认为,AI大模型安全问题需要企业、监管部门共同发力;还需要从多个方面入手,包括政策、文化、人才训练等。

采访:李政葳 摄制:刘昊

光明网要闻采访部出品

“网络强国·百人谈”更多内容欢迎扫码关注专栏

关键词:

上一篇:2023天津·宁河七里海半程马拉松新闻发布会成功举办
下一篇:最后一页