风君子博客7月26日消息,近日,微软大规模蓝屏事件引发各界反思。一次互联网时代的软件BUG能够引起全球大范围“瘫痪”,如果同样的剧情在AI时代上演,损失可能更大。
在中国人工智能产业发展联盟(以下简称 “AIIA”)安全治理委员会成果发布会上,AIIA秘书长、中国信通院院长余晓晖表示,当前人工智能安全治理需要汇聚行业各方智慧和力量,共同完善人工智能安全风险识别方法论,建立更为敏捷、精确的安全风险识别机制,尽早、尽快发现风险,加强人工智能安全评测技术工具的研究,通过技术来治理技术。
据介绍,为应对当前人工智能所带来的安全挑战,AIIA安全治理委员会重点围绕人工智能的治理框架、风险管理、内生安全、安全应用开展了大量的理论和技术研究工作。
会上,人工智能安全守护计划正式启动,该计划将打造AI Guard品牌,共同建立AI系统情报共享机制、AIGC真实性和可信赖来源互认机制,推动设立人工智能相关保险产品,提升国内人工智能技术的服务提供方、使用方的安全防护能力。
中国信通院人工智能所黑一鸣博士发布了自研的大模型安全加固解决方案。该能力通过模型微调、外挂安全知识库等模式对开源大模型自身进行安全防护加固,在保持模型原有通用能力和推理效率的前提下,增强其抵御多种诱导攻击的能力。
值得一提的是,人工智能天生具备高度交叉的技术和产业属性,跨界融合正成为人工智能发展的主流形态。
中国法学会法治研究所研究员、中国法学会网络与信息法学研究会副秘书长刘金瑞表示,“对于法学专家来讲,首先要了解技术特征。如果不了解技术特征,你写的规范和规制的思路是不适用这个技术的,换句话说是无效的,可能逻辑推演是严谨的,但现实中是没法用的。所以对于法学专业来讲,你要根据这种特征和特性来设计一套配置方案出来。这是最大的挑战。”
据北京市金杜律师事务所合伙人宁宣凤律师透露,随着人工智能发展,国家层面是通过小切口这种方式进行立法,包括深度合成、算法、AIGC等领域开展治理,也出台像科技伦理审查办法等。“人工智能法我们所知也是在制定过程中”。