2023 年 11 月 26 日,美国、英国、澳大利亚和其他 15 个国家发布了帮助保护人工智能模型不被篡改的全球指导方针,敦促企业使其模型 "设计安全" 的文件,概述了人工智能公司在开发或使用人工智能模型时应如何处理其网络安全问题,因为他们声称,在这个快节奏的行业中,"安全往往是次要考虑因素"。
指导方针主要包括一般性建议,如严格控制人工智能模型的基础设施,在模型发布前后对其进行监控,以及对员工进行网络安全风险培训。
但人工智能领域的某些争议问题却未被提及,包括对图像生成模型的使用、深度伪造或数据收集方法以及在训练模型中的使用应采取哪些可能的控制措施 -- 在这个问题上,多家人工智能公司曾因版权侵权而遭到起诉。
美国国土安全部部长亚历杭德罗 - 马约卡斯 (Alejandro Mayorkas) 在一份声明中说:"我们正处于人工智能发展的拐点,人工智能很可能是我们这个时代最具影响力的技术。" 网络安全是建立安全、可靠和值得信赖的人工智能系统的关键 "。
在这些指导方针出台之前,政府间还采取了其他举措对人工智能进行了权衡,包括政府和人工智能公司本月初在伦敦举行的人工智能安全峰会,以协调人工智能发展协议。
与此同时,欧盟正在制定其人工智能法案的细节,该法案将对该领域进行监督,美国总统乔 - 拜登 (Joe Biden) 也于 10 月发布了一项行政命令,制定了人工智能安全和安保标准 -- 尽管这两项行政命令都遭到了人工智能行业的反对,声称它们可能会扼杀创新。
新的 "设计安全" 指导方针的其他共同签署国包括加拿大、法国、德国、以色列、意大利、日本、新西兰、尼日利亚、挪威、韩国和新加坡。包括 OpenAI、微软、Google、Anthropic 和 Scale AI 在内的人工智能公司也为制定该指导方针做出了贡献。
转自链接:https://www.wangan.com/p/11v7bb99b6fb6653
通讯地址:北京市海淀区海淀南路甲21号中关村知识产权大厦A座2层206、207室 邮政编码:100080
电话:010-62565314 刘莉 京ICP证16064523号-2 版权所有:北京软件和信息服务业协会
技术支持:中科服 内容支持:鑫网安