近日,三星电子公司以安全为由,暂时禁止员工使用 ChatGPT、谷歌 bard 和必应等流行的生成式人工智能工具。
三星一份内部备忘录显示,三星电子周一将新政策通知了其最大部门之一的员工。该文件称,公司担心,传输到此类人工智能平台的数据存储在外部服务器上,难以检索和删除,并可能最终被泄露给其他用户。
该公司对员工表示:“公司内外对 ChatGPT 等生成式人工智能平台的兴趣一直在增长。虽然人们的兴趣集中在这些平台的实用性和效率上,但人们也越来越担心生成式 AI 带来的安全风险。”
三星的新规定禁止在公司拥有的电脑、平板电脑和手机以及内部网络上使用生成式人工智能系统。它们不会影响该公司销售给消费者的设备,比如安卓智能手机和 Windows 笔记本电脑。
此外,三星还要求在个人设备上使用 ChatGPT 和其他工具的员工不要提交任何可能泄露其知识产权的公司相关信息或个人数据。该公司警告称,违反新政策可能会导致被解雇。
三星在备忘录中表示:“我们要求你们努力遵守我们的安全准则,如果不这样做,可能会导致公司信息泄露或泄露,从而导致纪律处分,甚至终止雇佣关系。”
此外,三星上个月进行了一项关于内部使用人工智能工具的调查,并表示 65% 的受访者认为此类服务构成安全风险。备忘录称,4 月初,有三星工程师将内部源代码上传到 ChatGPT 上,不小心泄露了源代码。
ChatGPT 掀起的人工智能热潮仍在继续,在数字中国建设峰会期间,奇安信集团董事长齐向东表示,ChatGPT 是人工智能技术的代表性应用,它依托大数据给社会生产生活带来了很多便利,但同时也给数据安全带来了全新的安全挑战。主要有三个挑战:
一是降低了网络犯罪门槛,加剧了数据遭遇外部攻击的风险。过去,高水平的黑客只是一小部分,人工智能技术能让黑客的水平跃升,相当于给了普通人一本 “武林秘籍”,让不懂代码、不懂技术的普通人,也能成为黑客。恶意攻击代码和钓鱼攻击变得 “唾手可得”,加大了数据安全风险。
二是增加了数据泄露途径,会让数据在使用中 “被动” 泄露。人工智能工具是一件趁手的办公利器,能极大提升工作效率。但当员工使用 ChatGPT 类工具,向这些工具 “投喂” 数据时,就造成了企业敏感信息、商业机密和其他数据泄露风险。有安全公司调查,2.3% 的员工会将公司机密数据粘贴到 ChatGPT 中,企业平均每周向 ChatGPT 泄露机密材料达数百次。
三是信息识别成为难题,深度伪造攻击逐渐流行。利用人工智能技术,犯罪分子不仅可以编写出更贴近受害人的工作环境,的钓鱼邮件,提高网络犯罪的得手率。还能通过伪造信息和声音对公众进行误导,一张伪造的图片、一段伪造的视频,都可能引起轩然大波,对数据安全造成巨大威胁。
通讯地址:北京市海淀区海淀南路甲21号中关村知识产权大厦A座2层206、207室 邮政编码:100080
电话:010-62565314 刘莉 京ICP证16064523号-2 版权所有:北京软件和信息服务业协会
技术支持:中科服 内容支持:鑫网安