专家警示:仓促上马大语言模型风险巨大
发布日期:2023-05-04      作者:       来源:      分享:

专家警示:仓促上马大语言模型风险巨大

image.png


贝里维尔机器学习研究所(BIML)最近参加了网络安全公司 Calypso AI 在美国华盛顿特区举行的 Accelerate AI 2023 大会。会议囊括了来自政府和产业界、监管部门,以及学术界的从业人员。其中一场研讨会非常应景,题为 “LLM 在国家安全等领域涌现的风险与机遇”。本文讨论的内容即为这场研讨会主题的延伸。

当然,以下内容绝非 LLM 乱编的。

大语言模型(LLM)是近期引发全球热议的一种机器学习系统。OpenAI 出品和部署的 ChaptGPT(又名 GPT-3.5)就是个 LLM,是许多文本生成式人工智能(AI)模型中最为普遍和流行的。其他生成式模型还包括图像生成器 Dall-E、Midjourney 和 Stable Diffusion,以及代码生成器 Copilot。

LLM 和其他生成式工具为各种应用带来了巨大的机会,业界纷纷投身部署此类系统。LLM 可以带来很多乐趣,解决科学难题,帮助解决知识管理的棘手问题,编出有意思的内容,最重要的是,有可能让世界朝着人工通用智能(AGI)和可催生大量认知科学突破的表示理论更近一步。

但是,使用目前尚未成熟的 LLM,或者其他随便哪种生成式 AI 工具,都伴随着很现实的风险。

鹦鹉学舌与信息污染

LLM 采用海量信息(3000 亿词,大部分是从互联网上刮取的)训练,并通过自动联想来预测句子里的下一个词。因此,大多数科学家认为,LLM 并不能真正 “理解” 什么,也没办法真正思考。正如一些研究人员所说的,它们就是些 “随机鹦鹉”。不过,LLM 确实能以令人大呼神奇的方式结合上下文生成让人惊艳的文本流,往往还挺有用。

反馈循环是各种 ML 模型中的一类重要问题(也是 BIML 数年前引入的:“[raw:8:looping]”)。当时关于此问题的讨论如下:

模型被微妙的反馈循环搞乱了。如果模型的数据输出后续又作为输入反馈进同一个模型,会出现什么情况?提示一下,据传早期的谷歌翻译就发生了这种情况,当时机器翻译的页面被用来训练机器本身。场面十分欢乐。时至今日,谷歌通过自己的策略限制了一些翻译的搜索结果。

可以想见,互联网上可被轻松抓取的大量内容如果都是质量堪忧的 AI 模型生成的,然后这些 LLM 还开始输入自己产出的东西,会是怎生情况?这不就是信息污染吗?

如今,一些 AI 研究人员和信息安全专业人员已经开始对信息污染问题深感担忧,远远不断喷个不停的信息污染管道听起来实在是太糟糕了。

爹味说教即服务

LLM 堪称胡扯小能手。这些模型经常非常自信地表达错误观点和替代事实,并经常在对话中编造信息来证明自己给出的答案(包括似真还假的科学参考)。想象一下,如果互联网上刮取的普通知识(含有很多错误)被用来创建新内容,会造成什么后果?

这位终极 “回复男” 可不是未来我们想要的新闻故事撰写者。事实确实很重要,一切哪能全靠编?

复刻糟糕安全

LLM 的训练数据往往在很多方面都是有倾向性的。性别歧视、种族主义、仇外心理和厌女制度都可以且将基于最初在社会进步程度较低时收集的数据集建模。倾向性是 LLM 的一大严重问题,而操作层面的小修小补不太可能解决这个问题。

信任深度伪造(Deepfake)

深度伪造这个生成式 AI 的副作用已经引发讨论一段时间了。伪造或欺骗一直都是种安全风险,但现在我们面对的是造出轻易让人信以为真的高质量伪造品的能力。例举几个明显的最坏情况:左右市场、引发战争、激化文化分歧等等。一定要注意视频的来源。

自动化一切

LLM 之类生成式模型具备替代诸多工种的能力,包括低端白领工作。无数人都从自己的工作中获得足够的满足感,如果不管愿不愿意,所有这些工作都被更廉价的机器学习(ML)系统替代,会出现什么状况?比如说,本地体育报道和营销文案的编写内容创建工作就已经被此类模型替代了。应该由 LLM 来编写文章吗?LLM 从事司法实践?那医疗诊断呢?

用好工具做坏事

生成式 AI 可以创建很多有趣的东西。还没玩过 ChatGPT 的同仁应该尝试一下。还没哪种新技术这么好玩的,问世之初的 Apple ][+ 和 Java applet 都没这么有意思。

但生成式 AI 的强大能力也可以被用于邪恶目的。例如,如果我们让 ML 负责设计新型病毒,要求既具备新冠病毒的传播能力,又具有狂犬病延迟发病参数,会出现什么后果?或者,让 ML 负责创造出花粉自带神经毒素的植物?如果普通人都能想出这些卑鄙用法,真正的恶人携手 ML 展开头脑风暴又会是怎生情况?

工具本不存在道德或伦理。而且,说实话,“保护提示” 的主意根本就是个做做样子的解决方案,跟用命令行过滤来保护超算访问权一样。

用破杯子装信息

现在得认真考虑数据护城河这事儿了。因为,如果 ML 模型(在人的帮助下)能够获得你的数据并以此训练,学习如何完美模仿你的行事风格,它还真会这么干。这会导致多种风险,最好通过仔细保护自身数据集来解决,而不是将自己的数据塞进 ML 模型还公开发布这一模型。在 ML 淘金时代,真正的金子其实是数据。

数据保护可不像听起来那么简单。不然为什么政府现行的信息分级系统老保不住保密信息?敏感数据和机密信息保护已然是项艰巨的任务,如果我们还有意用机密信息训练 ML 系统并面向全世界发布,后果可想而知。

如今存在数据提取和转移攻击,所以,往 ML 杯子里倒东西时仔细一点。

如何应对 LLM 风险?

那么,我们是否应该像某些技术专家出于私利地建议的那样,强行暂停 ML 研究几个月呢?没必要,这太蠢了。我们需要做的是识别这些风险,然后直面风险。

好消息是,我们正围绕保护 ML 系统构建一整个行业,即所谓机器学习安全(MLsec)。不妨看看这些新兴热门初创公司都在做些什么来管控 ML 风险,不过,记得要带着审慎理智的眼光看。

————————————————

转自链接:https://www.wangan.com/p/11v759c2128439d1


友情链接:

返回软协官网首页

通讯地址:北京市海淀区海淀南路甲21号中关村知识产权大厦A座2层206、207室     邮政编码:100080

电话:010-62565314 刘莉    京ICP证16064523号-2    版权所有:北京软件和信息服务业协会

技术支持:中科服    内容支持:鑫网安

你知道你的Internet Explorer是过时了吗?

为了得到我们网站最好的体验效果,我们建议您升级到最新版本的Internet Explorer或选择另一个web浏览器.一个列表最流行的web浏览器在下面可以找到.