张钹:做负责任的人工智能
发布日期:2022-11-30      作者:清华大学人工智能研究院名誉院长张钹       来源:      分享:

2022年世界互联网大会乌镇峰会人工智能与数字伦理论坛已圆满结束。论坛以“人工智能的产业方向与伦理取向”为主题,以演讲+圆桌的方式进行对话研讨,推动国际社会在人工智能伦理研究和治理体系构建等方面实现思维碰撞和交流互鉴。共有国内外知名专家学者和产业界代表近200位嘉宾线下参会。本次论坛是行业群英荟萃的一次活动,规模大、层次高、成效好。

清华大学人工智能研究院名誉院长、中国科学院院士张钹视频发言。张钹聚焦论坛主题,交流观点,为人工智能发展与数字伦理建设提出权威性、代表性的对策建议。


张钹指出,本世纪初,基于大数据的深度学习被广泛应用在各个领域,用来完成决策、预测和推荐等任务,给人类社会带来很大影响。但是,基于大数据的深度学习算法,具有不透明、不可控和不可靠等缺陷,导致人工智能技术很容易被无意误用,可能给人类社会带来严重的后果。

人工智能的发展带来对伦理和传统规范的冲击。深度学习算法的不安全、不可信和不可靠,同时给有意的滥用带来了机会。人们可以恶意地利用算法的脆弱性,对算法进行攻击,导致基于该算法的人工智能系统失效,甚至做出相反的破坏行为。深度学习还可以用来造假,即所谓的深度造假,通过人工智能的深度造假,可以制造出大量逼真的假新闻、假视频、假演说等等,扰乱社会的秩序,诬陷无辜的人。

人工智能无论是被有意的滥用还是无意的误用都需要治理,不过这两者的治理性质完全不同,前者要靠法律的约束和社会舆论的监督,是带有强制性的治理。后一种则不同,需要通过制定相应的评估准则和规则,对人工智能的研究开发和使用过程,进行严格的科学评估和全程监管,以及问题出现之后可能采取的补救措施等,避免人工智能被误用。

 张钹认为,从根本来讲,人工智能的研究、开发都需要以人为本,从公正公平的伦理原则出发做负责任的人工智能。为此,需要建立可解释的人工智能理论,在此基础上才有可能开发出安全、可信、可控、可靠和可扩展的人工智能技术,最终推动人工智能的公平、公正和有益于全人类的应用和发展。这就是发展第三代人工智能的思路。

人工智能的研究和治理都需要全世界不同领域的人员参与和合作,除从事人工智能的研发和使用人员之外,还需要法律、道德、伦理等不同领域人员的参与,需要明晰伦理道德的标准,什么是符合道德和伦理。不同的国家、民族团体和个人,都有不尽相同的认识,因此需要全球范围的合作,共同制定出一套符合全人类利益的标准。只有人工智能的研究开发和使用人员,人人都遵守共同制定的原则,才能让人工智能健康地发展,并造福于全人类。


友情链接:

返回软协官网首页

通讯地址:北京市海淀区海淀南路甲21号中关村知识产权大厦A座2层206、207室     邮政编码:100080

电话:010-62565314 刘莉    京ICP证16064523号-2    版权所有:北京软件和信息服务业协会

技术支持:中科服    内容支持:鑫网安

你知道你的Internet Explorer是过时了吗?

为了得到我们网站最好的体验效果,我们建议您升级到最新版本的Internet Explorer或选择另一个web浏览器.一个列表最流行的web浏览器在下面可以找到.