当前位置:首页  〉 科研学术  〉 观点荟萃

文汇报:体现向善价值,给AI安一颗“良芯”,世界人工智能大会发出了这项行动建议

发布时间:2020-07-13 发布来源:文汇报

1.JPG

 

▲何积丰院士在WAIC治理论坛上做报告

 

人工智能(AI)正在不断“嵌入”人类社会:交通出行、住房家居、教育医疗、养老助残、文化体育……越来越丰富的应用场景也让人们对AI治理提出了迫切需求。在今天下午举行的2020世界人工智能大会云端峰会人工智能治理论坛上,针对人工智能应该如何“负起社会责任”这一话题,国内外30多位专家从技术、伦理、法律等不同角度进行探讨,倡议社会各方引导AI体现向善价值,“给AI安一颗‘良芯’”。

 

深度融入社会,AI必须“负起责任”

 

人工智能需要对社会“负责”吗?在不少人的意识中,AI仅仅是一种工具,但在专家看来,它必须“负起责任”。

 

图灵奖获得者、中国科学院外籍院士约翰·霍普克劳伏特在报告开场就提出,迄今为止,计算机决策规则一直是与人类决策一致的,但未来,计算机将根据从训练数据中得来的经验进行决策,“这是AI的本质,将对人类未来产生重大影响”。他举了一个极端的例子:有人违章横穿马路时被撞身亡,假使我们向AI要解决方案,它可能会建议我们直接拆除公路。

 

随着AI的普及,大量社会问题也将浮现,比如算法“黑箱”带来的歧视与偏见、AI自动驾驶错误而引发的交通事故等。如果这些判断来自人类,在法律上很容易认定责任主体,然而现在,人们首先要问的是:“AI能负责吗?”

 

2.JPG

 

▲王国豫在论坛报告中提出“发展负责任的AI是一个目标”

 

针对这一问题,复旦大学应用伦理学研究中心主任王国豫认为,AI产品可以自主地实现一定的功能,类似于某种“角色责任”。但一旦发生问题,AI不可能被问责,也无法承担道德责任和法律责任。至少在现阶段道德责任和法律责任只有人才能承担。因此发展负责任的人工智能是一个目标,它是以负责任的人、负责任的行为为前提的。

 

“负责任的AI,才是可持续发展的AI。”作为人工智能领域的创业者和技术从业者,旷视科技联合创始人兼首席执行官印奇认为,AI治理对于产业落地的意义非常深远——人工智能就像火之于人类文明,如果善待并加以合理利用,将可推进文明进程;如果运用不当,则可能引发灾难。

 

3.JPG

 

▲印奇介绍旷世科技对人工智能治理的探索

 

去年,旷世科技在企业内部成立了自己的人工智能治理委员会,并提出AI技术要“既问输赢,也问对错”的原则。比如,一种技术无论多么成熟、商业价值有多高,但如果有悖伦理、法律、社会习俗,企业就应选择不去研发,也不将其应用于产品中。

 

有“良芯”的AI需要技术环境共同驱动

 

一个AI智能体可能会面临许多责任拷问,比如它究竟对企业负责,还是对社会负责?很显然,人类必须给AI安一颗“良芯”,体现其向善价值。而要解决AI发展带来的道德伦理、隐私保护、安全风险等问题,需要技术与环境的共同努力。

 

只需对图像、音频、文本稍加干扰,就能让机器产生误判;后门技术也可生产虚假新闻、音频、视频……复旦大学计算机科技学院院长姜育刚在论坛上介绍了他的团队攻破这些AI伪造术上的一些方法:只需加入一个不起眼的小模型,就可使抗干扰成功率达到80%左右。在他看来,“攻防永远都是一对博弈和互促的技术,技术将会在AI治理中发挥极为重要的作用。”

 

在论坛报告中,从事可信人工智能研究的中国科学院院士何积丰提出,从技术源头建立起规范,让AI算法本身就具备安全、可信的素质,显得尤为重要。从技术角度,他将AI风险总结为数据安全和模型安全两大类问题。然而,现在不少人工智能安全技术还缺乏理论工具的支撑。他希望有更多年轻人投身这一领域,为夯实AI治理的基础贡献智慧。

 

4.JPG

 

事实上,AI不仅仅是一个技术系统,而是与人类社会经济系统、政治系统、文化系统等多维度情境结合在一起的。联合国人工智能和机器人中心主任伊拉克里·贝里泽透露,目前,全球执法机构均已将AI应用到各个领域,但在执法过程中会产生许多“边缘案例”。因此,要想真正利用好AI的力量,必须努力确保在遵循原则和国际法律的情况下负责任地使用。

 

近年来,全球正在就推动人与机器的和谐共生逐步达成共识。在我国,国家新一代人工智能治理专业委员会去年发布了以“发展负责任的人工智能”为主题的治理原则。此次论坛上,上海国家新一代人工智能创新发展试验区专家咨询委员会发布了“协同落实人工智能治理原则的行动建议”。这是国内首次提出的系统落实AI治理原则的综合行动方案,将为进一步推进AI治理提供参考。

 

 

  作者:许琦敏

  图片:WAIC治理论坛组委会提供

  责任编辑:任荃

 

分享到:

版权所有©上海市科学学研究所

沪公网安备 31010402001155号