投稿指南
一、本刊要求作者有严谨的学风和朴实的文风,提倡互相尊重和自由讨论。凡采用他人学说,必须加注说明。 二、不要超过10000字为宜,精粹的短篇,尤为欢迎。 三、请作者将稿件(用WORD格式)发送到下面给出的征文信箱中。 四、凡来稿请作者自留底稿,恕不退稿。 五、为规范排版,请作者在上传修改稿时严格按以下要求: 1.论文要求有题名、摘要、关键词、作者姓名、作者工作单位(名称,省市邮编)等内容一份。 2.基金项目和作者简介按下列格式: 基金项目:项目名称(编号) 作者简介:姓名(出生年-),性别,民族(汉族可省略),籍贯,职称,学位,研究方向。 3.文章一般有引言部分和正文部分,正文部分用阿拉伯数字分级编号法,一般用两级。插图下方应注明图序和图名。表格应采用三线表,表格上方应注明表序和表名。 4.参考文献列出的一般应限于作者直接阅读过的、最主要的、发表在正式出版物上的文献。其他相关注释可用脚注在当页标注。参考文献的著录应执行国家标准GB7714-87的规定,采用顺序编码制。

专家:部分AI伦理研究仅起到洗白作用,应思考重

来源:经济与社会发展研究 【在线投稿】 栏目:综合新闻 时间:2021-08-19
作者:网站采编
关键词:
摘要:人工智能的伦理规则应该如何与技术创新相协调?如何重塑公众对科技公司的信任? 8月3日,多位专家在2021全球数字经济大会人工智能产业治理论坛上就此展开讨论。 曾毅,中国科学

人工智能的伦理规则应该如何与技术创新相协调?如何重塑公众对科技公司的信任? 8月3日,多位专家在2021全球数字经济大会人工智能产业治理论坛上就此展开讨论。

曾毅,中国科学院自动化研究所研究员,国家下一代人工智能治理委员会委员,联合国教科文组织人工智能特设专家组专家伦理说,治理和发展从来就不是一种竞争关系,真正为人类和生态创造可持续的人工智能。同时需要注意的是,伦理规则的技术实施还存在诸多瓶颈。

中国社会科学院哲学研究所科技哲学研究室主任、科技与社会研究中心主任段伟文指出,根据新的治理环境,行业应着眼于“长期主义”,重建社会对科技公司的信任,否则将难以长期发展。


论坛现场。图片来自瑞莱智慧

1

以赚钱为目标,可持续的AI难以实现

人工智能应该先治理还是先发展?曾毅表示,治理与发展从来没有竞争关系。实现人工智能的稳步发展,前提是真正实现为人类和生态创造可持续的人工智能。

要实现人工智能的可持续性,首先要实现技术本身的可持续性。曾毅表示,一些看似智能但实际上知之甚少的信息处理工具并不是真正可持续的人工智能。担心影响会带来大问题。相反,如果我们创造出真正的人工智能,并将其应用于人类生态、社会和世界的健康发展,并将负面影响降到最低,这样的技术才是可持续的。

此外,曾毅还强调,将人工智能应用于社会并不是可持续发展的目标,而是可持续发展的人工智能。例如,目前很多公司将人工智能应用于健康和教育,但它也可能对健康和教育产生负面影响。一些公司瞄准这两个领域,因为它们有很多机会并且可以赚钱。但是,如果每个人的目标都是用人工智能赚钱,人工智能就很难帮助全球可持续发展。

“因此,治理和发展哪个优先是没有问题的,只有两者相互配合,才能实现可持续发展的愿景。”曾毅说:“没有它就不行。”

p>

2

伦理规则的实施面临技术瓶颈

不过,曾毅指出,人工智能的一些伦理规则的制定相对容易,但技术落地还存在不少瓶颈。

“人工智能真的合乎道德吗?目前的情况令人痛苦。”比如曾毅在很多西方国家禁止人脸识别,但并没有引起企业的太大反对。一个不争的事实是,公司可以找到替代方案。禁用人脸识别时,还可以使用固态识别、指纹识别、声纹识别等。事实上,人脸识别存在隐私泄露、违反公平、算法歧视等问题,其他识别方式也存在。这些技术还没有进入大众视野,所以没有被重视,但是禁用人脸识别技术并不代表问题就真的解决了。

曾毅引用的另一个例子是数据撤回。用户不再同意授权,可以从数据库中删除用户信息。但实际上,删除人工智能模型和服务中的用户数据和特征在技术上是极其困难的。几乎没有人可以在避免冲突的同时删除深度学习模型中的单个用户信息。训练结果的影响。可以采取的方法是对人工智能模型进行再训练,但训练成本非常高,一些大型模型甚至需要500万元一次训练。所以目前的情况是,更多的公司会选择不更新。

联邦学习技术可以让不同的开发者在不共享自己的数据的情况下对数据模型进行联合学习,但这避免了用户是否同意共享数据的问题。否则,将违反知情同意原则。拆分私有数据在数据库时代曾经非常有用,但人工智能模型的引入会使识别率降低10%到30%。为了保护隐私或者保证服务效率,这对于企业来说也是一个非常艰难的选择。

“可以看出,在我们对道德规则的设想中,技术在实施的时候会遇到很多困难,因此需要设计师、开发人员、供应商、部署人员和管理人员共同努力。”曾毅说。

3

科技企业要重视社会信任重建

值得注意的是,曾毅观察到,在在全球范围内,目前谈论道德最多的人工智能公司,其道德问题也最多。这说明人工智能的伦理研究与技术研发之间存在脱节。

曾毅发现,有的公司建立了自己的伦理研究团队,有的公司是广告、公关等团队承担了这项任务。他们负责与公众、政府、媒体、学术界和潜在用户进行沟通。交流,但很难将伦理研究的结果应用到设计、研发、部署等步骤中,只能起到“伦理清洗”的作用。

对此,段伟文表示,行业应着眼于“长期主义”,重建社会对科技公司的信任,否则很难长期发展。


文章来源:《经济与社会发展研究》 网址: http://www.jjyshfzyj.cn/zonghexinwen/2021/0819/1677.html



上一篇:数字经济时代,如何推动数字文旅高质量发展?
下一篇:医药零售行业发展趋势研究

经济与社会发展研究投稿 | 经济与社会发展研究编辑部| 经济与社会发展研究版面费 | 经济与社会发展研究论文发表 | 经济与社会发展研究最新目录
Copyright © 2018 《经济与社会发展研究》杂志社 版权所有
投稿电话: 投稿邮箱: