打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
世界经济论坛发布!《关于负责任的生成式人工智能的建议》


来源:元战略

作者:元战略观察员



生成式AI发展前景广阔,可通过技术创新引发社会各业深刻变革,为确保生成式AI沿着正确的方向发展,各利益相关方有必要在设计和研发之初就担负起相应责任,发展负责任的生成式AI。基于此背景,世界经济论坛在2023年4月26日召开“负责任的AI领导力:生成式AI全球峰会”,旨在指导技术专家和政策制定者负责任地开发和管理生成式AI系统。该峰会重点强调开放式创新和国际合作,为AI利益相关方提供实用建议,涉及生成式AI的设计、构建和部署。100多名AI思想领袖和从业人员参加了此次峰会,其中包括首席科学官、负责任的AI和伦理领导、学术领袖、AI企业家、政策制定者、科技投资者和民间社会成员。与会者讨论了生成式AI的设计、开发、发布和社会影响等,并给出了相关建议。

2023年6月14日世界经济论坛发布《关于负责任的生成式人工智能的建议》,报告提出了30项实用建议,旨在引导AI推动人类进步。这些建议涉及生成式AI整个生命周期的三个关键主题:负责任地开发和发布,开放创新和国际合作,以及社会进步。通过实施这些建议,利益相关者可以驾驭AI发展的复杂性,并以负责任和合乎道德的方式挖掘其潜力。

一、负责任地开发和发布生成式AI


     


本节评估了保护社会免受生成式AI所引发风险的必要性,呼吁在研发和部署阶段引入负责任战略。以下建议主要针对AI开发者、政策制定者和用户,旨在促进AI研发和部署流程的问责和包容,从而提升人们对生成式AI的信任,增强其透明度。

1建立准确和通用的术语

在讨论生成式AI模型的能力、局限性和问题的设计、开发、评估和衡量时,所有利益相关者都需要使用准确的术语。专家们有责任对术语进行定义和标准化。一旦达成共识,所有利益相关方必须一致采用这一术语。这种方法将提高清晰度,促进有效沟通,从而使各方达成共识。最终,它将促进为一系列生成式AI应用制定强有力的标准、指导方针和法规。

2提高公众对AI优缺点的认识

公共和私人利益相关方应优先考虑增进公众理解这一任务。这包括让公众理解与生成式AI模型相关的术语。此外,利益相关者应告知用户生成式AI模型的概率(指其输出不是确定的,而是基于概率的)和随机(指其运行涉及一定程度的随机行为)性质,同时对其性能设定准确的预期。

3关注人类的价值观和偏好

如何使AI生成模型符合人类的价值观和偏好,我们需要进一步认识和解决这一挑战。AI系统的开发者在设计AI模型时,应参与有关规范性价值观和偏好的讨论。

4鼓励协作和参与

公共和私营部门的利益相关者应认识到,AI系统要真正与用户群保持一致,就必须要有高质量、多样化和具有代表性的反馈。政策制定者应促进不同利益相关者(包括非技术利益相关者)参与AI研发,以确保开发内容与人类价值观保持一致。AI开发人员应努力促进来自广泛参与者的互动和反馈,从而创建一个更具包容性和以人为本的开发流程。

5在探索新的量化指标和标准时,通过严格的基准和特定案例测试来维护AI问责制

AI开发人员应认识到,不仅要让模型对既定的最高基准负责,还要找到传统基准之外的新指标,并转向其他以人为本的维度。基准测试应辅以特定应用和任务定义的测试,以确保对生成式AI模型进行全面评估。

6雇佣多样化的红队测试(red teams)

红队测试(red teaming)是一种批判性分析方法,旨在找出潜在的弱点、薄弱环节和需要改进的地方。这里的多样性是指吸纳来自不同性别、背景、经验和观点的成员,以进行更全面的批判。公共和私营部门应实施各种框架和方法,以促进红队的全面工作。

7采用透明的发布策略

AI生产商应负责任地发布AI模型,在不影响安全性的前提下向公众提供这些模型。负责任的发布战略应在项目构思和产品设计的上游阶段启动,以确保在整个开发过程中识别并降低潜在风险。

8启用用户反馈

应赋予用户强大的控制能力,使其能够对模型输出提供实时反馈。此外,还应让用户全面了解所生成内容的相关限制和责任。

9嵌入模型和系统可追溯性

开发人员和政策制定者应认识到,在整个AI生命周期中,从数据来源到培训场景再到实施后期,围绕可追溯性建立正式的评估和审计结构非常重要。

10确保内容的可追溯性

为提高透明度和问责制,开发AI生成内容的公司应负责追踪内容的生成过程并记录其来源,这将有助于用户辨别人工生成内容和AI生成内容之间的区别。

11披露非人类互动

在虚拟环境中,人类应该知道自己是在与人类互动还是在和机器互动。AI提供商应开发支持这一机制,例如通过水印。

12建立人类与AI间的信任

要建立对AI系统的信任,开发人员和公司应优先考虑透明度、一致性以及满足和管理用户期望。AI开发人员的流程和决策应该透明,让用户了解他们是如何得出结果的。通过关注这些方面,AI开发人员可以创建促进人与AI积极互动的系统。

13实施逐步审查程序

政策制定者和企业应该为AI模型和产品创建一个逐步审查的流程。这应该类似于临床试验或汽车制造中使用的详细检查,包括产品上线前后的检查。应由独立审计师或国际机构对此进行监督,以确保统一评估和持续监控。为帮助限制潜在风险和负面影响,可采用认证或许可制度。

14制定全面、多层次的衡量框架

政策制定者应强调正在进行的努力,并激励开发人员和标准化机构将重点放在创建和使用衡量框架上,强调社会技术系统,而不仅仅是技术性能。

15采用“沙盒”流程

AI开发者、标准制定机构和监管机构应在更灵活的“沙盒”开发环境上开展合作,同时制定新的相关治理和监督流程。沙盒可以证明AI系统经过了严格的测试和评估,以确保安全性、可靠性和合规性,从而有助于建立对AI系统的信任。

16适应不断变化的创意和知识产权环境

随着生成式AI影响内容创作,政策制定者和立法者有必要重新审查和更新版权法,以确保适当的归属以及对现有内容进行合乎道德和法律的再利用。

二、开放创新和国际合作


     


本节重点突出共享科学知识和加强国际合作的重要性。鉴于当前前沿研究能力大多掌握在少数几个国家的私营公司手中,学术研究人员仍将是科研探索中不可或缺的一部分,同时各国也应参与并影响生成式AI的管理。以下建议针对研发人员、AI开发者、标准制定机构和政策制定者,旨在提升开发、部署和管理生成式AI过程的透明度、问责制和包容性。

17鼓励公私部门进行科研合作

公私利益相关方应积极设计激励体系,促进学术研究人员和私营部门在整个技术开发生命周期中的协调。可以考虑的机制包括联合研究计划、数据共享协议和联合知识产权所有权。

18建立模型、工具、基准和最佳实践指南的共同登记册

生成式AI的生产者和研究人员应致力于开发共同和开放的注册表,包含研究界共享的源代码、模型、数据集、工具、基准和最佳实践指南,以便为学术界和私营部门提供合作平台,从而建立对公众透明和负责任的未来模型和系统。

19支持负责任的开放创新和知识共享

政策制定者和AI供应商应通过负责任地共享资源,包括数据、源代码、模型和研究成果,为AI民主化框架做出贡献;还应鼓励共享认证流程,确保利益相关者之间的透明度和信任。可制定一项公私长期倡议,建立面向公众的平台,提供对计算、数据和预训练模型的开放访问。该平台可被视为数字公益物,可跨境推广使用。

20加强AI标准方面的国际合作

标准机构必须促进AI标准方面的国际合作,确保所有AI利益相关方的参与,包括所有国家和地区。

21制定全球AI治理倡议

为应对AI技术带来的挑战和潜在风险,政策制定者应考虑致力于创建一个全球AI治理倡议。这一倡议应汇集来自广泛领域的专家,重点应放在:促进全球对负责任的AI的理解,确保广泛的包容性,促进基础设施的利用,以及促进合作,以协调国家层面的应对结构,应对AI的挑战和风险。

三、社会进步


     


本节探讨了阻碍AI驱动的转型的因素,涉及劳动力转型、教育变革、倡导AI造福社会的必要性、呼吁发展中国家使用AI。以下建议针对教育机构、社区组织、企业、个人、政策制定者和政府,旨在让社会充分了解AI引发的变革,顺应潮流,灵活应对。

22在开发和采用生成式AI时优先考虑社会进步

所有利益相关方都必须确保技术的社会影响始终处于前沿和中心位置。这就需要把重点从“技术熟练程度”转向“技术在促进社会进步方面的作用”。必须向受到AI社会转型影响的社区和工人提供全面支持,包括学习倡议、克服AI生成性具体挑战的指导,以及在AI影响的环境中引导固有的道德、社会和技术转变的援助,并让工人积极参与整个过程。

23推动全社会普及AI知识

教育机构和社区机构必须主动提高公众的AI素养。需要采取积极主动的方法来揭开生成式AI工具的神秘面纱,概述其潜在用途并讨论其道德影响。这将使个人有能力更好地理解AI,与之互动,并为不断发展的AI做出贡献,从而建设一个更加知情和参与性更强的社会。

24在AI驱动的环境中培养整体思维方法

培养批判性、计算性和负责任的多样化思维模式,使社会更好地适应AI时代。鼓励各部门和各社区培养这些核心能力,使个人有能力批判性地参与AI生成的内容,了解底层技术,并对其使用做出负责任的决定。

25引导生成式AI发挥积极作用

应对生成式AI对社会系统的变革性影响。了解其对人类互动、知识传播和评估机制的影响。主动适应不断变化的环境,支持可能因生成式AI而发生转变的角色,并探索创新方法来评估其在我们快速发展的数字生态系统中的影响,以利用其潜力推动积极的社会变革。

26激励社会公益创新

政策制定者应鼓励开发和实施生成式AI技术,优先考虑社会公益,解决复杂和未满足的社会需求,如医疗保健和气候变化方面的需求,以提高整体生活质量。

27弥补资源和基础设施上的差距

决策者应增加对国家和国际研究基础设施的公共投资。这包括努力确保研究人员(特别是那些来自代表性不足的地区和机构的研究人员)能够获得更多的计算资源。鼓励私营部门为数据集的开发做出贡献,支持政府为研究人员提供更多资源。

28在政府内部普及生成式AI专业知识

各国政府应投资培养AI专业人才,确保以知情、有效和负责任的方式制定公共政策,并监管这些变革性技术。通过利用有针对性的激励措施、私营部门合作和交流计划等机制,政府可以培养AI人才。在提高内部AI能力的同时,这一承诺对于确保这些技术在未来推动社会进步并有效服务于公共利益至关重要。

29增加发展中国家公平获得AI的机会

为确保所有人都能享受到生成式AI技术的益处,公私利益相关方应重点关注建立能够大规模提供支持和资源的举措,特别是在数字基础设施可能有限的发展中国家。努力的重点应是:提供资源、培训和专业知识,使AI更容易获得并具有包容性,同时促进跨部门的国家和国际伙伴关系,以在开发和部署生成式AI技术的过程中促进多样性和包容性。

30保护文化遗产

所有利益攸关方都需要为保护文化遗产做出贡献。公共和私营部门应利用当地社区和研究人员的专业知识,投资创建经过整理的数据集,并为代表性不足的语言开发语言模型。这将改善AI技术的使用,帮助保护语言多样性和文化遗产。

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
以人为本的八种方法
观中国丨你为未来“储蓄”够了吗?
《新加坡人工智能测试框架和工具包》12页2022.5
AI 正在解决错误问题|观点
人工智能正义联盟终于诞生了
西方旅游规划发展引发的思考
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服