天天看点

美国总统科学技术顾问委员会发布:《赋能研究:利用人工智能应对全球挑战》

作者:全球技术地图
美国总统科学技术顾问委员会发布:《赋能研究:利用人工智能应对全球挑战》
美国总统科学技术顾问委员会发布:《赋能研究:利用人工智能应对全球挑战》

2024年4月29日,美国总统科学技术顾问委员会(PCAST)发布《赋能研究:利用人工智能应对全球挑战》(Supercharging Research: Harnessing Artificial Intelligence to Meet Global Challenges)报告。报告提出了人工智能加速研究的五大发现和相关建议,旨在推动安全、有效地应用人工智能,增强人类研究人员的能力,探索科学的可能性,并在日益数字化的世界中降低风险。元战略梳理报告重要内容,为读者探讨利用人工智能加速科学研究提供参考。

一、人工智能赋能研发的未来愿景

鉴于人工智能技术(尤其是生成式人工智能)在科学应用方面的快速发展,很难预测随着人工智能技术的融入,科学工作流程将如何以及何时发生演变。因此,关于如何利用人工智能加速科学研究需要持续关注以下三个领域:

(1)授权人类科学家广泛应用人工智能工具;

(2)负责任地使用人工智能工具;

(3)共享人工智能基础资源。

美国总统科学技术顾问委员会发布:《赋能研究:利用人工智能应对全球挑战》

图 利用人工智能加速科学研究需重点关注的三大领域

共享人工智能基础设施(如提高高性能计算集群上的使用时间)将使科学家能够使用和了解先进的人工智能工具。这有助于制定负责任使用人工智能的共同标准,并通过向所有机构的研究人员提供使用机会来提升公平性。负责任地使用人工智能工具将鼓励以安全的方式共享模型和数据,并促进人工智能辅助研究项目的周密设计,以提高科学产出的质量。授权人类科学家广泛应用人工智能工具将为科学界解决紧迫的挑战提出创新的方案,从而证明对共享资源和负责任地使用人工智能的投资是合理的,并能够建立一个利益相关者社区,以继续发展和巩固这些投资。

二、人工智能加速研究的五大发现及建议

发现1:重要的研究因无法获得先进模型而受阻。

科学研究是一项合作性工作,为了使一组研究人员的研究成果能够被其他研究人员复制、验证和借鉴,必须向研究人员广泛提供数据和模型。目前,规模最大、功能最强大的人工智能模型通常都是专有的,只有部分研究人员才能使用,因此很难独立验证这些模型的相关研究。如果这种情况持续下去,有可能在人工智能领域制造新的“数字鸿沟”,以及潜在的“人工智能单一文化”,即人工智能应用依赖于极少数的供应商或架构。当不同的假设和方法处理同一个问题时,研究和科学方法就会蓬勃发展,因此,“人工智能单一文化”会阻碍科学进步,因为它可能会错过更好的答案。目前,获取尖端人工智能模型的成本,以及领先的科技公司与学术或政府机构之间回报的巨大差异,使得人工智能发展不均衡。此外,为了解如何以负责任的方式部署这些强大的人工智能模型,以及发现和应对不负责任地使用这些人工智能工具所造成的影响,开展研究以探究人工智能系统的各种弱点和偏差,并尽可能准确地量化减轻人工智能系统缺陷各种方法的有效性,是一个关系到公众利益的重要问题。由于人工智能模型的性能在很大程度上取决于其规模,因此,所有人工智能基础研究人员都必须能够使用小型和大型模型。公共部门和私营部门在使用人工智能方面有着不同的动机和目标,但它们可以进行有价值的合作,以创造一种负责任地使用人工智能的文化。

建议1:扩大现有实践,广泛且公平地共享人工智能基础资源。

为了以开放和具有成本效益的方式支持科学需求,鼓励实验和创新,必须为共享人工智能模型、数据集、基准和计算资源提供更多的支持。这不仅有利于大型人工智能公司,也有利于学术研究人员、国家和联邦实验室、较小的公司和非营利组织。在美国,这方面的相关实践是创建和资助国家人工智能研究资源(NAIRR),就其目前的规模而言,NAIRR试点项目无法提供与私营部门(其大多数模型都是封闭源代码和专有的)或其他国家类似的项目同等规模的计算资源或模型。但进一步扩大这些共享资源将是重要的第一步,可使广大研究人员充分受益于现有最先进的人工智能模型,同时避免重复劳动。

发现2:尖端研究需要访问高质量数据。

未来的尖端研究将越来越多地由数据驱动,机器学习技术的训练尤其依赖于大量高质量的数据集。例如,成功的蛋白质折叠模型就是在现有的数十万个蛋白质结构数据库上训练出来的。人工智能气候模型依赖于各种现有数据,包括历史记录、超级计算机模拟、卫星数据以及使用再分析方法的三者组合。

联邦政府拥有许多额外的数据集,这些数据集对于许多科学应用以及重要挑战的知情决策而言都是非常宝贵的,这些数据的更多价值仍有待挖掘。私营部门创建的数据也有可能改善公共福利。例如,私营部门更常掌握化合物和材料的化学和物理特性数据。许多联邦数据集包含敏感的个人信息,因此不能公开发布;然而,在保护个人隐私的同时,仍有可能利用这些数据开展科学研究,例如,限制对汇总和匿名信息的访问,或使用从基础数据中提取的合成数据集。

建议2:在有适当保护和保障措施的情况下,扩大对联邦数据集的安全访问,以满足关键研究需求。

安全访问联邦数据的问题既敏感又在技术上十分复杂,尽管如此,允许经过批准的研究人员有限度地访问此类数据,以及将此类数据集的匿名版本发布给资源中心(如未来的国家人工智能研究资源或国家安全数据服务)的好处是巨大的,因此应鼓励扩大现有的安全数据访问试点计划。此外,还可以进一步发展现有的联邦数据库管理指南,将隐私保护技术的前沿发展纳入其中,如差别隐私、同态加密、联合学习以及合成数据的使用。虽然原始数据集,尤其是标注了相关“元数据”的数据集对于传统数据科学和最新的人工智能数据分析而言,已经具有重要的研究价值,但经过更精心策划和维护、专门面向研究用途的数据库将在多个科学领域产生更具变革性的影响。目前,高质量的数据整理是一项昂贵而艰巨的任务,需要大量专业人员进行工作,利用人工智能技术实现整理过程的自动化具有巨大潜力。未来,我们预计使用人工智能工具将许多现有的联邦数据集升级为这种高质量的数据库是可行的,我们建议将其作为联邦数据共享计划的长期目标。

发现3:人工智能为学术界、产业界和联邦政府各部门之间的合作提供了独特的资源。

美国产业界投资数百亿美元用于基础和应用人工智能研究。美国国家科学基金会(NSF)最近宣布投资1.4亿美元,建立7个新的国家人工智能研究所,这些研究所包括国家人工智能研究资源试点计划,涉及到NSF的各个部门。这些研究所提供的人工智能基础设施,以及人工智能本身所具有的跨学科性质,将促成高度跨学科的研究。相关资源还可以将美国政府和联邦实验室及用户设施、私营企业以及基础科学和应用科学领域的学者聚集在一起,开展新颖的、可能具有变革意义的合作。这些平台正在开发数据共享基础设施,同时将人工智能工具作为社区建设的一部分,并计划引入其他机构和更多行业合作伙伴。

建议3:支持涉及学术界、产业界、国家和联邦实验室以及联邦机构合作的人工智能基础和应用研究。

联邦政府资助的学术研究与私营部门研究之间的界限模糊不清,许多研究人员隶属于学术机构、非营利组织和/或私营公司,目前美国有很大一部分研究和研发工作由私营公司提供支持。为充分利用人工智能的潜在研究效益,需要支持涉及各种有前景、有成果的假设和方法的研究。这可能需要资助机构在如何与产业界合作以及哪些研究人员可以得到支持方面放宽姿态,以促进创新研究工作和不同部门之间的合作。虽然私营人工智能部门可以为合作带来大量非常有益的计算资源、专业知识和资金,但需要确保行业合作伙伴的市场激励与项目的公共和科学目标相一致,同时在一开始就明确知识产权和许可计划。跨部门合作的例子可包括从多个来源创建高质量的公共科学数据集,创建多模态基础模型,或开发新的量子计算机量子位架构等下一代技术。随着人工智能领域的快速发展,联邦机构和私营部门将需要探索和重新评估新兴的国家人工智能基础设施需要如何发展。

发现4:没有适当的基准指标、验证程序和负责任的实践,人工智能系统可能会提供不可靠的输出结果,其质量难以评估,而且可能对科学领域及其应用有害。

科学研究是一个相互关联的生态系统,一个研究小组的研究成果、模型和数据将影响其他研究人员在基础和应用领域的工作。如果不负责任地使用人工智能工具,可能会对这个生态系统产生负面影响,因为这些研究结果会受到算法偏差的影响,无法复制,缺乏对其不确定性的量化,过度拟合训练数据而牺牲了与真实世界数据对比的准确性,或者无法通过更透明的技术(如数值模拟和实验室实验)进行验证。此外,个人数据隐私或数据创建者的知识产权必须得到保护和尊重。从长远来看,发布标签不当的合成数据可能会导致“数据污染”,对进一步的科学工作产生负面影响。如果在没有专家监督的情况下部署全自动人工智能工具,将带来极高的风险。学术界必须制定和完善依靠人工智能输入的研究和数据的出版标准。高等教育机构需要对初级科学家进行现代化培训,使他们能够充分利用新的人工智能工具,能够独立验证和衡量这些工具的产出,并以合乎道德和负责任的方式使用它们。科学进步的步伐越来越快,这也要求研究人员和政府科学机构进行更高水平的双向公众参与。一些双重用途的研究应用,如生物病原体的功能增益研究,将需要更高水平的监测、监管和监督。

建议4:在科学研究过程的所有阶段采用负责任、透明和可信的人工智能使用原则。

美国国家科学基金会(NSF)和美国国家标准与技术研究院(NIST)等机构应继续支持负责任和可信赖的人工智能的科学基础研究,包括制定衡量人工智能标准的基准、人工智能模型的特性(如准确性、可重复性、公平性、弹性和可解释性),并开发工具来评估数据集的偏差,区分合成数据和真实世界的数据。各机构应征求这些领域的研究人员以及社会和行为科学相关学科的意见,以帮助制定负责任的人工智能使用政策。这些政策需要随着我们对这些技术的理论和实践的理解不断更新。我们鼓励人工智能技术的开发者和使用者、政策制定者以及人文、法律和社会科学领域的专家就人工智能治理、使用和影响等更广泛的话题继续开展对话。由于围绕治理工具的行业整合日益加剧,一小部分技术和咨询机构控制了大部分市场,因此广泛的对话和多样化的投入尤为重要。与此同时,管理在人工智能的应用中产生的不准确、有偏见、有害或不可复制的研究结果的风险,这不应仅在科研项目进行的时候考虑,而是需要从项目的初始阶段就开始规划。联邦资助机构应考虑更新其负责任的研究行为指南,要求使用此类技术的研究人员制定负责任的人工智能使用计划。这些计划应包括对潜在人工智能相关风险的评估,如算法偏差、敏感信息披露、结果缺乏透明度或和可重复性,或潜在的有害应用,并说明为降低这些风险所采取的措施,特别是说明任何自动化流程的相关监督程序。这些要求可仿照现有的数据管理计划要求,并以《人工智能权利法案蓝图》和NIST发布的《人工智能风险管理框架》为蓝本。为尽量减少研究人员额外的行政负担并建立责任文化,各机构可帮助列举主要风险并提供潜在的风险缓解流程。此外,还可以更新数据管理计划要求,要求披露和记录研究项目中所使用的人工智能工具。

发现5:最佳性能需要人工智能和人类专业知识的结合。

人工智能最有效、最有价值的应用是以辅助工具的形式帮助科学和研究解决紧迫问题。此外,就目前的技术成熟度而言,生成式人工智能资源还太不可靠,无法实现独立于人类监督或干预的全自动化连续运行,尤其是在准确性、可解释性和可复制性至关重要的科学领域。此外,人类智能和人工智能的优势在很大程度上是互补的。人工智能可以不知疲倦地从庞大的数据集中找出规律并执行重复性任务,而人类则可以从数量少得多的数据中推断并得出结论,进行系统性和战略性推理,并与其他人类和人工智能助手协调行动。目前的人工智能工具在展示真正的创造力、分析或高层次战略思维方面仍然相当薄弱。即使在未来的世界中,人工智能辅助工具已经非常普遍,而且除了目前最先进的人工智能模型(如大语言模型)之外,还有更多的人工智能技术可用,我们预计科学研究仍将继续由人类科学家指导。科学家们将利用人类特有的能力,从相对较少的数据中得出高层次的结论,以补充人工智能从大型数据集中生成建议和联系的能力,并将研究中更为常规和乏味的过程自动化。

建议5:鼓励将人工智能辅助集成到科学工作流程中的创新方法。

科学研究是一个绝佳的“沙盒”,研究人员可在其中实践、探索和评估人类与人工智能助手之间合作的新模式。此类范例可包括:科学咨询人工智能代理,作为复杂软件或实验室设备操作的复杂自然语言界面;将生成式人工智能算法与人类专家反馈和验证方法(或其他类型的人工智能系统)相结合,以提高生成式人工智能的准确性;或使用人工智能工具,以其他方式无法实现的规模,开展跨学科、分散或众包研究项目。我们的目标不应该是最大限度地提高自动化程度,而应该是利用互补性,让人类研究人员在负责任地使用人工智能的情况下进行高质量的科学研究。资助机构应认识到新工作流程的出现,并设计灵活的程序、衡量标准、资助模式和挑战问题,鼓励(但不强制)以新的人工智能辅助方式组织科学项目的实验。更广泛地说,激励结构可能需要更新,以便能够支持不同类型的科学贡献,例如,利用人类专家的反馈来训练人工智能系统,开发专门针对科学应用的新人工智能软件工具,或整理高质量且可广泛使用的数据集。这些贡献可能无法通过传统的研究生产力指标得到应有的认可。新的衡量标准将补充传统的衡量标准,并使人们更充分地了解研究人员对科学进步做出的各类贡献。

三、结论

当今世界迫切需要科学进步来应对各种全球和社会挑战。人工智能工具如果能得到人类专家适当和负责任的监督,在高质量数据基础上进行培训,并使用可靠的科学技术进行验证,就能成为创新的引擎,为科学家和政策制定者应对这些挑战的能力增添动力。为实现这些目标,需要向科学界广泛提供先进的模型、数据集和基准,需要将负责任的人工智能实践融入科学工作流程,还需要对人工智能的基础及其各种科学应用进行持续投资。虽然建立这样一种人工智能基础设施和科学文化需要巨大的资源和努力,但也将产生巨大的回报:一个广泛且公平的研究与开发生态系统,既开放又安全。在这个生态系统中,科学思想可以迅速转化为实验、原型和解决紧迫问题的成功方案。人工智能工具可以补充传统的研究工作,依靠人工智能辅助,但由人类指导的合作与研究范式仍然符合验证、可复制性和客观性的最高科学标准。人工智能技术可在科学领域做出重大贡献,但我们必须保持警惕,严格识别和管理其弱点和风险。虽然人工智能将是这一变革的手段方法,但最终增强能力的将是人类。无论是科学家还是普通大众,通过提高合作能力来应对重大挑战,并更深入地了解我们周围世界的复杂性。我们应热情拥抱这一机遇,充分认识到如果不负责任地使用这些人工智能工具可能带来的风险,确保在利用人工智能加速科学研究的同时,坚守以人为本的理念,以应对全球挑战。

免责声明:本文转自元战略。文章内容系原作者个人观点,本公众号编译/转载仅为分享、传达不同观点,如有任何异议,欢迎联系我们!

转自丨元战略

美国总统科学技术顾问委员会发布:《赋能研究:利用人工智能应对全球挑战》

研究所简介

国际技术经济研究所(IITE)成立于1985年11月,是隶属于国务院发展研究中心的非营利性研究机构,主要职能是研究大陆经济、科技社会发展中的重大政策性、战略性、前瞻性问题,跟踪和分析世界科技、经济发展态势,为中央和有关部委提供决策咨询服务。“全球技术地图”为国际技术经济研究所官方微信账号,致力于向公众传递前沿技术资讯和科技创新洞见。

地址:北京市海淀区小南庄20号楼A座

电话:010-82635522

微信:iite_er

继续阅读