数旗智酷编译 作者:娜塔莉·阿尔姆斯

到目前为止,美国联邦政府在生成式人工智能领域的应用还很有限。虽然联邦机构已经推出了1000多个人工智能用例,但它们尚未广泛利用 ChatGPT、谷歌Bard 和其它大语言模型来创建内容。

部分原因可能是缺乏发展方向。白宫在5月份宣布,管理和预算办公室计划在今年夏天的某个时候公布联邦政府使用人工智能的政策指南。截至本文撰写之时,各机构已经有了人工智能权利法案框架和国家标准与技术研究院的人工智能风险管理框架。

“我们之所以不关注‘机构是否具有符合法律或指南的人工智能应用要求’,是因为根本就没有具体的要求。”政府问责办公室信息技术与网络安全团队主任凯文·沃尔什(Kevin Walsh)说。

目前,微软正在必应搜索引擎和Edge浏览器中加入生成式人工智能应用插件。微软最近还向政府客户推出了 Azure 开放式人工智能服务,允许用户利用现有的大语言模型来开发基于人工智能的应用程序和服务。谷歌允许工作区管理员在其生产力套件中添加 Bard 功能。各机构正在研究如何在内部和面向公众的数字服务中使用生成式人工智能的功能。

AI进入政民互动领域

曾在公民技术非营利组织美国代码和美国劳工部工作,现任独立技术顾问的戴夫·瓜里诺(Dave Guarino)说,在政府项目文本上训练的大语言模型有可能让聊天机器人变得更有帮助。

“大部分政府机构的网站上都有非常多的常见问题解答,对吧?”瓜里诺说,“你可以想象一下,这些东西不是用来生成新的文本来回应一个人,而是用标准化的答案来回答一个问题。它的背后回应逻辑应该是‘在我们已知的这500个问答中,哪个看起来与这个问题最相似?’……在这种情况下,你使用大型语言模型的目的只是找出与他们最相关的内容。”

这项技术还可以走得更远。博思艾伦咨询公司(Booz Allen Hamilton)客户体验负责人圣地亚哥·米利安(Santiago Milian)表示,生成式人工智能提供了从阅读脚本到“实时生成脚本”的潜力,通过联系上下文语境以创造出“更自然的服务流程”。

“政府对人工智能没有具体的要求,只有一厢情愿的期望。”——凯文·沃尔什·高

一些机构已经在挖掘人工智能的潜力。人事管理办公室正在试点使用人工智能功能,引导退休人员和养老金领取者快速找到机构信息,并回答一些非常基础的问题。

AI支撑政府数据治理

生成式人工智能可以帮助解决长期存在的数据互操作性问题,快速识别常见的数据元素,并执行超出以往技术范围之外的重复数据删除任务。

Ad Hoc 已经与一家机构合作,使用 API 连接到谷歌的 BERT,以完成强制性拨款报告。Ad Hoc没有透露该机构的名称,因为它还没有获得公开谈论这项工作的许可。

BERT 是一个开源的大语言模型,像 ChatGPT 这样的生成式人工智能工具一样。Ad Hoc 公司的政府技术专家马克·海德(Mark Headd)解释说,它的目的是“从大量文本中获取意义”,而不是“生成新内容”。

Ad Hoc 公司的一篇博文称,该技术有助于通过非结构化数据对30%的数据库条目进行去重,这是“像精确字符串匹配这样的简单方法”无法做到的。

AI重写政府行政术语

生成式人工智能可以帮助政府以更易于理解的方式改写专用术语。

东北大学伯恩斯社会变革与政府实验室(Burnes Center for Social Change and GovLab)主任、新泽西州首席创新官、奥巴马白宫前副首席技术官贝丝·西蒙·诺维克(Beth Simone Noveck)说,“从来就没有足够的资源、足够的时间、足够的人去做这样的工作。这从根本上改变了游戏规则”。

人事管理局的高级技术官员最近在一次技术会议上告诉听众,未来该机构可以利用生成式人工智能工具来帮助重写过时的职位描述。

瓜里诺说,在福利领域,生成式人工智能的前后交互形式可以帮助工作人员在冗长的指南、政策和规则中找到他们需要的内容,甚至可以帮助他们理解如何应用复杂规则的逻辑。

风险与机遇

苏雷什·文卡塔苏布拉马尼安(Suresh Venkatasubramanian)是布朗大学计算机科学与数据科学教授,他在担任科技政策办公室工作人员期间,与他人共同撰写了《白宫人工智能权利法案蓝图》。

其中一个风险是准确性。众所周知,这些工具会产生与事实不符的“幻觉”,而不是基于事实。苏雷什·文卡塔苏布拉马尼安告诉本媒体,生成式人工智能应用程序“没有正确与否的概念,本质上是预测模型,用来预测……它们训练过的文本”。

他说,政府将不得不面对有关“技术供应商如何构建系统”、“输入系统的数据会发生什么”等问题。

SAS 公司全球政府业务主管史蒂夫·贝内特(Steve Bennett)指出,另一个风险是,员工可能会在不了解生成式人工智能陷阱的情况下盲目接受其承诺。他说,“你不希望政府员工对技术了解不够,以至于无法说‘我不相信这个结果’。”

即便如此,东北大学的诺维克还是提出了另一种风险框架:未能从生成式人工智能中获得潜在好处的“机会成本”。

她问道,“我们该如何更加积极主动地抓住机遇,而不只是担心风险?”我们对政府的信任度正处于历史最低点。更糟糕的是,对民主的信任度正在下降。我们不能再让政府的效率降低,不能再让这些信任度下降了。

 

【原文地址】https://www.nextgov.com/artificial-intelligence/2023/07/what-will-federal-government-do-generative-ai/388563/