麻省理工学院表示,生成式人工智能工具的大规模采用正在破坏一个非常重要的因素

跨境快讯 2024-02-01 12:08:43 woniu
2
导读:《麻省理工学院斯隆管理评论》和 BCG 的一项研究警告称,人工智能的快速发展正在创造“影子人工智能”,使得负责任地使用人工智能变得更加困难。


新的人工智能(AI) 平台和工具每天都在涌现,为开发人员、数据科学家和业务分析师提供帮助。然而,新兴技术的快速增长也增加了人工智能星座的复杂性,远远超出了人工智能系统的责任和问责能力。

这是麻省理工学院斯隆管理评论和波士顿咨询集团(麻省理工学院 SMR 和 BCG)最近发布的一项针对 1,240 名高管的调查得出的结论 ,该调查研究了负责任的人工智能计划的进展以及内部构建和外部采购的人工智能工具的采用情况:研究人员称之为“影子人工智能”。

该研究的作者 Elizabeth Renieris(牛津人工智能伦理研究所)、David Kiron(麻省理工学院 SMR)和 Steven Mills(BCG)表示,人工智能的前景伴随着后果:“例如,事实证明,生成式人工智能很笨拙,无法预测。未为其广泛用例做好准备的组织面临风险。”
雷尼尔斯和她的合著者观察到,许多公司“对影子人工智能在整个企业中的广泛使用感到措手不及”。更重要的是,人工智能进步的快速步伐“使得负责任地使用人工智能变得更加困难,并且给负责任的人工智能项目带来了跟上步伐的压力。”

他们警告说,不断上升的影子人工智能带来的风险也在增加。例如,公司对不断增长的第三方人工智能工具供应的依赖日益增加,以及生成式人工智能算法(例如ChatGPT、Dall-E 2和Midjourney)的快速采用,这些算法使用训练数据生成真实或看似真实的数据事实文本、图像或音频——使他们面临难以追踪的新商业、法律和声誉风险。

研究人员提到了负责任的人工智能的重要性,他们将其定义为“一个包含原则、政策、工具和流程的框架,以确保人工智能系统的开发和运行为个人和社会服务,同时仍能实现变革性的业务影响” ”。

研究人员警告说,另一个困难源于这样一个事实:许多公司“似乎正在缩减专门用于负责任人工智能的内部资源,作为行业裁员大趋势的一部分”。“可以说,负责任的人工智能投资的减少是在最需要的时候发生的。”

例如,员工广泛使用 ChatGPT 聊天机器人让许多组织感到惊讶,并可能产生安全隐患。研究人员表示,负责任的人工智能框架尚未被编写来“应对生成式人工智能工具引入的突然的、难以想象的大量风险”。

研究表明,78% 的组织报告访问、购买、许可或以其他方式使用第三方人工智能工具,包括商业 API、预训练模型和数据。超过一半(53%)完全依赖第三方人工智能工具,没有自己内部设计或开发的人工智能技术。

雷尼尔斯和她的合著者敦促说,负责任的人工智能项目“应该涵盖内部构建的人工智能工具和第三方人工智能工具”。“无论人工智能系统来自何处,都必须适用相同的道德原则。最终,如果出现问题,无论该工具是构建还是购买,对于受到负面影响的人来说都无关紧要。”
共同作者警告说,虽然“没有缓解第三方人工智能风险或任何类型人工智能风险的灵丹妙药”,但他们敦促采取多管齐下的方法来确保当今广泛开放的环境中负责任的人工智能。

此类方法可包括以下内容:

评估供应商负责任的人工智能实践
合同语言要求遵守负责任的人工智能原则
供应商预认证和审核(如果有)
内部产品级审查(将第三方工具集成到产品或服务中)
遵守相关监管要求或行业标准
纳入一套全面的政策和程序,例如道德人工智能开发指南、风险评估框架以及监控和审计协议
共同作者警告说,随着人工智能系统的引入, 立法和政府指令的幽灵可能会使此类行动成为必要。
原文链接:https://www.zdnet.com/article/mass-adoption-of-generative-ai-tools-is-derailing-one-very-important-factor-says-mit/

相关文章