市场调研:尽管存在不确定性 CIO仍希望加强AI治理

CIOAge
随着AI的使用、创新和监管混乱超过认可的标准,IT领导者只能开发内部方法来减轻AI风险,依靠框架、工具和他们的同事来正确使用AI。

随着AI的使用、创新和监管混乱超过认可的标准,IT领导者只能开发内部方法来减轻AI风险,依靠框架、工具和他们的同事来正确使用AI。

随着越来越多的生成式AI项目从概念验证转向生产,CIO将承担额外的压力,制定AI治理政策来保护企业以及其工作。

美国政府、欧盟、以及顶级市场研究人员并不缺乏AI治理框架,但毫无疑问,随着生成式AI创新速度超过正式标准,CIO们将需要在2025年制定和完善内部AI治理政策——并让整个高管团队参与这一过程,以确保他们不会孤军奋战,观察人士这样表示。

这方面也存在着司法不平衡的情况。

“根据2024年2月的一项调查,在负责任的AI政策制定和行为准则的制定方面,美国组织与欧洲组织不相上下,但在建立欧盟AI法案建议的多学科/跨部门治理委员会方面落后于欧洲组织,”IDC研究总监Grace Trinidad表示,她敦促CIO们不要独自承担AI治理的责任。

例如,IDC建议把NIST AI Risk Management Framework管理框架作为适当的标准,帮助CIO在内部制定AI治理策略,以及欧盟AI ACT规定,Trinidad表示,他在“IDC PeerScape:保护AI模型和应用的实践”报告中引用了AI治理某些方面的最佳实践。

Trinidad指出,有CIO承认实施AI治理的方法是多种多样的,大多数CIO已经开始实施至少一些计划,尽管并非所有计划都已经到位。

为此,网络公司Ciena首席数字信息官Craig Williams表示,该公司已经成立了AI工作组来解决治理挑战。

他说:“我不认为未来AI治理会是由单个实体或政府本身负责的——这太具挑战性了。然而,企业需要建立自己的治理流程,以确保端到端问责制。我们认识到AI系统需要透明度、公平性和问责制。因此,我们竭尽全力确保让利益相关者参与到治理流程中。”

专家和IT领导者表示,这种跨职能的努力是关键。

Williams表示:“治理实际上是相互倾听和学习,因为我们都关心结果,但同样重要的是,我们如何获得结果本身。一旦你跨过那座桥梁,你就可以快速转向AI工具和实际项目本身,这更容易操作。”

随着AI创新蓬勃发展,TruStone Financial Credit Union也在努力建立一个全面的AI治理计划。

TruStone执行副总裁、首席技术官Gary Jeter表示:“每周都在涌现新的生成式AI平台和功能。当我们发现的时候会阻止访问,直到我们能够彻底评估我们控制的有效性,”他举例说,他之前曾决定阻止访问Google NotebookLM以评估其安全性。

和很多企业一样,TruStone已经部署了一个名为TruAssist的生成式AI平台,这个全公司范围使用的平台主要用于制定政策和程序。

Jeter说:“所有[大约] 560名团队成员都在使用这个AI工具,快速访问500多项政策和程序,大大节省了时间,带来了巨大的价值。我们在2023年11月启动了价值证明试点,并在2024年2月向所有团队成员推广,这个速度非常快,我们学到了很多东西。我们采取了更保守的方法,利用生成式AI开发面向团队成员的应用,但我们正在取得进展。”

AI治理框架和平台

另一家大型企业Travelers的高级副总裁、首席技术和运营官Mojgan Lefebvre表示,Travelers公司一直在开发自己的AI治理战略。

Lefebvre说:“作为Travelers治理框架不断发展和成熟的一部分,我们还打造了一个负责任的AI框架,这个框架提出了指导我们开发和使用AI、高级分析和建模的基本原则,目标是帮助确保我们以负责任和合乎道德的方式行事——符合我们业务和文化核心的、负责任的商业价值观。”

有观察人士指出,AI治理不仅要保护企业免受数据泄露或知识产权盗窃,还要使成本与预算保持一致。

GAI Insights首席执行官、首席分析师Paul Baier表示,IT领导者应该“非常务实、谨慎而缓慢地将生成式AI应用推向生产,因为高管和IT部门仍在学习如何管理企业应用的风险,而且实际成本会随着使用而上升”。

Baier表示,增加生成式AI风险和成本的另一个因素是“大多数组织中存在大量‘影子IT’,因为员工使用个人账户使用ChatGPT等工具来处理企业数据”。

Gartner表示,企业组织可以控制AI使用的一种方法是实施AI治理平台,Gartner将AI技术确定为2025年的第二大战略趋势,并预测到2028年,与那些没有AI系统的组织相比,实施了AI治理平台的组织与AI相关道德事件少了40%。

Gartner声称,AI治理平台的好处包括创建、管理和执行“确保负责任地使用AI的政策,解释AI系统的工作原理,模拟生命周期管理,提供透明度以建立信任和问责制”。

挑战是什么?Gartner表示:“AI指南因地区和行业而异,很难形成一致的做法。”

未来的挑战

有观察人士表示,CIO还需要调整能够适应未来变化的AI治理框架,特别是如果出现“有能力的AI”(ACI)。

“我们正在评估哪种AI使用政策最适合我们现在的需求,并采用一种能够在我们前进和学习尚不知道的东西时提供灵活性的模型。” Baptist Memorial Health Care首席信息数据官Tom Barnett说。

这将带来什么结果还是一个很大的未知数,尤其是考虑到过去两年中AI取得的进展,使这个问题复杂化的,不仅是正在出现复杂的AI法规,还有商业模式和市场本身的变化。

两年前ChatGPT首次亮相的时候,OpenAI创始人认为,生成式AI需要得到妥善管理,这是OpenAI成为非营利组织的一个关键原因。从那时起,除两位创始人外,其他创始人均已离职,OpenAI正在努力将其核心业务重组为一家不再受非营利董事会控制的营利性公司。

Gartner负责云、边缘和AI基础设施技术和服务的副总裁Sid Nag表示,自2021年以来,NIST的AI Safety Institute Consortium and Center for Responsible AI在AI治理方面取得了进展,但目前还没有获得批准的监管标准来指导CIO,因此CIO们正在面临着越来越大的压力,需要他们走出实验阶段,转而从大手笔投资生成式AI平台和工具中获利。

他强调,没有一份文件能够涵盖风险的所有方面,也没有明确的权力来强制使用每天都在发展的生成式AI。“AI就像一列失控的火车,每个人都想从中赚钱,”他说。

尽管如此,很少看到CIO或高管层对AI治理不屑一顾。无论企业大小,他们都很清楚,生成式AI落入不当之手可能会带来灾难。

医疗设备租赁公司US Med-Equip的首席执行官Antonio Marin表示,AI使他的公司能够快速发展,但在治理方面,所有人都必须做好准备。

Marin表示:“我们正在将AI治理作为数据和网络安全治理的一部分。”他补充说,当POC从沙盒转移到生产中时,风险就会激增。“在某些情况下,我们的高管层把AI视为解决某些流程问题的方法。他们把AI视为获得市场份额或降低运营成本、同时保持高质量客户体验和卓越运营的机会。”

TruStone的Jeter预计,未来在适当的时候,监督成为一项法律和监管要求。“我将审查员和内部/外部审计师视为合作伙伴,他们有着与我们的价值观一致的共同目标。因此,我没有任何担忧。”

责任编辑:华轩 来源: 至顶网
相关推荐

2024-12-04 14:20:02

2023-11-13 08:00:00

Python开发

2024-02-23 14:31:19

云计算云优化

2020-08-24 07:04:57

边缘计算云计算网络

2024-01-25 16:18:38

人工智能数据

2022-05-11 09:00:00

人工智能金融犯罪机器学习

2022-09-14 22:51:08

机器学习模型高斯过程

2023-11-02 15:09:38

数字化转型CIO

2020-10-22 11:42:06

服务器

2023-04-13 11:34:49

亚马逊云科技Serverless

2022-11-24 14:45:18

物联网边缘计算

2020-05-25 10:45:48

曙光

2022-11-04 12:27:35

2021-01-18 15:25:46

比特币资金私钥

2019-05-22 14:42:40

华为谷歌挑战

2020-06-29 10:08:39

人工智能机器学习技术

2021-10-15 15:29:59

自动驾驶数据人工智能

2020-12-08 10:53:36

物联网安全物联网IOT

2022-09-19 10:04:44

人工智能AIIT领导者

51CTO技术栈公众号