对人工智能“踩点刹”的六个理由

CIOAge
人工智能正在逐渐进入业务流程。但是首席信息官们应该停下来研究一下人工智能工具的潜在商业影响——不管影响是好是坏。

 

[[226964]]

人工智能正在逐渐进入业务流程。但是首席信息官们应该停下来研究一下人工智能工具的潜在商业影响——不管影响是好是坏。

2017年,人工智能的炒作达到了顶峰,首席信息官、顾问和学者们纷纷宣称这项技术可能会将这一切自动化——从商业和IT运营到客户联络。然而,在2018年的第一个季度就有几家媒体报道了人工智能的危险,其中包括培训计算机执行那些往往需要人类智能的任务。

讲授认知技术课程的巴布森学院的杰出教授Thomas Davenport说:“媒体上充斥这么多关于人工智能的炒作,而这只是记者试图通过谈论消极的一面来扩大宣传。”

也许是这样吧,但这些担忧并不是什么新鲜事儿,而且不会持续下去,从对种族、性别和其它偏见的恐惧,到失控的自动驾驶的无人机都有可能带来致命后果。

在《MIT技术评论》发表了一篇题为《当人工智能终于致人死亡时,谁来负责?》的故事的一周后。此文提出了这样一个问题——如果有一辆自动驾驶的汽车把人撞死,有一辆自动驾驶的优步汽车在亚利桑那州撞死一名女子,什么样的法律适用于这个问题。如他所言,时机决定了一切。

记者会在下文详细介绍一些有关人工智能采用的问题,然后是对希望测试该技术的首席信息官提出的一些建议。

有关人工智能的六大担忧

1. 太粗鲁了

正如我们从微软的灾难性的聊天机器人Tay事件中了解到的,会话式消息传递系统可能是荒谬的,无礼的,甚至是唐突的。首席信息官们必须小心翼翼地对待他们所使用的东西,以及他们使用这些东西的方式。聊天机器人只消有一次唐突的,乱扣帽子的行为就能摧毁品牌的友好形象。

2. 认知不佳

谷歌的人工智能科学家兼斯坦福大学李飞飞教授在《纽约时报》的一篇专栏文章中称,尽管人工智能是由人类开发的,但具有讽刺意味的是,人工智能根本不像人类。李飞飞指出,尽管人类的视觉感受高度情境化,但人工智能感知图像的能力有很大的局限性。

李飞飞说,人工智能程序员可能必须与各领域的专家合作——回归该领域的学术根源——缩小人与机器感知之间的差距。

3. 黑匣子难题


有很多企业想使用人工智能,它包含一些可能提供战略优势的活动,但金融服务等行业的公司必须小心翼翼,他们可以解释人工智能是如何得出其结论的。房利美(Fannie Mae)的运营兼技术负责人Bruce Lee说,使用Nest温控器这样的产品来管理电费的房主可能会有更多的自由现金流(free cash flow)来偿还抵押贷款,这种推断也许是合乎情理的。但在监管机构的眼中,让人工智能具备这样的资质是有问题的。

李飞飞告诉记者:“在你开始着手这种有关公平借贷的问题时——如何偏倚样本集,你会否渐渐向使用Nest的人提供更好的抵押贷款利率?人工智能在信贷决策这样看似明显的领域的事情中,实际上充斥着要扫清的监管障碍,所以我们所做的很多事情都必须进行彻底的回溯测试,以确保我们不会带来不当的偏倚,并确保这对住房基础设施是一种净收益。人工智能必须要解释得通。”

如果人们不清楚人工智能软件如何检测模式并观察结果,那么冒着法规风险的公司就会怀疑机器的可信度。Fox Rothschild律师事务所的技术实践联合主席Dan Farris说:“情境、道德和数据质量是影响人工智能的价值和可靠性的问题,特别是在受到高度监管的行业中。在所有受到高度监管的行业部署人工智能都可能会造成合规性问题。”

4. 民族志,社会经济方面的偏差

斯坦福大学的博士生TimnitGebru在进行一个项目——该项目使用谷歌街景(Google Street View)的汽车图片来确定所有美国城镇的人口结构。她对研究中的种族、性别和社会经济偏差感到担忧。彭博社的报道称,这一启示促使Gebru加入微软,她在那里努力挖掘人工智能的偏差。

即使是人工智能虚拟助理也受到偏差的困扰。你有没有想过为什么Alexa、Siri和小娜(Cortana)等虚拟助理技术都是女性角色?客户服务软件公司LivePerson的首席执行官Rob LoCascio向记者表示:“为什么我们将这些‘助理’技术定性为女性?就我们对世界和职场女性的期望,这意味着什么?女性本质上是‘助手’,她们‘爱唠叨’,她们扮演行政角色,她们善于接单?”

5. 用于攻击的人工智能,致命的攻击

剑桥大学、牛津大学和耶鲁大学的25位技术和公共政策研究人员撰写的一份长达98页的报告称,人工智能的快速发展意味着这样的风险——恶意用户很快就会利用该技术发动自动的黑客攻击,模仿人类传播错误信息或将商业无人机变为有针对性的武器。

牛津大学人类未来研究院(Oxford’s Future of Humanity Institute)的研究员Miles Brundage告诉路透社:“我们都赞同人工智能有很多积极的应用。有关恶意使用问题的文献中存在一个缺口”。《纽约时报》和Gizmodo也刊登了题为《人工智能的恶意使用:预测、预防和缓解》的报告。

6. 人工智能会把我们变成家猫

接下来是奴役论。以特斯拉和SpaceX闻名遐迩的企业家埃隆马斯克(Elon Musk)警告说,人类冒着这样的风险——变成依赖成性的“家猫”——受具有卓越智能和功能的人工智能奴役。最近,以色列历史学家Yuval Noah Harari认为,一切自动化的人工智能的出现可能会造成一个“全球无用阶级”。在这样的世界里,民主会受到威胁,因为人类不像机器那样了解自己。

IT,顽强的IT

Davenport说,一般来说,这些担忧在很大程度上被夸大了。例如,他说偏差也长期存在于正常分析项目的范围内。Davenport说:“就我所知,从事过分析工作的人都不会否认偏差的存在。Davenport最近写了一本新书——《人工智能优势,关于大型企业采用人工智能的所有事情》,他说,几家大公司正在认真地测试人工智能。

Davenport说:“如今我们看到很多企业应用程序,而且我还没有听到有人说我们将停止IT计划”,他补充说,这项技术仍然不成熟。“明智的公司还在继续努力研究这些东西,并且尽力免受媒体搬弄是非的威慑。”

事实上,Gartner的统计指出,IT领导者似乎基本上不受炒作的困扰,因为超过85%的首席信息官将在2020年通过购买,构建和外包的方式对人工智能计划进行试点。虽然Gartner建议首席信息官们在这些领域建立智能的虚拟支持功能——在这些领域里,客户和公民希望通过基于人工智能的助手进行调解,但他们还必须与业务伙伴携手构建数字化道德战略。 

【编辑推荐】

责任编辑:吴金泽 来源: 企业网D1Net
相关推荐

2018-04-23 14:27:03

2020-11-20 14:57:37

人工智能Gartner学习

2023-05-18 10:13:20

人工智能AI

2021-10-09 10:26:14

人工智能IT自动化AI

2019-06-11 14:20:29

人工智能AI

2021-12-07 14:08:45

人工智能AI深度学习

2023-11-16 09:00:00

人工智能

2021-08-16 10:12:51

人工智能AI失败

2022-09-22 14:33:49

人工智能AI

2016-07-25 18:10:55

2023-09-28 13:27:40

Tailwind浏览器CSS

2018-07-08 23:15:01

AI人工智能银行业

2019-05-24 11:35:38

人工智能偏见企业

2021-12-02 10:17:07

Kubernetes公共云云计算

2018-10-05 22:56:43

人工智能AI会话式人工智能

2022-05-24 15:09:13

机器人深度学习人工智能

2018-08-17 15:17:56

人工智能层次极端

2019-03-13 08:30:07

人工智能AI

2017-12-21 09:34:12

工智能误解

2017-06-19 09:12:08

JavaScriptPromiseAsync

51CTO技术栈公众号