CIO如何应对感知到的AI带来的风险

CIO如何应对感知到的AI带来的风险

问一般人AI最大的风险是什么,他们的答案可能包括:AI将让我们人类过时,Skynet将成为现实,让我们人类灭绝,深度伪造创作工具将被坏人用来做坏事。

一般ceo认为ai最大的风险是错失机会,特别是竞争对手可能比他们更早实施基于ai的业务能力。

作为CIO,你需要考虑到实际的AI风险,同时也要预见到潜在的风险。以下是如何有效地实现这一目标。

一般人感觉到的风险

1.AI会冲击人类吗?回答:这不是一种风险,而是一种选择。个人电脑,然后是互联网,然后是智能手机,都为计算机增强的人类带来了机会。AI也可以做到这一点,企业领导者可以通过使用AI功能来增强和增强员工的能力,从而专注于建立更强大、更具竞争力的业务。

他们可以,有些人会这样做,其他人将使用AI来自动化目前由他们雇佣的人类执行的任务。

或者,更有可能的是,他们两个都会做,从绝对意义上讲,两者都不会更好,但它们将是不同的。作为CIO,你必须帮助传达公司的意图,无论AI是用于增加员工还是用于替换员工。

Skynet是可能的AI未来之一,引发人们不寒而栗,但同时也被认为最不可能的情景。这并非因为制造杀伤性机器人不可能,而是因为没有充分理由创造和投入这种具有破坏性的人工智能。

在自然界中,捕食其他生物是大多数生物的生存需求之一。捕食者追逐猎物,确保其生存和繁衍后代的能力。然而,除了人类以外,极少有生物会仅仅为了娱乐而伤害其他物种。这种行为很罕见,通常是由于人类的干预或环境破坏所导致的异常行为。自然界中的相互依存和平衡使得捕食和被捕食的关系得以维持,每个生物都在这个生态系统中扮演着重要的

除了电力和半导体领域,我们是否会发现和一个坚定意志的AI之间对资源的竞争变得如此激烈,以至于机器人杀手的情景会成为我们必须面对的问题,这一点仍有待商榷。

这是因为,如果AI与我们在电力和半导体领域竞争,它不太可能浪费资源制造杀手级机器人。

3.深度伪造,是的,深度伪造是一个问题,作为现实之战的尖端,它们是一个只会变得更糟的问题,深度伪造AI和深度虚假检测AI将不得不越来越快地改进,仅仅是为了保持彼此的地位。

因此,正如恶意软件对策从独立的反病毒措施演变为整个行业的网络安全一样,随着对现实的战争升温,我们可以预期深度虚假对策也会出现类似的轨迹。

CEO认为的AI风险

那些不想很快成为前CEO的CEO会把相当多的时间和注意力花在某种形式的“TOWS”分析上(威胁、机会、弱点和优势)。

作为CIO,很长一段时间以来,你最重要的职责之一就是通过将各个点联系起来,帮助推动业务战略,从基于IT的能力到商业机会(如果你的企业首先利用它们)或威胁(如果竞争对手首先利用它们)。

在当前的AI热潮席卷IT行业之前,情况就是如此,这就是“数字”的全部意义所在,现在更是如此。

再加上AI,CIO们还有另一层责任,那就是如何将其新能力整合到整个业务中。

无声的基于AI的威胁:人为制造的弱点

还有一类风险需要担心,这种风险很少受到关注,称之为“人为的人类弱点”。

从Daniel Kahneman的思维说起,快和慢。在书中,Kahneman指出了我们思考的两种方式。当我们快速思考时,我们使用大脑回路,让我们一目了然,没有延迟,几乎不费力气。当我们“相信自己的胆量”时,快速思考也是我们所做的。

当我们缓慢地思考时,我们使用的是让我们将17乘以53的电路——这一过程需要相当大的注意力、时间和脑力。

在AI方面,思维迟缓是专家系统,就这一点而言,老式计算机编程所做的事情,快速思考是AI最令人兴奋的地方,这就是神经网络的作用。

在目前的发展状态下,AI的快速思维形式也容易出现与相信我们的直觉相同的认知错误。例如:

从相关性推断因果关系:我们都知道我们不应该这样做,然而,当我们所有的证据都是并列的时候,我们很难阻止自己推断因果关系。

碰巧的是,如今所谓的AI在很大程度上是由神经网络的机器学习组成的,神经网络的学习包括从相关性推断因果关系。

回归中庸:你看了《伟大的英国烘焙秀》。你会注意到,无论谁在一集中获得了明星面包师奖,在下一集中,他的烘焙往往都会更差,这是星际面包师的诅咒。

只是这不是诅咒,这只是行动中的随机性,每个面包师的表现都呈钟形曲线,当一个人在一周内赢得了Star Baker,他们的表现已经达到了钟形曲线的一条尾巴,下一次他们烘焙时,他们最有可能表现在平均水平,而不是再次在Star Baker Tail,因为每次他们烘焙时,他们最有可能表现在平均水平,而不是获胜的尾巴。

没有理由期望机器学习AI能免受这一谬误的影响,恰恰相反,面对随机的过程性能数据点,我们应该期待AI在每个糟糕的结果之后预测改进。

然后得出结论,因果关系是起作用的。

没有“展示你的工作”:嗯,不是你的工作,是AI的工作。在开发所谓的“可解释AI”方面,有一些活跃的研究,这是必要的。

假设你指派了一名员工来评估一个可能的商业机会,并向你推荐一项行动方案,他们会这样做,你会问,“你为什么这么认为?”任何有能力的员工都期待着这个问题,并准备好回答。

在“可解释AI”成为一项功能而不是愿望清单之前,AI在这方面的能力不如许多企业希望它们取代的员工——它们无法解释自己的想法。

要忽略的短语

毫无疑问,你已经听过有人在AI的背景下声称,“计算机永远不会x”,其中x是最熟练的人类擅长的东西。

他们错了,自从我第一次开始从事这项业务以来,这一直是一个流行的断言,从那以后,很明显,无论你选择哪个x,计算机都能做任何事情,而且做得比我们更好。

唯一的问题是,我们都要等多久才能实现。

以上就是CIO如何应对感知到的AI带来的风险的详细内容,更多请关注小编网其它相关文章!

转载请说明出处 内容投诉内容投诉
南趣百科 » CIO如何应对感知到的AI带来的风险

南趣百科分享生活经验知识,是您实用的生活科普指南。

查看演示 官网购买