九种方法避免成为AI washing的牺牲品

这几个月来,人工智能一直是为大家津津乐道的流行语。硅谷的初创公司和财富 500 强公司都看到,随着人工智能步伐的稳步加快,各行业都发生了革命性变化。但是,兴奋、进步与 AI washing(夸大人工智能作用的现象)这样的危险信号,正在以同样的速度蓬勃发展。尽管事实上,一些企业采用的人工智能微乎其微或根本不存在,但是,由于他们急切地想搭上赚钱的列车,想从炒作中获利,所以他们夸大了自己的人工智能能力。

与非人工智能初创企业相比,这种营销策略尽管有问题,但可以帮助他们获得更大的种子轮、A 轮和 B 轮融资。根据 GlobalData 的数据,仅去年一年,人工智能初创企业就筹集了超过 500 亿美元的风险投资资金,鉴于围绕 ChatGPT 和其他公司的狂热,今年这个数字预计还会增长。

考虑到涌入这些初创公司的资本,AI washing 现象只会越来越激烈。The US Federal Trade Commission(FTC)充分意识到了这种危险,并警告供应商在宣传其AI能力时要透明和诚实。

FTC 广告业务部门的律师 Michael Atleson 在一篇博客文章中写道:“一些声称有人工智能的产品甚至可能根本不具备广告宣传中的功能。在某些情况下,无论产品可能造成什么其他伤害,这种夸大宣传都可能存在。营销人员知道产品功效上造假或夸夸其谈无法证实才是这个行业的生存之道,而这也正是 FTC 执法的原因所在。”

在这种复杂的情况下,要区分合法的人工智能解决方案和营销噱头恐怕非常困难。

德勤全球人工智能研究所执行主任 Beena Ammanath 说:“当面临供应商对其人工智能产品的宣传时,公司需要采取合理的怀疑态度。就像对待任何事情一样,如果这听起来太好了,不可能是真的,那事实可能就是这样。”

Donald Welch 是纽约大学的 CIO。他表示,如果 CIO 和他们的公司没有找到正确的答案,他们可能面临的后果包括项目失败或延迟、财务损失、法律案件、声誉风险,以及最终被解雇。“我确实目睹了高管因此被解雇,而且,我甚至没办法说这是一个错误的决定。”

幸运的是,他们可以使用以下几种策略来避免错误。

人工智能驱动的企业需要熟练的员工

对声称使用人工智能的企业进行审查可能是一个漫长而耗时的过程。然而,有一些简单的方法,比如在 LinkedIn 上搜索,就可以发现对评价这个企业有价值的信息。

Ammanath 说:“审查供应商的员工所拥有的人工智能经验和教育水平,正在开发人工智能解决方案的公司应该有这方面的人才,这意味着他们必须有数据科学家和数据工程师,而且这些工程师在人工智能、机器学习、算法开发等方面有深厚的经验。”

除了考察员工之外,首席信息官还可以寻找与外部人工智能专家和研究机构合作的证据。这一类别包括与大学的合作伙伴关系、参与行业会议和活动,以及对开源人工智能倡议的贡献。如果供应商有类似项目或应用程序的经验,这也是一个好迹象,因为这表明它可以提供高质量的结果。

“仔细检查供应商的历史,”乌克兰-美国创业公司 MacPaw 的初创公司 MacPaw 的首席技术和创新官、美籍乌克兰裔 Vira Tkachenko 表示:“仔细检查供应商的历史背景。如果一家公司是人工智能专家,那么它历史上很可能有发表该领域或其他人工智能产品的研究论文。”

寻找一个精心设计的数据战略

真正将人工智能融入其产品的公司还需要一个精心设计的数据战略,因为人工智能算法需要它。他们需要与高质量的数据一起工作,数据越慷慨和相关,结果就越理想。

Ammanath 说:“人工智能系统是由大量数据推动的,所以这些公司也应该有一个精心构建的数据战略,并能够解释收集了多少数据以及来自哪些来源。”

另一个需要关注的问题是,这些公司是否在遵守监管要求方面投入了足够的精力,并保持较高的数据隐私和安全标准。随着《通用数据保护条例》(EU GDPR)和《加州消费者隐私法》(CCPA)等数据隐私法规的兴起,组织必须对其数据做法保持透明,并为个人提供对其个人数据的控制权。如果事实不是这样,那就是一个危险信号。

要求提供证据来支持其主张

虽然之宣传口号可能很诱人,但平静地要求提供证据会有帮助。Ammanath 说:“提出正确的问题并要求提供产品功能的证据,对于剥离营销和销售的说辞以确定产品是否真正由人工智能驱动是至关重要的。”

需要评估一个看似由人工智能驱动的特定产品或服务时,CIO 可以询问模型是如何训练的,使用了什么算法,以及人工智能系统将如何适应新数据。

Tkachenko 说:“你应该问供应商他们使用什么库或AI模型。他们可能只是简单调用了 OpenAI API 实现自己的功能。”

管理和技术咨询公司 BearingPoint 的合伙人和全球技术领导人 Matthias Roeser 对此也表示同意。他补充说,应该彻底理解组成部分和框架,评估应该包括“道德、偏见、可行性、知识产权和可持续性。”

这项调查可以帮助 CIO 更充分地了解该产品的真正功能和局限性,从而帮助他们决定是否购买该产品。

关注创业公司

初创企业将自己定位在创新的最前沿。然而,尽管他们中的许多人突破了人工智能领域的极限,但有些人可能只是夸大自己的能力来获得关注和金钱。

乌克兰裔美国创业公司 Claid.ai 的联合创始人兼首席技术官 Vlad Pranskevičius by Let’s Enhance 说道:“作为一家机器学习公司的 CTO,我经常遇到 AI washing 的案例,特别是在创业社区。”而且,他注意到,最近这种情况变得更加严重。他补充说,在像目前这样的炒作周期中,这种现象尤其危险,因为人工智能被视为一场新的淘金热。

不过,Pranskevičius 认为,在不久的将来,随着围绕人工智能的法规变得更加严格,AI washing 将受到控制。

建立技术专业的声誉

一家公司收购可疑的人工智能解决方案并不罕见,在这种情况下,CIO 不一定有错。这可能是 “公司领导不力的结果”, Welch 说:“企业上了营销炒作的当,凌驾于 IT 团队之上,而 IT 团队却只能收拾残局。”

为了防止类似这样的时刻,企业需要培养一种合作文化,在这种文化中,技术专家的意见得到重视,他们的观点得到充分曝光。

同时,CIO 和技术团队应该在公司内部建立自己的声誉,以便他们的意见更容易被纳入决策过程。为了实现这一目标,他们应该展示专业知识、专业精神和软技能。

Sigma 软件集团的首席创新官 Max Kovtun 表示:“我觉得身 CIO 审查 AI washing 并不困难。更大的问题可能是商业利益相关者或企业家推动以任何形式使用人工智能,因为他们希望看起来具有创新性和前沿性。因此,正确的问题是如何避免在创业的压力下自己投身于 AI washing。”

超越流行语

在比较产品和服务时,必须以开放的心态评估它们,彻底看清它们的属性。

Tkachenko 说:“如果一个产品或服务对你来说唯一的优势是人工智能,你应该在采购前再仔细斟酌。最好是研究它的价值主张和功能,只有当你了解该项目在人工智能之外的优势时才开始合作。”

Welch 也表示赞同并反问道:“我会因为他们用 C、C++ 或 Java 编写的系统而购买它吗?作为我尽职调查的一部分,我可能想了解他们是否能够维护代码、公司生存能力等。”

做一个彻底的评估可能有助于企业确定他们计划购买的产品或服务是否与他们的目标一致,是否有可能提供预期的结果。

Kovtun 说:“技术越复杂,非专业人员就越难理解它,越难验证该技术的应用是正确的、有意义的如果你已经决定为你的公司利用人工智能技术,你最好聘请在人工智能领域有经验的知识渊博的专家。否则,你的努力可能不会带来你期望得到的好处。”

关注人工智能相关新闻

及时了解人工智能相关产品和围绕它们的问题,也可以帮助 CIO 做出明智的决定。这样一来,他们就可以发现自己可能犯的错误的同时还可以利用新的想法和技术。

Art Thompson 是底特律市的 CIO。他表示:“我认为现在的教育还不够。”他建议 CIO 们做足够的研究,以避免落入新技术或实验性技术的陷阱,因为这些技术的承诺超过了它所能提供的。如果发生这种情况,“重新定价和更换产品的时间真的会伤害员工,使他们无法支持任何改变,”他说。“更不用说人们投入时间学习新技术的困难了。”

此外,了解最新的人工智能相关事项可以帮助 CIO 预测监管变化和新兴的行业标准,这可以帮助他们合规并保持竞争优势。

而且,需要保持最新状态的不仅仅是 CIO。BearingPoint 公司的 Roeser 表示:“教育你的团队或聘请专家来为你的投资组合增加相关的能力。”

围绕人工智能的额外监管行动

即将出台的新法规可以简化 CIO 的任务,以确定产品或服务是否采用了真正的人工智能技术。美国白宫最近发布了一项人工智能权利法案,其中包括负责任地设计人工智能系统的指导方针。而在未来几年,可能会有更多的法规出台。

Ammanath 说:“这些行动背后的前提是保护消费者权益和人类免受技术的潜在伤害。我们需要预测技术的潜在负面影响,以减轻风险。”

道德不应只是事后才考虑

企业往往会影响对新技术的讨论,强调潜在的好处,而往往淡化潜在的负面影响。

瑞士圣加仑大学的博士后研究员 Philip Di Salvo 说:“当一项技术成为流行语时,我们往往会失去对它在社会中可能产生的潜在有害影响的关注。研究表明,企业正在推动围绕人工智能的话语,技术决定论仍然占主导地位。”

这种认为技术是社会和文化变革背后的主要驱动力的信念,可能会掩盖围绕伦理和政治影响的讨论,而倾向于更加以营销为导向的论点。正如 Di Salvo 所说,这创造了“一种论证的迷雾,使这些技术和它们的生产者更加模糊和不负责任”。

为了解决这个问题,他指出一个关键的挑战,即向公众传达人工智能实际上不是什么,以及它不能做什么。

Di Salvo 说:“我们今天看到的,包括 ChatGPT 在内的,大多数人工智能应用,基本上都是围绕规模化的统计和数据分析应用而构建的。这听起来可能是一个无聊的定义,但它有助于避免对‘人工智能’定义中‘智能’所指的任何误解。我们需要关注真实的问题,如偏见、社会排序和其他问题,而不是假设的、推测性的长期假设。”

来源:www.cio.com

文章版权声明

 1 原创文章作者:八戒,如若转载,请注明出处: https://www.52hwl.com/79111.html

 2 温馨提示:软件侵权请联系469472785#qq.com(三天内删除相关链接)资源失效请留言反馈

 3 下载提示:如遇蓝奏云无法访问,请修改lanzous(把s修改成x)

 免责声明:本站为个人博客,所有软件信息均来自网络 修改版软件,加群广告提示为修改者自留,非本站信息,注意鉴别

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023年7月17日 下午3:48
下一篇 2023年7月17日 下午3:49