生成式AI:技术炒作还是改变游戏规则的机会?

Admin 2023-09-01 群英技术资讯 396 次浏览

关于“生成式AI:技术炒作还是改变游戏规则的机会?”的知识有一些人不是很理解,对此小编给大家总结了相关内容,具有一定的参考借鉴价值,而且易于学习与理解,希望能对大家有所帮助,有这个方面学习需要的朋友就继续往下看吧。


 


自从ChatGPT、Bard、Claude、Midjourney以及其他内容创作工具发布以来,围绕生成式AI的兴奋情绪不断升温,CEO们不禁要问:这到底是技术炒作,还是改变游戏规则的机会?如果是后者,对公司的业务有什么价值?

面向公众的ChatGPT版本在短短两个月内就达到了1亿用户。它以一种前所未有的方式使AI民主化,同时成为迄今为止增长最快的应用程序。其“开箱即用”的易用性使得生成式AI不同于之前的所有AI。用户不需要机器学习学位就能与之互动或从中获取价值;几乎所有能提问的人都可以使用它。而且,与个人电脑或iPhone等其他突破性技术一样,一个生成式AI平台可以为任何年龄、教育水平和任何互联网接入地点的受众提供许多应用程序。

所有这一切都是可能的,因为生成式AI聊天机器人是由基础模型驱动的,基础模型是由大量非结构化、未标记的各种格式数据(如文本和音频)训练而成的庞大神经网络。基础模型可以用于广泛的任务。相比之下,前几代AI模型通常是“狭隘的/受限的”,这意味着它们只能执行一项任务,比如预测客户流失。例如,一个基础模型可以为一份2万字的量子计算技术报告编写执行摘要,为一家修剪树木的企业起草一份市场战略,为某家冰箱里的十种食材提供五种不同的食谱。这种多功能性的缺点是,就目前而言,生成式AI有时会提供不太准确的结果,这让人们重新关注AI的风险管理。

有了适当的保护措施,生成式AI不仅可以为企业解锁新的用例,还可以加速、扩展或以其他方式改进现有的用例。例如,想象一下针对客户的销售电话。一个经过专门训练的AI模型可以向销售人员建议追加销售的机会,但到目前为止,这些机会通常只是基于电话开始前获得的静态客户数据,比如人口统计数据和购买模式。生成式AI工具可以根据内部客户数据、外部市场趋势和社交媒体影响数据,根据对话的实际内容,实时向销售人员建议追加销售机会。与此同时,生成式AI还可以为销售人员提供一份销售宣传的初稿,让他们进行调整和个性化处理。

上述示例演示了该技术对一个工作角色的影响。几乎每个知识工作者都可能从与生成式AI的交互中受益。事实上,生成式AI最终可能被用于自动化某些任务,其大部分价值可能来自软件供应商如何将该技术嵌入知识工作者使用的日常工具(例如电子邮件或文字处理软件)中。这种升级的工具可以大大提高生产率。

CEO们想知道他们是否应该现在就采取行动,如果是的话,如何开始?有些人可能会看到一个机会:通过重新想象人类如何使用生成式AI应用程序来完成工作,从而超越竞争对手。而其他人可能想要谨慎行事,在进行任何大型投资之前,尝试一些用例并了解更多。公司还必须评估他们是否拥有必要的技术专长、技术和数据架构、运营模式和风险管理流程,这些都是一些更具变革性的生成式AI实施所必需的。

本文可以帮助CEO及其团队了解生成式AI的价值创造案例,以及如何开始他们的旅程。首先,我们提供了一个生成式AI入门章节,以帮助高管们更好地理解AI的快速发展状态和可用的技术选择。下一部分将通过四个旨在提高企业效率的案例来研究公司如何参与生成式AI实践。这些案例反映了我们在早期采用者中所看到的情况,并阐明了在技术、成本和运营模式要求方面的一系列选择。最后,我们讨论了CEO在利用生成式AI成功定位企业方面的重要作用。

对生成式AI的兴奋之情是显而易见的,高管们理所当然地希望以深思熟虑和有计划的方式向前推进。我们希望这篇文章能够为业务领导者提供一个全面的介绍,让他们了解有前途的生成式AI的世界。

生成式AI入门

生成式AI技术正在迅速发展。它的发布周期、初创企业的数量以及与现有软件应用程序的快速集成无不引人注目。在本节中,我们将讨论生成式AI应用的广度,并简要解释该技术,包括它与传统AI的不同之处。

不仅仅是聊天机器人

生成式AI可用于自动化、增强和加速工作。出于本文的目的,我们关注的是生成式AI增强工作的方式,而不是它如何取代人类的角色。

像ChatGPT这样的文本生成式聊天机器人受到了极大的关注,同时,生成式AI可以实现广泛的内容功能,包括图像、视频、音频和计算机代码。它可以在企业中执行多种功能,包括分类、编辑、总结、回答问题和起草新内容。这些操作中的每一个都有可能通过改变跨业务功能和工作流在活动级别上完成工作的方式来创造价值。下面是一些例子。

分类

  • 欺诈检测分析师可以将交易描述和客户文档输入生成式AI能工具,并要求其识别欺诈交易。
  • 客户服务经理可以使用生成式AI根据客户满意度对客户呼叫的音频文件进行分类。

编辑

  • 文案可以使用生成式AI来纠正语法并转换文章以匹配客户的需求。
  • 平面设计师可以从图像中删除过时的徽标。

总结

  • 制作助理可以根据几个小时的活动镜头创建一个亮点视频。
  • 业务分析师可以创建维恩图(Venn diagram),总结高管演讲中的关键点。

回答问题

  • 制造企业的员工可以向基于生成式AI的“虚拟专家”询问有关操作流程的技术问题。
  • 消费者可以向聊天机器人询问如何组装一件新家具。

草案

  • 软件开发人员可以提示生成式AI创建整行代码或建议完成现有代码的部分行。
  • 营销经理可以使用生成式AI起草各种版本的活动信息。

随着技术的发展和成熟,这些类型的生成式AI可以越来越多地集成到企业工作流程中,以自动执行任务并直接执行特定操作(例如,在会议结束时自动发送摘要笔记)。我们已经看到在这个领域出现了一些工具。

生成式AI与其他类型AI有何不同

顾名思义,生成式AI与之前的AI或分析形式的主要区别在于,它可以生成新内容,通常是“非结构化”形式(例如,书面文本或图像),而这些内容通常不会在带有行和列的表格中表示。

使生成式AI能够工作的底层技术是一类称为基础模型的人工神经网络。人工神经网络的灵感来自于人类大脑中连接的数十亿个神经元。它们使用深度学习进行训练,这个术语暗指神经网络中的许多层。深度学习为AI的许多最新进展提供了动力。

然而,一些特征将基础模型与前几代深度学习模型区分开来。首先,它们可以在大量不同的非结构化数据集上进行训练。例如,一种称为大型语言模型(LLM)的基础模型可以在互联网上公开提供的大量文本上进行训练,这些文本涵盖了许多不同的主题。虽然其他深度学习模型可以在大量非结构化数据上运行,但它们通常是在更具体的数据集上进行训练的。例如,一个模型可以在一组特定的图像上进行训练,使其能够识别照片中的某些物体。

事实上,其他深度学习模型通常只能执行一个这样的任务。例如,它们既可以对照片中的物体进行分类,也可以执行其他功能,如进行预测。相反地,一个基础模型可以同时执行这两个功能并生成内容。基础模型通过从它们摄取的广泛训练数据中学习模式和关系来积累这些能力,例如,这些数据使它们能够预测句子中的下一个单词。这就是ChatGPT如何回答各种主题的问题,以及DALL·e2和Stable
Diffusion如何根据描述生成图像。

考虑到基础模型的多功能性,公司可以使用相同的模型来实现多个业务用例,这是使用早期的深度学习模型鲜少能实现的。一个包含了公司产品信息的基础模型既可以用于回答客户的问题,也可以用于支持工程师开发产品的更新版本。因此,公司可以支持应用程序并更快地实现其好处。

然而,由于当前基础模型的工作方式,它们并不适合所有的应用程序。例如,大型语言模型可能容易产生“幻觉”,或者用看似合理但不真实的断言回答问题。此外,并不总是提供响应的基本推理或来源。这意味着,在错误可能造成伤害或需要解释的应用程序中,公司应该谨慎地在没有人为监督的情况下集成生成式AI。生成式AI目前也不适合直接分析大量表格数据或解决高级数值优化问题。研究人员正在努力解决这些问题。

负责任地使用生成式AI

生成式AI带来了各种风险。CEO们希望从一开始就设计自己的团队和流程来降低这些风险,这不仅是为了满足快速变化的监管要求,也是为了保护自己的业务,赢得消费者的数字信任。

  • 公平性:由于不完善的训练数据或开发模型的工程师做出的决策,模型可能会产生算法偏差。
  • 知识产权(IP):训练数据和模型输出可能产生重大的知识产权风险,包括侵犯版权、商标、专利或其他受法律保护的材料。即使使用提供商的生成式AI工具,企业也需要了解哪些数据用于培训以及如何在工具输出中使用这些数据。
  • 隐私:如果用户输入的信息最终以一种“使个人可识别”的形式出现在模型输出中,则可能出现隐私问题。生成式AI还可用于创建和传播恶意内容,如虚假信息、深度造假和仇恨言论。
  • 安全性:恶意行为者可能会利用生成式AI来加速网络攻击的复杂性和速度。它也可以被操纵以提供恶意输出。例如,通过一种称为“提示注入”的技术,第三方可以向模型提供新的指令/提示,欺骗模型交付模型生产者和最终用户意想不到的输出。
  • 可解释性:生成式AI依赖于具有数十亿参数的神经网络,挑战了我们解释任何给定答案是如何产生的能力。
  • 可靠性:对于相同的提示,模型可能产生不同的答案,从而妨碍用户评估输出的准确性和可靠性的能力。
  • 组织影响:生成式AI可能会对劳动力产生重大影响,对特定群体和当地社区的影响可能会产生不成比例的负面影响。
  • 社会和环境影响:基础模型的开发和培训可能导致有害的社会和环境后果,包括碳排放的增加(例如,培训一个大型语言模型可以排放约315吨二氧化碳)。

新兴的生成式AI生态系统

虽然基础模型是生成式AI的“大脑”,但整个价值链正在形成,以支持这项技术的培训和使用。专用硬件提供训练模型所需的广泛计算能力;云平台提供了利用这种硬件的能力;MLOps和模型中心提供者提供了企业调整基础模型并在其最终用户应用程序中部署它所需的工具、技术和实践的能力。许多公司正在进入市场,提供建立在基础模型之上的应用程序,使它们能够执行特定的任务,例如帮助公司的客户解决服务问题。

第一个基础模型需要高水平的投资来开发,因为需要大量的计算资源来训练它们,并且需要人力来改进它们。因此,它们主要是由少数几家科技巨头、获得巨额投资支持的初创企业和一些开源研究团体(例如BigScience)开发的。然而,可以为某些任务提供有效结果的小型模型和更有效的培训正在进行中。这最终可能会向更多的进入者开放市场。一些初创公司已经成功地开发了自己的模型——例如,Cohere、Anthropic和AI21
Labs建立并训练了自己的大型语言模型。

让生成式AI发挥作用

CEO们应该将探索生成式AI视为必须的考虑,而不是一种可能。生成式AI可以在广泛的用例中创造价值。启动它所需的经济和技术要求并未达到令人望而却步的程度,而不作为的负面影响可能会很快落后于竞争对手。每位CEO都应该与高管团队合作,思考在哪里以及如何发挥作用。一些CEO可能会认为,生成式AI为他们的公司提供了一次变革性的机会,提供了一个重新构想一切(从研发到营销和销售再到客户运营)的机会。其他CEO则可能会选择从小规模开始,然后再扩大规模。一旦做出决定,AI专家就可以根据用例遵循一些技术途径来执行策略。

在一个企业中,生成式AI的大部分用途(尽管不一定是全部价值)将来自于员工使用他们已经拥有的软件中嵌入的功能。电子邮件系统将提供写邮件初稿的选项;生产力应用程序将根据描述创建演示文稿的初稿;财务软件将生成财务报告中显著特征的文字描述;客户关系管理系统将提出与客户互动的方法。这些特性可以加快每一位知识工作者的工作效率。

生成式AI在某些用例中也可能更具变革性。下面,我们来看四个例子,看看不同行业的公司如今如何使用生成式AI来重塑其企业内的工作方式。这些例子涵盖需要最少资源的和需要大量资源的。

改变软件工程的工作

第一个例子是一个相对复杂性较低的案例,它使用现成的生成式AI解决方案,不需要内部定制,因此可以即时提高生产率。

软件工程师工作中最重要的部分是编写代码。这是一个劳动密集型的过程,需要大量的试验和试错,以及对私人和公共文件的研究。在这家公司,熟练的软件工程师的短缺导致了功能和漏洞修复请求的大量积压。

为了提高工程师的生产力,该公司正在实施一种基于AI的代码完成产品,该产品与工程师用于编码的软件集成在一起。这能够使工程师用自然语言编写代码描述,而AI则建议满足描述的代码块的几种变体。工程师可以选择一个AI的建议,进行必要的改进,然后点击它来插入代码。

我们的研究表明,这样的工具可以将开发人员的代码生成速度提高50%。它还可以帮助调试,这可能会提高开发产品的质量。但今天,生成式AI无法取代熟练的软件工程师。事实上,更有经验的工程师似乎从这些工具中获得了最大的生产力收益,而没有经验的开发人员看到的结果则不那么令人印象深刻,有时甚至是负面的。已知的风险是AI生成的代码可能包含漏洞或其他错误,因此必须让软件工程师参与进来,以确保代码的质量和安全性。

这种现成的生成式AI编码工具的成本相对较低,而且上市时间很短,因为产品可用,不需要大量的内部开发。费用因软件提供商而异,但固定费用订阅从每个用户每月10美元到30美元不等。在选择工具时,务必与提供商讨论许可和知识产权问题,以确保生成的代码不会导致违规。

帮助客户经理跟上公共信息和数据的步伐

公司可能决定构建自己的生成式AI应用程序,利用基础模型(通过API或开放模型),而不是使用现成的工具。这需要在前一个示例的基础上增加投资,但也促进了更自定义的方法来满足公司的特定背景和需求。

在这个例子中,一家大型企业银行希望使用生成式AI来提高关系经理(RM)的生产力。经理们花费大量时间审查大型文件(如年度报告和收益电话会议记录)以了解客户的情况和优先事项,从而能够提供适合客户特定需求的服务。

银行决定构建一个通过API访问基础模型的解决方案。该解决方案能够扫描文档,并可以快速为RM提出的问题提供综合答案。围绕基础模型构建的其他层用于简化用户体验,将工具与公司系统集成,并应用风险和遵从性控制。特别是,必须验证模型输出,就像企业检查初级分析人员的输出一样,因为已知一些大型语言模型会产生“幻觉”。此外,RM也需要接受培训,以一种能够从解决方案中提供最准确答案的方式提出问题(称为提示工程),并且将流程放置到位,以简化工具输出和信息源的验证。

在这种情况下,生成式AI可以加快RM的分析过程(从几天缩减至几小时),提高工作满意度,并捕获RM可能忽略的见解。

开发成本主要来自用户界面的构建和集成,这需要数据科学家、机器学习工程师或数据工程师、设计人员和前端开发人员的共同努力。持续的费用包括软件维护和使用API的成本。成本取决于模型选择和第三方供应商费用、团队规模和最小可行产品所需的时间。

解放客户支持代表从事更高价值的活动

下一个复杂的层次是对基础模型进行微调。在这个例子中,一家公司使用了一个为对话优化的基础模型,并根据自己的高质量客户聊天和特定行业的问题和答案对其进行微调。该公司经营的行业有专门的术语(例如,法律、医药、房地产和金融)。快速的客户服务是一个有竞争力的差异化因素。

这家公司的客户支持代表每天需要处理数百个入站咨询。响应时间有时太长,导致用户不满。该公司决定引入一个生成式AI客服机器人来处理大多数客户的请求。目标是以符合公司品牌和客户偏好的语气迅速做出回应。对基础模型进行微调和测试的部分过程包括确保回应与特定领域的语言、品牌承诺和公司的基调保持一致;需要进行持续的监控,以跨多个维度(包括客户满意度)验证系统的性能。

该公司创建了由多个阶段组成的产品路线图,以尽量减少潜在的模型错误。在第一波测试中,聊天机器人在内部进行了测试。员工能够对模型的建议给出“赞成”或“反对”的答案,模型能够从这些输入中学习。下一步,该模型“倾听”客户支持对话并提供建议。一旦技术得到充分的测试,第二波浪潮就开始了,模型转向了面向客户的用例,其中放置了一名员工在循环中。最终,当领导者对这项技术完全有信心时,它可以在很大程度上实现自动化,甚至完全不需要人员参与。

在这种情况下,生成式AI将服务代表解放出来,专注于更高价值和复杂的客户查询,提高了代表的效率和工作满意度,提高了服务标准和客户满意度。该机器人可以访问客户的所有内部数据,并可以“记住”之前的对话(包括电话),这是目前客户聊天机器人的一大进步。

为了获得收益,该用例需要在软件、云基础设施和技术人才方面进行物质投资,以及在风险和操作方面进行更高程度的内部协调。一般来说,微调基础模型的成本是在API之上构建一个或多个软件层的两到三倍。云计算(如果对自托管模型进行微调)或API(如果通过第三方API进行微调)的人才和第三方成本是增加成本的关键。为了实现该解决方案,公司需要DataOps和MLOps专家的帮助,以及其他功能(如产品管理、设计、法律和客户服务专家)的加持。

加速药物研发

当没有合适的基础模型,公司需要从头开始构建时,最复杂和定制的生成式AI用例就会出现。这种情况可能出现在专门的部门,或者在处理与用于训练现有基础模型的数据显著不同的独特数据集时,正如这个制药示例所演示的那样。从头开始训练一个基础模型呈现出大量的技术、工程和资源挑战。使用性能更高的模型所带来的额外投资回报应该超过财务和人力资本成本。

在这个例子中,一家制药公司的药物研发科学家必须根据显微镜图像决定下一步要进行哪些实验。他们有一个由数百万张这样的图像组成的数据集,其中包含了丰富的细胞特征的视觉信息,这些信息与药物发现有关,但人类很难解释。这些图像被用来评估潜在的治疗候选人。

该公司决定创建一个工具,帮助科学家了解药物化学和记录的显微镜结果之间的关系,以加快研发工作。由于这种多模态模型(multimodal
model)仍处于起步阶段,该公司决定转而训练自己的模型。为了建立模型,团队成员使用了用于训练基于图像的基础模型的真实世界图像和他们的大型内部显微镜图像数据集。

经过训练的模型通过预测哪些候选药物可能导致有利的结果,以及通过提高准确识别药物发现相关细胞特征的能力来增加价值。这可以导致更高效和有效的药物发现过程,不仅可以缩短获得价值的时间,还可以减少不准确、误导或失败分析的数量。

一般来说,从头开始训练一个模型的成本是围绕模型API构建软件的10到20倍。更大的团队(例如,包括博士级机器学习专家)和更高的计算和存储支出是成本差异的关键。训练基础模型的预计成本根据期望的模型性能水平和建模复杂性而异。这些因素会影响所需的数据集大小、团队组成和计算资源。在这个用例中,工程团队和持续的云费用占了大部分成本。

该公司发现需要对其技术基础设施和流程进行重大更新,包括访问许多GPU实例来训练模型,在许多系统中分发训练的工具,以及最佳实践MLOp以限制成本和项目持续时间。此外,收集、集成(确保不同数据集的文件具有相同的格式和分辨率)和清理(过滤低质量数据、删除重复数据和确保分发符合预期用途)也需要大量的数据处理工作。由于基础模型是从零开始训练的,因此需要对最终模型进行严格的测试,以确保输出是准确的,并且可以安全使用。

CEO们得到的经验教训

这里列出的用例为CEO们踏上生成式AI之旅提供了有力的启示:

  • 为工作和工作场所带来实际好处的变革性用例已经存在。从制药、银行到零售,各行各业的公司都在建立一系列用例,以捕捉价值创造潜力。组织可以从小规模或大规模开始,这取决于他们的意愿。
  • 追求生成式AI的成本差异很大,具体取决于用例和软件、云基础设施、技术专长和风险缓解所需的数据。公司必须考虑风险问题,不管用例是什么,而且有些用例需要比其他用例更多的资源。
  • 尽管快速入门有好处,但首先建立一个基本的商业案例将帮助企业更好地驾驭其生成式AI之旅。

开启生成式AI之旅的注意事项

CEO在推动公司专注于生成式AI方面发挥着至关重要的作用。在这最后一节,我们将讨论CEO们在开始他们的旅程时需要牢记的策略。他们中的许多人已经回应了高管们对前几波新技术浪潮的反应。然而,生成式AI也面临着自己的挑战,包括管理一项在以前的技术转型中从未见过的技术。

生成式AI的组织

许多组织开始通过孤立的实验探索传统AI的可能性。鉴于其独特的风险考虑和基础模型在组织中支持多个用例的能力,生成式AI需要一种更加深思熟虑和协调的方法。例如,使用专有材料对模型进行微调以反映企业的品牌标识,可以部署在多个用例(例如,生成个性化的营销活动和产品描述)和业务功能(例如,产品开发和营销)之间。

为此,我们建议召集一个由公司领导组成的跨职能小组(例如,代表数据科学、工程、法律、网络安全、营销、设计和其他业务职能)。这样的一个小组不仅可以帮助识别和确定最高价值用例的优先级,还可以在整个组织中实现协调和安全性。

重新构想端到端领域VS专注于用例

生成式AI是一种强大的工具,可以改变组织的运作方式,对价值链中的某些业务领域(例如,零售商的营销或制造商的运营)具有特别的影响。部署生成式AI的便利性可以吸引组织将其应用于整个业务中的零星用例。对跨业务功能具有最大转型潜力的领域的用例家族有一个完整视图是很重要的。通过与其他传统AI应用程序同步工作的生成式AI,以及以前可能无法实现的新工作方式,组织正在重新构想目标状态。

启用完全加载的技术堆栈

现代数据和技术堆栈是几乎任何成功的生成式AI方法的关键。CEO应该向他们的首席技术官咨询,以确定公司在计算资源、数据系统、工具和模型访问(通过模型中心开源或通过API商业化)方面是否具备所需的技术能力。

例如,生成式AI的命脉是对特定业务环境或问题的数据的流畅访问。那些尚未找到有效协调和提供数据访问方法的公司,将无法对生成式AI进行微调,以释放其更多潜在的变革性用途。同样重要的是设计一个可扩展的数据架构,其中包括数据治理和安全过程。根据用例的不同,现有的计算和工具基础设施(可以通过云提供商获得,也可以在内部设置)可能也需要升级。基于生成式AI带来的商业价值和竞争优势的清晰数据和基础设施战略将至关重要。

建造“灯塔”

CEO们希望避免陷入计划阶段。新的模型和应用正在快速开发和发布。例如,GPT-4于2023年3月发布,ChatGPT(GPT-3.5)于2022年11月发布,GPT-3于2020年发布。在商业世界中,时间意味着一切,生成式AI技术的快节奏特性要求企业迅速采取行动,充分利用这一优势。有几种方法可以让高管们保持稳定的发展。

虽然生成式AI仍处于早期阶段,但重要的是要在内部展示它如何影响公司的运营模式,也许可以通过“灯塔方法”(lighthouse
approach)。例如,一种方法是建立一个“虚拟专家”,使一线员工能够利用专有的知识来源,并向客户提供最相关的内容。这有可能提高生产力,创造热情,并使组织能够在将生成式AI扩展到面向客户的应用程序之前,在内部对其进行测试。

与其他技术创新浪潮一样,将会出现“概念验证疲劳”(PoC fatigue)和许多公司陷入“试点炼狱”(pilot
purgatory)的例子。但是,在扩展到相关用例之前,鼓励概念验证仍然是快速测试和完善有价值的业务用例的最佳方法。通过专注于产生有意义的结果的早期胜利,公司可以建立动力,然后扩大规模,以利用生成式AI的多用途特性。这种方法可以使企业促进更广泛的AI应用,并创造对保持竞争优势至关重要的创新文化。

平衡风险和价值创造

正如上述四个详细用例所展示的那样,业务领导者必须平衡价值创造机会与生成式AI所涉及的风险。根据我们最近的全球人工智能调查结果显示,大多数组织并没有缓解与传统AI相关的大部分风险,尽管超过一半的组织已经采用了这项技术。生成式AI重新引起了人们对许多相同风险的关注,例如隐藏在训练数据中的偏见可能持续存在,同时呈现出新的风险,例如它的“幻觉”倾向。

因此,跨职能的领导团队不仅要为生成式AI的使用构建总体的道德原则和指导方针,还要对每个潜在用例所带来的风险有一个全面的了解。寻找与组织的整体风险容忍度相一致的初始用例,并具有适当的结构以减轻相应的风险,这一点非常重要。例如,零售组织可能会优先考虑价值略低但风险也较低的用例,如创建营销内容的初始草稿和其他让人保持循环的任务。与此同时,公司可能会留出更高价值、高风险的用例,比如自动起草和发送超个性化营销电子邮件的工具。这种风险前瞻性实践可以使组织建立必要的控制,以适当地管理生成式AI并保持合规性。

CEO及其团队还希望了解生成式AI监管的最新进展,包括与消费者数据保护和知识产权相关的规则,以保护公司免受责任问题的困扰。各国可能会采取不同的监管方法,就像它们经常对AI能和数据所做的那样。组织可能需要调整他们的工作方法来校准流程管理、文化和人才管理,以确保他们能够处理快速发展的监管环境和大规模生成式AI所带来的风险。

将生态系统方法应用于伙伴关系

业务领导者应该专注于建立和维持一套平衡的联盟。公司的收购和联盟战略应继续专注于建立一个适应不同环境的合作伙伴生态系统,并解决生成式AI在技术堆栈的各个层面上的需求,同时要小心防止供应商锁定。

与合适的公司合作有助于加快执行速度。组织不必自己构建所有的应用程序或基础模型。相反地,他们可以与生成式AI供应商和专家合作,以更快地采取行动。例如,他们可以与模型提供商合作,为特定部门定制模型,或者与提供支持功能(如可伸缩云计算)的基础设施提供商合作。

企业也可以利用他人的专业知识,以迅速采取行动,利用最新的生成式AI技术。但生成式AI模型只是冰山一角:价值创造需要多个额外元素。

专注于所需的才能和技能

为了有效地将生成式AI能应用于商业价值,公司需要建立自己的技术能力,并提高现有员工的技能。这需要领导层共同努力,根据公司的优先级用例确定所需的能力,这可能会超越技术角色,包括工程、数据、设计、风险、产品和其他业务功能的人才组合。

正如在上面突出显示的用例中所展示的那样,技术和人才需求根据给定实现的性质而变化很大——从使用现成的解决方案到从头开始构建基础模型。例如,为了构建生成式模型,公司可能需要博士级的机器学习专家;另一方面,要使用现有模型和SaaS产品开发生成式AI工具,数据工程师和软件工程师可能足以领导这项工作。

除了雇佣合适的人才,公司还希望对现有员工进行培训和教育。基于提示的会话用户界面可以使生成式AI应用程序易于使用。但是用户仍然需要优化他们的提示,了解技术的局限性,并知道何时何地可以将应用程序集成到他们的工作流中。领导层应就生成式AI工具的使用提供明确的指导方针,并提供持续的教育和培训,以使员工了解其风险。培养一种自我驱动的研究和实验文化也可以鼓励员工创新流程和产品,并有效地结合这些工具。

多年来,全球各地的企业一直胸怀人工智能的雄心,如今,许多企业已经实现了新的收入来源、产品改进和运营效率。这些领域的大部分成功都源于AI技术,AI技术仍然是特定工作的最佳工具,企业应该继续扩大这方面的努力。然而,生成式AI代表了另一个有希望的飞跃和一个充满新可能性的世界。虽然该技术的运营和风险框架仍在构建中,但业务领导者清楚地知道他们应该踏上生成式AI之旅。但是他们应该从哪里以及如何开始呢?答案因公司而异,也因组织而异。有些公司会选择从大规模开始;而其他公司可能会先进行较小规模的实验。最佳方法将取决于一家公司的抱负和风险偏好。无论你的抱负是什么,关键是要行动起来,在实践中学习。


到此,关于“生成式AI:技术炒作还是改变游戏规则的机会?”的学习就结束了,希望能够解决大家的疑惑,另外大家动手实践也很重要,对大家加深理解和学习很有帮助。如果想要学习更多的相关知识,欢迎关注群英网络,小编每天都会给大家分享实用的文章!

群英智防CDN,智能加速解决方案

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:mmqy2019@163.com进行举报,并提供相关证据,查实之后,将立刻删除涉嫌侵权内容。

猜你喜欢

成为群英会员,开启智能安全云计算之旅

立即注册
专业资深工程师驻守
7X24小时快速响应
一站式无忧技术支持
免费备案服务
免费拨打  400-678-4567
免费拨打  400-678-4567 免费拨打 400-678-4567 或 0668-2555555
在线客服
微信公众号
返回顶部
返回顶部 返回顶部
在线客服
在线客服