为了应对外部激烈竞争,同时满足分散于全国各地、数以万计员工的学习发展需求,E企业采用了效率更高、效果更直接的数字化学习手段。在E企业,数字化学习提倡“即训即学,即学即用”,也就是说让学习发生于工作环境之中,在不打断工作流的前提下,让员工获得所需的知识与技能。
经过多年的探索与迭代,E企业的学习发展部门发现,想要做好数字化学习,需要建立并跑通如下流程:从内容供给与制作,到内容的传播与运营,再到学习场景的嵌入,最后进行学习效果评估。随着数字化学习的流程与体系不断成熟,数字化学习也需要满足越来越多的员工需求。以学习发展部门原有的技术与运营力量,难以应对大量的员工需求。而AI大模型的出现,为E企业的学习发展部门提供了新的解题思路。
此篇企业实践,将为读者展现AI大模型在数字化学习中的助力点;同时从内外部技术与资源的层面,为读者展现引入AI大模型的基础,以期为读者详尽地呈现AI大模型应用运用在学习发展工作中的真实情况。
一、 初识大模型:企业探索与阶段性进展
企业探索
AI大模型出现后,从领导层到中层管理者,再到基层员工,均感知到AI大模型对于工作内容与模式的影响。为了顺应技术的变化,E企业随即启动了探索与研究。具体而言,包括如下三方面的探索:
首先,E企业研究比较了国内外已有大模型的特点和能力◇ 其次,作为一家重视数据安全、信息安全的企业,E企业对国内可实现商用的大模型进行了筛选◇ 最后,E企业评估了引入外部大模型所需的资源投入,以及所需的技术与数据基础
阶段性进展
完成了上述探索后,E企业实现了如下的阶段性进展:
意识方面:内部领导层已形成了对AI大模型引入企业的重要性的认知,同时了解了AI大模型对企业资源的依赖程度。这样的认知与了解,有助于自上而下地推动AI大模型在企业内部的落地与应用◇ 选型方面:在了解了众多AI大模型的特点与能力后,确定了两到三家适合企业引入的大模型◇ 资源支持方面:在重点业务领域,完成了训练大模型所需的训练物料与知识库的收集和梳理◇ 成果方面:当前,E企业的AI大模型可以做到面向小范围员工试用
目前,国内大模型处于迅速创新的阶段,大模型的能力以及对企业应用场景的贴合度都在快速迭代。E企业认为,考虑到国内大模型的高速发展,在一两个月之内基于AI大模型的学习服务即可面向所有员工开放使用。
二、 大模型的落地:大模型在学习发展领域的应用
在E企业有了阶段性的探索成果后,学习发展部门开始思考如何通过AI大模型对数字化学习流程进行提速,同时对员工的学习体验进行提升。从易到难,从单一到丰富,学习发展部门开发了以下AI大模型的助力场景:
智能对话
首先,学习发展部门从用户触点出发,思考大模型的引入可以在重点领域给到基层员工哪些较为直接的帮助与支持。基于这样的思考,学习发展部门明确了大模型的第一个应用场景:智能对话。
学习发展部门将原有的课程、文档、讲师沉淀整理为知识库,员工可以通过与AI大模型对话的方式,获得自己所需的支持。
例如,当员工向大模型提问到:“我明天要见客户了,请为我提供一份某产品介绍,在三四百字左右,并且可以结合客户的行业特征有针对性的话术”,大模型就会依据指令为员工生成一份介绍话术。
这样的技术升级,省去了员工自己进行搜索、提问、学习完整课程才能获得所需学习资源的过程,更体现了E企业数字化学习“即学即用”的特征。同时,由于AI大模型具有可通过多轮对话不断精准其回答的特点,相较于传统的聊天机器人,员工的使用体验也会更高。
提效数字化学习流程
其次,学习发展部门从培训工作者的角度出发,思考大模型会为培训工作带来哪些变化。为了回答如何通过技术解放人力,E企业的学习发展部门明确了第二个场景:提效数字化学习流程。在此场景中,由浅入深,学习发展部门探索出了讲师助手与自动化流程两个具体助力点:
讲师助手
内部讲师可以利用AI大模型完成较为简单、重复的内容制作类工作√ 在开发课程时,大模型可以协助内部讲师进行创意扩充、逻辑梳理√ 数字人代替讲师,出镜进行课程直播
当内部讲师拥有了得心应手的“数字人助手”后,就可将更多的精力投入于内容原创工作中,同时在“数字人助手”的协助下创造出实时性更强、体验感更好、更精准的内容。
自动化流程
在运营数字化学习平台的过程中,学习发展部门需要做很多机械化、流程化的工作。例如:向平台上传课程前,运营人员需要匹配符合课程内容和风格的简介、标题、封面。
引入AI大模型后,上述的流程可以通过大模型的多模态能力自动生成,运营人员只需要对内容进行审核和确认。进一步地,运营人员的工作重点也可以从机械的流程运营,转向流程梳理、流程再造等创意性工作。
相较于讲师助手,如果希望将AI大模型应用于流程自动化中,要求大模型的产品能力与企业内部的场景、管理流程有更高的结合度;且在技术层面也会有更高的要求,可能需要通过API接口的方式来实现。
支持数据驱动管理
最后,学习发展部门从数据应用的角度出发,思考大模型可以如何支持数据驱动管理的过程。E企业非常看重数据的应用,运营、管理、战略工作的反馈均需要通过可视化的数据结果进行呈现。但在由于企业数据维度复杂,在向领导层提供数据服务的时候,需要考虑报表或者BI体系的设计方案,权限的配置。同时学习发展工作者还需进行数据采集、筛选、查询、导出、数据分析、报表制作等工作。
为了应对上述挑战,学习发展部门尝试通过AI大模型能力的介入,将数据可视化、BI报表、数据服务等工作变得更简单与日常。例如,有了AI大模型之后,相关角色可以通过提问的方式,让大模型给到直观的数据反馈、并形成可视化的报表。在节省人力的同时,实现了数据服务的简便化与日常化。
三、 大模型的引入基础:技术与资源相辅相成
E企业认为,实现大模型在上述场景的应用,不仅需要大模型服务商的技术支持,还需企业内部有足够的技术与资源进行匹配。
外部技术基础
大模型在企业内部的应用程度,很大程度上取决于大模型厂商的商业化服务的能力以及商业化场景的布局。
同时,将通用大模型垂直应用于企业内部,需要将大模型的人工智能技术与企业内部的知识库进行整合。打破了知识与内容的壁垒,大模型才能做到对企业内部知识进行快速应答。
内部技术基础
将大模型引入企业后,需要根据管理流程对大模型进行预训练、微调、或将企业内部知识库加载到大模型中。无论是哪种操作,均需企业内部有相关的专家对大模型的机理有一定的了解。
预训练、微调、知识库加载这三种应用模式的难度递减,就多数企业而言,知识库加载是较为可行的应用模式。
资源匹配
在明确了内外部技术基础后,E企业会考虑如何合理利用内外部资源,满足企业需求。
依据现有资源,选择部署方式
目前大模型常见的部署方式有本地化部署与SaaS部署两种。在选择部署方式的时候,E企业认为需要考虑到两种部署方式对投入的要求与企业的资源现状。
例如,本地化部署需要企业前期进行较大的费用投入、算力、技术支持;而SaaS部署会随着使用者的增加而提高成本。另外,如果企业对于信息保密的要求性较高,则本地化部署可以保证信息的安全。
依据使用需求,匹配合适资源
企业在引入大模型时,需要考虑大模型的应用场景。如将大模型应用于通用场景,则需要匹配的大模型无需过多的个性化设置;若企业需要将大模型应用于某条业务线,则需要大模型的功能对具体业务场景进行聚焦。
同时,企业也需要考虑对大模型功能的重点诉求。例如,如果追求大模型回答的精准性,则需要为大模型提供更为完善的知识库;如果追求大模型回答的流畅性、逻辑性,则需要重点评估大模型的通用智能水平。
来源:智享会&SAP