人工智能(AI)在提高组织生产力、推动社会进步方面潜力巨大,但同时也带来了挑战。相关数据显示,未来将有3亿个工作岗位可能被AI取代。另外,民主、普世价值观和生活方式等,也将面临被改写的风险。
不过,人工智能不会取代当今社会的所有技能。同时,欧盟、美国政府和国际标准化组织协会正在建立指导方针,明确社会、组织和个人在管理人工智能解决方案中的总体角色和责任。
人工智能和绩效改进(Performance Improvement)学科的交叉应用,促使了AI4PI(Artificial Intelligence for Performance Improvement,“for”音同“four”)框架的诞生。
作为实用的绩效解决方案,该框架将人工智能作为绩效改进的组成部分,为我们提供了直接适用的原则和流程步骤;并且,在确保绩效改进从业者和组织能够认识到人工智能的影响的同时,遵守道德规范,保护个人、组织和社会的福祉。
01
认清人工智能
“双刃剑”
纵观历史,人类创造了诸多新技术:从100万年前钻木取火到1440年发明古登堡印刷机,再到19世纪末汽车的兴起,以及20世纪末互联网的出现……每一项创新都带来了诸多好处,但也给社会带来了一些潜藏风险。
不过,在逐渐认识和了解这些新兴技术的过程中,人们找到了平衡的方法,既能使用这些新技术来改善生活,还能减少相关社会风险。
从协助个人工作到改变工作及其流程,再到改善社区和社会,无一不在说明人工智能已从多个层面渗透人们的日常生活。然而,就像人类历史上的任何一次技术突破一样,人工智能也带来了相当大的风险。
发表在《福布斯》杂志上的研究报告指出,人工智能有可能取代4亿工人。尽管世界经济论坛预估,人工智能可以创造9700万个就业岗位,全球仍将损失3亿余个就业岗位。根据国际货币基金组织(IMF)的说法,人工智能能够自主完成任务的职业,可能会面临劳动力需求减少和薪资降低的问题。
相反,需要人力监督人工智能的工作,由于生产率的提高,则增加了劳动力需求和薪资。然而,在人工智能作为补充劳动的角色中,缺乏人工智能相关技能的员工,仍然面临就业机会减少的风险。
除了造成失业,人工智能还给个人、组织和社会带来了多方面的风险。站在个人视角,人工智能使得隐私侵犯和身份盗窃等风险提高,甚至可能导致复杂的黑客和勒索软件攻击。组织则会面临数据安全和操作完整性的威胁,因为人工智能系统可能被用于企业间谍活动,或有针对性的网络攻击。
在社会层面上,人工智能放大了人们对偏见和歧视的担忧,因为算法可能会使现有的社会偏见持续存在。此外,人工智能不准确的决策,还会导致出现有缺陷或不利的结果,从而影响医疗保健、金融和执法等关键领域。对此,世界各国政府和监管机构已经发布初步法规,帮助人们更规范地使用人工智能。
TIP 人工智能监管的相关规定
欧盟、美国政府和国际标准化组织协会发布了有关人工智能监督和管理框架。
2021年,欧盟确定了评估人工智能应用风险的七项关键要求,并公布值得信赖的人工智能评估清单(The Assessment List for Trustworthy, ALTAl)。该清单涵盖七个领域,包括社会监督机构、技术稳健性和安全性、隐私和数据治理、人工智能透明度与多样性、非歧视和公平、社会环境和福祉,以及责任制。
美国白宫于2023年发布行政命令,指导50个联邦实体参与100多项具体行动,包括人工智能安全与保障、人工智能创新与竞争、劳动力支持、人工智能偏见和公民权利、消费者保护、数据隐私等。
国际标准化组织协会发布了lSO/lEC 42001,这是一个包含308个标准的全面框架,覆盖了人工智能管理系统(Artificial Intelligence Management System, AlMS)。该框架旨在促进组织对人工智能系统负责,涵盖了广泛的主题,包括风险管理、系统可信度、安全性、公平性,透明度、数据质量等。
当下,社会生活中的许多工作需要特定的工艺,因此,比如家具制造商、吹玻璃工、厨师等角色难以被人工智能取代。其他诸如对灵活性和流动性、情商、创造性、文化或批判性思维、教育或道德决策技能(如法官或监管机构)等要求较高的工作,同样不会被人工智能替代。
总之,人工智能能够帮助个人更好地完成工作,过上更便捷的生活。因此,大多数时候,组织都将人工智能视为一种进一步提高生产力、降低成本或产生新的收入来源的方式。
根据麦肯锡调研,生成式人工智能可提供的价值中,约有75%体现在四个领域:客户运营、市场营销和销售、软件工程、研发。
02
重视技术
以智能手段解决绩效难题
此前,国际绩效改进协会(ISPI)年会曾发布一项调研结果,强调了技术在绩效改进领域的重要性。在调研提问“你希望咨询顾问了解哪些趋势或变化”中,来自27个国家的372名绩效改进从业者选择“日益了解和掌握人工智能、虚拟学习等技术”作为最显著的趋势。
AI4PI解决方案处于人工智能和绩效改进学科的交叉领域,能够以智能化的手段解决绩效改进领域的难题,并科学有效地提升绩效。
实际上,绩效改进从业者及其客户,都是人工智能技术的消费者。这意味着我们不仅需要应用工具、系统和方法,解决绩效差距或实现特定的绩效目标,而是要更广泛地运用诸如人工智能等新技术,系统化、智能化地解决绩效问题。在指导客户设计和实施AI4PI解决方案时,绩效改进从业者需要关注这些关键问题。
● 如何确保用户随时随地对人工智能进行监督和负责?
● 如何加强对用户资料(包括个人信息及机密资料)的保护?
● 如何识别和消除人工智能系统中的偏见?
● 如何将客户作为AI4PI治理过程中的一个组成部分?
● 如何确定AI4PI解决方案的需求和机会?
● 如何设计有效的、负责任的、可持续的、以人为本的AI4PI解决方案?
● 如何发展最佳的人机互动和协作?
● 如何记录AI4PI解决方案的准确性或可信度?
● 如何部署AI4PI解决方案的测试和审计流程?
● 如何评估绩效改进的效果与影响?
绩效改进从业者应在四个原则的指导下,遵循六个步骤依次设计和实施AI4PI解决方案,才可真正使人工智能应用在绩效改进领域大放异彩。
03
四项原则
规避人工智能缺陷
在设计AI4PI解决方案时,我们应注意避免人工智能可能带来的潜在风险,以确保方案的可持续性。以下原则,为绩效改进从业者提供了“避坑”指南。
确保人力监督和责任
我们需要认识到,人工智能充当的应是辅助性角色,即增强和扩展劳动力的能力,而不是完全取代他们。这些辅助功能可以是提出建议、提供新想法、指导决策、支持行动,以及执行确定的任务等。
同时,这也意味着用户在使用AI4PI解决方案时,需要额外的人力来监督。进一步来说,我们必须持续监控并控制人工智能的操作,确保其采取的任何自主行动,始终受制于人类的专业知识和判断。同时,必要时及时停止,避免产生额外的风险。
加强数据保护及保密
保护数据来源及其机密性至关重要,可利用人工智能的可追溯性保护个人和组织的机密数据。需注意,组织和个人的数据不应与公共大模型或公开可访问的人工智能工具共享,而应被保护在组织的防火墙内。
消除潜在的偏见
在设计与研发AI4PI解决方案时,绩效改进从业者应主动分析和参与,从而减少偏见,防止人工智能延续社会不公正或参与潜在的歧视性行为。
与利益攸关方建立协同治理
即创建具有风险意识的人工智能治理框架,以确保相关实践能够遵守道德标准并保护人权。该治理框架可以根据AI4PI解决方案对个人、组织和社会构成的风险级别,进行评估和分类。
需要注意的是,风险级别可能会随着时间的推移而变化。最初被认为低风险或最小的风险的人工智能系统,如果以新的方式使用或底层数据发生变化,可能会变得更加危险。
例如,企业内部聊天机器人可以获得个人或机密数据,故不应该与整体员工共享。基于此,我们必须定期审查AI4PI解决方案,以保证其持续满足可接受的风险水平。
04
六大步骤
推动人机协作互动
AI4PI解决方案的执行与实施需要以人为本,并且推动人机积极协作与互动,方可实现良好的绩效改进结果,主要可参考六大步骤。
明晰需求与根因
AI4PI解决方案主要用以解决特定的、确定的需求。在分析需求的过程中,绩效改进从业者不仅要考虑短期因素,还需分析绩效差距的根本原因,以及预测不断变化的需求,让解决方案与需求持续相关。
针对需求分析,不妨采用ISPI绩效改进标准量化差距,以及揭示背后的实际根因。
定制化解决绩效问题
AI4PI解决方案应针对组织中的特定问题或挑战,并基于其背后的数据和信息,进行个性化与智能化的研发与设计,以满足组织的特定需求或发展新的机遇。在研发AI4PI解决方案时,这些方法和工具可以满足定制化的需要。
● 输入提示(Shot prompting):使用相同的会话ID,让人工智能模型能够访问之前对话的上下文,帮助它生成更多相关信息。
● 检索增强生成(RAG):从数据集中提取相关知识,并将其与人工智能响应相结合,从而实现自定义输出。这有助于人工智能响应更加个性化,并针对个人用户量身定制。
● 微调(Fine-tuning):通过微调少量任务的特定信息来调整模型,帮助人工智能模型在特定任务上提高性能。
● 发布清晰指令:为人工智能提供简明准确的指令,包括细节、所需格式和输出长度,以获得更准确的答案。
● 提供参考文本:为人工智能提供参考文本、引用或示例,以指导其反应,特别是当存在伪造信息的风险时。
● 拆分复杂任务:将复杂任务分解为更简单的步骤,使用早期任务的输出作为后期任务的输入,以减少错误率。
● 系统化测试:使用全面的测试方法,系统评估人工智能及时修改的功能,确保其面对问题时及时调整,从而改进整体性能。
开发顺畅的人机互动
仔细设计人机用户界面,通过不断测试提升用户体验,保障用户能够自然、便捷、充分地使用AI4PI解决方案。
评估准确性与可靠性
循序渐进地评估人工智能输出的准确性,并将评估结果反馈给组织领导和用户。该动作旨在说明人工智能的行动是可靠的,并符合预期的操作标准。
此后,还需根据反馈结果,进一步系统化提高人工智能输出的准确度。例如,针对人工智能的错误反应,可以通过在AI4PI解决方案中执行反馈循环使之最小化。
全流程测试与审查
经过严格的测试和审核流程,再部署与上线AI4PI解决方案,并确认方案符合道德标准,且与组织和社会价值观保持一致。
此外,还需定期审查人工智能系统,不断验证其性能,以及确保遵守道德规范和组织原则。需注意,审查应由人力主导,内容包括评估人工智能的准确性、可靠性、用户实际工作场景中的可用性,以及个人数据保护、减少偏见等。
说明方案所有效果
为了降低风险并最大化投入产出比,全面分析人工智能的效果很重要。效果评估包括AI4PI解决方案预期中的有形和无形收益,以及人工智能对个人、组织和社会的多重影响。
其中,有形的收益例如切实提高工作效率,允许员工把更多的时间花在更高价值的工作上——建立关系、提供咨询服务、教练与指导等。而无形收益很难量化却同样很重要,因此,在评估投入产出比时不应将其忽略。
如今,人工智能已成为人们工作中必不可少的辅助工具。各行各业都应认识到这一事实,并全面了解该技术能够如何影响所在领域。而绩效改进领域应在考虑所有影响之后谨慎投资人工智能,实现“取其精华”为我所用,更高效地提升组织绩效。
来源:培训杂志
作者:伊冯·达拉