- AI领导课:企业数智化转型的9项关键行动
- (比)大卫·德克莱默
- 2298字
- 2025-03-19 17:09:45
AI是什么,AI不是什么
从基本定义来看,AI系统是具有自我学习能力的计算系统。换句话说,AI可以从“大型数据集”中学习,并进行模式识别和问题解决。因此,AI具有分析大型、复杂数据集以揭示潜在趋势的能力,还可以根据这些潜在趋势向人类提出相应建议。正是这种自我学习能力使企业领导者相信:AI将有助于提高组织的效率。[4]AI系统有可能帮助组织以更有序的方式运作,从而促进整体生产力的提升。AI系统在各种组织中的不同应用,向我们展示了它的这种能力。例如,AI系统可以帮助企业筛选求职者的简历、评估员工绩效、优化工作任务分配、管理产品库存,以及自动完成重复性任务,让员工能够腾出时间来探索新想法、促进创新,而不是被按在工厂的生产线上枯燥地数机器的各种零部件。[5]
AI的自我学习能力——应用算法去处理新数据,并根据新数据实时改变自身计算方式——使许多人将其与人类智力相提并论。[6]由于缺乏对AI的真正了解,企业领导者往往会认为这种自我学习能力意味着AI可以做人类能做的所有事情,而且速度更快。遗憾的是,这种想法是错误的。今天,太多的企业领导者隐秘地假设:AI可以思考,因此几乎可以在任何岗位(包括脑力工作者的岗位)上取代人类。他们将AI视为智能、高效、组织有序和纪律严明的高素质新员工,而且比人类员工更能干。[7]假如他们的假设在未来成真了,他们不禁要问:为什么还要在人类员工身上投资呢?
这种将人工智能和人类智能相提并论的假设,是个严重的错误。而且,这种错误的假设如果没被认识到,将导致企业领导者很容易做出破坏和威胁其组织正常运作的错误决策。那些认为AI优于人类员工的想法,最终可能导致一个组织丧失人类独有的能力,比如创造力和情商。
首先看看创造力方面。随着ChatGPT等大语言模型的快速发展和应用,人们对AI的恐惧程度呈指数级增加。这类自然语言处理工具由AI驱动,可以让你与机器进行类似人与人之间的对话。为了响应你所输入的提示词,ChatGPT使用一套算法来分析大型数据集,并以文本、图像和音视频等形式生成新内容反馈给你。这些新技术能够通过美国律师资格考试和高级生物学考试等高级考试——在2022年11月ChatGPT公开发布之前,人们还普遍认为这些考试AI是不可能通过的。[8]更令人震惊的是,AI可以生成大量新想法。正是因为AI具有这种能力,所以企业领导者更有理由相信:AI现在真的有思想了!如果AI能够成为一个有创造力的思想者,那么当然可以把创造性工作交给它去完成。但是,如果企业领导者决定将创造性工作委派给AI而不是人类员工,那么这一决策将严重损害整个组织的利益(详见第8章)。
实际上,AI仍然无法像人类一样思考,ChatGPT也没有具备真正的创造力。首先,这款自然语言处理工具不会产生新颖的想法,它所表现出的唯一新颖之处在于,它以类似人类思维的方式来组织和组合现有想法。但这些想法本身必须已经存在于数据集里,ChatGPT才能生成它们。因此,AI在创造力方面比人类做得更好的,就是更快地提出现有想法的新组合。
但是,创造力不只是组合进而产生新颖的想法,它还涉及评估新产生的想法是否有意义,以及这个想法究竟能够解决人类关心的什么问题。[9]很显然,包括ChatGPT在内的AI系统不具备这种能力,它无法理解人类认为哪些问题是重要的,哪些问题是亟待解决的,而哪些问题其实是不重要、不紧急的。因此,尽管ChatGPT是快速组合生成新想法的高手,但它无法判断这些想法在实际工作中可以解决哪些有用的问题(用学术术语来说,它缺乏反向因果推理的能力)。企业领导者需要意识到这一现实,并认识到拥有ChatGPT并不意味着我们不再需要进行任何思考。为了避免陷入这一思维陷阱,一位深谙AI的领导者还应该了解AI的局限性。
那么,AI的局限性包括什么呢?
首先,即使是最先进的AI,也无法像人类一样从学习中推断“意义”(meaning)。它们不能进行意义层面的类比,也无法欣赏文化和语境的细微差别。[10]人类可以从商业对话中体会出“话中有话”的更深层次意义以及“只可意会不可言传”的微妙差异,而AI无法做到这一点。在某些商业谈判中,对方说出的话往往与他要表达的意思是相反的。例如,“你提供的这个报价是认真的吗?”这句话将被AI视为“对方只是想确认我方所提供的报价”这一简单问题,而大多数商业人士会很快觉察到对方其实是对我方提供的报价不满意。因此,AI无法真正取代拥有直觉、判断和决策能力的人类,而这些能力在复杂和模糊的商业环境中至关重要。[11]
其次,AI无法进行“道德推理”(moral reasoning):它们不能推断出人们真正关心的问题是什么,以及所关心的问题为什么在某些情况下更重要,而在另一些情况下则没那么重要。[12]它们无法与做决策的人产生情感共鸣。例如,作为领导者,你可能会对一位员工因家中一位老人突发心脏病而迟到表示同情;但AI不会,AI只会坚持该员工迟到的事实,而不会对员工家中的不幸遭遇抱有任何同情心。在任何给定的情境中,AI都无法以符合道德伦理、尊重他人和为社会所接受的方式来处理问题。
最后,大多数现代AI都充斥着偏见和歧视的算法。有关AI偏见的报道如今越来越常见,例如,歧视非洲裔美国人的预测性警务算法和歧视女性的简历筛选算法。我们再也不能假设AI是完美、理性且无偏见的决策者了。
因此,企业领导者需要明白,AI系统可以分析人类无法处理的大型复杂数据集,并从中推导出极具洞见的结论。同时,领导者还必须明白,AI系统无法做出直觉判断,无法真正理解道德心理和文化差异,也无法在决策中完全消除偏见和歧视。如果企业领导者能看到AI的正反两面,这将有助于他们在组织中用好AI。虽然AI可以做很多事情,例如提升员工工作效率和改善组织的整体运作效能,但它不能完全取代人类。而且,重要的是,卓有成效的领导者要明白,AI不能代替我们人类思考。这就是在AI时代我们依然需要企业领导者的原因!