查看完整版本: [-- AI时代下的企业管理:做不到的和不该做的 | 格物致知 --]

武当休闲山庄 -> 数码讨论 -> AI时代下的企业管理:做不到的和不该做的 | 格物致知 [打印本页] 登录 -> 注册 -> 回复主题 -> 发表主题

huozm32831 2021-01-31 09:22
           随着所谓人工智能(AI)、人体监控等技术在宣传和实质层面的进步,种种依赖机器算法的自动化系统在企业管理中扮演了越来越重要的角色,出现了“我的领导不是人”的现象。

一方面,这是在戏谑领导“缺乏人性”。另一方面,这也是种客观描述,即自动化系统不仅检测、评估着工人的绩效,还直接做出了种种经营决策。“不明觉厉”的系统成为了“领导”。

本文对此持怀疑态度。首先,人工智能技术尚未、也很难达到代替企业做出管理决策的地步,以重金购置的黑箱算法结果为圭臬,属于“韭菜”企业的自欺欺人。

其次,人体监控技术虽然把“争分夺秒”的“泰罗制”管理思维发挥到了极致,但破坏了人类的自主调节和发展机制,既缺乏人文关怀,也会导致收益上的得不偿失。法律等社会制度应当尽早对人工智能系统做不到和不该做的事项予以规范。

系统机器分配决策:不可信赖的“脑”

据报道,目前国内企业使用的智能任务分配或企业决策系统之类,并非来源于成熟公认、国际前沿的高精尖技术,往往是各种国内外大小“信息科技”公司的草台班子几个月的制作而已。这些系统的制作者虽然会强调对客户的行业等特点量身定做,但由于算法本身是黑箱,亦不存在什么“双盲实验”,所以购置此类系统的公司领导,只不过是图个“以其昏昏使人昭昭”。

虽然种种工作任务管理系统自称有“机器学习”的过程,但这根本是机器学习不了的。目前,甚至很长一段的人类历史内,所谓人工智能的机器学习的用武之地,均是极为逼仄的。

如清华大学人工智能研究院张钹院士所言,围棋软件Alphago获胜的奇迹已经到了阶段性终点,在与数学、脑科学等结合实现底层理论的突破前,“基于深度学习的AI技术已触及天花板”(《经济观察报》2019年5月27日同题文章),其应用空间大部分都将集中在图像识别、语音识别两方面。

已有的人工智能出彩的领域无不规则简单、参数有限、互动结果基本固定、可穷尽、可验证。比如,活人是在已经知道一张图片是老虎还是石头后,才可以反复训练机器认出这张图片。

即便是围棋,也不过是一种略微复杂的的简单任务,信息完全性比打牌都高太多。而且,下棋的输赢标准单一,软件可以通过反复试错来实现学习如何达到。AI下棋的过程成本、试错成本也不在考虑之列。

企业经营等人类互动活动要复杂得多。一项企业经营决策需要很多参考因素,但决策者基本不可能占有完全的信息,占有的很多信息也不能被量化为确定的参数,更无法轻易赋值以供公式化的计算,比如需要现场调查、与人进行访谈、察言观色后得出的亲身结论。甚至一项决策正确与否,在不同的空间角度、不同的时间维度下观察,也会得出不同的结论。

抽象意义上的机器算法系统虽然披着“科技”的外衣,但其内在地具有将复杂问题肤浅化理解、将多元情形简单化处理的倾向。人工智能充其量可以就已输入的真实性、可靠性不一的数据,依照概率统计做出结论,向你推荐出那条有最多的人走过的路,无论这条路是否对你真正合适。

更不用说,你在生活中真正遭遇的那个特定系统,可能是在同行中也相对拙劣的。看似让人眼花缭乱的数值、图表和精致模型背后,其实是一个外行指导内行的粗笨模型。

AI管理系统在静态意义上可能是低能的,在动态意义上还会越来越“人工智障”。身处今日加速更新的市场环境中,任何行业、企业的既有管理知识都比以往更容易过时。

技术流程、观念思维的动态适应,比往昔时代都更加重要。今日的管理者和一线员工需要产生更多交互,形成经验和视角的更多结合,而不是刻舟求剑地用预设的、少量的、模型化参数的软件来调控进度、衡量绩效。

企业管理与其说是一种科学,不如讲是一种存乎人心的艺术。本业实战的管理者和员工做不到的事情,外包设计管理系统的IT男们更加做不到。

不管是几百万元还是几千万元的软件,要依靠人工智能得出应该“提升内部治理能力管控”还是“控制采购成本”的“高级”结论,就像患者排斥医生当面的望闻问切,而运用自助小程序来诊疗一般荒谬。

更不用说,对于企业管理咨询一类的沟通活动,寻求咨询者是否接受建议,口服心服把建议转化为实践,很大程度上并不在于纸面或电子化的建议结论是否具有科学性,而在于提供咨询者是否在交往中能让寻求咨询者感到信服。由此基于人际信任而形成的口碑,也会比自烹自制的软件数据,承载更多的真实的市场评价。

退一步而言,即便不让人工智能系统来筹划企业管理决策,让其做些更简单的事情,如成为一个自动的工作任务管理器,亦不适宜。

实践中,一些公司已经会开始通过系统自动加派一项48小时的任务给员工。但是否要对特定人加派任务,同样是一个管理者自己未必都100%确信是否合适的问题。外部的“信息科技”公司的研发者更难以把握,又怎么可能培训机器来进行有效学习决策?

在此须注意,一个正常企业的工作任务管理,不是单机单任务游戏,是协调指挥一群人的集体、长期活动。系统给员工加派48小时的任务后,通过人工智能系统让员工赶工按时完成,不一定是成功。

一来,只要略有一些复杂度的工作,完成本身就具有层次性,是草草了事看似达标,还是精雕细琢无懈可击,并非没有区别。

二来,管理学的基本原理认为,任何略具创造性的活动,均需要来自劳动者的内在激励。内在激励的一个方面是参与感。在人力管理的情境下,即便员工未曾参与决策,也仍然能激励自己努力升职成为未来的决策者,从而体现间接的参与感。

而人工智能管理系统意味着,剥夺了绝大部分员工的参与机会。员工甚至连抱怨的自由也被侵损了,因为下达指令的是非人的AI系统,而非可当面沟通的部门主管。

三来,既然工作是一个反复博弈的过程,员工不是一次性的“工具人”,那这一次用得狠,就难免导致其在其他工作任务中的损耗。

企业管理者若沉迷于让员工在自动系统的指令下疲于奔命,甚至对员工“不考虑人的感受”的抱怨置若罔闻,要么是不明智的,要么只是一种明智的邪恶,即把难免要触及员工目光的当面下达加班指令,转化为在背后指令自己雇佣的“信息科技”公司加入“多安排任务”的代码。这意味着,管理软件通过结果来反馈调整的机制进一步失灵。

更有甚者,当AI管理系统包含足够具体的流程时,其本身会成为企业内的一个既得利益集团。

如《财经》本月的一篇报道称,某企业员工在工作中创造性地简化了与客户对接的流程,提前半个月实质性地完成了任务,为公司节约了不少成本,但由于形式上的电子签名等未按期完成,系统要扣员工工资。

营销部门的管理者向上级反映,上级竟以修改系统算法的成本更高为由,予以反驳。管理系统成了企业自我设置的一道枷锁。由于其未必真正符合任何自然人的利益,所以比真正的利益集团还不如。

系统监控人体: 应当抵制的“眼”

较之使用“脑子”的愿景,记录语音、捕捉人脸、识别动作、计算呼吸、感测心率、盘点在位时间等人体监控技术,已经成为了现实。对工作速率、工作时间和非工作时间(包括如厕时间),进行精确到秒的超级泰罗制管理模式已然存在。

在此基础上,传统部门主管等中层管理者,基于自己与活人打交道积累的经验,而调适工作任务松紧的权力也得以被一并清除。这当然有助于消灭部门主管以权谋私的行为,但也会消灭其他情有可原的调适,例如允许平常表现上乘的员工在遭遇急事时,在流程外额外获得半天的请假。

在一定程度上,这种精确监控人体指征技术的基本缺陷,仍在于“不精确”。其只能从生理表象框定人体,而不能真正对人的工作积极、工作绩效予以评估。如前一部分所述,这是可预见的人工智能技术再如何发展也不能实现的任务。

因此,现在企业管理已经走向了一个关键的岔路口:是选择相信作为完整的灵肉实体的中层管理人,还是选择相信量化的人体指标?

选择前者,应当是任何尚有能力长视的心理健康者的选择。

首先,人类的工作创造性,并非能在按部就班的量化积累中迸发,而需要一定的闲暇孕育。

众所周知,即便是从事最简单的重复性体力劳动一段时间后,若能提供必要的间隔休整的机会,那恢复肌肉弹性的劳动者也能在后续的工作中反而提高效率。其他需要不断积累经验,来改进技巧的具有脑力色彩的工作,则更是如此。

“工具人”和工具的不同之处,正在于前者是能自主思考和创造的智慧生物。思考和创造令人类形成了质变的能力,形成了种种人工智能始终无法模拟的复杂能力。大量人群的自发行动演绎出来的自生秩序,也总是比少数顶层管理者的规划设计高明得多。

但思考、创造以及由之而来的事半功倍、突破式进展,只有在必需的松弛环境中才能出现。

当人体监控技术全覆盖、无死角地扫除了劳动者根据工作进程自我调整地遐思、琢磨、发散的时间后,实际上是把人彻底贬格为工具,消灭了劳动者在工作中“探矿采矿”、为企业创造更多财富的机会。

企业所得的只不过是可预见的“芝麻”,所失的却是不可预见的“西瓜”。

其次,在外力施加的工作纪律中偷闲,是人类抗拒异化的天性所在。

当代思想家、耶鲁大学教授James Scott在《Two Cheers for Anarchism》(中译本使用了其副标题为名《六论自发性:自主.尊严,以及有意义的工作和游戏》,社科文献出版社2019年)一书中指出:人类有强烈的自主欲望,甚至会刻意做出倔强的反抗举动。不同时空下的工人不约而同地有各种开小差的举动,在心理上刻意抵御管理制度、管理设备(如让人停不下来的流水线)对自己的物化,哪怕这种开小差对自己没有什么大益处,如制造一些只供把玩的小工件。

再次,即便劳动者的“摸鱼”基本不能实现工作任务以外的创造,对他们的宽容也具有价值。

在市场经济的环境下,纯放空行为虽然能减轻工作强度,但本身无助于提高劳动者自身的竞争力;在传统的人力监控模式下,亦不会过度,其在一定程度上起到了“让落后者喘气”、纾缓压力的作用。这种纾压护弱并不是完整个体意义上的“保护落后”,也可能指向个体的某个断面,因此具有更广的保护意义。

例如,某个平时表现优秀的员工,在某一天因为家庭事故或健康欠佳而表现逊色,或员工短暂外出“溜号”购买充饥提升的食物或饮料,以便更有力地继续工作,本属正常。即便仅从企业价值的角度考虑,也可予以容忍。

人体监控技术搜橱检柜式地取消了员工在各种时空下的纾缓机会,实际上是不留余地的“水至清则无鱼”,用想象的996“高能”模式,来抹杀员工按照自己的身心调整节奏的机会。

当管理者宁可让员工端坐在电脑前不动、人脑也呆滞不动,也不愿意看到员工能自由地踱几分钟步、做些松柔运动时,意味着管理者选择了自欺欺人的互相伤害游戏。

或者用James Scott教授所言,他们追求的是一种象征性工程,“是想要用如同台球表面一样光滑的秩序、慎重、理性和控制之幕,遮盖权力在实际运作过程中的困惑、混乱、差错、临时性和任意性。”

近年来,诸多“科技”企业员工过劳死的现象频发,其中的原因之一,恐怕离不开这些企业利用“电子之眼”全面监控员工的“高能”。而过度压榨员工碎片时间导致的劳动力整体陨灭,显然既不符合效益最大化的经济价值观,也违背了以人为本的社会伦理。

法律可以向纯自动的工作管理系统说不

当下,即便是“呆萌”的企业管理者,大约也还不指望人工智能可以对企业战略、企业文化等抽象的高层决策提供帮助。然而,如果不加警惕的话,这块地盘未必不会被侵蚀。

一方面,人工智能是一种自我演进的神话。只要有“科技”公司,敢于宣称自己的机器算法能得出对企业战略的推荐,就不愁没有愿者上钩的“韭菜”企业。

另一方面,据报道,一些企业特别是国企,为了获得以数字化为名义的补贴或光鲜,正在不顾实际地强推各类自动化、无纸化的系统“升级”。甲方的长官意志催生的虚头巴脑、甚至自相矛盾的指示,战胜了企业有效运营的正经需求情况,甚至令乙方管理软件公司有限的智慧也无从发挥。

此外,即便自然人依旧掌舵企业顶层战略的设计,但当基层员工已经在战术型操作中被人工智能驱使得疲惫不堪时,建立在传统智慧和经验之上的顶层战略的设计效果,就会出现严重的失真。

换言之,重度依赖人工智能实施管理的企业,意味着更追求准确的一致性,而非多样性,其在设计初衷上就大概率会成为一个沉闷、平庸、缺乏创造力的流水线企业,顶层战略设计本身的意义已然会大打折扣。

此正如科学史专家、加州大学洛杉矶分校教授Theodore Porter曾经指出的,滥用量化技术的结果是这些技术会按照自己的单调模样重塑世界,尽管人们本来只是想用技术描述世界。

当人工智能技术不再只是客体技术,而参与了人类的决策时,就会产生种种伦理困境(参见郭锐:《人工智能的伦理和治理》,法律出版社2020年)。

这就需要来自法律的治理应对。法律对社会生活的介入是深度的。百年前的劳动法就已经开始限制劳动者的每周工作时长。如今的法律也禁止完全由自动化的驾驶系统操控的车辆直接开上公路。

如张钹院士所言,行为缺乏可解释性、决策意图不能为人知悉的人工智能不是安全的人工智能。故而,在对人类更重要的领域,立法禁止高度自动化的工作分配和评估的管理软件,禁止窥测人体隐私生理指征的监控软件,并非是一个不可行的选项。

人工智能技术出现时的道德遮羞布,是将人类从枯燥、危险的工作中解放出来,其的确也部分实现了这一功能。

但当人工智能妨碍甚至危害解放人类这一根本目的时,尚能运作的社会规范就需要出来制止AI在无能的领域以其不可信赖的“脑”给人添乱,制止AI在其可以用武的领域肆无忌惮地用各种“电子之眼”窥测人体。

工作对于人而言,不仅是一种谋生之道,也是实现人生价值、维护人格尊严的立身之基。或许肉体凡胎具有某些天生的软弱性、不稳定性,但这正是我们人作为人的本源所在。

而且,作为亿万年地球历史中进化成功的物种,我们应该对人类可以更好地处理好自己的事务具备信心。制度不应该成为人类进化的束缚,机器算法更不应该是。人类自身的命运,不是机器学习的试错对象。


查看完整版本: [-- AI时代下的企业管理:做不到的和不该做的 | 格物致知 --] [-- top --]


Powered by www.wdsz.net v8.7.1 Code ©2005-2018www.wdsz.net
Gzip enabled


沪ICP备:05041533号