AI搞砸工作谁“抗雷”

二、AI让工作技能提升还是丧失

随着AI的加入,企业员工的组成从传统的仅有社会人转变为社会人与AI机器人的组合。

三、任务失败时,人与AI谁来负责

除了激励和培养员工以更好地适应人机协同工作的环境之外,对企业而言,一个更大的挑战是,如何对人和AI的责任进行认定。

综上所述,我们建议企业根据不同任务匹配不同的协作模式,并重新思考AI员工和人类员工合作下的激励和培养问题,以及做好AI系统的责任管理。

数字经济时代,人的角色正在发生变化。当AI成为企业的新员工,人与AI的协同合作将逐渐成为生产过程中的常态。当碳基与硅基两种智慧碰撞,如何摸索出新的协作模式,以提升整体效率?如果人机协同的工作任务“搞砸”了,人类和AI之间又如何界定责任?

一、与AI一起工作,需要最优匹配模式

如果要让人机协作的系统变得更好,组织管理可以做些什么?

该领域的研究尚处于初步阶段,大多数企业也仍在探索,成熟的相关研究较少。就目前笔者所了解的情况而言,人机协同中的组织管理可以归纳为三个主要方面:一是企业任务与人机系统的匹配管理;二是AI员工融入组织后,组织管理方式的调整;三是人和AI在系统中的责任管理。

首先需要考虑的是工作任务与人机合作模式之间的匹配管理。用户的异质性会影响人机协作的效果。而不同任务的性质也会对不同的人机协作模式提出不同的要求。因此,组织需要根据任务的属性,调整人和AI在具体任务中的比重。

目前,大家普遍认可的任务匹配管理模式,主要包含可计算性、主观性及复杂性三个维度。

从可计算性维度看,如果任务本身需要大量计算,超出了人脑的处理能力,那么让AI来主导可能会更有效。举例来说,规划从地点A到地点B的路线时,人类可能有经验,但只能从几条已知路径中选择最优路线;AI则可以枚举所有可能路径,并从中找出最优解,效果更佳。

从主观性维度看,如果任务具有较强的主观性或需要灵活应变,如医疗服务或餐饮服务,人类可能更适合扮演主导角色。

从复杂性维度看,复杂的决策场景需要考虑更多因素,关系也更加复杂。例如,在外卖快递调度系统或空间模拟计算等复杂任务中,人类很容易忽视相关因素,从而影响决策质量,这时增加AI的比重可能会更有利。

举例来说,最近的一项研究发现,创意评价类任务相对模糊,主观性也更强,即使使用了具有理论支持的可解释性人工智能,机器也无法模仿人类专家的判断,特别是在筛选出特别优秀的创意方面。这样的任务更需要由人类来主导。

然而,如果所有的创意评价都由人类专家完成,可能会导致案例过多,使专家感到枯燥和疲倦,从而影响他们的客观判断能力。

因此,这项研究提出了一个解决方案:可以先让AI筛除那些低质量的创意,减少专家的工作负担和乏味感。这样,专家就可以将更多精力集中在评估和筛选优秀创意上。

复旦大学管理学院的一位年轻老师也进行过一个有趣的相关研究。他发现,在任务结果主要依赖于运气时,比如选课、抽卡娱乐、盲盒消费等,人们更倾向于选择由人工智能提供服务。因为人们认为,AI的运气比人类更好,更有可能带来理想的结果。然而,在理财、医疗等需要一定能力完成的任务上,人们更倾向于选择由人类主导的系统来完成。

这一发现在一定程度上证实了,企业需要为不同类型的任务匹配不同的人机协作系统。

二、AI让工作技能提升还是丧失

随着AI的加入,企业员工的组成从传统的仅有社会人转变为社会人与AI机器人的组合。这种情况下,企业将面对新的管理挑战,包括如何管理AI员工,以及如何调整组织策略以适应AI员工的加入。目前已有不少研究发现,在与AI合作之后,员工对公平性的感知和情绪都会发生很大变化。

例如,智能审计的引入可能会导致员工感到焦虑和不安全,从而抑制其自主创新的意愿,进而影响员工的绩效。在这种背景下,许多组织行为学领域的学者开始研究,AI员工的引入如何影响员工的心理状态、团队协作、领导力,以及人力资源的计划、招聘、培养和管理过程。

在这里,我分享两项最新的研究成果。这篇最新发表的研究探索了员工在企业引入智能知识管理系统后,如何适应工作的变化。研究发现,员工在与AI支持系统合作时,存在两种适应机制。

第一种是效益最大化机制,员工会最大程度地利用AI来提高自己的认知能力,从而提高工作绩效。第二种是干扰最小化机制,AI破坏了员工原有的工作流程,导致员工感到角色冲突,进而使得他们的绩效受损。

研究进一步分析发现,采用效益最大化策略的新员工,其绩效提升速度最快;采用干扰最小化策略的老员工,其绩效相对也表现不错。

因此,前述建议企业在引入这样的AI系统之后,应该着力鼓励新员工更多地采用效益最大化的机制来应对AI系统。换言之,鼓励他们利用AI学习新知识,以提高工作绩效。对于那些已经熟悉原有工作流程的老员工,组织应该帮助他们通过AI来调整自己的工作框架和流程,从而降低角色冲突,缓解AI所带来的干扰。

与此相关的另一个话题是,在人机合作的过程中员工工作技能的变化管理问题。一旦AI接管了计算性强、重复性、结构化的任务,从理论上讲,人类就可以转而从事一些更具有意义、更需要创造性的工作,以促进员工技能的提升。我们将这个现象称为“AI导致的技能提升”。

举例来说,对于程序员而言,在AI的辅助下,他们可以将更多时间用于思考程序的业务逻辑,而不是花费大部分时间在修复程序中的错误上。然而,对于某些知识型员工来说,AI并不一定会促进技能的提升,反而可能导致一种“去技能化”的趋势。

2023年一项研究显示,医生在使用诊断辅助系统后,其独立诊断的准确性明显下降,因此AI辅助诊断系统的使用,实际上导致了医生的“去技能化”。另一项研究也发现,手术机器人的引入大大减少了住院医师实际操作训练的需求,从而降低了医生的动手能力。

现在住院医生需要采取不同于以往的方式来提高自己的动手能力。某位医生学者就提出过一个影子学习的方法,通过尽早专业化、抽象演练和监督实践的方法来培养医师的动手能力。

三、任务失败时,人与AI谁来负责

除了激励和培养员工以更好地适应人机协同工作的环境之外,对企业而言,一个更大的挑战是,如何对人和AI的责任进行认定。特别是当服务失败时,到底谁来承担责任。

此前关于无人驾驶车出车祸之后的责任问题,就曾引发广泛的讨论。主流观点认为,AI系统本质上是机器,无法承担法律责任,因此问责对象应该是系统背后的人或机构。然而,也有研究认为,当算法透明度越来越高后,AI在一定程度上可对其所做的事情负责。

因此,当人和AI共同完成任务时,企业如何分配相应的责任就成为一个备受关注的问题。换句话说,企业是否愿意主动对AI的失败负起责任,将影响到人机协作系统的采纳和最终的绩效。

不过,这一问题涉及法律、政策、技术以及相关管理研究,尽管有很多讨论,但成熟可靠的研究实际上并不多见。我们团队目前试图在这方面展开一项探索性的研究,研究的场景是互联网医疗平台。

随着越来越多的互联网医疗平台采用生成式人工智能提供AI问诊服务,平台是否需要为AI问诊的责任提供支持成为了一个非常有趣的研究话题。

我们希望通过这项研究,探索互联网医疗平台是否愿意为AI问诊服务承担责任,以及这种决定如何影响患者使用平台的意愿。

我们计划在两个不同的场景下进行研究,分别是纯粹的AI问诊和AI与医生混合问诊。我们将通过一定方式来调控患者对平台承担责任的感知,并检验患者对平台的信任度和使用意愿。在研究过程中,我们还会引入AI问诊和医生问诊的感知中立性作为调节变量。

我们的理论假设是,在其他条件相同的情况下,当AI愿意为问诊质量承担责任,并且患者认为AI问诊更加客观中立时,患者更愿意使用互联网平台的AI问诊功能。这项研究仍在进行中,我们期待未来能够分享更多的成果。

综上所述,我们建议企业根据不同任务匹配不同的协作模式,并重新思考AI员工和人类员工合作下的激励和培养问题,以及做好AI系统的责任管理。

最后,借用“各美其美,美美与共”这句话,人类与AI协作的理想境界可能是“各智其智、各尽其长”,即充分发挥人类与AI各自的优势,互相学习,从而提升人机协作的整体效能。


本文来自微信公众号:经济观察报 (ID:eeo-com-cn),作者:卢向华(复旦大学管理学院信息管理与商业智能系教授、博士生导师)

声明: 该内容为作者独立观点,不代表新零售资讯观点或立场,文章为网友投稿上传,版权归原作者所有,未经允许不得转载。 新零售资讯站仅提供信息存储服务,如发现文章、图片等侵权行为,侵权责任由作者本人承担。 如对本稿件有异议或投诉,请联系:wuchangxu@youzan.com
Like (0)
Previous 2024年4月24日
Next 2024年4月24日

相关推荐

  • 水温80度:AI行业真假繁荣的临界点

    我们从来没拥有过这么成功的AI主导的产品。

    (这种分析统计并不那么准,但大致数量级是差不多的)

    这两个产品碰巧可以用来比较有两个原因:

    一个是它们在本质上是一种东西,只不过一个更通用,一个更垂直。

    蓝海的海峡

    未来成功的AI产品是什么样,大致形态已经比较清楚了,从智能音箱和Copilot这两个成功的AI产品上已经能看到足够的产品特征。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时“罢工”,全网打工人都慌了

    美西时间午夜12点开始,陆续有用户发现自己的ChatGPT要么响应超时、要么没有对话框或提示流量过载,忽然无法正常工作了。

    因为发现AI用久了,导致现在“离了ChatGPT,大脑根本无法运转”。”

    等等,又不是只有一个聊天机器人,难道地球离了ChatGPT就不转了。

    大模型连崩原因猜想,谷歌躺赢流量激增6成

    GPT归位,人们的工作终于又恢复了秩序。

    未来科技 2024年6月5日
  • ChatGPT宕机8小时,谷歌Gemini搜索量激增60%

    ChatGPT一天宕机两次

    谷歌Gemini搜索量激增近60%

    ChatGPT在全球拥有约1.8亿活跃用户,已成为部分人群工作流程的关键部分。

    过去24小时内提交的关于OpenAI宕机的问题报告

    图片来源:Downdetector

    ChatGPT系统崩溃后,有网友在社交媒体X上发帖警告道:“ChatGPT最近发生的2.5小时全球中断,为我们所有依赖AI工具来支持业务的人敲响了警钟。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时大崩溃,AI集体罢工让全网都慌了

    接着OpenAI也在官网更新了恢复服务公告,表示“我们经历了一次重大故障,影响了所有ChatGPT用户的所有计划。Generator调查显示,在ChatGPT首次故障后的四小时内,谷歌AI聊天机器人Gemini搜索量激增60%,达到327058次。

    而且研究团队表示,“Gemini”搜索量的增长与“ChatGPT故障”关键词的搜索趋势高度相关,显示出用户把Gemini视为ChatGPT的直接替代选项。

    未来科技 2024年6月5日
  • 深度对话苹果iPad团队:玻璃的传承与演变

    iPad最为原始的外观专利

    没错,这就是iPad最初被设想的样子:全面屏,圆角矩形,纤薄,就像一片掌心里的玻璃。

    2010年发布的初代iPad

    好在乔布斯的遗志,并未被iPad团队遗忘。

    初代iPad宣传片画面

    乔布斯赞同这一想法,于是快速将资源投入平板电脑项目,意欲打造一款与众不同的「上网本」,这就是iPad早年的产品定义。

    iPad进化的底色

    苹果发布会留下过很多「名场面」,初代iPad发布会的末尾就是一例。

    未来科技 2024年6月5日
  • 底层逻辑未通,影视业的AI革命正在褪色…

    GPT、Sora均为革命性产品,引发了舆论风暴,但它在上个月发布的“多模态语音对谈”Sky语音,却由于声音太像电影明星斯嘉丽·约翰逊,被正主强烈警告,被迫下架。

    华尔街日报也在唱衰,认为“AI工具创新步伐正在放缓,实用性有限,运行成本过高”:

    首先,互联网上已经没有更多额外的数据供人工智能模型收集、训练。

    03、

    如果说训练“数字人”、使用AI配音本质上瞄向的仍是影视行业固有的发展方向,那么还有另外一群人试图从根本上颠覆影视行业的生产逻辑和产品形态。

    但分歧点正在于此,电影公司希望通过使用AI技术来降低成本,但又不希望自己的内容被AI公司所窃取。

    未来科技 2024年6月5日
  • KAN会引起大模型的范式转变吗?

    “先变后加”代替“先加后变”的设计,使得KAN的每一个连接都相当于一个“小型网络”, 能实现更强的表达能力。

    KAN的主要贡献在于,在当前深度学习的背景下重新审视K氏表示定理,将上述创新网络泛化到任意宽度和深度,并以科学发现为目标进行了一系列实验,展示了其作为“AI+科学”基础模型的潜在作用。

    KAN与MLP的对照表:

    KAN使神经元之间的非线性转变更加细粒度和多样化。

    未来科技 2024年6月5日
  • 这个国家,也开始发芯片补贴了

    //mp.weixin.qq.com/s/tIHSNsqF6HRVe2mabgfp6Q
    [4]中国安防协会:欧盟批准430亿欧元芯片补贴计划:2030年产量占全球份额翻番.2023.4.19.https。//mp.weixin.qq.com/s/VnEjzKhmZbuBUFclzGFloA
    [6]潮电穿戴:印度半导体投资大跃进,一锤砸下1090亿,政府补贴一半.2024.3.5https。

    未来科技 2024年6月5日
  • 大模型的电力经济学:中国AI需要多少电力?

    这些报告研究对象(数字中心、智能数据中心、加密货币等)、研究市场(全球、中国与美国等)、研究周期(多数截至2030年)各不相同,但基本逻辑大同小异:先根据芯片等硬件的算力与功率,计算出数据中心的用电量,再根据算力增长的预期、芯片能效提升的预期,以及数据中心能效(PUE)提升的预期,来推测未来一段时间内智能数据中心的用电量增长情况。

    未来科技 2024年6月5日
  • 你正和20万人一起接受AI面试

    原本客户还担心候选人能否接受AI面试这件事,但在2020年以后,候选人进行AI面试的过程已经是完全自动化的,包括面试过程中AI面试官回答候选人的问题,AI面试官对候选人提问以及基于候选人的回答对候选人进行至多三个轮次的深度追问。

    以近屿智能与客户合作的校验周期至少3年来看,方小雷认为AI应用不太可能一下子爆发,包括近屿智能在内的中国AI应用企业或许要迎来一个把SaaS做起来的好机会。

    未来科技 2024年6月4日