人和AI合作,到底有什么危险?

开发了历史上第一个聊天机器人的计算机科学家约瑟夫·维森鲍姆,曾将科学比喻成“一种上瘾的药物”,并由于服用剂量越来越大而成为“一种慢性毒药”,如将计算机引入一些复杂的人类活动,可能会没有回头路可走。

当人把思考、判断的权力交给机器,作为一种“参考”,“社会惰化”和“自动化自满”的魔鬼或许也潜伏其中,并可能随任务的重复成为一种慢性毒药。

“科技是懒人推动的!”

相信所有人在“摸鱼”或者“躺平”的时候,都曾经用这句话为自己找借口。

从蒸汽机的工业革命,到计算机的数字革命,技术的进步确实让人类在某些方面,越来越有躺平的资本。

作为最有潜力成为下一代平台的 AI 技术,会让人类变得“更懒”吗

好像确实是的,但这并不是个好消息。

根据发表在《机器人与人工智能前沿》杂志上的一项最新研究显示,当人类与 AI 和机器合作时,真的会“摸鱼偷懒”。

该研究的第一作者 Cymek 称:“团队合作既可以是一种祝福,也可以是一种诅咒。”

所以,在 AI 时代,人类最大的危机不是被机器取代,而是“懒到退化”?

一、机器助手,让人类“放松警惕”

当有了机器这样一个有力帮手时,会让人类变得比较“心大”。

德国柏林工业大学的研究人员向 42 名参与者提供了模糊的电路板图像,要求他们检查是否有缺陷。其中一半的参与者被告知,他们要处理的电路板已由一台名为“熊猫”的机器人检查过,并已标记出缺陷。

实验:模拟电路板质量控制的视觉搜索任务 |《机器人与人工智能前沿》研究

实际上,机器人“熊猫”在实验过程中检测到了 94.8% 的缺陷。所有参与者都看到了相同的 320 张扫描电路板图像,当研究人员仔细查看参与者的错误率时,他们发现,与“熊猫”一起工作的参与者,在任务后期捕捉到的缺陷较少,因为他们已经看到“熊猫”成功地标记了许多缺陷。

两组参与者几乎检查了整个电路板表面,花时间搜索,自我评价努力程度较高。结果是,与机器人合作的参与者平均发现了 3.3 个缺陷,独自完成任务的人平均发现了 4.23 个缺陷。

两组参与者检测到的缺陷的平均值和标准偏差 |《机器人与人工智能前沿》研究

研究称:“这表明参与者在与机器人伙伴合作时,可能不太专心地检查电路板。我们研究的参与者似乎保持了检查电路板的努力,但似乎检查是在较少的脑力劳动和对采样信息的关注下进行的。”

这意味着,如果他们被告知机器人已经检查了一部分,并体验到机器人的可靠后,他们就会发现更少的缺陷。在潜意识中,他们假设“熊猫”不太会漏掉缺陷,产生“社会惰化”效应

这项研究的影响对于依赖严格的质量控制的行业尤为重要。作者警告称,甚至是短时间内对人类注意力的放松,可能是由于过度依赖机器人的准确性,都可能危及安全。

研究人员 Onnasch 提到:“在更长的轮班时间内,当任务变得例行化,并且工作环境提供的性能监控和反馈较少时,动力的丧失往往更大。在制造业普遍存在,特别是在双重检查常见的与安全相关的领域,这可能对工作结果产生负面影响。”

当然,研究者的测试也有一些限制。比如,样本其实还不够大,而且在实验室中难以模拟“社会惰化”,因为参与者知道他们受到监视。Cymek 解释道:“主要的限制是实验室环境。要了解人机互动中动力丧失问题的严重性,我们需要走出实验室,在实际工作环境中与经验丰富的工人一起测试我们的假设,他们通常与机器人一起工作。”


二、“人机合作危机”

事实上,在实验室之外,人机合作导致的“堕化”早已经在现实世界中出现。

在自动驾驶领域,有一个与“社会惰化”相似的现象,叫做“自动化自满(Automation complacency)”,典型是由于有了自动化辅助而分心

2018 年 3 月,在美国亚利桑那州,配有安全员的Uber 自动驾驶汽车撞死一位骑自行车的人。警方的分析发现,如果安全员一直看着道路,安全员本可以在受害者前方 12.8 米处停下来,并避免悲剧。

特斯拉常常是美国媒体和监管机构重点关注的目标,原因常常是与自动驾驶有关的事故。一个典型的场景是,特斯拉司机在使用自动驾驶功能时睡觉,或玩游戏,并卷入致命车祸。

在当下的 AI 狂潮中,机器取代人类的预言越来越接近现实。一方认为机器会服务于人类,另一方则认为人类会不小心制造出邪恶之物。

在医疗领域,IBM 研发的 AI 系统“Doctor Watson”曾向癌症患者给出过不安全的用药建议。今年有论文指出,生成式 AI 已经可以通过美国医疗许可考试的三个部分。一个相似的迁移假设是,如果未来由 AI 对人类进行诊治,然后人类医生进行把关,人类医生是否又会出现“社会惰化”和“自动化自满”问题

前述研究的作者指出:“将人类和机器人的能力结合显然提供了许多机会,但我们也应该考虑,人机团队中可能发生的意外群体效应。当人类和机器人在一项任务上工作时,这可能会导致人类团队伙伴的动力损失,并使社交惰化等影响更有可能发生。”

还有人担心,AI 可能会影响人类思维和创造力,并削弱人际关系,从整个现实中分心。硅谷的生成式 AI 明星初创公司 Inflection 推出的聊天机器人 Pi,被设计成一位友善、支持的伴侣。创始人表示,Pi 是帮助人们应对孤独的工具,可以作为一个倾诉的对象。批评者则认为,这会让人逃离现实,而不是与真实的人类互动。

现在,人与工具的关系已经进化到一个新的层次。所有工具的诞生,其实都让人类变懒了,如扫地机让人免于清扫房屋,手机让人不用再记下电话号码。

但 AI 技术和此前的技术区别在于,将更多的思考和选择工作,都交给了 AI,而后者基本上是一个黑箱,这更像一种思考自主权的让渡。当人将开车决策完全交给自动驾驶,将医疗诊断都交由 AI 系统,潜在的代价与记不住电话号码的代价可能完全不同。

开发了历史上第一个聊天机器人的计算机科学家约瑟夫·维森鲍姆,曾将科学比喻成“一种上瘾的药物”,并由于服用剂量越来越大而成为“一种慢性毒药”,如将计算机引入一些复杂的人类活动,可能会没有回头路可走。

当人把思考、判断的权力交给机器,作为一种“参考”,“社会惰化”和“自动化自满”的魔鬼或许也潜伏其中,并可能随任务的重复成为一种慢性毒药。

本文来自微信公众号:极客公园 (ID:geekpark),作者:芯芯,编辑:靖宇

声明: 该内容为作者独立观点,不代表新零售资讯观点或立场,文章为网友投稿上传,版权归原作者所有,未经允许不得转载。 新零售资讯站仅提供信息存储服务,如发现文章、图片等侵权行为,侵权责任由作者本人承担。 如对本稿件有异议或投诉,请联系:wuchangxu@youzan.com
(0)
上一篇 2023年10月31日
下一篇 2023年10月31日

相关推荐

  • 水温80度:AI行业真假繁荣的临界点

    我们从来没拥有过这么成功的AI主导的产品。

    (这种分析统计并不那么准,但大致数量级是差不多的)

    这两个产品碰巧可以用来比较有两个原因:

    一个是它们在本质上是一种东西,只不过一个更通用,一个更垂直。

    蓝海的海峡

    未来成功的AI产品是什么样,大致形态已经比较清楚了,从智能音箱和Copilot这两个成功的AI产品上已经能看到足够的产品特征。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时“罢工”,全网打工人都慌了

    美西时间午夜12点开始,陆续有用户发现自己的ChatGPT要么响应超时、要么没有对话框或提示流量过载,忽然无法正常工作了。

    因为发现AI用久了,导致现在“离了ChatGPT,大脑根本无法运转”。”

    等等,又不是只有一个聊天机器人,难道地球离了ChatGPT就不转了。

    大模型连崩原因猜想,谷歌躺赢流量激增6成

    GPT归位,人们的工作终于又恢复了秩序。

    未来科技 2024年6月5日
  • ChatGPT宕机8小时,谷歌Gemini搜索量激增60%

    ChatGPT一天宕机两次

    谷歌Gemini搜索量激增近60%

    ChatGPT在全球拥有约1.8亿活跃用户,已成为部分人群工作流程的关键部分。

    过去24小时内提交的关于OpenAI宕机的问题报告

    图片来源:Downdetector

    ChatGPT系统崩溃后,有网友在社交媒体X上发帖警告道:“ChatGPT最近发生的2.5小时全球中断,为我们所有依赖AI工具来支持业务的人敲响了警钟。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时大崩溃,AI集体罢工让全网都慌了

    接着OpenAI也在官网更新了恢复服务公告,表示“我们经历了一次重大故障,影响了所有ChatGPT用户的所有计划。Generator调查显示,在ChatGPT首次故障后的四小时内,谷歌AI聊天机器人Gemini搜索量激增60%,达到327058次。

    而且研究团队表示,“Gemini”搜索量的增长与“ChatGPT故障”关键词的搜索趋势高度相关,显示出用户把Gemini视为ChatGPT的直接替代选项。

    未来科技 2024年6月5日
  • 深度对话苹果iPad团队:玻璃的传承与演变

    iPad最为原始的外观专利

    没错,这就是iPad最初被设想的样子:全面屏,圆角矩形,纤薄,就像一片掌心里的玻璃。

    2010年发布的初代iPad

    好在乔布斯的遗志,并未被iPad团队遗忘。

    初代iPad宣传片画面

    乔布斯赞同这一想法,于是快速将资源投入平板电脑项目,意欲打造一款与众不同的「上网本」,这就是iPad早年的产品定义。

    iPad进化的底色

    苹果发布会留下过很多「名场面」,初代iPad发布会的末尾就是一例。

    未来科技 2024年6月5日
  • 底层逻辑未通,影视业的AI革命正在褪色…

    GPT、Sora均为革命性产品,引发了舆论风暴,但它在上个月发布的“多模态语音对谈”Sky语音,却由于声音太像电影明星斯嘉丽·约翰逊,被正主强烈警告,被迫下架。

    华尔街日报也在唱衰,认为“AI工具创新步伐正在放缓,实用性有限,运行成本过高”:

    首先,互联网上已经没有更多额外的数据供人工智能模型收集、训练。

    03、

    如果说训练“数字人”、使用AI配音本质上瞄向的仍是影视行业固有的发展方向,那么还有另外一群人试图从根本上颠覆影视行业的生产逻辑和产品形态。

    但分歧点正在于此,电影公司希望通过使用AI技术来降低成本,但又不希望自己的内容被AI公司所窃取。

    未来科技 2024年6月5日
  • KAN会引起大模型的范式转变吗?

    “先变后加”代替“先加后变”的设计,使得KAN的每一个连接都相当于一个“小型网络”, 能实现更强的表达能力。

    KAN的主要贡献在于,在当前深度学习的背景下重新审视K氏表示定理,将上述创新网络泛化到任意宽度和深度,并以科学发现为目标进行了一系列实验,展示了其作为“AI+科学”基础模型的潜在作用。

    KAN与MLP的对照表:

    KAN使神经元之间的非线性转变更加细粒度和多样化。

    未来科技 2024年6月5日
  • 这个国家,也开始发芯片补贴了

    //mp.weixin.qq.com/s/tIHSNsqF6HRVe2mabgfp6Q
    [4]中国安防协会:欧盟批准430亿欧元芯片补贴计划:2030年产量占全球份额翻番.2023.4.19.https。//mp.weixin.qq.com/s/VnEjzKhmZbuBUFclzGFloA
    [6]潮电穿戴:印度半导体投资大跃进,一锤砸下1090亿,政府补贴一半.2024.3.5https。

    未来科技 2024年6月5日
  • 大模型的电力经济学:中国AI需要多少电力?

    这些报告研究对象(数字中心、智能数据中心、加密货币等)、研究市场(全球、中国与美国等)、研究周期(多数截至2030年)各不相同,但基本逻辑大同小异:先根据芯片等硬件的算力与功率,计算出数据中心的用电量,再根据算力增长的预期、芯片能效提升的预期,以及数据中心能效(PUE)提升的预期,来推测未来一段时间内智能数据中心的用电量增长情况。

    未来科技 2024年6月5日
  • 你正和20万人一起接受AI面试

    原本客户还担心候选人能否接受AI面试这件事,但在2020年以后,候选人进行AI面试的过程已经是完全自动化的,包括面试过程中AI面试官回答候选人的问题,AI面试官对候选人提问以及基于候选人的回答对候选人进行至多三个轮次的深度追问。

    以近屿智能与客户合作的校验周期至少3年来看,方小雷认为AI应用不太可能一下子爆发,包括近屿智能在内的中国AI应用企业或许要迎来一个把SaaS做起来的好机会。

    未来科技 2024年6月4日