和“人工智能”一起 机器人 算法” 变成同事

03-07 10:56

最近回国留学,发现我住的酒店里有一个白色的机器人,经常和我一起坐电梯。举止优雅,彬彬有礼,进入电梯时,会说请大家让一让。之后,它会不好意思地说:“请大家不要惊讶,我要隔空按地板的数字。"电梯里的其他人都会心地笑。小孩也会奇怪地去摸机器人,想和它说话。当我到达商场时,有时还会看见机器人在送花;在餐馆里,我看见机器人送饭,在桌椅之间自由穿梭。有意思的是,在美国住酒店时,从未见过机器人,在商场和超市也没见过。不由自主地想到,人与机器和谐合作的时代,也许在中国提前到来。


根据国际机器人联合会(International Federation of Robotics)调查显示,从2017年到2022年,中国市场机器人数量的增长率为300%,而美国的相应增长率仅为43%,英国的增长率为16%。 。资料还显示,中国目前已达到每10,000名员工中392个机器人的惊人比例。中国在这一新领域,在某种意义上似乎已经成为机器人与人合作的大试验场。


在这种背景下,我们不禁要问:我们和机器人是如何成为同事的?如果你的讨论组里除了我自己,其他人都是不同的AI模型,人机应该如何合作?人工智能时代的人与组织的协调,是否会被完全重构?当人工智能模仿人类时,它是否也形成了一种人类的行为模式?


人力资源管理学家研究人工智能的重点是将人工智能作为一种能力或资源,并提出了人工智能的14种主要能力。他们认为,这些能力不仅会影响人工智能的实际应用领域,还会改变人类办公场所的特点,如工作设计和工作自由度,从而进一步影响组织的运行和发展。


怎样与AI合作?在《合成智商》中,我非常同意伊森·莫里克(Co-intelligence)这本书提出了一些观点,因为这也符合我个人在AI协同工作中以大模型为核心的经验。它主要包括以下几点:


1. 把AI当作“人”,而非简单的机器。传统机器通过软件运行,一般表现可靠可预测;但是AI更像人,有时候是不可预测的,甚至可能是“胡思乱想”或者“幻觉”。


人工智能的能力令人印象深刻。能像人一样写作,查资料,总结文章,编程,做分析,与人交谈,这样可以大大提高工作效率。另外,AI还可以模拟人类的思维模式,对具体问题进行分析。如果你给它不同的“人设”,比如让它扮演老师、学生、长辈或幼儿,它的反应和参考标准的权重也会发生变化。这一拟人化的表现令人吃惊,也显得十分逼真,进一步增强了合作的实用性,提高了效率。


2. 重视AI的创造力。尽管AI可能不够准确,不够可靠,甚至出现“幻觉”,但这些特征反而赋予了它独特的创造力。创造力不仅包括完全原创的想法,还包括整合和重组当前的想法,从而产生新的想法。


AI在整合能力上的表现尤为明显,甚至超越了人类。您可以将两个或三个完全不相关的领域结合起来,它可以迅速提供许多全新的想法。这一能力为创新提供了无限的可能性,帮助我们找到新的解决方案和发展方向。


3. 把AI当作同事。有一项深入研究将AI可以实施的工作与现有工作场所(约1061种)的重叠水平进行了比较。数据显示,大多数工作可以被AI取代。在这些工作中,有许多是高薪工作,如高知类工作和需要创造性的工作,包括大学教授的职位。只有36种工作不容易被取代,这些工作大多是机械工作或非人类无法完成的。面临这个现实,保持良好的心态至关重要。AI可视为同事或助理,利用AI来缩短工作时间,提高工作质量。通过这种方式,AI不仅可以成为威胁,而且可以成为我们的左膀右臂。


4. 把AI当作教练,提高学习效率,然后成为专家。专家是那些有能力判断AI答案并提出尖锐意见的人,而不是那些只听从AI的人。能够判断AI是否正确,需要对客观事实有扎实稳定的基础知识和准确的认识。



人机之间


正常的人际交往与合作, 对于与他人合作,不同的个人有不同的想法和行为。类似地, 在人机协同工作的场景中, 人们对机器算法也有两种截然相反的态度。


在这个阶段,人们对机器智能的接受程度会影响人机协同的效果,以及能否实现智能增强。尖端技术的引入改变了员工的工作惯例和原有的利益分配模式,往往会引起人们的不确定性和抵制。 这些问题涉及到控制和信任。就更加普遍的意义而言, 在组织管理中,控制和信任是一个永恒的问题, 上司对下属的过度控制会导致下属不信任, 而且上司不施加控制也可能导致下属无法达到目标。


另一方面,人们可能会担心AI,甚至会产生“算法厌恶”。在某些情况下,即使人们知道算法的决策比人类好,他们仍然可能表现出不满,甚至更喜欢牺牲效率来反对AI的干预。


在某种程度上,这种厌恶可能会受到媒体关于AI威胁人类的报道的影响。研究发现,在AI应用兴起之初,那些看到AI独立运行,忽视人类指令的人更倾向于认为AI不仅会威胁到人类的工作、安全和资源,还会影响到人类的身份和独特性。相比之下,那些看到AI缺乏自主性并遵循人类指令的人很少会有这样的担忧。另外,在观看了具有自主性的AI之后,人们对机器人的情绪更加消极,更加反对与机器人有关的研究。


另外,人类也有可能“欣赏”算法。一些研究提出了“机器启发”(machine heuristic)概念是指人们倾向于认为机器是机械的、客观的、无意识的。相比之下,人们认为人类决策者容易受到偏见和情绪的影响,而算法则更公平、无偏见。


调查显示,在高等教育招生现场,很多人认为人工智能的录取过程更加客观,比人类的决策更加公平。解雇员工通常认为,在解雇决策的研究中,算法是中立的、理性的、客观的。求职者认为AI在招聘决策中的决策一致性明显高于人类决策。在招聘场景中,他们还认为算法筛选简历的过程比公司代表筛选的过程更加一致,算法可以更快地做出决定。


在AI背景下,算法厌恶和算法崇拜都会干扰快速的人机协作。我们知道,人工智能模型深度学习的基础是人类专家的决策数据。输入数据的质量直接关系到人工智能算法在后期任务中的决策水平。


要实现高质量的人机合作,关键在于人机的相互促进。人类工作者需要不断积累处理新问题的经验,并将这些经验反馈给机器智能。与此同时,人类还需要发现机器算法依赖于数据的不足,并纠正算法中的误差。只有通过这个循环来改善,人机合作的质量才能不断提高。


总的来说,管理学者在R&D的掌握力不如人工智能领域的专业人士,但其优势在于可以通过现场研究深入不同领域的典型公司,了解公司的商业模式和工作流程。在企业研究中,我们发现学者比商业化的第三方机构更容易获得公司的认可,因为研究工作的学术特点而不是盈利导向。这种信任使学者能够更全面地理解公司在AI转型和人机合作探索过程中面临的问题。


AI作为一种通用技术,对当代生产力和生产关系产生了巨大的影响。中国的各种商业场景正处于大规模人机合作的阶段。这种现象在世界各地都是独一无二的,积累了丰富而独特的情境和数据。在不辜负时代赋予的使命之前,我们中国的管理学家应该抓住这个难得的研究机会,深入研究各种场景下的人机互动,创造大量原创的研究成果。MI·专题


作家:陈晓萍 谢小云


陈晓萍是华盛顿大学福斯特商学院Philip M. Condit讲座教授;谢小云是浙江大学管理学院院长,教授



本文来源于微信公众号“复旦商业知识”(ID:BKfudan),作家:陈晓萍 谢小云,编辑:谭相宜,36氪经授权发布。


本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com