ChatGPT将重塑商业、社会和就业

作者:编辑部 2023-04-18

摘要: 诸如ChatGPT这样的下一代人工智能系统是否会带来现代经济所需的生产力提升,我们是否准备好了?

在过去的200年里,我们已经看到了平均每年1.5%至2%的生产力增长,通用技术的出现,如蒸汽机、电力和计算机,推动了它们推出后几年的快速增长。然而,在过去10到15年里,发达经济体的生产力增长已经放缓。哥本哈根大学经济学副教授莫滕·奥尔森(Morten Olsen)问道:“人工智能(AI)会不会是下一个推动生产力的通用技术?”

国际象棋大师加里·卡斯帕罗夫(Garry Kasparov)在《深度思考》(Deep Thinking)一书中写道,一个(弱小的)人类与机器一起工作,有一个强大的合作流程,可以产生比人工智能和人类单独工作时更好的结果,根据卡斯帕罗夫的说法,在人机界面建立一个更好的流程需要人类知情。换句话说,我们需要了解技术,以了解其潜力、限制和挑战。

解读ChatGPT

ChatGPT是被称为大型语言模型(LLM)的一类技术中的一个特殊产品,机器学习(ML)的一个应用领域,本身就是现代人工智能的核心。像所有的ML算法一样,ChatGPT查看大量的数据,在数据中找到“模式”即具有足够高概率的规律性,并利用这些模式进行预测,例如,考虑到之前的单词,接下来会产生什么单词。

在学校里,我们可能参加过这样的测试:向我们展示一连串的形状,如三角形、圆形、星形和三角形,并要求我们预测接下来会发生什么。简单地说,这就是机器学习的作用。

术语“GPT”来自生成性预训练转化器这个短语。它是“生成”的,因为它生成的文本是根据用户的问题或指令预测他们可能会发现的有用内容。它是由一个叫做转化器的算法使用大量的文本语料库预先训练出来的。

简而言之,像ChatGPT这样的LLM是复杂的ML算法,它在人们过去产生的大量文本中寻找模式,并利用它们来预测特定用户根据他们的输入可能发现的有用内容。其复杂性是显而易见的,ChatGPT中估计有1750亿个参数,GPT-4(ChatGPT的一个高级版本)中估计有170万亿个参数。

要了解ChatGPT等LLMs的潜力,重要的是要理解它们不一定是产品,而是基础模型。由于基础模型被用于不同的下游应用,我们所看到的只是冰山一角。

为无数应用奠定基础

ChatGPT最常被用来合成或总结文本,将文本翻译成编程语言(如R和Python)和搜索。在商业方面,如营销材料的文案写作、客户互动、综合大型法律文件、编写操作清单和开发财务摘要。

由于ChatGPT能够从不同的角度生成文本,它可以拓宽视野,提高创造力,可能超出人类的想象。例如,你可以从不同的角度,例如欧洲人、美国人、中国人、10岁或80岁的人,生成简短的文本摘要,如公司的使命宣言。

它已经被用于商业领域,以提高创造力和商业成功:例如,可口可乐公司在其最近的营销活动中有效地使用人工智能来吸引客户。但创造力并不只限于创意领域,该技术可以通过生成商业计划、商业模式等的备选方案来发挥人类的创造力。然而,人类最终需要评估所生成内容的质量。

在更高级的应用中,创新通常由基础研究和企业研究驱动。人工智能在这些过程中提供的帮助越多,我们就能越快地看到真正的创新,就像在生物医学研究中使用人工智能如何将药物发现和蛋白质折叠预测的时间减少到仅仅是人类所需时间的一小部分。

它是一个基础模型的事实意味着ChatGPT是大量应用的基础。人工智能可以增强人类的智慧,导致创造出我们甚至不知道的新需求,并以更快的速度创造出新的公司、产品、市场和工作。

ChatGPT对企业意味着什么?

虽然ChatGPT带来了新的可能性,但我们需要健全的流程,使人类和人工智能能够有效合作。技术采用中最重要的教训之一是,需要进行组织变革,以成功实施并从中获得价值。

此外,信任是技术采用中的一个必要因素。但信任是一把双刃剑,当用户对技术过于信任时,会导致决策中的过度自信或叙述谬误,即人们根据LLM产生的叙述编造故事。在高风险的应用中,它甚至会危害到他们的安全。

信任也与责任问题有关: 如果医生、律师和建筑师等专业人士由于将人工智能的决定置于自己的判断之上而犯错,他们是否应承担责任?他们是否会受到渎职或职业责任保险的保护?

从消费者信任和安全的角度来看,ChatGPT等技术使内容的指数级增长成为可能,这使得内容控制一个对我们的在线信任和安全至关重要的问题,对在线平台来说更具挑战性。此外,人工智能在创造信息过滤器和泡沫方面的作用已被置于聚光灯下。

人才培养是另一个考虑因素。过度依赖法学硕士会使我们的技能萎缩,特别是在创造性和批判性思维方面。公司应该避免仅仅因为技术允许而将低端工作自动化的近视观点。在一些职业中,如果没有做过律师,你就不能成为合伙人,如果没有做过研究助理,你就不能成为正式教授。因此,没有适当考虑人才发展的自动化会破坏组织的人才渠道。

公司制定指导方针,以确保安全地驾驭人工智能,规定谁、何时和如何使用人工智能。在人工智能的采用中,我们需要把人类放在驾驶座上,以监控人工智能的行为。

社会准备好了吗?

虽然有些人担心被ChatGPT取代是可以理解的,但技术上的失业在过去150年里并没有发生。人工智能预计不会在未来五到十年内导致大规模失业,所以更相关的担忧是它会如何影响收入分配。

新技术可以带来两种效应:生产力和替代性。正如经济学家罗伯特·索洛(Robert Solow)所观察到的那样,生产力的影响只会随着时间的推移在生产力统计中显现出来。至于替代效应,它对个人的影响程度不同,取决于其技能水平。

在19世纪50年代,低技能偏向的技术变革中,熟练的鞋匠被在工厂大量生产鞋子的非熟练工人所取代。另一方面,在20世纪80年代到2010年代,使工厂自动化的技术偏向于拥有大学学历的人,而不是低技能的工厂工人。目前,还不清楚哪个群体会从法律硕士中受益。

在更根本的层面上,存在着法律硕士是否能真正做到不偏不倚和包容的问题。了解它是如何学习的,就会发现它为什么会有内在的偏见。ChatGPT等ML算法通过无监督学习(即观察对话)、监督学习和强化学习建立知识,其中专家根据用户的反馈“训练”模型。

这意味着ChatGPT从训练和使用它的个人身上“学习”,机器会采用他们对政治、社会和整个世界的价值观、观点和偏见。因此,虽然ChatGPT可以是民主化的,但它也可以是集中化的,这取决于训练它的专家。

此外,由于内容扩散的速度,以及内容如何被武器化以威胁民主国家和机构,错误信息的风险也在增加。现在甚至有望影响选举活动,那些社交生活只存在于网络渠道的人处于高风险之中,因为他们可能无法判断真假。ChatGPT可能会使那些已经被封闭在自己的网络信息泡沫中的人的观点永久化。

小组成员持谨慎的乐观态度,并同意有必要进行适当的管理和监管,以确保对ChatGPT等技术的道德和负责任的使用。

学会合作

在实践中,监管将永远落后于技术创新。欧盟保障网络安全的《数字服务法》在2022年底执行时就已经落后了,因为它只涉及Facebook和谷歌等网络平台,而不包括ChatGPT,尽管后者聚合了网络内容。

同样,尽管基础模型可以用于下游的高风险产品,但它们在人工智能法规中落入了缝隙。随着大型科技公司继续开发新的基础模型,这可能会释放出下游产品的激增。如果基础模型仍然不受监管,它们可能会成为大规模、连环失败的单一点。  

但是,在不同的地理区域对一项新兴的、不断发展的技术进行监管,会带来挑战。人工智能算法采用来自用于训练它们的数据的价值,这可能导致不同地区的人工智能文化不同。这增加了监管的复杂性。即使世界不同地区的法规是相同的,但由于不同的法律制度,以及不同的价值体系,实施和结果也会不同。

尽管存在挑战,但数据科学家、企业和监管机构的综合行动可以提高技术信任和安全。透明度和信任往往是相辅相成的,当企业在与客户的交往中保持透明时,就会得到回报。例如,他们可以告知客户什么时候内容是由ChatGPT产生的,什么时候客户是在与机器而不是人进行互动。

确保人工智能与人类价值观更加一致的一个持续发展是带人类反馈的强化学习(RLHF)领域。通过纳入人类反馈,我们可以尝试根据人类的价值观来提高人工智能的输出质量。然而,我们只是在解决人工智能价值调整问题的开始。

同时,虽然已经证明人工智能可以在国际象棋上击败人类,但并非所有领域都是如此。利用人工智能来补充人类是有潜力的,这需要更好地了解两者结合的机会和限制。随着法律硕士的不断发展,所有小组成员都认为人机组合是一个很有前景的领域,可以利用人工智能来提高人类思维的质量,并确定实现这一目标的必要条件。