编者按:LLM 的兴起要颠覆很多白领工作。坏消息是你有可能被解雇。好消息是你可以临时被提拔为经理,并且配备了一位 AI 助理。如果你试用期表现出色,就有可能比之前更进一步,否则的话,你的饭碗有可能保不住。在 AI 崛起的新时代,你必须弄清楚自己的核心优势是什么。文章来自编译。
图片来源:由无界 AI工具生成
对于白领来说,大型语言模型 (LLM) 的兴起写出了一场新的开场白,亚历克·鲍尔温(Alec Baldwin)在《拜金一族》(Glengarry Glen Ross)的那种演讲开场白,极客版的。坏消息是,你可能要被解雇了。好消息是,你有一个临时的试用期,你被提拔了,现在你有一位直接下属,它的注意力广度不受限制,知识面广泛,尽管有点肤浅,但它有个令人沮丧的特点,即容易犯些很基本的错误,需要密切监督。跟这样的下属一起工作可能会让你感到沮丧,但它的“薪资”每月只要 20 美元——对方的要求并不高。
鉴于很多白领工作从根本来说都属于符号操作——接收一段比特流,进行一些分析,然后输出另一段比特流——这些都可以在一定程度上被自动化掉。另一方面,如果你是一位领薪水的人而不是一个由 cron 作业执行的脚本,你的工作可能还不能完全被自动化掉。
那么,思考这类任务的方法之一是提出一个由两部分组成的问题:
- (请注意,自动化的一部分是设置类似脚本之类的东西,去下载你的电子邮件,并对其中一些执行部分批量处理操作——这样不仅你对数据可以做的事情变得更多了,而且获取数据的开销也变少了。)
- 有些形式的自动化可以减少特定类型开销的时间成本,比方说,将笔记转换为要点,或将要点转换为文章。但是,在其他情况下,要想把成本降低 90%,最好的办法是将产出提高 10 倍。
与 LLM 共事,部分意味着要弄清楚你的比较优势在哪里,机器的比较优势又在哪里。在编码方面很容易看得出来,要么要求 ChatGPT 根据文本描述替你编写代码,要么使用一款代码补全工具。大致地设计好一个项目非常容易,对于大多数的样板组件而言,实际上你只需写个描述性的函数名称,然后模型就能帮你干完剩下的工作。
但你不能只是盲目地用人工智能取代这个过程。你很快就会遇到结构不好的烂摊子 — 在 AI 的强大功能的帮助下,你一个下午就能制造出要你用一年时间偿还的技术债务!但这里有一个已经存在了很长一段时间的问题:每一种更高级的语言都会提高编写代码的效率,但同时也可能会降低运行它的效率。[1] 对于 LLM 辅助代码来说,有一个重要的权衡取舍要牢记,那就是在写得快和能维护之间进行权衡。(有趣的是,这会赋予可读性强的语言甚至更高的价值,因为你会把相对更多的时间花在看不是你写的代码、并确保理解了它是如何工作上面。)
LLM 也许不会告诉你要重构你的代码,但它们可以让它变得更快;在最近的一个项目里,我注意到 ChatGPT 给三个不同的函数都生成了相同的样板,于是我就把那部分粘贴进去,要求 ChatGPT 写成一个单一用途的函数,然后再换成那个函数。LLM 对更复杂的决策没有帮助,但对实现此类任务确实有帮助。“重写以下函数,生成一个时间戳,重写另一个函数,让它接受时间戳作为其输入之一”,类似这样的任务 ChatGPT 颇为驾轻就熟。
大型语言模型的一个限制是它们的上下文窗口,或者它们每次实际可以考虑到的文本量。老模型容易忘,新模型记性好点,但都有这个局限。人类也是如此;在文字记忆方面,我们大概也就能记住 7 +/- 2 个标记(编者注:token,文字的基本单位)。但是当我们用结构化的方式去记忆东西时,我们的有效语境窗口就要比 LLM 的要宽得多。我们可以将记忆的相关概念组合在一起,使用类比来避免偏离方向,当这些概念再次变得相关时突然就能记起语境,即便在一段时间内不相关也不要紧,我们还有 GPT-5 级别的注意力表现。这是使用 LLM 意味着人晋升为管理角色这个观点的核心,因为经理的语境应该要更广泛,这样才可以管理信息不对称的个人贡献者那些并行进行的工作。
从另一个角度来说,利用 LLM 可以帮助将项目与人类记忆联系在一起。对于在家工作并且不太相信“工作/生活平衡”理念的父母来说,这一点尤为重要。如果你在 ChatGPT 与代码编辑器之间来回切换,那么被打断的程度就会轻得多,因为你按下 alt-tab 就能马上准确地记住你在做什么——只需看看你询问 ChatGPT 的最后几个问题即可。这从根本上扩大了你在注意力不能 100% 集中的情况下可以处理的项目范围。(AI助理)就像一个闪烁的光标,标记住你思路走到了什么位置。
思考 AI 对工作流的辅助还有一种办法,那就是对于编程任务,一开始的问题是“我应该自己写这个,还是应该找到一个大致可以做我想做的事情的库,然后弄清楚怎么让它准确地做到我想实现的事情?”为此,编码助手可以通过三种方式提供帮助:首先,它可以找出你需要但你不知道的库;其次,它可以帮助将你的任务转换成适合这个库特性的格式;第三,如果没有相关的库,它可以生成代码,去做这样一个库会做的事情——或者,换句话说,通过探索假设中的库的潜在空间,找到需要的东西。换句话说,在很多人都做过类似任务,但之前没人做过完全相同的任务的情况下,AI 最有用。这个可以覆盖知识工作者任务的多少百分比呢?对于这个问题我们可以就此展开激烈讨论,肯定在“99%”以上,但也不会是 100%。
如果你不需要知道 Pandas 的语法,就能将数据分析从原来用 Excel 转为用更好的东西,如果你不需要记住自己每隔几个月才用一次的那些不起眼的功能的名称,你还需要记住任何东西吗?
是,总的来说,记忆力的威力惊人的强大,即便有很多东西不再需要查阅,但知道原本不会想到去查阅的信息仍然很有价值。《学习如何在 24 小时内利用有限数据做出不可靠的外推》,或者《小丑的数据科学》的内容现在任何人都可以访问,他们只需要在 VSCode 里面敲个函数名称,然后点几次 Tab ,剩下的交给编码助手去写就行。但是“知道什么时候使用哪种技术”的回报要高得多,“了解棘手的边缘情况”的回报也一样。ChatGPT 非常乐意为你编写一些代码来拟合非线性数据的线性回归,或者帮你对分析进行各种愚蠢的偏差/方差平衡。如果你想对 10 个数据点进行分析(不会产生适用于 10000 个数据点的统计显著性的结果),你绝对可以这么做。快速做出错误决策的成本更低之后,做出正确决策的价值就会更高。当然,有些人也会将这些决定外包给 LLM,但 LLM 更擅长的是看起来很懂而不是真懂,所以结果将是达克效应的牛市(编者注:能力欠缺的人在自己欠考虑的决定的基础上得出错误结论,但是无法正确认识到自身的不足,辨别错误行为。这些能力欠缺者们沉浸在自我营造的虚幻的优势之中,常常高估自己的能力水平,却无法客观评价他人的能力,LLM 可能会助长能力欠缺的人自信爆棚这一现象)。
ChatGPT 也乐于做没有多大商业意义的事情,尤其是当你的问题没有嵌入相关上下文的时候。因此,领域专业知识会比过去更有价值,因为它的补充之一——也就是吸收大量信息并提取重要信息——突然变得更便宜了。
想想看股票分析师的工作。如果他们正在研究一系列的公司,肯定会去阅读这些公司的新闻稿以及电话会议记录。理想情况下,他们也会对这些公司的最大客户、供应商以及间接竞争对手做同样的事情。他们以前未必有这么多时间。但现在他们可以做到了!ChatGPT 很乐意为你总结电话会议记录(只需粘贴上下文窗口内的摘录——在这方面 GPT-4 是一个很大的性能改进)。你甚至可以为它们提供主题相关的提示。Nvidia 上次财报电话会议的一般摘要的有用程度比不上为了了解云计算公司、GPU 竞争对手制造商或 PC 游戏而量身定制的摘要。这在很大程度上可以发挥人类和 LLM 的相对优势:你正在用自己的个人上下文窗口,通过先发制人识别哪些比特流有价值,从而析取出有价值的信息比特流。你越是受限于一天只有 24 小时,就越能从专业知识的凸性中获益,LLM 辅助总结对你的帮助就越大。
在生产中使用 LLM,或用它们编写生产代码,自然会带来很多风险。你的确定性输入得到的是不确定的输出。当然,这种情况一直都存在;生物本身就是非常不确定的,即便我们有可读的源代码。
当然,你可以担心你的 LLM 会产生幻觉,但有些任务对此有抵抗力,你可以在这些任务中获得外部反馈。比方说,如果你开发一个网络爬虫的话,你通常能知道会得到什么样的数据,你可以对结果进行健全性检查。如果网站上的搜索功能显示有 815 个你要抓取的结果实例,而你的爬虫找到了其中的 815 个,则这个爬虫可能工作正常。换句话说,如果你正在用 AI 增强型编码或 AI 增强型业务流程,你自然会希望里面包括大量的错误检查和日志记录——这正是你无论如何都应该做的事情之一。而如果你时间不够,可能就会想跳过这些。
这些变化还会产生其他一些下游后果:
- 许多目前按小时计酬的工作,或者员工能领薪水但奖金很少的工作,将转向计件工作模式或具有同等价值的奖金制度。如果一个人可以做四份工作,那么保留其中一份并做四倍的量然后拿四倍工钱是一种帕累托改进:因为这样可以减少 80% 的管理开销,并且不会因在不同公司开会而造成时间重合。
- 企业会开始做实验,去衡量白领服务的价格弹性。比方说,如果一家企业提供与人类的实时聊天服务的话,那么当产品定价处于盈亏平衡状态时,看看有多少新客户注册就是值得的。理论上,随着模型因为有了更好的数据而得到改进,今天的盈亏平衡在不久的将来就有可能可以盈利。
- 请注意:如果私募股权能慧眼识珠,发现拥有独特专有数据以及使用这些数据需要倚重人力的公司的话,就可以大赚一笔。当模型本身被商品化之后,独特数据的相对价值就会上升。 [2]
- 销售人员可能会做得出奇的好,原因有二:首先,销售过程当中最容易被商品化的部分是刚开始的客户接触,这样一来销售人员可以将相对更多的时间花在价值更高的事情上。其次,产品的自动化程度越高,能把单做成就越需要信任特定的人。这会增加方差,但主要会提高上行空间。
- 人工智能会让处在职业生涯早期的员工受益,他们还没有确定自己喜欢的工作方式,而且必须更多地靠即时产出而不是业绩记录来评估他们。但 AI 也会让非常有经验的员工受益,这样他们可以有更多的隐性知识显性化,并且有更多可以成为潜在客户和合作伙伴的商业联系人。如果你不是这两种人中的任何一种,那么现在是找出成为哪一种人更容易的好时机(编者注:要么把老本行做精,要么去换个新职业,平庸没有出路)。
- 发展中国家会一举甩开某些富裕世界的机构:由于很多工作可以自动化,如果你用一小部分成本就能搞定麦肯锡、高盛以及摩根士丹利所做的 80% 的话,情况会变成什么样?另一方面,API 调用的市场出清价格将在发达国家设定,用来替代更昂贵的劳动力。还有就是,手机是 1990 年代与 2000 年代跨越式发展的一个有启发性的案例,因为这个玩意儿在 1980 年代还属于奢侈品。
人工智能经济学这个话题很广泛。技术越通用,其最大的受益者就越有可能是用户而不是卖家。LLM 可用的训练数据的绝对数量是对文本的需求要多旺盛的指征,也说明了为了产生这些数据已经花费了多少人的毕生努力。现在,那些工作主要包括生成文本(不管是普通文字还是代码)的人会上升到更抽象的层面,并创造出更多的东西。
注:
[1]这个问题不会完全消失,但 ChatGPT 确实可以快速编写测试,并且基于对一些简单脚本的检查,它会很乐意将 Python 代码转换为 C++、Rust 以及 Go。所以新的循环可能是:用你能用的最具表现力的语言写一些东西,给它写一些测试,找出瓶颈,然后用性能更好的语言重写那些东西,同时确保测试仍然有效。当然,这样做时务必小心;如果你到头来写出来的系统尽管具备高吞吐、低延迟、且超可靠,但做的事情却不对的话,请不要怪我。
[2]这一情况会发生在多个层面:如果你为了数据收购一家企业,你要做的一件事就是确保自己确实可以访问那些数据。当你可以将一系列客户合同提取到一个系统之中,然后该系统会吐出确定数据权利的条款时,尽职调查会进行得更快。交易越依赖于数据的使用,并购过程就越倚重建立数据管道。
译者:boxi。