与其担忧不确定的未来,不如去创造一个更美好的未来
陆坚/文
去年秋天,我在湛庐与编辑团队讨论我的写作计划时,被问及是否愿意翻译里德·霍夫曼先生关于AI的新作。编辑认为我是翻译此书的最佳人选,一是因为我的技术背景,二是因为我是领英中国前掌门人;而领英(LinkedIn)正是霍夫曼先生辉煌职业生涯中的璀璨明珠,作为全球最大的职业社交媒体平台,已拥有超过十亿的全球用户。然而,面对这个提议,我起初有些犹豫,因为我的写作计划正进展缓慢,急需专注与集中,不愿轻易启动新的项目。但随后,我请求先看一看新书的样章,再作决定。
然而,仅仅是读完前言部分,我就决定投身于这部作品的翻译。
重新认识苏格拉底
打动我的是前言中作者引用了古希腊哲学家柏拉图在《斐德罗篇》中的一段对话,在这段2400年前的对话中,柏拉图的老师苏格拉底细数了他对书面文字的批评,他认为,一旦文字被写下,就失去了活力,读者有问题或对内容提出质疑,静止沉默的书面文字无法作答;更糟糕的是,书籍的广泛传播让作者失去了对内容的控制,读者可能理解也可能误解书中的内容,书还会落入不相关的人手中。
这段文字让我恍然大悟,原来我们在教育中所推崇的”苏格拉底教学法“——面对面对话式教学,竟源于这位伟大的哲学家对书籍作为教学工具的质疑和放弃(苏格拉底本人确实未留下任何著作)。尽管如此,书籍依然成了传承人类文明几千年的重要载体之一。
步入ChatGPT时代,“苏格拉底式对话”焕发了新的形态与意义。回想起数月前,我刚读完可汗学院创始人萨尔曼•可汗的新作《教育新语:人工智能时代教什么,怎么学》(Brave New Words: How AI Will Revolutionize Education)。书中介绍了一个利用“Khanmigo”AI教学助理将历史人物融入教学对话的案例,让学生能与美国开国总统乔治•华盛顿进行对话,甚至让AI扮演美国宪法的虚拟角色,与学生互动解读宪法第四修正案的历史背景与意义。
那么,2400年前苏格拉底所批判的书面文字的种种局限被AI解决了吗?答案显然是并非完全。毕竟,我们无法穿越时空与历史人物真正对话,即便AI通过历史文本的训练,能以乔治•华盛顿的口吻与我们交流,我们也无从确认230多年前的他是否会如此表述。但不可否认,AI为苏格拉底所指的书面文字的局限性提供了一种生动且有效的解法。
我一直坚信,一本好书给予读者的最大价值,在于它引发的深刻思考和感悟。仅仅是前言部分,便让我重新审视了苏格拉底对书面文字的质疑,以及ChatGPT为“苏格拉底式对话”这一古老教学方式赋予的全新意义。在翻译此书的过程中,我反复研读,收获颇丰,思考良多,迫不及待地想要与大家分享。
何为“超级能动性”?
初览新书样章,看到英文书名《Superagency》,我误以为它讲述的是“超级代理”或“超级智能体”。这是因为,AI agent中的agent被翻译为“代理”或“智能体”,是2024年里变得逐渐火热和备受瞩目的概念。然而,此书的内容远不止于此,它呈现了一个更为宏大且广泛的叙事。在英文中,agency这个词常被用作“代理、中介、代理机构、专职机构”等含义;但是在哲学和研究人类的学科中,它指的是个体或集体的行动能力,比如human agency,即人类能动性;而本书正是围绕AI对人类能动性的影响展开讨论。
超级能动性(Superagency),是指在AI技术的赋能之下,个体及集体能够突破限制,实现潜能的最大化发挥。它不仅代表了个体能力的提升,更强调这种提升如何在社会层面产生累积效应,使得每个人都能受益,并有机会成为更好的自己。这种状态反映了AI与人类能力的深度融合,以及由此带来的广泛社会变革。
从末日论到繁荣论
在AI概念与学科诞生之前,具备类似人类智能的机器人早已出现在科幻作品中。过去20年间,AI的几次重大突破进入了公众视野,引发了广泛讨论。例如,1997年IBM的超级计算机深蓝(Deep Blue)击败了国际象棋世界冠军加里・卡斯帕罗夫(Garry Kasparov);2016年,谷歌DeepMind开发的AlphaGo在围棋比赛中战胜了世界冠军李世石。尤其是2022年底ChatGPT的横空出世,以及GPT-4和多家前沿大语言模型能力的迅猛增长,让关于AI的讨论达到了前所未有的热度与参与度。
在《AI赋能》中,作者将围绕AI展开讨论的人群分为了以下四派:
末日论者:认为AI将引领人类走向糟糕的未来。他们担忧,在最坏的情况下,超级智能且完全自主的人工智能可能不再与人类价值观保持一致,甚至可能会毁灭人类。这一派观点极端悲观,常引发人们对AI潜在风险的深度担忧,例如担心AI会控制人类,使人类成为其“奴隶” 。
悲观论者:既强烈批评AI,也指责末日论者。他们认为末日论的观点实际上默认了AI的强大,同时其长期和抽象的视角误导人们忽视了近期AI带来的风险和危害,如潜在的失业问题、大规模的虚假信息传播、现有系统性偏见的放大以及对个体能动性的削弱等。他们主张采取限制性的、自上而下的管理方式,认为AI的开发和部署应由官方监管和监督机构严格监测和控制,以降低这些风险。
乐观论者:坚信AI带来的生产力提升和创新将远远超过其产生的任何负面影响。他们对通过预防性监管来杜绝AI风险或危害的做法持怀疑态度,主张给予开发者足够的空间,让他们按自己认为合适的方式产生最快、最佳的结果,追求完全的自主创新权,不希望政府监管,也不期望政府支持。
繁荣论者:与乐观论者一样,对AI的发展前景持乐观态度,相信AI能在无数领域加速人类进步。但他们也认识到,AI这种具有变革性和多样性的技术,不能以单方面的方式开发和部署。由于AI会影响大量人群,他们倡导在现实环境中的广泛参与和迭代部署。他们并不完全反对政府监管,但认为让具有不同价值观和意图的多样化用户群体使用这些技术,是开发更安全、更公平、更有用的AI工具的最快且最有效的方法。
霍夫曼先生自称是繁荣论者,而繁荣论者首先是乐观论者。霍夫曼先生有很多标签:慈善家、公益倡导者、风险投资人,但他始终是一位创业人。创业人都是乐观的,我自己也曾经是创业人,深知创业人必须是乐观的,要不然也不会选择去创业。在霍夫曼先生的多个创业产品中,影响力最大的当属领英(LinkedIn),2003年创立,2011年在纽交所上市,2016年被微软以262亿美元收购,之后作为微软旗下独立运营的子公司,拥有超过10亿全球会员,在2024财年为微软贡献了6.7%的营收。在AI时代,霍夫曼先生又创立了Inflection AI和Manas AI(在本书英文版发布的同一周官宣成立)。
然而,成功的创业和创新仅凭乐观的胸怀显然是不够的。按照上述定义,AI繁荣论者与乐观论者的主要区别在于推进AI发展的方法论和实践上。简而言之,作者在这本书中倡导了两个重要的方法:广泛参与和迭代部署。前者源自霍夫曼先生打造领英这一巨大职业社交平台的经验,后者则来自OpenAI开发和部署GPT系列大模型的经验。此外,作者坚信:防止糟糕未来的最好办法就是积极地打造更美好的未来。虽然我并不完全苟同作者的这一观点,但我被他面对风险和不确定性时坚定向前的精神所感染,这正是创业者的精神。毕竟,面对AI带来的诸多挑战,像悲观论者那样倡导用立法来限制AI技术的发展,并非解决问题之道,而只是延缓问题所产生的影响,且未必奏效。
在面临巨大的不确定性却又乐观勇敢地向前时,作者提出了一个重要的概念,称为“技术人文主义指南针”,而广泛参与和迭代部署可以视为在技术人文主义指南针下的行动方案。
技术人文主义指南针
作者在本书中倡导在AI发展中使用“技术人文主义指南针”,其核心在于以人为本,这一理念贯穿于AI与人类社会交互的多个层面,旨在确保AI的发展服务于人类的根本利益和全面发展。
以人为本,增强个人能动性:技术人文主义指南针的核心是将人类能动性置于AI发展的中心位置。作者认为,AI的发展应是人类个体意志的延伸,旨在广泛增强和放大个人及集体的行动能力和选择权利。例如在心理健康护理领域,AI不应仅仅被视为替代人类咨询师的工具,而是要辅助护理提供者,为接受护理者提供更个性化的支持,从而增强双方的能动性。通过分析大量治疗会话记录,AI可以帮助从业者更好地了解哪种干预措施在不同情境下效果最佳,进而改进治疗实践,提升治疗效果;对于患者而言,他们能够获得更符合自身需求的心理健康支持,更好地管理自己的情绪和生活。
促进公平与广泛的参与:技术人文主义强调AI的发展和应用应尽可能广泛且公平地分布,让全球数十亿人都能以自己选择的方式亲身体验和受益于AI技术。这意味着打破技术获取和使用上的障碍,避免技术被少数人垄断。以互联网的发展为例,早期互联网的普及让更多人能够获取信息、参与社交和开展业务,改变了人们的生活和工作方式。AI也应如此,要确保不同地区、不同阶层的人群都能从中受益。为偏远地区提供必要的技术设备和网络支持,让当地居民能够使用AI教育工具提升知识水平,或借助AI医疗辅助服务获得更好的健康咨询。
在迭代部署中融入人文关怀:作者倡导通过迭代部署的方式发展AI,这一过程充分体现了技术人文主义。OpenAI在推出产品时邀请公众参与开发过程,根据用户体验和反馈进行持续改进。这种方式不仅能使AI产品更贴合用户需求,还给予个人和社会足够的时间去适应AI带来的变化。在这个过程中,用户可以根据自己的使用感受,对AI产品的功能、交互方式等提出建议,开发者据此进行优化,使AI技术在不断迭代中更加人性化,更好地服务于人类。
平衡创新与人文价值:在AI发展过程中,技术人文主义指南针引导人们在追求创新的同时,充分考虑人文价值和社会影响。AI的发展速度迅猛,可能会带来一些潜在风险,如隐私侵犯、算法偏见等问题。技术人文主义要求在创新的过程中关注这些风险,确保AI的发展符合人类的价值观和伦理道德标准。在数据收集和使用方面,要加强隐私保护,确保用户数据不被滥用;在算法设计上,要避免偏见,保证公平性,使AI技术在推动社会进步的同时,不损害人类的尊严和权益。
推动跨领域合作与对话:实现技术人文主义的AI发展需要跨领域的合作与对话。这包括计算机科学家、伦理学家、政策制定者、社会学家等不同领域的专业人士共同参与,从多个角度审视AI的发展。伦理学家可以从道德层面评估AI技术的合理性,政策制定者能够制定相关法规引导AI的健康发展,社会学家则可以研究AI对社会结构和人际关系的影响。通过这种跨领域的合作与对话,能够更全面地考虑AI发展带来的各种影响,制定出更符合人类利益的发展策略。
历史的回响与启示
如果说“技术人文主义指南针”这一理念听起来仍然较为抽象,那么书中大量具体的技术发展案例则为其赋予了生动而具体的内涵。通过对这些案例的深入剖析,作者让我们清晰地听到了历史的回响,获得了其对AI技术发展的深刻启示。
计算机:从恐惧到赋能。在本书的“原则2”中,作者回顾了在计算机发展初期,人们充满了恐惧和担忧。许多人曾担心它会摧毁就业市场,取代人类的决策权,甚至成为控制人类的工具。乔治·奥威尔的小说《1984》进一步加深了人们对技术监控的恐惧,塑造了“老大哥无处不在”的社会想象,使公众对计算机存储和处理个人信息的能力感到不安。20世纪60年代,美国国会曾就“联邦数据中心”的计划展开激烈讨论,立法者担心计算机可能侵犯个人隐私、剥夺个人身份,最终导致该计划搁置。然而,计算机技术的发展并未因此停滞。随着计算机的普及,它不仅没有成为控制人类的工具,反而成了放大人类能力的工具,从日常办公到互联网娱乐,计算机已经深深融入了现代社会,并催生了软件行业、网络经济等新领域,为全球创造了数以千万计的新工作岗位。
汽车:从社会威胁到个人自由。在“原则6”中,我们看到汽车的发展同样历经波折。早期,汽车被视为破坏家庭生活、威胁生命安全的“魔鬼车”。一些城市甚至试图立法限制汽车的使用,以保护既有的交通方式。然而,随着时间的推移,汽车不仅没有毁灭社会,反而极大地提升了个人自由和经济发展。20世纪20年代,福特公司通过流水线生产大幅降低汽车价格,使得普通人也能拥有汽车,从而促进了人口的流动、城市化和郊区的发展,并催生了加油站、汽车维修、物流运输等新的商业模式。汽车的发展是一个典型的迭代部署案例。随着汽车数量的增加,政府逐步完善相关法规,从早期的基本交通规则,到后来的驾驶执照制度,到交通信号灯和停车标志等交通设施,再到如今的严格安全标准和环保法规。
GPS:从军事机密到日常必需品。“原则7”讲述的GPS技术的发展也是一个典型案例。GPS最初由美国军方在20世纪70年代开发,并仅限于军事用途。1983年,一架韩国客机因误入他国领空被击落,这一惨痛事件促使美国政府决定向民用市场开放GPS技术。然而,政府最初仍对其精度进行了人为限制,以防止潜在的滥用。直到2000年,美国才取消了对民用GPS信号的干扰,使其可以实现高精度定位。随后,GPS应用迅速爆发,进入导航、物流、农业、通信、灾难救援等多个领域,并且深刻影响了日常生活。如今,GPS不仅用于驾车导航,还广泛应用于打车软件、外卖配送、共享单车等服务,使现代城市生活更加便利。
这些技术发展案例揭示了一个共同的规律:新技术总是伴随着恐惧和质疑。无论是计算机被视为“老大哥”的监控工具,汽车被批评为道德沦丧的催化剂,还是GPS被担心会侵犯隐私,社会对新技术的恐惧从未停止。然而,历史表明,绝对的限制无法阻挡技术的进步,试图通过立法全面封锁某项技术的发展往往是徒劳的。相比之下,采用迭代部署的方式,在实际应用中逐步完善规则,才是更合理的应对策略。此外,社会需要适应,而不是抵制。每次新技术的崛起都会带来社会变革,淘汰旧的职业,同时创造新的机会。关键在于如何通过教育、政策和文化调整,让人们更好地适应新的技术环境。
未来可期
作为一名深耕科技行业三十载的从业者,我深信我们正在经历的这场AI技术革命将会彻底改变世界。从工作到生活,从社会到个人,从行业到企业,AI的影响无处不在。然而,这种未来的不确定性也时常让我感到焦虑。虽然我能清晰地看到现有行业将被颠覆,工作岗位将减少甚至消失,但我却无法准确地预测未来的样子,会有哪些新的行业涌现,以及哪些新的职业和岗位将应运而生。
翻译本书的过程,于我而言是一场认知升级之旅。它让我更加确信:面对不确定性,创业者精神比预测未来更重要。与其担忧一个不确定的未来,不如去积极创造一个更美好的未来。历史已经证明,技术的发展和创新是不可阻挡的。阻止一个不想要的未来的最可靠方式,不是试图踩下创新的刹车或停滞不前,而是引导自己驶向更加光明的明天。
成功的创新探索需要突破“问题主义”思维模式,以“可能会有哪些积极影响”为导向主动构建未来。在“原则3”中,作者通过心理健康护理案例展现了AI在这一领域的进展和争议:Koko平台以认知行为疗法为基础,借助AI驱动的Kokobot构建同伴互助系统,却因“模拟共情”争议引发舆论风暴。问题主义者聚焦AI系统可能产生幻觉的风险,质疑其应用于心理健康领域的伦理边界。但研究数据揭示了AI的潜力:ChatGPT在医患对话中的共情评分超越人类医生,AI对2000万条治疗记录的分析更发现“复杂反思”等干预策略的关键作用。真正的颠覆性价值在于,AI驱动的个性化护理或将重塑医疗模式——通过动态迭代实现“超人性化”支持,既突破资源限制让全球数十亿人获得平等的心理健康服务,又通过数据驱动优化治疗实践,使现代医学倡导的循证护理从“黑箱操作”转向“知识透明”。
最后我想提一下,作者在书中也为我们展示了对新技术未来的想象不必总是抽象严肃的。在“原则8”中,作者设想了一个充满幽默感的未来场景:在2027年的某一天,一位车主在享受了一顿美酒佳肴的晚餐后想要驾车回家,但他的车辆管理系统拒绝启动汽车,因为按法律要求标配的车内酒精检测系统检测到他的血液酒精含量超标了,用户试图争辩,但系统不为所动,说可以为用户叫一辆网约车或播放一部电影,“看《生死时速》如何?”它提议道,“这是一部经典的动作惊悚片,融合了悬疑、紧张刺激的情节和幽默元素,能让时间飞逝。而且,它只有76分钟,看完你也就清醒了。”那位无奈的用户问:“这还是美国吗?难道我没有宪法赋予的权利去选择是否冒险酒驾吗?”
这个场景不禁让我会心一笑,我想起自己曾经居住过5年的美国新罕布什尔州车牌上的官方口号:“Live Free or Die” (不自由,毋宁死)。然而,这个机器限制人类自由的场景也引发了我的深思:未来AI真的会成为执法的主要力量吗?我们能否让冷酷严苛的机器执法也具备人性化的一面呢?
这些问题没有现成的答案,但正是这些问题激发了我们对未来的无限遐想和思考。我相信,《AI赋能》这本书将带给你同样的收获和感悟。它不仅是一本关于AI的书,更是一本关于未来、关于人类、关于技术与人文融合的书。
(作者为前领英全球副总裁、前领英中国总裁;本文为《AI赋能》一书译者序)
责任编辑:刘锦平 主编:程凯

查看更多华夏时报文章,参与华夏时报微信互动(微信搜索「华夏时报」或「chinatimes」)