从达特茅斯到OpenAI,AI的历史是一部争权史 - 新闻详情

从达特茅斯到OpenAI,AI的历史是一部争权史

来源:腾讯

分类: 其他

发布时间:2025-07-01 08:35:21

在斯坦福商学院最新一期的网络节目《权力与真相》中,斯坦福大学教授、企业与社会倡议(CASI)项目主任AnatAdmati(音译:阿纳特·阿德马蒂)与《大西洋》月刊获奖记者KarenHao(音译:郝珂灵)进行了一场对话,撕开了AI领域最锋利的切口——从1956年达特茅斯学院的实验室诞生起,“人工智能”这个概念就带着双重基因:既是对技术突破的憧憬,也是一场争夺资源的“好故事”。

KarenHao毕业于麻省理工学院,曝料过多家美国科技巨头的黑幕,因新闻报道获得多个奖项。她在日前出版的新书《AI帝国:山姆·奥特曼与OpenAI的梦想与噩梦》(Empireof AI: Dreams and Nightmares in Sam Altman''sOpenAI)中,揭示了OpenAI内部对通用人工智能两种截然不同的信仰以及权力斗争内幕。

在这场对话中,两位嘉宾提到了几个核心关键点:

1、目前行业对AI的态度,无论是支持还是质疑,最终都在强化一个问题:这项技术太重要,必须由少数人来掌控。而这些人,往往正是讲“故事”的科技公司领导者。

2、AI看似智能,其实背后靠的是大量隐形人力,而有些企业刻意掩盖这一点,只为让AI看起来像“魔法”。

3、科技公司们对AI研究中心的资助正逐渐侵蚀学术独立性,使得学者趋于回避批评、强调潜力,从而弱化了对AI社会责任与伦理问题的讨论。

4、目前,美国的AI企业与美国政府正联手构建“科技帝国”,试图将技术输出全球,掌控话语权。



以下为访谈内容摘要:

问:欢迎你,

Karen。你的新书刚刚出版。这本书聚焦于OpenAI和它的掌舵人奥特曼,同时聚焦于当前学术界与社会广泛讨论的“AI”命题。在正式展开探讨前,我想先请你从基础层面谈谈:究竟什么是AI?它又是如何发展至当前阶段的?

答:AI这个词是在1956年由达特茅斯学院的一位助理教授约翰·麦卡锡(JohnMcCarthy)提出的。他当时起这个名字的目的是为了给自己正在进行的研究争取更多的关注和资金。几十年后他在一次公开辩论中亲口承认,发明“AI”这个术语本身就是为了当时的研究争取更多资金。

这个词听起来很有吸引力,尤其是“智能”这个概念,大家本能地会觉得“更智能”就是“更好”。但问题是,关于人类智能本身的来源,我们至今都没有科学共识。因此,创建一个以“再造人类智能” 为使命的领域,本身就充满不确定性。

从1956年到现在,这个领域内部一直在争论:AI到底该是什么样的?该用什么技术?它该为谁服务?我在书里提出的观点是,现在主导AI发展的路径,其实主要是服务于硅谷的利益——在“技术服务于人类”的叙事外衣下,硅谷借此积累了巨大的经济与政治权力。

为了真正理解这些AI公司今天所拥有的影响力,我们必须把它们看作是一种新的“帝国形态”。这也是我将书名定为《AI帝国》的原因。

问:现在很多人都在日常生活中接触到这些AI产品,比如ChatGPT。过去这可能还只是一些“科幻概念”,但现在它已经进入了教育、工作、写作等各种场景,引发了很多讨论,比如:AI到底对我们意味着什么?它是不是在让我们停止思考?甚至在改变整个教育体系?

答:是的,AI已经从一个遥远的技术话题,变成了日常生活中不可忽视的现实存在。学生用它写作业,老师再也不能像过去那样轻松设计出“防作弊”的试题。这种转变确实引发了许多根本性的问题,比如,“教育”的意义究竟是什么?我们到底是在传授知识,还是在教思考和判断?如果未来的人们因为依赖AI而逐渐丧失了推理、学习、批判性思维的能力,我们的社会又会变成什么样子?

但这不仅是教育的问题,更是整个社会的问题。我们还需要进一步追问:AI会对哪些职业和劳动形态产生冲击?哪些人可能从中受益?哪些人将被边缘化,甚至被系统性地剥夺话语权?而这些问题的核心,并不只是“AI是否强大”,而是“AI由谁开发”“为何而开发”“开发过程中谁被代表、谁被排除”。

很多公众对于AI的认识仍停留在“智能增强工具”或“潜在的通用智能”的想象之中,但我们往往忽视了它已经在现实中造成的结构性影响

——比如强化平台权力、扩大社会不平等、加剧资源消耗等。而这些后果,恰恰源于当下主导AI开发的逻辑:不计代价地追逐规模和速度,忽视过程中的社会成本。

所以,当我们讨论AI是否在改变教育、工作、社会秩序时,必须回到它所嵌入的政治经济结构中去理解:我们需要什么样的AI,谁来决定这些技术的发展方向,它究竟是为了谁而服务?

问:这些问题的背后其实是一些主导性的“故事”。你提到过,现在主导AI讨论的两种说法,一种是“AI将带我们走向乌托邦”,另一种是“AI将毁灭我们”。你把这两种立场分别称为“技术乐观派”和“末日论者”。能否具体说说它们的本质区别和共同点?

答:我称他们为“技术乐观派”(Boomers)和“末日论者”(Doomers),这是硅谷圈子里也常用的术语。

表面看,这两个阵营似乎意见对立,但它们其实有一个共同点:都把AI描绘成极其强大的力量。

这就形成了一个潜在的危险:无论是说AI将拯救世界,还是说它会毁灭人类,最终都会导向同一个结论——这项技术太重要了,必须由少数人来掌控。而这些人,往往正是讲“故事”的科技公司领导者,比如OpenAI首席执行官奥特曼。

我在书里也揭示了这种“控制欲”:他们用通用人工智能(AGI

)这个概念来延续“再造人类智能”的梦想,制造出一种神秘而宏大的未来愿景。

而这套故事背后,是巨大的资源投入:数据、能源、计算能力,甚至劳动力。

问:说到资源,AI到底需要多少资源才能运行?我们日常使用这些工具时,背后消耗的是什么?是不是有点像一个“黑匣子”?

答:是的,我们今天看到的AI系统,大多基于一种叫“深度学习”的技术。它使用“神经网络”来处理和理解数据——这些网络原本是受到人脑启发设计的。

OpenAI最早做的事,就是把这种深度学习技术应用在极大规模的数据上。他们不是在一个笔记本电脑上训练模型,而是用上万个芯片,组成超级计算机,全天候运行几个月来训练一个模型。他们几乎用了整个互联网的英文内容,还有其他几种语言的数据。

最近麦肯锡的一份报告指出,如果照现在这种“无限扩大”的速度发展AI,五年内,美国电力系统需要增加相当于2到6个加州全年电力消耗的容量,才能满足AI的发展需要。

问:除了环境,还有一个容易被忽视的问题是人力劳动。这些模型的构建其实并不是完全“自动化”的,对吧?

答:是的,AI的“智能”背后,其实是大量人工劳力在支撑

。举例来说,为了让模型不输出仇恨言论、色情内容或暴力信息,AI企业需要雇佣成千上万的合同工进行“内容审查”和“数据清洗”。他们反复观看、标注、删除有害内容——这是一项高度重复、极具精神冲击的工作。

在社交媒体早期阶段,内容审核员就已经被证实会患上创伤后应激障碍(PTSD),AI领域同样存在这种伤害。但不同的是,AI企业现在更加刻意地掩盖这些“看不见的人工劳工”,因为他们想让AI看起来就像“魔法”



问:这似乎是一整套精心设计的故事。他们如何通过语言包装这些现实?

答:完全正确。AI就是一场讲“故事”游戏,而这些故事极其精致、充满诱导性。比如,他们会说数据储存在“云端”(thecloud),这个词听起来轻盈、透明、遥不可及。但现实是什么?是地面上巨大的金属机房,塞满了服务器、高功耗芯片和冷却系统。这根本不是“云”,而是一座座工业怪兽。

这种语言选择并非偶然,而是为了让人感觉AI很干净、很先进、不带任何污染。而实际情况正好相反:它高度依赖能源、土地、水、人工,同时造成了真实世界的伤害。

问:我们再来说说学术界。很多人可能以为大学是研究AI影响的中立平台。但你在书中指出,学术界其实也受到了科技公司的深度影响,情况是否如此?

答:情况非常复杂。很多大学的AI研究中心,背后都有大科技公司的资金支持。比如,我刚刚在斯坦福大学以人为本人工智能研究所(StanfordHAI)做了一场演讲。这是一家资金极为充裕的研究机构,其中大部分资金都来自科技企业。

这会产生一个问题:即便学者本人还留在大学任教,他们也可能因为数据、资源、合作机会的获取,而不得不和这些公司保持密切关系。长此以往,研究的独立性被侵蚀,声音趋于温和,批评逐渐减少。很多学者本来希望从社会责任、伦理视角来审视AI,但在这种企业主导的学术环境中,他们也倾向于强调AI的“潜力”,而尽量回避它的负面后果。

这不仅影响学术研究的质量,也让公众更难获取真实、全面的信息。

问:你还谈到过政府在AI扩张中的角色,比如美国政府和科技巨头之间的共生关系。你怎么看待这种现象?

答:现在不仅硅谷的公司处于“帝国时代”,美国政府本身也进入了“帝国建设阶段”。

它们互相利用:企业希望借助政府,把自己的技术扩展到全球;而美国政府则希望借助这些公司巩固自己的地缘政治优势。

比如,OpenAI最近推出了全球合作倡议“OpenAI forCountries”,意图成为全球不同国家AI基础设施的“底层供应商”——不仅是软件,还包括硬件。为了推广这个计划,这家公司就需要美国政府出面牵线、达成合作。

问:你提到了“由下而上”的变革路径。但在当前这种权力高度集中的AI时代,普通人真的能发出自己的声音、产生影响吗?

答:我相信是有可能的。在书中我也提过一个真实案例:智利的一群水资源维权者。他们居住在智利一个资源紧张的小镇,在全球权力体系中可以说处于最底层——他们生活在全球南方,在本国又属于经济边缘群体。

但当谷歌计划在当地建立数据中心、抽取淡水资源时,这些居民意识到:这些水原本就是属于他们,谷歌无权以“投资”之名强行使用。他们组织起来,从地方社区抗争升级为向谷歌智利公司施压,最终直达谷歌总部,并促使智利政府官员亲自出面调解。

问:这个案例确实很鼓舞人心。你觉得对美国民众来说有什么启示?

答:这个故事尤其值得美国人深思。美国各地的地方政府常常为了吸引大公司,提供巨额税收减免,允许建设数据中心、工厂或物流设施,美其名曰“推动发展”。但很多人没有意识到:当数据中心建成后,用水量暴涨、电力负荷上升、住房价格上涨、学校与医疗资源短缺的问题就来了,而大公司却未必会带来足够的高质量就业。所以我觉得,美国民众也应该学习智利人的做法,质疑那些“经济繁荣”的故事,看清它们背后实际的利益分配和由此产生的后果。

问:你在书中还提到另一个城市,最初欢迎数据中心,后来却彻底禁止它们了,能说说那是什么事?

答:那是亚利桑那州的一个城市。起初,当地政府非常欢迎苹果、谷歌等公司建设数据中心,因为他们被承诺未来这些公司会在当地设立更多的办公设施,提供优质的白领岗位,比如软件工程师、研发人员等。

但现实是:这些承诺根本没有兑现。数据中心建成了,却没有带来高质量就业,也没有刺激本地经济复苏。反而占用了大量土地和水资源,引发当地居民的抗议。最终,这座城市出台政策,完全禁止数据中心新建项目,成为全美极少数拒绝数据中心的城市之一。

问:所以我们是否可以说——如果公众不加警惕地接受这些AI故事,可能会在不知不觉中被剥夺权利,直到为时已晚?

答:是的,这也是我写这本书的初衷之一。AI的力量正在以前所未有的速度扩张,而公众却缺乏足够的信息和工具去理解其影响。如果我们想“让真相拥有力量”,首先就必须警觉、质疑、调查和发声,而不能被那些“未来愿景”或“技术乐观主义”左右。

问:你对现在关注AI问题的公众、学者和媒体工作者有什么建议?

答:我的建议是,面对AI的发展,不要轻信表面故事

。每当有人说某项AI技术“可以提升效率”或“对社会有好处”时,我们都应该追问一句:谁真正从中受益?谁又为此承担代价?在AI带来的种种影响中,那些受冲击最大的人,往往却最没有话语权,比如基层社区、低薪劳工和全球南方国家,我们必须学会倾听这些被忽视的声音。同时,也要警惕简单化的讲故事方式,不要陷入“AI将带来乌托邦”或“AI将毁灭世界”的非黑即白。现实远比这复杂,我们需要保持开放、审慎、多元的视角,理解这项技术真正意味着什么。

评论 (0)