标签谢选骏全集

2023年6月26日星期一

谢选骏:原罪的扩大——AI

《诺兰专访:AI不是原子弹,但将其捧上神坛最危险》(极客公园  2023-06-22)报道:


这可能是英国著名导演克里斯托弗·诺兰,发布新片最好的时机,没有之一。


在《信条》(Tenet)因为新冠疫情「折戟」之后,导演的新片《奥本海默》(Oppenheimer)即将于一个月后开画。


这部讲述「原子弹之父」罗伯特·奥本海默生平的影片,聚焦于一个富有魅力和智慧的男人,如何率领「地球上最聪明的大脑」,攻克物理学难题的同时,发明了世界上最危险的武器的故事。


诺兰及其同辈人成长中对于「核威胁」的恐惧,在当下有了新的回响。


只不过,这次原子弹有了新的名字,叫 AI。


ChatGPT 技术让人工智能再次大火,而对于新技术的恐惧和兴奋呈同样态势。数百位 AI 专家一同发布联名信,声明人工智能可能带来的「灭绝人类」的威胁。


连线 Wired 近期刊载了克里斯托弗·诺兰导演的专访长文,导演在其中阐述了对于当下热议的「AI 威胁」的看法,以及人工智能和 70 年前核威胁的比较。


曾经在《星际穿越》中用爱拯救人类的诺兰却认为,AI 最大的威胁,是人类有一种本能的欲望,希望将其造物捧上神坛,进而摆脱自己需要承担的一切责任。


导演一针见血地指出,相对于奥本海默一辈科学家在科学与当权者之间的挣扎和反抗,当下 AI 从业者的「求监管」,是「虚伪」的。


同时,作为执着于胶片的老派电影人,诺兰对于生成式 AI 在影视创作领域的发展抱有期待,但自己想做的,还是「要给演员一个真实的氛围和环境」。


「人类最大的危险,是放弃责任。」诺兰在采访中说道。


以下为采访对话原文,编者进行了不改变原意的修整:


毁灭世界,原子弹第一


问:感觉你和艾玛(诺兰的妻子,他一直以来的制片人)的工作,从某种程度上,一直在为《奥本海默》做准备。


诺兰:这就是我对这部电影的感觉。


我对所做的每个项目都有这种感觉。因为我试图在以前所学的基础上继续前进。每当你完成一部电影,都会有一些问题悬而未决。因此,在下一部电影中,你会把留下来的问题捡起来。


在《奥本海默》中,非常有字面意义,《信条》(Tenet,诺兰的前一部电影)中就提到了奥本海默。


问:所以他在你的脑海中已经存在了一段时间。


诺兰:奥本海默的故事已经伴随我多年。这是一个令人难以置信的想法——有人试图通过计算,来寻找理论和现实世界之间的关系,然后有一个非常小的可能性,他们将摧毁整个世界。然而,他们还是按下了按钮。


问:非常戏剧性。


诺兰:我是说,这简直是最戏剧性的时刻,在整个人类历史上来看。


问:很多人可能不知道,当我们在1945年投下炸弹时,这不仅是一个可怕的时刻,也正是这个时刻,让人们了解到人类现在拥有了可以消灭整个人类的能力。


诺兰:我对奥本海默的感觉是,很多人知道这个名字,知道他与原子弹有关,在美国历史的关系中还发生了一些复杂的事情,此外就没了。


坦率地说,对我来说,这就是我的电影的理想观众。那些什么都不知道的人将会得到最疯狂的体验。因为这是个疯狂的故事。


问:你是指他的个人故事?


诺兰:观众应该了解,因为他是有史以来最重要的人之一。


问:电影里有一句台词,有人对奥本海默说,你可以让任何人做任何事。类似这样的话。他是一个出色的管理者,对一切了如指掌,在那个房间里,有些科学家在做 X,而在另一个房间里,那些科学家在做 Y,他是一个能把这一切记在脑子里的人。


诺兰:他知道如何通过他的角色的戏剧性来激励人们,投射他自己的光辉。他给所有的科学家、官员,每个人一个聚焦的目标。


问:他拥有真正的魅力。


诺兰:魅力,这是个完美的词。它让一切得以成形,这部电影经常涉及到这一点,正是他的魅力,让这些学者、这些理论家能够走到一起,用他们自己的双手建立起如此巨大、如此重要的东西。这是个奇迹。


问:谈到建立一个巨大的东西,我最近在温哥华的 TED 会议上,最有趣的会议之一是一系列关于生成式人工智能的谈话。很多发言者都提到了原子弹、核武器。最后一位发言者是一位技术专家——他谈到了人工智能不可避免的武器化。


演讲结束时他说,维持世界秩序的唯一途径是拥有更好的人工智能武器。那是一种威慑。这听起来很像人们对原子弹的看法。感觉你的电影找到了最合适的发行时机。


诺兰:我认为这种关系是一个有趣的问题。这是不一样的。但这是最好的比喻——这就是为什么我在《信条》中使用它——不假思索地向世界释放一项新技术的危险性。这是一个警告性的故事。我们可以从中吸取教训。


话虽如此,我确实相信,就改变和危及世界的技术而言,原子弹是独一无二的。


问:而且这些技术的起源是不一样的?


诺兰:有根本的区别。


研究原子分裂的科学家们一直试图向政府解释:(核能)是自然界的一个事实,来源于上帝、或任何创世者。这只是关于自然的知识,它不可避免地将会发生。没有人可以隐藏它,我们没有创造,也不拥有它。他们是这么看的。


问:换句话说,他们觉得自己只是揭示了已经存在的东西。


诺兰:而我认为你很难对人工智能提出这样的论点。当然,肯定有人会这样做。


问:你一定是在炸弹的阴影下长大的。


诺兰:我是在 20 世纪 80 年代的英国长大的,我们有一系列核裁军之类的运动,人们非常、非常清楚核武器的威胁。当我 13 岁时,我和朋友们相信,我们最终会在核灾难中死去。


问:但你们没有,世界在继续前进。


诺兰:有一天,我和史蒂文·斯皮尔伯格谈起这个问题,他是在 60 年代古巴导弹危机的威胁下长大的。一样一样的。


在人类历史上,有些时候,核战争的危险对我们来说是如此的触手可及、触目惊心,以至于我们对它非常了解。当然,我们也只能担心这么久,然后继续前进,开始担心其他事情。问题是,危险实际上并没有消失。


问:对。我的意思是,我觉得一个月前,我们都在担心某些国家可能真的会使用核武器。


诺兰:我记得 80 年代的情况是,对核战争的恐惧已经退去,转而对环境破坏的恐惧。这几乎就像人类无法对单一一种威胁保持长时间的恐惧,我们与恐惧有一种复杂的关系。


是的,某些国家一直在利用这种末日威胁和这种恐惧来摇旗呐喊。这让人非常不安。


将 AI 捧上神坛,才最危险


问:和人工智能末日的威胁一样让人不安?


诺兰:好吧,人工智能在武器系统方面的增长,以及它将产生的问题在很多年前就已经非常明显,很少有记者费心去写它。现在有一个聊天机器人可以为当地报纸写一篇文章,突然就成了一个危机。


问:我们这些做媒体的人,多年来一直在这样做。盲目追求。我们中的一些人正在写关于人工智能的文章,因为它可以使我们失去工作。


诺兰:这就是问题的一部分。对我来说,人工智能是一个非常简单的问题,这就像算法这个词。我们看到公司使用算法,现在是人工智能,作为逃避其行为责任的一种手段。


问:请多解释两句。


诺兰:如果我们认可人工智能是全能的观点,我们就是认可它可以减轻人们对其行为的责任——在军事上、社会经济上等等。


人工智能最大的危险在于,我们将这些神一样的特性归于它,从而让我们自己摆脱了困境。


我不知道这其中的神话基础是什么,但纵观历史,人类有这种倾向,即创造虚假的偶像,以我们自己的形象塑造一些东西,然后说我们有神一样的力量,因为我们做出了这些东西。


问:这感觉非常,非常正确。就像我们正处于那个临界点。


诺兰:正是如此。


问:有了这些大型的语言模型,机器甚至下一步可能开始自学。


诺兰:洛杉矶时报上有一篇关于 ChatGPT 和 OpenAI 的有趣文章。它基本上 ChatGPT 是一个销售手段,OpenAI 现在是一家私人公司。他们有世界上最伟大的销售机器,而这是一个非常危险的东西。也许我们不应该推向大众,因为现在每个人都想要 AI 助手了。


这并不意味着这里没有真正的危险,因为我觉得有。但我个人,这只是我的观点,我认为危险在于放弃责任。


问:人们一直说需要有一个国际机构来监管 AI。


诺兰:但这是科技公司最古老的政治伎俩。对吧?这就是,你知道,SBF 与 FTX 做的事(加密币交易所崩盘丑闻);扎克伯格多年来一直要求被监管。因为他们知道,我们选出来的官僚,根本搞不清这些问题。


问:正如我们从国会听证会上看到的那样?


诺兰:他们又能说啥呢?我的意思是,这是非常专业的东西,当权者对创作者和奥本海默——让我还是带回到奥本海默。


奥本海默的问题是,他非常看重战后科学家的作用——他们作为专家,必须弄清楚如何控制核力量。但当你看到发生在他身上的事情时,你就会明白,那是永远不会被允许发生的。


这是科学和当权者之间非常复杂的关系,它从未像奥本海默的故事那样被残酷地暴露出来。我认为可以从中吸取各种教训。


问:比如说?


诺兰:所以他试图从体制内开展工作,而不是转身就说,你知道,我们需要的是爱,或者有的没的。他的方法非常实际,但还是被击垮了。这是非常复杂的,我认为现在的这些「发明家」,他们说「我们需要被监管」是非常虚伪的。


问:奥本海默希望科学能够被分享。


诺兰:他使用的是坦诚(Condor)这个词。坦诚。


问:他的想法似乎随着氢弹的出现而发生了变化?


诺兰:不,他也相信氢弹的事。这事有点意思,因为在某种程度上,有点剧透。但在另一个方面,那是历史,你能谷歌搜索。


在这个重要时刻,随着氢弹计划的推进,他开始发表演讲,他说,「我希望我能告诉你我所知道的。我不能。如果你知道我所知道的,你会明白,我们都必须分享信息。本质上讲,这是我们避免毁灭世界的唯一途径。」


所以坦率是他认为最实际的手段。他认为联合国在未来是一个强大的机构,有真正的行动能力。他认为对全球对原子能的控制,才是确保世界和平的唯一途径。显然,这并没有发生。


问:他没有预见到现在正在发生的事情,民主国家的缓慢衰落。


诺兰:我认为他根本没看到这一点,当时还是一个非常乐观的时刻。


问:这就是为什么要有一个世界性的人工智能管理机构。


诺兰:对。但这是与拒绝受地域限制的科技公司打交道时的问题。


从制度上讲,科技公司被鼓励、并被允许规避政府监管。这已经成为一种「道德观」。


顺便说一下,这把我弄的好像认为硅谷很邪恶,所有这些人都很可怕。我不这么认为。这只是体制(System),它就是这么运行的。


问:在安全问题层面,核武器的制造需要特定元素,但 AI 没有这个限制。


诺兰:在第二次世界大战期间,英国的核弹计划是非常复杂的。他们有很多伟大的科学家。但丘吉尔政府意识到,他们只是没有足够的资源。所以他们把他们的一切都给了美国人。他们说,你们有体量,远离前线有,有工业基础。


在我的研究中,我读到一个统计数字,关于参与制造第一颗原子弹的美国人的数量——大概在 50 万左右。数家公司参与,这是一个巨大的物理过程,这就是为什么到今天,一个国家偷偷做核试验很容易被发现。因此,有一些事情给我们一点保证,这个过程可以被管理。


而我认为这些限制,没一个适用于人工智能。


问:对,确实不使用于 AI——特别是当我们所谈论的人工智能的一些东西是一种「更软」的威胁。飞速蔓延的虚假信息,技术上的失业。


诺兰:确实,但我不太——我觉得人工智能仍然可以成为非常强大的工具。我对此持乐观态度,我真的很乐观。


但我们必须把它看作是一种工具,挥舞它的人仍然必须保持对挥舞该工具的责任。如果我们赋予人工智能以人类的地位,就像我们在某些时候对公司所做的那样,那么是的,我们将有巨大的问题。


AI 很好,但坚持传统


问:你是否看到人工智能中的美妙之处,特别是在电影制作方面?


诺兰:哦,当然。整个机器学习应用于深度伪造技术(Deepfake),这是在视觉效果和音频方面的一个非凡的进步。从长远来看,在环境营造方面,例如造出一扇门或者窗子。如果将事物外观、事物的反光等等大量数据汇成数据库,它将是非常强大的工具。


问:你会用 AI 去创作吗?


诺兰:我是非常老派的「模拟」(Analog)电影人。我用胶片拍摄,试图给演员一个完整的现实。


我对技术的立场,就其与我的工作的关系而言,是我想把技术用在它最好的地方。例如,如果我们做一个特技,一个危险的特技。你可以用更显眼的威亚来做,然后再后期抹掉,类似这样的事情。


问:意思是这将提高视觉效果的便利性和效率。


诺兰:这不是空手套白狼,它是从一个更详细、更数据驱动的想法出发的。它可能最终打破动画和摄影之间的屏障,因为它是一个混合体。


如果你告诉一个艺术家,比如说,画一张宇航员的照片,他们是根据记忆或参考资料来进行发明。有了人工智能,这是不同的方法,你实际上是在使用整个图像的历史。


问:使用真实的图像。


诺兰:使用真实的图像,但以一种完全的、根本性的重建方式——这当然会引起重大的艺术家版权问题,而这必须得到妥善处理。


问:让我们回到科学和你的电影上来。在你客串编辑的 2014 年 12 月的《WIRED》杂志中,有一句话,你说:「讲故事和科学方法之间的关系让我着迷。这并不是真的关于智力上的理解。那是一种把握某种事物的感觉」。跟我说说你对科学的热爱吧。


诺兰:嗯,我一直对天文学和物理学问题感兴趣。我在《星际穿越》中探索了这个爱好。当我弟弟(乔纳森·诺兰)写剧本时,他会看爱因斯坦的思想实验,他发现其中一些实验有一种特别的忧郁感,而那都是与时间中的部分有关的。


比如,被分开的双胞胎,一个被带走回来后,另一个长大了一些,你知道吗?爱因斯坦在思考物理学,和你如何做这些思想实验,你如何构思这些想法,有非常相同的「文学性」(literary quality)。物理学家需要的可视化过程与文学创作没什么不同。


问:你在电影的剪辑阶段有这样的感觉吗?


诺兰:我在电影制作的每个阶段都有这种感觉。我的很多工作是试图表达对事物形状的直觉和感觉。这可能很困难,也很复杂。


问:我发现,如果我正在创作一个故事,但我不知道结构、流程,那就有问题了。我无法以一种有意义的方式谈论这个作品。


诺兰:我以一种非常地理或几何学角度来思考结构和模式。多年来,我试图采用一种从头开始的结构方法,但最终它是一个非常本能的过程: 这种感觉是否有一个叙事的形状,以及它是如何形成的?我很着迷地意识到,物理学家进行着非常类似的过程。真的很有趣。


问:也许这是对《星际穿越》的致敬,但物理学家似乎总是如此深爱物理学。


诺兰:我热衷于追求真理,热爱科学方法。我讨厌看到它被媒体中的科学家或代表科学家发言的媒体所歪曲。纯粹的科学方法,以及科学不断寻求自我反驳的想法,让它比宗教或者其他任何东西,都更能提升人类的思维。


问:在这次采访之前,我和我母亲一起看了你的电影。她感觉你的电影可能传递一种非常反消极主义的信息。《敦刻尔克》、《星际穿越》、《蝙蝠侠》。或者,这是乐观主义?


诺兰:《盗梦空间》的结尾,正是如此。有人对那个结局有一种虚无主义的观点,对吧?但同时,他也向前看了,和他的孩子们在一起。这种模糊性不是一种情感上的模糊性。对观众来说,这是一种智力上的模糊。


有趣的是,我认为《盗梦空间》和《奥本海默》的结局之间,有一种有意思的关系可以探讨。奥本海默有一个复杂的结局、复杂的感情。


问:早期观众的反应如何?


诺兰:有些人离开电影时处于绝对崩溃状态。他们说不出话来。那些存在于历史和事实层面的恐惧,电影都有表现。但对人物的爱,对关系的爱,和我之前所有的作品一样强烈。


问:还有主题的复杂性。


诺兰:奥本海默的故事,是所有不可能的问题的集合、不可能的伦理困境、悖论。他的故事中没有简单的答案,只有困难的问题,而这正是故事如此吸引人的原因。


我认为我们能够在影片中找到很多值得乐观的东西,但有这样一个压倒一切的大问题在上方悬着。我觉得有必要在结尾处提出一些问题,让人们在脑中回味,并引发讨论。


问:在原子弹投下之前和之后,奥本海默的脑子里会想什么?你认为在他会怎么想?


诺兰:答案就在影片中。我是以第一人称写这个剧本的。这是我对西里安(希里安·墨菲,片中奥本海默饰演者)说的: 你是观众的眼睛。他做到了。大部分的故事,我们都没有超出他的经历。这是我传达这个问题答案的最好尝试。


问:我对将看到完整作品这事有点紧张。


诺兰:我想你可能要等很久才行。这是一种强烈的体验,因为它是一个强烈的故事。我最近给一个电影制片人看,他说这是一部恐怖电影,我并不反对。


有趣的是,你之前用了虚无主义这个词,我不认为我的作品能和虚无主义沾边。但当我开始完成这部电影时,我开始感觉到这种颜色,在我的其他电影中没有,纯粹的黑暗。它就在那里,这部电影与之抗争。


问:会影响到你吗?你睡得好吗?


诺兰:我现在睡得很好,完成制作时感到松了一口气。但我非常喜欢看这部电影。我想当你看到这部电影时,你就会明白。被可怕的事情所吸引是一种复杂的感觉,你懂吗?恐怖空间就是如此展开的。


问:你的孩子看过吗?


诺兰:是的。


问:他们以前知道关于奥本海默的事情吗?


诺兰:在我开始写剧本时,我告诉我的一个儿子,他真的对我说:「但现在没有人真正担心这个问题了,核武器。」两年后,他就不这么说了。世界又变了。


这对我们所有人来说都是一个教训,但对年轻人来说尤其如此。


世界变化很快。


网民嚎叫:


长剑倚天 发表评论于 2023-06-22 07:39:32

另外,看到他说自然是上帝创建的,不禁笑出声来!还自诩为科学精神?就这水准?

长剑倚天 发表评论于 2023-06-22 07:37:14

英国的核弹技术是美国给的。正如这位导演自己讲的,英国根本没钱没资源,于是从德国抢来的科学家都跑到美国去了,美国科技水平与英国距离更大。原子弹全世界基本都是同一原理,到了氢弹就分成两种构型,因为氢弹比原子弹复杂,需要二阶爆炸才能发生。中国的于敏构型是独立开发的,对于原子弹小型化比美国构型先进!

令胡冲 发表评论于 2023-06-22 07:05:54

世界已经从奥本海默年代move on了。人类灭亡的威胁已经重写:AI > Virus > 核武。

kingdale1 发表评论于 2023-06-22 06:44:00

老头out了。AI不是原子弹,但未来可以掌握原子弹!你说谁更历害?

zhanglao9 发表评论于 2023-06-22 05:15:57

AI笑而不语,这个人怎么这样狂妄,无知,幼稚?


谢选骏指出:AI无论如何千变万化,都是“原罪的扩大”。原子弹不会杀人,AI也不会——将其捧上神坛的是“人的原罪”。AI和原子弹的背后,都有很多罪恶的黑手!因为AI和原子弹,都是原罪的扩大。

没有评论:

发表评论

谢选骏:专栏作家是个危险的职业

[《光明日报》资深编辑董郁玉因“间谍罪”被判刑七年](王月眉 2024年11月29日)報道: 2017年,董郁玉在哈佛大学。他在中国政府鼓励与外国人交往的时代开创了自己的事业,但现在,这种交往受到了极大的怀疑。 周五,中国一家法院以间谍罪判处一家主要党报的高级编辑和专栏作家七年徒...