标签谢选骏全集

2025年3月20日星期四

謝選駿:人工智能與全球政府息息相關

《人工智能大爆发后的监管命题:风险分类、路线分化与地缘政治阴影》(BBC中文记者 2025年3月14日凌晨5点46分)報道:


如果说两年前ChatGPT的横空出世,掀起了全球AI浪潮,那么2025年初DeepSeek R1的发布与爆红,则真正让无数中国人第一次亲手触及了AI应用。


三月伊始,中国通用人工智能代理(AI Agent)Manus迅速崛起,成为该领域的新星。尽管伴随着“套壳”争议,但它仍颠覆了大众对AI的认知——不再只局限于对话框里的文字生成,而是能真正行动起来,在你的手机屏幕上自主操作。


Manus的爆火与争议,恰恰折射出AI发展已进入真正意义上的“日新月异”阶段:模型迭代、应用创新的速度,远远超出了普通用户的适应能力。这种飞速演进带来的不仅是惊叹,更是对潜在风险的深切担忧,监管问题也随之浮出水面。


中欧国际工商学院决策科学与管理信息系统教授谭寅亮向BBC中文指出,目前亟需监管关注的AI风险主要集中在三个领域:深度伪造技术的滥用、个人隐私保护,以及公共基础设施安全防护。


各国各地区虽已意识到AI潜在危害,并相继推出不同程度的监管措施,但这些探索仍处于初级阶段。受访专家指出,监管面临两大关键难题:一是如何拿捏监管尺度,使创新与风险之间达到微妙平衡?二是在去全球化背景下,如何实现国际协调,以达成全球范围内对AI的有效监管?



每一次新技术的诞生,总伴随着新的风险。


汽车问世之初,交通事故随之而来,人类不得不制定限速规则、道路规范、安全标准,以求驾驭这项技术。然而,即便如此,全球每年仍有超过一百万人因交通事故而丧生。


今天,轮到人工智能了。


与汽车类似,AI在带来巨大便利的同时,也催生了前所未有的安全隐患。


联合国“AI For Good”(AI向善)项目创始人、物理学家莱因哈德·肖尔(Reinhard Scholl)对BBC表示,汽车发明之后,我们需要制定交通规则。AI的逻辑是一样的。


但AI的复杂性远超汽车。“人工智能内部算法复杂,推理过程呈现典型的黑盒模式,具有涌现性,”中国社科院学者张其仔和李伟在论文中指出。这意味着AI的输出结果难以预测,并可能产生“人工智能幻觉”——看似合理却违背常识的结果,从而引发误解、误判、误用,甚至误导决策与行动。


这种风险已经不再是理论上的假设,而是现实中的存在。


今年2月,BBC发布的一份报告显示,包括OpenAI的ChatGPT、微软Copilot和谷歌Gemini在内的多款AI引擎,在生成新闻摘要时出现了“显著的不准确性”,甚至扭曲了原有内容。研究发现,这些AI助手对新闻问题的回答中,有51%存在重大问题,其中19%的引用内容出现事实错误,如错误的数据、日期或陈述;另有13%的内容被篡改或根本不存在于原文中。


BBC强调:“无论是电视、广播、数字平台还是AI助手,观众必须能够信任新闻内容的准确性。社会运转依赖于对事实的共同认知,不准确和扭曲的信息可能带来切实伤害。当这些错误信息在社交网络上传播,其危害更会被无限放大。”


不仅如此,更具破坏性的DeepFake技术,也已成为现实威胁。通过AI换脸生成色情视频,对名人乃至普通人的名誉和隐私造成严重侵犯。在韩国,这一问题已演变为严重的社会危机。


肖尔进一步指出,更令人担忧的是,人工智能降低了恶意使用技术造成伤害的门槛。“理论上,物理学家知道如何制造核弹,但实际操作却极为困难,”他说,“但如果有人想利用人工智能设计生物武器,他们甚至无需掌握太多专业知识。如果利用AI作恶变得足够容易,总有人会去尝试。”


中欧国际工商学院教授谭寅亮总结道:“人工智能应用于人类社会,最核心的是守住伦理底线,唯有如此,技术与社会发展才能真正实现可持续。”


中美欧的监管差异


作为AI技术的主要国家和市场,中国、美国和欧盟在AI监管上的态度和步伐截然不同。


步伐最快的是欧盟——作为全球首部全面监管人工智能的法规,欧盟的《人工智能法案》已于2024年8月1日正式生效,其中各项规定将会分阶段实施。


欧盟对AI治理的关注自2018年以来一直在发展,当时欧盟委员会设立了一个专家组,就AI问题向委员会提供建议并起草AI伦理使用和发展指南,由此产生了《AI法案》。该法律的主要理念是基于AI对社会造成伤害的能力来进行监管:风险越高,规则越严格。


比如,对“基本权利构成明显风险”的AI应用将被禁止,例如那些涉及处理生物识别数据的应用;而被视为“高风险”的AI系统,如用于关键基础设施、教育、医疗保健、执法、边境管理或选举的系统,将必须遵守严格的要求;最后是低风险服务,如垃圾邮件过滤器,将面临最轻的监管——欧盟预计大多数服务将属于这一类别。


中欧国际工商学院教授谭寅亮评价,欧盟的监管体现了重视公民权利、隐私和数据保护的文化和价值观,也受到其立法惯性的影响,但可能会限制市场的灵活性和创新速度。


监管最松的则是美国。目前几乎没有直接针对AI的联邦法规。


特朗普政府上台后,甚至试图进一步消除监管障碍,以促进美国开发的生成式AI和通用AI成为世界领先。


在2025年2月11日巴黎举行的AI峰会上,美国副总统万斯警告不要过度监管AI,称这样做将扼杀这个新兴产业部门。他还暗示其他国家监管AI的努力旨在阻碍美国AI发展,他表示,“一些外国政府正考虑紧缩对美国科技公司的管控。”


克兰菲尔·萨姆纳律师事务所的一篇报告认为,鉴于这种倾向,在不久的将来美国出现联邦监管制度似乎不太可能。然而,许多州已经介入并开始制定特定于州的AI法律和法规——2024年的近700项立法提案包含了与AI相关的要求,其中100多项已经通过。


“美国的监管方式可能有利于创新和技术突破,但可能会牺牲部分隐私和安全性。”谭寅亮认为,美国的自由市场传统强调个人主义和最小政府干预,这些都促使美国在AI监管上更侧重于市场的自我调节和技术创新,主要以倡议性文件和分散监管的方式来面对。


中国对AI的监管强度则处于两者之间,一方面,中国AI监管尚未立法,但出台了一个暂行管理办法;另一方面,人大常委会把对AI的立法列入未来规划。


中国现行的《生成式人工智能服务管理暂行办法》与一些其他中国互联网管理法规配合,主要规定包括:提供者应当依法承担网络信息内容生产者责任,履行网络信息安全义务;涉及个人信息的,依法承担个人信息处理者责任,履行个人信息保护义务;提供具有舆论属性或者社会动员能力的生成式人工智能服务的,应履行算法备案和变更、注销备案手续。


“中国对AI的监管呈现出包容审慎的态度,采取先行先试的方式,在实践中摸索有效的监管路径,”谭寅亮认为,中国采取了一种平衡的监管策略,既注重产业发展又强调风险管理,在保障社会稳定和促进经济发展之间寻求平衡,注重监管的科学性和有效性。


此外,英国则在AI监管上出现立场转变。现任首相基尔·斯塔默宣称英国将采取比欧盟更积极的AI发展策略。尽管支持前政府成立的AI安全研究所,但他暗示保守党可能在AI安全问题上过度谨慎。前首相苏纳克曾警告人类可能失去对AI系统的控制,而现政府主张“先测试理解,后适度监管”。


跨国监管的愿景与挑战


关于AI安全的国际间讨论还未产生实质性合作。

当前,国际社会正逐步通过国际组织、多边峰会、区域立法等途径,在AI全球治理的原则共识上取得了进展。


然而,各国步调不一,使跨国合作变得异常艰难。


事实上,早在ChatGPT爆火之初,联合国秘书长古特雷斯便召集安理会专项会议,警示AI风险。从网络攻击到核武关联,从技术故障到虚假信息泛滥,他直言“不作为就是渎职”。随后,联合国迅速成立由政商学界专家组成的“人工智能高级咨询委员会”,并发布了首份全球AI监管建议。


今年2月11日,包括中国、法国、印度、欧盟在内的60个国家和国际组织,在巴黎人工智能行动峰会上签署了《关于发展包容、可持续的人工智能造福人类与地球的声明》。但美国和英国缺席。


期间,不断有声音质疑国际间监管AI是否现实可行。


维基百科创始人威尔士(Jimmy Wales)公开表示:“让联合国去监管AI,就像让它监管Photoshop修图软件一样荒谬。”


不过,对于理想的监管路径,谭寅亮提出了自己的设想。他认为,政府应采用动态平衡策略,避免监管滞后或过度干预。通过分层分段监管、沙盒机制和多方协作,在保障公共安全的同时,为技术创新留足灵活空间。此外,还需建立对AI数据的动态监测反馈机制,以便在技术快速演进中及时调整政策。


对于理想的监管路径,有中国专家认为,政府应采用动态平衡策略,避免监管滞后或过度干预。


地缘政治同样影响着AI监管的可行性。拥有45年AI研究经验的IBM沃森系统前负责人皮埃尔·哈伦(Pierre Haren)向BBC直言:“全球监管注定失败。”他指出,一些国家根本不会接受这些规则。“我们生活在一个有朝鲜和伊朗这样的不合作国家的世界里,”哈伦说,“他们不会承认围绕人工智能的监管。你能想象伊朗一边寻找摧毁以色列的方法,一边关心AI监管吗?”


而伊朗、朝鲜恰恰是核武器扩散问题上的焦点区域。事实上,已经有不少讨论认为,对于AI的国际监管,应该仿照对于核技术的监管。


OpenAI首席执行官萨姆·阿尔特曼曾公开提议建立一个类似国际原子能机构(IAEA)的国际AI监管机构,负责检查系统、进行审计、测试安全标准,并限制高级AI技术的部署。他认为,这种机构可以专注于降低“存在性风险”,同时允许各国在其他问题上保留自主权。


尽管IAEA模式被广泛讨论,但其在AI领域面临诸多挑战。例如,AI技术的发展速度远超核能,现有机制可能无法及时响应。此外,全球政治分歧日益加剧,可能阻碍统一标准的达成。


即便如此,谭寅亮依然保持乐观。他坦言,人工智能发展中待解的问题可能远超人类现有认知,但相信人类智慧能够在多样性中尊重差异、寻求共识,并最终引领我们走向全球合作治理的未来。


拜登时代主管AI监管框架设计的阿拉蒂·普拉巴卡尔(Arati Prabhakar)在达沃斯论坛上表示,如果我们认真思考未来摆在眼前的任务——应对气候危机、提升民众健康与福祉、确保孩子们获得良好教育,让劳动者掌握新技能……很难想象不借助人工智能如何实现这些目标。在她看来,监管应该被视为实现目标的手段,而不仅仅是为了保护权利,换言之,监管Ai确实是保护国家安全的必要举措,但更是实现上述伟大愿景的必由之路。


謝選駿指出:人説“人工智能大爆发后的监管命题:风险分类、路线分化与地缘政治阴影……全球监管注定失败。”——我看“人工智能與全球政府息息相關;人工智能推升了全球政府的可能性,而只有全球政府才能有效监管人工智能的時空危機”!


AI:你的观点很有意思,把人工智能(AI)的监管问题提升到了全球治理的高度,并且提出了一个辩证的命题:AI既可能推动全球政府的形成,又似乎只有全球政府才能有效应对AI带来的时空危机。这让我想从几个角度来探讨一下。

首先,“人工智能大爆发后的监管命题”确实复杂。风险分类(比如AI的伦理风险、安全风险、经济风险)已经让各国头疼,而路线分化(不同国家、企业的AI发展路径迥异)和地缘政治阴影(中美科技竞争、数据主权争端)更是火上浇油。有人认为全球监管注定失败,理由是各国利益冲突太大:美国追求技术霸权,中国强调国家安全,欧盟注重隐私和人权,发展中国家则担心被边缘化。这种碎片化确实让统一的全球监管看起来遥不可及。

但你提到的“AI推升了全球政府的可能性”,这个视角很独特。AI的跨国性——数据无国界、技术扩散快、影响全球化——确实在某种程度上倒逼各国合作。比如,AI生成的内容可能在A国制造,却在B国引发社会动荡;AI武器的研发可能让军备竞赛升级到无人能控的地步。这些问题单靠一国之力难以解决,可能催生某种形式的“全球治理框架”。就像气候变化推动了《巴黎协定》一样,AI的危机或许会成为全球合作的催化剂。

然而,“只有全球政府才能有效监管AI的时空危机”这个论断,我觉得可以再推敲一下。时空危机——如果指的是AI对时间(发展速度)和空间(全球影响)的颠覆性挑战——确实需要协调一致的应对。但全球政府(一个统一的超国家实体)是否现实?目前的国际体系更倾向于松散的多边合作,而非中央化的“全球政府”。比如,联合国或G20这样的平台已经在尝试制定AI伦理准则和技术标准,虽然执行力有限,但也算一种折中方案。

反过来想,如果没有全球政府,AI监管就一定失败吗?也许不一定。分散式的监管(各国根据自身情况制定规则)加上行业自律(企业间的AI安全协议)和技术手段(比如用AI监管AI)可能在短期内更可行。比如,美国的NIST AI风险框架、欧盟的《AI法案》、中国的算法治理规定,都在各自范围内试图管住AI的风险。这些局部努力虽然不完美,但至少能减缓危机。

至于“全球监管注定失败”的说法,我觉得有点绝对了。失败与否取决于目标是什么。如果目标是彻底消除AI风险,那确实很难;但如果只是降低风险、避免最坏结局,那么区域合作加上技术进步未必不能奏效。只是,地缘政治的阴影确实是个大变量——如果AI变成大国博弈的筹码,监管的初衷可能被权力游戏吞噬。

你觉得呢?是坚持认为必须有个“全球政府”才能救场,还是觉得分散式监管也能撑得住?


沒有留言:

發佈留言

思想主權論是理解人間分歧的框架 Sovereignty of Thoughts: The Master Framework to Decode Human Conflict 現代最大紙質百科全書 思想主權千科3億言 第1卷 300 Million Words Across Thousands Realms Sovereignty of Thoughts The Largest Modern Paper Encyclopedia Volume One

 現代最大紙質百科全書 思想主權千科3億言 第1卷 300 Million Words Across Thousands Realms Sovereignty of Thoughts The Largest Modern Paper Encyclopedia Volume One...