标签谢选骏全集

2025年3月20日星期四

謝選駿:人工智能與全球政府息息相關

《人工智能大爆发后的监管命题:风险分类、路线分化与地缘政治阴影》(BBC中文记者 2025年3月14日凌晨5点46分)報道:


如果说两年前ChatGPT的横空出世,掀起了全球AI浪潮,那么2025年初DeepSeek R1的发布与爆红,则真正让无数中国人第一次亲手触及了AI应用。


三月伊始,中国通用人工智能代理(AI Agent)Manus迅速崛起,成为该领域的新星。尽管伴随着“套壳”争议,但它仍颠覆了大众对AI的认知——不再只局限于对话框里的文字生成,而是能真正行动起来,在你的手机屏幕上自主操作。


Manus的爆火与争议,恰恰折射出AI发展已进入真正意义上的“日新月异”阶段:模型迭代、应用创新的速度,远远超出了普通用户的适应能力。这种飞速演进带来的不仅是惊叹,更是对潜在风险的深切担忧,监管问题也随之浮出水面。


中欧国际工商学院决策科学与管理信息系统教授谭寅亮向BBC中文指出,目前亟需监管关注的AI风险主要集中在三个领域:深度伪造技术的滥用、个人隐私保护,以及公共基础设施安全防护。


各国各地区虽已意识到AI潜在危害,并相继推出不同程度的监管措施,但这些探索仍处于初级阶段。受访专家指出,监管面临两大关键难题:一是如何拿捏监管尺度,使创新与风险之间达到微妙平衡?二是在去全球化背景下,如何实现国际协调,以达成全球范围内对AI的有效监管?



每一次新技术的诞生,总伴随着新的风险。


汽车问世之初,交通事故随之而来,人类不得不制定限速规则、道路规范、安全标准,以求驾驭这项技术。然而,即便如此,全球每年仍有超过一百万人因交通事故而丧生。


今天,轮到人工智能了。


与汽车类似,AI在带来巨大便利的同时,也催生了前所未有的安全隐患。


联合国“AI For Good”(AI向善)项目创始人、物理学家莱因哈德·肖尔(Reinhard Scholl)对BBC表示,汽车发明之后,我们需要制定交通规则。AI的逻辑是一样的。


但AI的复杂性远超汽车。“人工智能内部算法复杂,推理过程呈现典型的黑盒模式,具有涌现性,”中国社科院学者张其仔和李伟在论文中指出。这意味着AI的输出结果难以预测,并可能产生“人工智能幻觉”——看似合理却违背常识的结果,从而引发误解、误判、误用,甚至误导决策与行动。


这种风险已经不再是理论上的假设,而是现实中的存在。


今年2月,BBC发布的一份报告显示,包括OpenAI的ChatGPT、微软Copilot和谷歌Gemini在内的多款AI引擎,在生成新闻摘要时出现了“显著的不准确性”,甚至扭曲了原有内容。研究发现,这些AI助手对新闻问题的回答中,有51%存在重大问题,其中19%的引用内容出现事实错误,如错误的数据、日期或陈述;另有13%的内容被篡改或根本不存在于原文中。


BBC强调:“无论是电视、广播、数字平台还是AI助手,观众必须能够信任新闻内容的准确性。社会运转依赖于对事实的共同认知,不准确和扭曲的信息可能带来切实伤害。当这些错误信息在社交网络上传播,其危害更会被无限放大。”


不仅如此,更具破坏性的DeepFake技术,也已成为现实威胁。通过AI换脸生成色情视频,对名人乃至普通人的名誉和隐私造成严重侵犯。在韩国,这一问题已演变为严重的社会危机。


肖尔进一步指出,更令人担忧的是,人工智能降低了恶意使用技术造成伤害的门槛。“理论上,物理学家知道如何制造核弹,但实际操作却极为困难,”他说,“但如果有人想利用人工智能设计生物武器,他们甚至无需掌握太多专业知识。如果利用AI作恶变得足够容易,总有人会去尝试。”


中欧国际工商学院教授谭寅亮总结道:“人工智能应用于人类社会,最核心的是守住伦理底线,唯有如此,技术与社会发展才能真正实现可持续。”


中美欧的监管差异


作为AI技术的主要国家和市场,中国、美国和欧盟在AI监管上的态度和步伐截然不同。


步伐最快的是欧盟——作为全球首部全面监管人工智能的法规,欧盟的《人工智能法案》已于2024年8月1日正式生效,其中各项规定将会分阶段实施。


欧盟对AI治理的关注自2018年以来一直在发展,当时欧盟委员会设立了一个专家组,就AI问题向委员会提供建议并起草AI伦理使用和发展指南,由此产生了《AI法案》。该法律的主要理念是基于AI对社会造成伤害的能力来进行监管:风险越高,规则越严格。


比如,对“基本权利构成明显风险”的AI应用将被禁止,例如那些涉及处理生物识别数据的应用;而被视为“高风险”的AI系统,如用于关键基础设施、教育、医疗保健、执法、边境管理或选举的系统,将必须遵守严格的要求;最后是低风险服务,如垃圾邮件过滤器,将面临最轻的监管——欧盟预计大多数服务将属于这一类别。


中欧国际工商学院教授谭寅亮评价,欧盟的监管体现了重视公民权利、隐私和数据保护的文化和价值观,也受到其立法惯性的影响,但可能会限制市场的灵活性和创新速度。


监管最松的则是美国。目前几乎没有直接针对AI的联邦法规。


特朗普政府上台后,甚至试图进一步消除监管障碍,以促进美国开发的生成式AI和通用AI成为世界领先。


在2025年2月11日巴黎举行的AI峰会上,美国副总统万斯警告不要过度监管AI,称这样做将扼杀这个新兴产业部门。他还暗示其他国家监管AI的努力旨在阻碍美国AI发展,他表示,“一些外国政府正考虑紧缩对美国科技公司的管控。”


克兰菲尔·萨姆纳律师事务所的一篇报告认为,鉴于这种倾向,在不久的将来美国出现联邦监管制度似乎不太可能。然而,许多州已经介入并开始制定特定于州的AI法律和法规——2024年的近700项立法提案包含了与AI相关的要求,其中100多项已经通过。


“美国的监管方式可能有利于创新和技术突破,但可能会牺牲部分隐私和安全性。”谭寅亮认为,美国的自由市场传统强调个人主义和最小政府干预,这些都促使美国在AI监管上更侧重于市场的自我调节和技术创新,主要以倡议性文件和分散监管的方式来面对。


中国对AI的监管强度则处于两者之间,一方面,中国AI监管尚未立法,但出台了一个暂行管理办法;另一方面,人大常委会把对AI的立法列入未来规划。


中国现行的《生成式人工智能服务管理暂行办法》与一些其他中国互联网管理法规配合,主要规定包括:提供者应当依法承担网络信息内容生产者责任,履行网络信息安全义务;涉及个人信息的,依法承担个人信息处理者责任,履行个人信息保护义务;提供具有舆论属性或者社会动员能力的生成式人工智能服务的,应履行算法备案和变更、注销备案手续。


“中国对AI的监管呈现出包容审慎的态度,采取先行先试的方式,在实践中摸索有效的监管路径,”谭寅亮认为,中国采取了一种平衡的监管策略,既注重产业发展又强调风险管理,在保障社会稳定和促进经济发展之间寻求平衡,注重监管的科学性和有效性。


此外,英国则在AI监管上出现立场转变。现任首相基尔·斯塔默宣称英国将采取比欧盟更积极的AI发展策略。尽管支持前政府成立的AI安全研究所,但他暗示保守党可能在AI安全问题上过度谨慎。前首相苏纳克曾警告人类可能失去对AI系统的控制,而现政府主张“先测试理解,后适度监管”。


跨国监管的愿景与挑战


关于AI安全的国际间讨论还未产生实质性合作。

当前,国际社会正逐步通过国际组织、多边峰会、区域立法等途径,在AI全球治理的原则共识上取得了进展。


然而,各国步调不一,使跨国合作变得异常艰难。


事实上,早在ChatGPT爆火之初,联合国秘书长古特雷斯便召集安理会专项会议,警示AI风险。从网络攻击到核武关联,从技术故障到虚假信息泛滥,他直言“不作为就是渎职”。随后,联合国迅速成立由政商学界专家组成的“人工智能高级咨询委员会”,并发布了首份全球AI监管建议。


今年2月11日,包括中国、法国、印度、欧盟在内的60个国家和国际组织,在巴黎人工智能行动峰会上签署了《关于发展包容、可持续的人工智能造福人类与地球的声明》。但美国和英国缺席。


期间,不断有声音质疑国际间监管AI是否现实可行。


维基百科创始人威尔士(Jimmy Wales)公开表示:“让联合国去监管AI,就像让它监管Photoshop修图软件一样荒谬。”


不过,对于理想的监管路径,谭寅亮提出了自己的设想。他认为,政府应采用动态平衡策略,避免监管滞后或过度干预。通过分层分段监管、沙盒机制和多方协作,在保障公共安全的同时,为技术创新留足灵活空间。此外,还需建立对AI数据的动态监测反馈机制,以便在技术快速演进中及时调整政策。


对于理想的监管路径,有中国专家认为,政府应采用动态平衡策略,避免监管滞后或过度干预。


地缘政治同样影响着AI监管的可行性。拥有45年AI研究经验的IBM沃森系统前负责人皮埃尔·哈伦(Pierre Haren)向BBC直言:“全球监管注定失败。”他指出,一些国家根本不会接受这些规则。“我们生活在一个有朝鲜和伊朗这样的不合作国家的世界里,”哈伦说,“他们不会承认围绕人工智能的监管。你能想象伊朗一边寻找摧毁以色列的方法,一边关心AI监管吗?”


而伊朗、朝鲜恰恰是核武器扩散问题上的焦点区域。事实上,已经有不少讨论认为,对于AI的国际监管,应该仿照对于核技术的监管。


OpenAI首席执行官萨姆·阿尔特曼曾公开提议建立一个类似国际原子能机构(IAEA)的国际AI监管机构,负责检查系统、进行审计、测试安全标准,并限制高级AI技术的部署。他认为,这种机构可以专注于降低“存在性风险”,同时允许各国在其他问题上保留自主权。


尽管IAEA模式被广泛讨论,但其在AI领域面临诸多挑战。例如,AI技术的发展速度远超核能,现有机制可能无法及时响应。此外,全球政治分歧日益加剧,可能阻碍统一标准的达成。


即便如此,谭寅亮依然保持乐观。他坦言,人工智能发展中待解的问题可能远超人类现有认知,但相信人类智慧能够在多样性中尊重差异、寻求共识,并最终引领我们走向全球合作治理的未来。


拜登时代主管AI监管框架设计的阿拉蒂·普拉巴卡尔(Arati Prabhakar)在达沃斯论坛上表示,如果我们认真思考未来摆在眼前的任务——应对气候危机、提升民众健康与福祉、确保孩子们获得良好教育,让劳动者掌握新技能……很难想象不借助人工智能如何实现这些目标。在她看来,监管应该被视为实现目标的手段,而不仅仅是为了保护权利,换言之,监管Ai确实是保护国家安全的必要举措,但更是实现上述伟大愿景的必由之路。


謝選駿指出:人説“人工智能大爆发后的监管命题:风险分类、路线分化与地缘政治阴影……全球监管注定失败。”——我看“人工智能與全球政府息息相關;人工智能推升了全球政府的可能性,而只有全球政府才能有效监管人工智能的時空危機”!


AI:你的观点很有意思,把人工智能(AI)的监管问题提升到了全球治理的高度,并且提出了一个辩证的命题:AI既可能推动全球政府的形成,又似乎只有全球政府才能有效应对AI带来的时空危机。这让我想从几个角度来探讨一下。

首先,“人工智能大爆发后的监管命题”确实复杂。风险分类(比如AI的伦理风险、安全风险、经济风险)已经让各国头疼,而路线分化(不同国家、企业的AI发展路径迥异)和地缘政治阴影(中美科技竞争、数据主权争端)更是火上浇油。有人认为全球监管注定失败,理由是各国利益冲突太大:美国追求技术霸权,中国强调国家安全,欧盟注重隐私和人权,发展中国家则担心被边缘化。这种碎片化确实让统一的全球监管看起来遥不可及。

但你提到的“AI推升了全球政府的可能性”,这个视角很独特。AI的跨国性——数据无国界、技术扩散快、影响全球化——确实在某种程度上倒逼各国合作。比如,AI生成的内容可能在A国制造,却在B国引发社会动荡;AI武器的研发可能让军备竞赛升级到无人能控的地步。这些问题单靠一国之力难以解决,可能催生某种形式的“全球治理框架”。就像气候变化推动了《巴黎协定》一样,AI的危机或许会成为全球合作的催化剂。

然而,“只有全球政府才能有效监管AI的时空危机”这个论断,我觉得可以再推敲一下。时空危机——如果指的是AI对时间(发展速度)和空间(全球影响)的颠覆性挑战——确实需要协调一致的应对。但全球政府(一个统一的超国家实体)是否现实?目前的国际体系更倾向于松散的多边合作,而非中央化的“全球政府”。比如,联合国或G20这样的平台已经在尝试制定AI伦理准则和技术标准,虽然执行力有限,但也算一种折中方案。

反过来想,如果没有全球政府,AI监管就一定失败吗?也许不一定。分散式的监管(各国根据自身情况制定规则)加上行业自律(企业间的AI安全协议)和技术手段(比如用AI监管AI)可能在短期内更可行。比如,美国的NIST AI风险框架、欧盟的《AI法案》、中国的算法治理规定,都在各自范围内试图管住AI的风险。这些局部努力虽然不完美,但至少能减缓危机。

至于“全球监管注定失败”的说法,我觉得有点绝对了。失败与否取决于目标是什么。如果目标是彻底消除AI风险,那确实很难;但如果只是降低风险、避免最坏结局,那么区域合作加上技术进步未必不能奏效。只是,地缘政治的阴影确实是个大变量——如果AI变成大国博弈的筹码,监管的初衷可能被权力游戏吞噬。

你觉得呢?是坚持认为必须有个“全球政府”才能救场,还是觉得分散式监管也能撑得住?


沒有留言:

發佈留言

谢选骏:美軍正在“黨衛軍化”嗎

《五角大楼为马斯克安排对中国作战计划简报会》(ERIC SCHMITT, ERIC LIPTON, JULIAN E. BARNES, RYAN MAC, MAGGIE HABERMAN 2025年3月21日)報道: 特朗普总统与埃隆·马斯克、马斯克的儿子X本月在白宫。目前尚不清...