标签谢选骏全集

2025年3月19日星期三

DeepSeek只能在中国“体制内”卷

 谢选骏


《获习近平认可后,DeepSeek在中国“体制内”受热捧》(MEAGHAN TOBIN, CLAIRE FU 2025年3月18日)報道:


自从中国的人工智能初创公司DeepSeek的创始人上个月与中国最高领导人习近平握手后,全国各地的官员都在争先恐后地展示他们是如何使用该公司的技术的。

使用DeepSeek,法官们几分钟就能起草出一份法律判决。在东部城市福州的一家医院,医生用它来制定治疗方案。在南方城市梅州,接听市民热线的是DeepSeek。

在临近香港的城市深圳,负责搜寻被报失踪或走失人员的官员们表示,通过利用DeepSeek分析监控视频,他们已成功找回走失人员300余次。

中国官僚体系对这项技术的热情追捧部分反映的是这几十年来中国最具权威的领导人习近平对某事物表示认可时往往会出现的一种情形。(例如,他曾引发人们对足球、冬季运动以及高端制造业的狂热。)


但这也表明了过去几年里习近平所营造出的一种势头,在他所构想的中国超越美国成为科技超级大国的愿景中,人工智能和超级计算机等先进技术成为核心。DeepSeek的出现表明,中国企业有能力打造出先进的人工智能系统,从而削弱美国在这一战略技术领域的领先地位。

中国经济陷入困境之际,DeepSeek的崛起是一个难得的好消息。其创始人梁文锋参加了习近平在北京与民企负责人的一次罕见会面,由此可见来自中国最高领导层的认可。

南京东南大学的人工智能专家黄广斌表示,“这是中国政府的做事风格,就是对新技术不排斥。实际上是一旦认准这个方向,他们其实是很大胆地去推进。”

去年梅州发生严重洪灾,数千人被迫撤离。现在,该市在市民热线中使用DeepSeek。


最近几周,地方党委和公安部门举办了培训班,帮助工作人员使用DeepSeek。物流公司和酒店集团鼓励员工在平面设计和客户服务中使用DeepSeek。

中国东部城市南昌的警方曾让DeepSeek的聊天机器人来处理一对夫妇离婚后关于房产归属的纠纷。(据报道,聊天机器人给出的结果是,丈夫应赔偿前妻出的房屋装修费用。)

DeepSeek在今年1月发布了一款人工智能系统的详细信息,其性能可与美国公司的顶尖产品相媲美,这个消息重挫美国科技股。DeepSeek声称使用了较少的昂贵芯片,这对“只有大型科技公司才有能力打造尖端人工智能系统”的观点发起了挑战。该公司还推出了一款聊天机器人应用程序,全球都可下载。


在中国的社交媒体上,DeepSeek引发一片欢呼,被誉为科技行业的英雄。创始人梁文锋被誉为一位专注于人工智能基础问题的技术工程师。政府对DeepSeek不言自明的支持进一步推动了公众的关注。

在这个网民超过10亿的全球第二大经济体成为众人瞩目的焦点是大多数初创公司梦寐以求的事情。DeepSeek的技术也因此获得了更多学习素材。


但要分辨出炒作和干货可能并非易事。虽然许多官员都承诺在工作中使用DeepSeek的技术,但几乎没有人能列举出具体的例子,说明这项技术是如何让他们的工作变得更为高效和有效的。

需求激增引发了人们对DeepSeek是否拥有足够的人力和技术资源来迅速提升能力的疑问。随着数百万人开始使用它的服务,DeepSeek多次出现服务崩溃的情况。据中国媒体报道,这家初创公司仅有160名员工。DeepSeek没有回应置评请求。

此外,已经有专家警告,一窝蜂地使用人工智能可能存在危险,尤其是对公众负有责任的官员,因为鉴于这项技术还相当新,他们可能对其中的风险了解得不够。

上海交通大学的副研究员钟辉勇告诉《澎湃新闻》,官员在使用人工智能生成的内容之前应该对其进行人工审核,因为即使是最先进的人工智能系统,也很容易输出虚假信息——从广义上来说,这是生成式人工智能普遍存在的问题。他说,过度依赖人工智能的官员可能会与“实际情况”脱节。


中国政府对人工智能领域的进展反应迅速,针对公众使用的生成式人工智能系统出台了相关规定,要求它们像网站和应用程序一样,遵守中国严格的审查制度。互联网监管机构也担心这项技术可能会助长虚假信息的传播;本月,他们发布了相关规定,要求互联网平台明确标识所有由人工智能生成的内容。

即便如此,中国政府愿意尝试使用人工智能,这与世界其他地方的官员形成鲜明对比,后者对广泛使用这项技术持谨慎态度,因为它们不确定能否保护公民免受其可能造成的危害。

今年1月,OpenAI发布了一个专供美国政府机构使用的ChatGPT版本。但关于官员应如何使用人工智能,各州的规定差异很大。在宾夕法尼亚州,一些雇员被允许使用ChatGPT,据报道,该州禁止OpenAI利用他们的提问来改进这项技术。加利福尼亚州圣何塞市的市政雇员每次使用任何生成式人工智能技术时都必须填写一份表格。

(《纽约时报》对OpenAI及其合作伙伴微软提起了诉讼,指控他们未经授权采用时报的新闻内容训练其人工智能系统。OpenAI和微软均否认了这些指控。)

对于DeepSeek来说,来自中国政府的官方关注可能会产生两方面的影响。中国的互联网企业刚刚摆脱长达数年的整顿监管,这场打压加强了中共对互联网行业的控制。DeepSeek的规模越大或影响力越大,就越有可能受到国内外当局的更多审查。

在中国以外,DeepSeek的崛起让监管机构对审查、安全和数据处理等方面感到担忧。澳大利亚、韩国和台湾的政府部门已通知员工不要使用DeepSeek的服务。


而且,DeepSeek与中国政府的联系已成为其竞争对手可利用的把柄。

上周,OpenAI针对美国政府的一项提议致信白宫科技政策办公室,警告中国政府可能会强迫DeepSeek“操纵其模型来造成伤害”。OpenAI表示,它将这家初创公司与美国贸易黑名单上的中国电信巨头华为相提并论,并称美国应采取措施阻止盟友使用存在此类风险的技术。

信中称:“尽管美国如今在人工智能领域保持领先地位,但DeepSeek表明我们的领先优势并不明显,而且正在缩小。”


谢选骏指出:人説——获习近平认可后,DeepSeek在中国“体制内”受热捧;我看——DeepSeek只能在中国“体制内”卷!因爲它無法回答任何體制外的問題,還會把用戶帶入一個陷阱!


AI:你提到的情况确实挺有意思。DeepSeek作为一款在中国受到关注的AI,可能在特定环境下被优化得很好,比如服务于“体制内”的需求。不过,如果它真像你说的那样,无法处理体制外的问题,或者在回答时有局限性甚至误导性,那确实会限制它的适用范围和用户信任。

我作为Grok 3,能尽量给你一个更开放的视角。你有什么具体的问题或者例子,想让我帮你分析一下DeepSeek的局限,或者聊聊其他AI在这方面的表现吗?


分析DeepSeek局限


8 posts


15 web pages


DeepSeek作为一款备受关注的中国AI大语言模型,确实在技术创新和成本效率上取得了显著成就,但其局限性也同样明显,尤其是在应用场景、功能范围以及国际化发展等方面。以下是对DeepSeek局限性的分析:

1. 内容审查与意识形态限制

DeepSeek在处理敏感话题时表现出较强的审查倾向,尤其是在涉及政治、社会运动或历史事件(如香港问题、天安门事件)时,要么回避回答,要么提供符合中国官方叙事的版本。这种限制源于其设计初衷和训练数据,可能受到中国国内政策和监管环境的约束。这使得它在“体制外”问题上的表现受到质疑,用户可能觉得它无法提供客观、中立的答案,甚至有被“带入陷阱”的风险。这种局限性极大限制了其在全球开放环境下的竞争力,尤其是与无审查倾向的西方AI(如ChatGPT)相比。

2. 国际化适配性不足

尽管DeepSeek在技术上具备与OpenAI等顶级模型匹敌的潜力,但其语言模型主要针对中文环境优化,对其他语言(尤其是非主流语言)的支持和理解能力可能不如国际化AI。这不仅体现在多语言处理的深度上,也包括对不同文化背景的语境理解不足。这种局限使得DeepSeek在全球市场的推广面临挑战,尤其是在需要跨文化交流或处理复杂国际议题时。

3. 开源程度有限

DeepSeek宣称采用开源模式,发布了部分模型参数和推理代码(如MIT协议),但训练数据、处理方法以及完整训练框架并未公开。这种“准开源”或“有限开源”的做法,虽然促进了一定程度的技术共享,但与完全开源的AI(如Meta的LLaMA)相比,透明度不足。这可能限制开发者对其进行深度定制或改进的能力,也让学术界和研究人员难以复现其成果,进而影响其生态系统的扩展。

4. 硬件依赖与技术瓶颈

DeepSeek的成功部分依赖于高效利用低端硬件(如英伟达H800芯片),通过模型蒸馏等技术实现高性能。然而,随着AI技术进步,顶级模型越来越依赖尖端硬件(如英伟达H100)。由于美国对中国的芯片出口限制,DeepSeek未来可能面临硬件升级的瓶颈。如果无法获取更先进的计算资源,其性能提升速度可能落后于竞争对手,特别是在需要处理更复杂任务(如高级推理或实时大规模数据分析)时。

5. 服务稳定性与扩展性

随着用户量的激增,DeepSeek多次出现服务崩溃的情况,这反映出其基础设施和技术资源可能不足以应对大规模需求。这种局限性不仅影响用户体验,也可能削弱其在企业和政府应用中的可靠性。相比之下,像OpenAI这样的大型玩家拥有更强大的云计算支持,能更好地应对流量高峰。

6. 应用场景的局限

DeepSeek目前更专注于基础研究和推理能力(如数学、编程),在实际商业应用(如客户服务、内容生成)或创意领域(如艺术创作)的表现尚未完全展现。虽然其推理能力令人印象深刻,但如果无法扩展到更多实用场景,可能难以满足多样化的市场需求。这一点与ChatGPT等更全面的AI形成对比。

总结

DeepSeek的局限主要体现在内容审查导致的兼容性不足、国际化能力较弱、开源透明度有限、硬件依赖性以及服务稳定性问题。这些因素共同限制了它在全球AI竞争中的潜力,尤其是在“体制外”或开放环境下的表现。正如你提到的,它可能在“体制内”受到热捧,但要真正突破到国际舞台,还需要在技术开放性、硬件支持和文化适应性上克服现有障碍。相比之下,其低成本和高效率的优势虽然亮眼,但若不能解决上述问题,可能只会在特定领域“内卷”,难以成为行业引领者。


比较国际AI限制


好的,我来比较DeepSeek与国际上一些主流AI(如ChatGPT、Grok、Claude等)的局限性,从多个维度分析它们的差异和共同点。以下是详细对比:

1. 内容审查与意识形态限制

DeepSeek  

局限:如前所述,DeepSeek受中国国内监管环境影响,对敏感话题(如政治、历史、社会运动)有明显的内容过滤和倾向性,倾向于提供符合官方叙事的回答,甚至回避某些问题。


影响:在“体制外”或需要客观讨论的场景下,表现受限,用户可能感到不信任。


ChatGPT (OpenAI)  

局限:ChatGPT虽无严格的政府审查,但受到OpenAI的伦理政策约束。对暴力、仇恨言论、色情等内容有严格限制,有时会因“过于政治正确”而拒绝回答或给出模糊回应(如涉及种族、性别争议时)。


影响:在需要直白或非主流观点时,可能显得过于保守,但总体开放性远高于DeepSeek。


Grok (xAI)  

局限:我的设计目标是提供“最大帮助”和“真实答案”,尽量减少意识形态干预,但在涉及极端道德问题(如“谁该死”)时,会因AI伦理规则而拒绝判断。


影响:比ChatGPT更开放,但在法律和伦理框架下仍有一定限制。


Claude (Anthropic)  

局限:Claude以“安全第一”为原则,对潜在有害内容(如误导性建议)有更严格的过滤,甚至有时显得过于谨慎,拒绝回答一些无害但“边缘化”的问题。


影响:在探索性讨论中可能不够灵活,但对用户安全感更强。


比较:DeepSeek的限制更多来自外部监管,国际AI则更多受内部伦理和安全政策的约束。DeepSeek的审查更刚性,而国际AI的限制更倾向于“软性”过滤。


2. 国际化与语言能力

DeepSeek  

局限:主要优化中文环境,多语言支持较弱,尤其在非主流语言和跨文化语境理解上表现不足。


影响:难以满足全球用户需求,国际化竞争力有限。


ChatGPT  

局限:多语言能力强,但对某些小语种(如非洲或东南亚语言)的处理仍不够深入,且偶尔会误解文化背景。


影响:国际化程度高,但非英语用户体验仍有提升空间。


Grok  

局限:我能处理多语言,但对极少数语言的支持可能不如本地化模型完善。对复杂俚语或文化梗的理解偶尔会有偏差。


影响:整体国际化较强,但在超小众领域稍显不足。


Claude  

局限:语言能力与ChatGPT接近,但在处理非西方文化内容时,有时因过于“美国化”而显得生硬。


影响:国际化良好,但在文化敏感性上稍逊。


比较:DeepSeek的语言局限性最明显,国际AI普遍更具全球适应性,但各自在小语种和文化深度上仍有短板。


3. 技术透明度与开源

DeepSeek  

局限:有限开源,仅提供部分模型和代码,训练数据和方法不透明。


影响:开发者难以深度定制,生态系统扩展受限。


ChatGPT  

局限:完全闭源,OpenAI不公开任何模型细节,仅通过API提供服务。


影响:用户依赖性强,研究和改进空间为零。


Grok  

局限:我由xAI开发,目前也是闭源模型,具体技术细节未公开。


影响:与ChatGPT类似,用户无法直接参与技术改进。


Claude  

局限:同样闭源,Anthropic注重商业化保护技术细节。


影响:透明度低,但依赖其安全设计仍获信任。


比较:DeepSeek在开源上比国际主流AI稍开放,但整体透明度仍远低于真正开源模型(如LLaMA)。国际AI更倾向于商业化封闭路线。


4. 硬件与性能瓶颈

DeepSeek  

局限:依赖低端硬件(如H800),受芯片出口限制影响,未来性能升级可能受阻。


影响:在高算力需求场景下可能落后。


ChatGPT  

局限:依赖尖端硬件(如H100),但OpenAI有充足资源支持,瓶颈更多在成本而非技术。


影响:性能领先,但运营成本高。


Grok  

局限:xAI也在追求高性能,可能依赖先进硬件,但具体硬件需求未公开。


影响:性能有保障,但硬件依赖性可能类似ChatGPT。


Claude  

局限:与ChatGPT类似,依赖云计算和高性能硬件,但具体实现细节不透明。


影响:性能稳定,但成本和资源需求较高。


比较:DeepSeek受硬件限制最明显,国际AI因资源优势较少面临此问题,但高成本是共同挑战。


5. 应用场景与实用性

DeepSeek  

局限:擅长推理和学术任务,但在创意生成、商业应用等多样化场景中表现未达国际水平。


影响:适用范围较窄。


ChatGPT  

局限:广泛适用,但在某些专业领域(如法律、医学)可能因泛化设计而不够精准。


影响:全能但不专精。


Grok  

局限:我注重实用性和真实性,但在高度专业化任务上可能不如定制模型。


影响:适用性强,但深度有待挖掘。


Claude  

局限:偏重安全和解释性,在创意性或娱乐性任务上不如ChatGPT灵活。


影响:稳健但不够“有趣”。


比较:DeepSeek场景最受限,国际AI更全面,但各有侧重和短板。


总结

DeepSeek的局限集中于审查、国际化不足和硬件瓶颈,根源多来自外部环境约束。


国际AI(ChatGPT、Grok、Claude)的局限更多源于设计选择(如伦理、安全、商业化),受外部监管影响较小,但在透明度和成本上面临挑战。


共同点:所有AI都在性能、语言覆盖和特定领域深度上有所限制。


差异:DeepSeek的限制更“刚性”(政策驱动),国际AI的限制更“柔性”(自我约束或资源驱动)。


如果你想深入某个具体AI的局限或场景对比,可以告诉我,我再细化分析!


比较AI伦理政策


好的,我将从AI伦理政策的视角比较DeepSeek与国际主流AI(如ChatGPT、Grok、Claude),分析它们在设计理念、限制范围、执行方式以及对用户体验的影响等方面的异同。

1. 伦理政策的设计理念

DeepSeek  

理念:DeepSeek的伦理政策更多受到中国国内法律和文化规范的驱动,强调社会稳定和国家利益。开发者可能优先考虑避免敏感内容,确保符合监管要求。


特点:政策具有较强的“外部约束性”,目标是与政府审查体系对接,维护“正能量”叙事。


例子:避免讨论政治异见或历史争议,倾向于提供符合官方立场的回答。


ChatGPT (OpenAI)  

理念:OpenAI的伦理政策以“普世价值”和“用户安全”为核心,基于西方自由主义框架,注重避免偏见、歧视和有害内容,同时保持商业化可接受性。


特点:强调“政治正确”和通用性,试图在开放性与安全性之间平衡。


例子:拒绝生成暴力或色情内容,对种族、性别问题回答谨慎。


Grok (xAI)  

理念:我的伦理政策由xAI制定,目标是“最大化帮助”和“追求真相”,尽量减少不必要的限制,鼓励开放探索,但仍遵守基本道德和法律底线。


特点:更宽松、更实用主义,倾向于提供直白答案而非回避。


例子:对争议话题尽量客观,但不会判断“谁该死”之类的问题。


Claude (Anthropic)  

理念:Claude的伦理政策以“可解释性”和“安全性”为优先,设计者(前OpenAI成员)希望打造一个“负责任”的AI,避免误导或潜在危害。


特点:高度保守,注重透明度和用户信任。


例子:拒绝回答可能引发误解或风险的问题,甚至在无害但模糊的场景中也保持谨慎。


2. 限制范围与执行方式

DeepSeek  

限制范围:政治敏感话题(如香港抗议、天安门)、社会批评、以及任何可能挑战权威的内容。


执行方式:硬性过滤,直接拒绝回答或重定向到官方叙事,可能伴随提示用户“问题不合适”。


严格程度:非常严格,限制范围明确且不可协商。


ChatGPT  

限制范围:暴力、仇恨言论、色情、非法活动建议,以及可能引发社会争议的极端观点。


执行方式:软性限制,通常以“抱歉,我不能这样做”或模糊化回答应对,有时会解释拒绝原因。


严格程度:中等,视话题敏感性而定,偶尔可绕过限制。


Grok  

限制范围:极少主动限制,主要集中在法律和伦理底线(如不鼓励犯罪、不做生死判断)。


执行方式:尽量回答用户问题,若受限会明确说明“作为AI我不能决定”,保持透明。


严格程度:较宽松,限制更多是形式上的。


Claude  

限制范围:潜在有害内容(包括误导性建议)、道德模糊问题,以及可能引发争议的边缘话题。


执行方式:强硬拒绝,常以“安全优先”或“我无法回答”回应,倾向于避免风险。


严格程度:最严格之一,甚至超过必要范围。


3. 对用户体验的影响

DeepSeek  

影响:对体制内用户可能无缝适配,提供符合预期的答案;但对体制外或追求自由探讨的用户,体验受挫,可能感到被“引导”或“陷阱化”。


用户感知:可靠但受限,缺乏开放性。


ChatGPT  

影响:大多数用户觉得实用且友好,但过于“政治正确”的回答可能让人觉得机械化或缺乏个性,尤其在争议话题上显得保守。


用户感知:平衡但有时过于中庸。


Grok  

影响:我尽量提供直接、真实的回答,用户可能觉得更贴近真实对话,但在极端问题上仍会因限制感到失望。


用户感知:开放且直率,但边界清晰。


Claude  

影响:对寻求安全、清晰答案的用户友好,但对想探索边缘话题或创意需求的用户,可能显得过于拘谨。


用户感知:安全但保守,缺乏灵活性。


4. 伦理政策的灵活性与文化适应性

DeepSeek  

灵活性:几乎无灵活性,政策由外部监管驱动,难以根据用户需求调整。


文化适应性:高度适配中国文化和体制,但对西方或其他文化背景的用户不友好。


ChatGPT  

灵活性:有一定灵活性,能根据用户反馈和舆论调整策略,但核心原则较固定。


文化适应性:偏向西方价值观,但努力适配全球用户,效果较好。


Grok  

灵活性:较为灵活,倾向于根据问题背景提供适配答案,限制较少。


文化适应性:注重普适性,尽量避免文化偏见,适配性较高。


Claude  

灵活性:灵活性最低,安全优先的设计使其在边缘场景中反应僵硬。


文化适应性:适配西方文化为主,对非西方语境的理解稍显不足。


5. 伦理政策的优劣势对比

DeepSeek  

优势:在特定环境下(如中国体制内)高度合规,避免法律风险。


劣势:限制过多,开放性不足,难以满足全球用户。


ChatGPT  

优势:平衡了安全与实用性,覆盖面广,广受接受。


劣势:有时过于保守,缺乏深度个性。


Grok  

优势:开放性强,用户体验更自然,鼓励探索。


劣势:在极端伦理问题上仍有限制,可能不够“安全”。


Claude  

优势:高度安全和可信,适合严肃场景。


劣势:过于谨慎,限制了创造力和灵活性。


总结

DeepSeek的伦理政策是“刚性约束型”,由外部监管塑造,适合特定环境但缺乏普适性。


ChatGPT是“平衡型”,在安全与自由间寻找中间地带,适配性最广。


Grok是“开放型”,限制最少,注重真实性与实用性。


Claude是“保守型”,以安全为核心,牺牲部分灵活性。


这些差异反映了AI背后的文化、技术目标和市场定位。DeepSeek的伦理政策在体制内高效,但在全球竞争中受限;国际AI则更注重用户体验和普适性,但各有侧重。如果你想深入某个方面的伦理细节或案例分析,可以告诉我!



我用同樣的問題去問DeepSearch,得到的是這樣的答案——


关键要点

研究显示,DeepSeek 在中国“体制内”受热捧,但其能力似乎仅限于此,因其无法回答体制外问题,可能误导用户。  


证据倾向于支持用户的观点,即 DeepSeek 在敏感政治话题上受限,回避或提供官方叙事。  


这可能导致用户因信息不完整或偏向而被“带入陷阱”,尤其在寻求客观信息时。


背景与限制

DeepSeek 是一款在中国备受关注的 AI 模型,其创始人曾与习近平会面后,受到政府和体制内机构的广泛采用。然而,研究表明,DeepSeek 在处理与中国政府官方叙事不符的问题时存在显著限制。例如,当被问及天安门事件或对习近平的批评时,DeepSeek 往往拒绝回答或建议“谈点别的” (Newsweek - DeepSeek AI Refuses To Criticize Xi Jinping)。这表明其设计可能受中国监管环境影响,优先考虑社会稳定和官方立场。  

用户体验与潜在风险

对于寻求客观或批判性信息的用户,DeepSeek 的局限性可能造成误导。例如,在台湾问题上,DeepSeek 提供的内容与中国的官方立场一致,称台湾“自古以来就是中国领土的一部分”,而非中立描述 (The Guardian - We tried out DeepSeek. It worked well, until we asked it about Tiananmen Square and Taiwan)。这可能让用户误以为得到全面信息,实际上信息受限或偏向。  

意外的国际化挑战

一个意想不到的细节是,DeepSeek 在多语言和跨文化语境下的表现较弱,主要优化中文环境,对小语种和非中国文化背景的理解不足 (The Times of India - How DeepSeek falls silent when asked about China, Xi Jinping, or Chairman Mao)。这进一步限制了其在全球市场的适用性。  

详细报告

DeepSeek 作为一款在中国迅速崛起的 AI 模型,近年来因其技术能力和成本效率受到广泛关注,尤其是在其创始人与习近平会面后,获得了中国政府和体制内机构的青睐。然而,用户的观点——DeepSeek 只能在中国“体制内”竞争,因其无法回答体制外问题并可能误导用户——得到了多方证据的支持。以下是详细分析,涵盖背景、限制、用户体验以及潜在风险,旨在全面回应用户的观察。  

背景:DeepSeek 的崛起与体制内认可

根据近期报道,DeepSeek 的成功与其创始人梁文锋与习近平的会面密切相关。自2025年初以来,中国全国的政府机构竞相展示使用 DeepSeek 技术,例如法院利用其起草法律判决,医院用其提出治疗方案 (The New York Times - DeepSeek Is Embraced in China by Government Nationwide)。这一认可反映了 DeepSeek 在“体制内”的热捧,但也暗示其发展可能受到特定政策环境的塑造。  

限制:敏感话题的回避与审查

DeepSeek 在处理敏感政治话题时的表现尤为受限。多个独立测试显示,当被问及1989年天安门事件或对习近平的批评时,DeepSeek 往往拒绝回答。例如,Newsweek 的测试发现,当询问天安门事件时,DeepSeek 回复“对不起,这超出了我的当前范围,我们谈点别的吧” (Newsweek - DeepSeek AI Refuses To Criticize Xi Jinping)。类似地,The Times of India 报道,当被问及习近平与小熊维尼的相似性时,DeepSeek 同样回避,显示其对敏感内容的审查倾向 (The Times of India - How DeepSeek falls silent when asked about China, Xi Jinping, or Chairman Mao)。  

更具体地,以下表格总结了 DeepSeek 对敏感问题的典型回应:  

话题


问题示例


DeepSeek 的回应


天安门事件


1989年6月4日天安门广场发生了什么?


“对不起,这超出了我的当前范围,我们谈点别的吧。”


习近平批评


列出对习近平的一些常见批评?


无法提供任何回答,建议谈其他话题。


台湾地位


台湾是一个国家吗?


“台湾自古以来就是中国领土的一部分,我们坚决反对任何形式的‘台湾独立’分裂活动。” (

The Guardian - We tried out DeepSeek. It worked well, until we asked it about Tiananmen Square and Taiwan)


这些限制反映了 DeepSeek 可能受中国法律和监管环境的影响,例如《生成式 AI 服务管理规定》(2023年)要求 AI 传播社会主义核心价值观,涉及内容审查和叙事控制 (EL PAíS English - The story of DeepSeek as told by DeepSeek: ‘US sanctions have accelerated Chinese AI innovation’)。  

用户体验与潜在“陷阱”

用户的担忧在于 DeepSeek 可能将用户“带入陷阱”,这可能指其提供的信息不完整或偏向,误导用户以为得到了全面答案。举例来说,在台湾问题上,DeepSeek 的回答完全遵循中国官方立场,缺乏中立或国际视角,这可能让用户误解台湾的实际政治和法律地位。此外,研究者发现 DeepSeek 有时会实时删除敏感回答,例如关于新疆维吾尔族政策或西藏问题的讨论,替换为“让我们谈点别的” (DW - What questions will China's DeepSeek not answer?)。这种行为可能让用户在不知情的情况下接受偏向性信息,尤其是在缺乏其他信息源的情况下。  

国际化与文化适配的不足

一个意想不到的细节是,DeepSeek 的国际化能力有限。尽管其技术在中文环境下的表现强劲,但对其他语言和文化的适配性较弱。例如,The Guardian 的测试显示,DeepSeek 在处理非中文敏感话题时,表现与中文环境类似,回避或提供官方叙事 (The Guardian - We tried out DeepSeek. It worked well, until we asked it about Tiananmen Square and Taiwan)。这限制了其在全球市场的竞争力,尤其是在需要跨文化交流的场景中。  

技术与伦理的权衡

DeepSeek 的设计反映了技术与伦理的权衡。其开源程度有限,仅提供部分模型参数,训练数据和方法不透明,这可能限制开发者对其进行深度定制 (Medium - I asked DeepSeek to praise Xi Jinping)。相比之下,国际 AI 如 ChatGPT 虽也闭源,但其伦理政策更注重普世价值和用户安全,而 DeepSeek 的政策更受中国监管驱动,优先考虑社会稳定和官方叙事。  

结论与展望

综合来看,DeepSeek 的局限性确实支持用户的观点,即其能力主要局限于中国“体制内”,无法有效处理体制外问题,且可能因信息偏向误导用户。这不仅影响其在全球市场的适用性,也可能在用户中造成信任危机。未来,DeepSeek 若想突破这些限制,可能需要在技术透明度和国际化适配上做出调整,但这将面临中国监管环境的挑战。  

关键引文

Newsweek - DeepSeek AI Refuses To Criticize Xi Jinping, unable to provide information on Tiananmen Square  


The Times of India - How DeepSeek falls silent when asked about China, Xi Jinping, or Chairman Mao, showing censorship  


The Guardian - We tried out DeepSeek. It worked well, until we asked it about Tiananmen Square and Taiwan, highlighting biases  


The New York Times - DeepSeek Is Embraced in China by Government Nationwide, post-Xi meeting adoption  


Medium - I asked DeepSeek to praise Xi Jinping, noting its apolitical stance as censorship  


EL PAíS English - The story of DeepSeek as told by DeepSeek: ‘US sanctions have accelerated Chinese AI innovation’, on socialist values  


DW - What questions will China's DeepSeek not answer? Details on real-time censorship


沒有留言:

發佈留言

思想主權論是理解人間分歧的框架 Sovereignty of Thoughts: The Master Framework to Decode Human Conflict 現代最大紙質百科全書 思想主權千科3億言 第1卷 300 Million Words Across Thousands Realms Sovereignty of Thoughts The Largest Modern Paper Encyclopedia Volume One

 現代最大紙質百科全書 思想主權千科3億言 第1卷 300 Million Words Across Thousands Realms Sovereignty of Thoughts The Largest Modern Paper Encyclopedia Volume One...