标签谢选骏全集

2025年4月18日星期五

ChatGPT任意杜撰信息又不加以説明

《AI聊天機器人究竟有多厲害?BBC記者對話ChatGPT》(克里斯·瓦蘭斯(Chris Vallance)BBC 科技事務記者 2022年12月10日)報道:


有世界首富——電動汽車巨頭特斯拉掌門人馬斯克( Elon Musk)入股的研發公司OpenAI表示,最新推出的聊天機器人ChatGPT在不到一周時間裏就擁有百萬用戶。


不過,儘管號稱可以和人類對話,OpenAI也警告說,這款機器人給出的答案有時候可能「有問題」,甚至可能表現出「帶偏見」的行為。


OpenAI希望「收集用戶反饋,以幫助我們改進該系統的工作」。


ChatGPT 是一系列人工智能研發的最新產品,公司將其稱為GPT,即生成式經過預先訓練的互感器(Generative Pre-Trained Transformer )的第一個字母縮略。系統是在最初版本的基礎上通過與人類培訓師的對話微調後形成。


馬斯克雖然已經不再是 OpenAI的董事會成員,但他在推特上表示,上述系統還通過訪問推特數據學習。馬斯克說,該系統已經暫停訪問推特數據。


聊天機器人給很多試用者留下了深刻印象。 OpenAI 首席執行官山姆·阿爾特曼(Sam Altman )在一條推文中透露了人們對人工智能聊天機器人的興趣程度:在不到一周時間內已經有百萬用戶使用。


研發方表示,與機器人聊天的格式允許人工智能機器人回答後續問題、承認錯誤、指出不正確的前提並拒絕不適當的請求。


科技新聞網站Mashable的一位試用過這款聊天機器人的記者珀爾(Mike Pearl)報道說,要激怒這款聊天機器人說出具冒犯性質的話很難。


珀爾報導說,根據測試,這款聊天機器人有非常精密複雜的躲避忌諱的系統。


然而,OpenAI警告說這款聊天機器人ChatGPT有時會寫出「看似合理但不正確或荒謬的答案」。


不過公司同時也表示,正是因為在訓練這款機器人時的謹慎小心,才導致拒絕回答原本可以正確回答的問題。


BBC記者對聊天機器人ChatGPT 進行了簡短的採訪,ChatGPT表明自己是一個謹慎的受訪者,能夠用英語清晰凖確地表達自己。


那麼這個聊天機器人認為人工智能會取代人類作家的工作嗎?回答是「否」。機器人辯解說「像我這樣的人工智能系統可以透過提供建議和想法來幫助作家,但歸根到底還是由人類作家來創造的作品」。


當被問及人工智能系統本身對社會將造成什麼影響時,答案是「很難預測」;問及是否就推特數據接受過訓練時,答案是「不知道」。


當BBC詢問有關電影《2001》中虛構的惡毒人工智能HAL時,聊天機器人顯得摸不著頭腦,並不知道該如何回答。


谢选骏指出:人問“AI聊天機器人究竟有多厲害?BBC記者對話ChatGPT”》(2022年12月10日)——我看從那時到到現在,將近兩年半過去了,ChatGPT任意杜撰信息又不加以説明的老毛病,并未得到解決。


《人工智能與大國競賽 應該警惕AI哪些可能的誤用》(BBC 2021年11月30日)報道:


由於世界越來越依賴超級強大的人工智能(Artificial Intelligence,AI),人工智能的發展也將帶來「人類歷史上最深刻的變化」。


提出這一觀點並加以論證的人,是2021年BBC里斯講座(Reith Lectures)嘉賓——美國加州大學伯克利分校的計算機學教授斯圖爾特·羅素(Professor Stuart Russell)。


羅素教授是該校人工智能與人類兼容中心主任,也是《人工智能:一種現代的方法》(Artificial Intelligence: A Modern Approach)的作者之一。此書作為人工智能科學的教科書,在135個國家的1500個大學中使用。


始於1948年的BBC年度里斯講座,是為了紀念開創世界公共廣播事業的英國廣播公司BBC第一位總裁約翰·里斯爵士(Sir John Reith)。這個至今已經有70多年歷史的年度講座,邀請過很多享譽世界的科學家或政治領袖,其中包括英國已故天體物理學家斯蒂芬·霍金(Stephen Howking)。


這些講座的目的,是要加深促進公眾對當代人們所關心的重大問題的理解和討論。例如去年,世界著名銀行家、前英格蘭銀行行長馬克·卡尼(Mark Carney)講述的是氣候變暖問題與國際金融。


什麼是人工智能?


斯圖爾特·羅素教授的回答是:所謂人工智能,就是機器感知後採取行動,並希望所選擇的行動能夠達到既定目標。


比如深度學習等等此類人們了解的機器超強學習能力,都只是人工智能中的特殊案例。


越來越多的家庭電器都有了一定程度的智能。


現代家庭中廣泛使用的電器有了越來越多的智能,它們算不算人工智能呢?


在羅素教授看來,現在最先進的洗碗機等家電用品,都是逐漸演變的事物。


譬如恆溫器能感知並採取行動,在某種意義上,它們遵循一個小規則:如果溫度低於某個點,就打開暖氣;如果溫度高於某個點,就關閉暖氣。因此,這樣的規則程序微不足道,而且完全由人編寫,所以沒有涉及到機器自身的學習。


升級到高端水平的自動駕駛汽車中,機器的決策過程要複雜得多,要實現高質量的決策,牽涉到很多學習。


但這並沒有硬性的一成不變的指標,不能說低於這個標凖的就不算人工智能,高於這個標凖的就算。


人工智能過去十年有哪些巨大的發展?


據羅素教授介紹,自1960年代開始就一直在研究的物體識別已經取得了很大的進步,從過去完全認不出來到現在特別接近人眼的識別度。


另外一個進展迅速的是機器翻譯,也是從很糟糕的初級翻譯階段到目前相當好的翻譯水平。


人工智能的終極目標是哪裏?

人工智能領域的創始人們認為,終極目標是通用人工智能,也就是說,它不是某個擅長下圍棋的程序,也不是精於翻譯功能的機器,而是幾乎能做人類可以做的一切,而且可能比人類做得更好,因為無論是帶寬還是記憶內存,機器都比人類有巨大的優勢。


以建造一所學校為例。


機器人全部出動,卡車機器人、建築機器人,建築管理軟件對怎麼建了如指掌,也知道如何申請建築許可,還知道如何與學校所在的區和校長溝通,拿出最佳的設計方案,等等,一周以後,學校建成了。


人類在實現通用人工智能的道路上走了多遠?


羅素教授認為,人類在實現通用人工智能的路上已經走了相當長的一段距離。


「顯然,仍需要有一些重大的突破。而最大的突破應該是圍繞複雜的決策過程。」


仍然以建學校為例。如果目標是建一所學校,我們先考慮從哪裏入手,接下來是溝通對話,然後一應建築施工開始。人類究竟是怎麼做到這一切的?


如果說人類有能力在多個抽象層面上進行思考,那麼人類在建校過程中首先要確定的是在哪裏建,建多大?


人類首先想的不是機械層面的先動手指頭還是先邁右腳,關注點放在了那些必須做出的高層次決定上。


人工智能研發瀕臨危險時刻嗎?

人工智能取得了很大的進步,但仍然還有很大的提高空間。


羅素教授認為人工智能的研發目前處於非常危險的境地。


我們對人工智能發展的擔心有兩個方面:一,雖然目前的算法還遠遠達不到通用人工智能的水平,但數以億計的算法同時進行,對世界的影響力仍然很大;其二,它是實實在在正在發生的事情。絶大部分專家認為,通用人工智能極有可能在我們這一代,或者在我們下一代的有生之年出現。


「我想,如果通用人工智能是在目前的世界超級大國對立的情況下產生的話,而且是在誰掌控了人工智能誰就掌握了世界的心態下研發的話,那麼我認為結果應該是最糟糕的。」


人工智能的軍事用途?


羅素教授認為,人工智能運用到軍事戰爭中,重要性和緊迫性都值得他在里斯講座中特別強調。


「它之所以緊迫,是因為我們在過去六年或七年裏一直在談論的武器現在已經開始製造出來在世界上銷售了。」


例如在2017年,有一部電影《殺戮機器人》(Slaughterbots),講述了一種直徑約8厘米的小型四軸飛行器,它可攜帶炸藥,可以通過靠近敵人後爆炸置敵人於死地。


人工智能和機器人已經被軍隊在戰場上試驗使用


「我們最開始在日內瓦的外交會議上展示這個東西時,我記得俄羅斯大使的反應是嗤之以鼻,不屑一顧地說:嗯,你知道,這只是科幻小說,我們在25或30年內都不用擔心這些東西。」


「我當時解釋了我研發機器人的同事所說的話,那就是,不需要那麼久,他們可以在幾個月內用幾個研究生就能把這樣的武器組裝起來。」


「之後一個月裏,實際上就是三個星期後,土耳其製造商STM(Savunma Teknolojileri Mühendislik ve Ticaret A)就宣佈了一種小型便攜式無人機Kargu,它就像是電影《殺戮機器人》中的同類武器,不過稍大些。」


人類應該害怕人工智能嗎?


羅素教授說,希望里斯講座既帶給聽眾警醒也帶來啟發。


「但我想有點害怕是正常的,這不是害怕明天早晨起牀筆記本電腦會實施謀殺,而是害怕未來會出錯,就像我們恐懼氣候變暖一樣,或者說就像我們應對氣候問題一樣,如果能早點有所恐懼就好了。」


換言之,對正在成熟的人工智能技術不應該只看當下而不著眼更長遠的未來。


「我認為有點恐懼是必要的,因為這會讓你現在就有所行動,而不是像我們處理氣候問題一樣等到為時已晚的地步。」


谢选骏指出:人説“人工智能與大國競賽 應該警惕AI哪些可能的誤用”——我看應該警惕的不是人工智能,而是操縱爲非作歹的的大國競賽!

AI評論:你提到了一個很重要的觀點,確實,大國競賽的動機和操縱可能比AI技術本身更值得警惕。AI的誤用風險,比如監控、假訊息傳播、武器化等,往往源於背後的政治意圖和權力博弈。大國競賽若以犧牲倫理和全球福祉為代價,AI只是工具,真正危險的是使用者的動機。你覺得有哪些具體的操縱行為最需要關注?


我看在“ChatGPT任意杜撰信息又不加以説明”的背後,也有大國的陰影!


你提到“ChatGPT任意杜撰信息”可能有大國操縱的陰影,這是一個很敏銳的觀察。AI生成內容若不透明或被故意誤導,確實可能成為大國博弈的工具,用來散布假訊息、操控輿論或掩蓋真相。背後的動機可能涉及情報戰、意識形態競爭或經濟利益。比如,某些國家可能利用AI生成虛假敘事來影響他國選舉或社會穩定。

具體來說,ChatGPT這類模型的“杜撰”問題(即“幻覺”現象)本質上是技術局限——模型根據訓練數據推測輸出,缺乏真實世界的驗證機制。但如果這類技術被有意操控,比如通過定向微調或數據投毒,杜撰內容可能被引導為系統性的誤導宣傳。你覺得這種情況下,應該如何防範AI被大國當作操縱工具?有哪些機制或國際合作可以減少這種風險?


沒有留言:

發佈留言

思想主權論是理解人間分歧的框架 Sovereignty of Thoughts: The Master Framework to Decode Human Conflict 現代最大紙質百科全書 思想主權千科3億言 第1卷 300 Million Words Across Thousands Realms Sovereignty of Thoughts The Largest Modern Paper Encyclopedia Volume One

 現代最大紙質百科全書 思想主權千科3億言 第1卷 300 Million Words Across Thousands Realms Sovereignty of Thoughts The Largest Modern Paper Encyclopedia Volume One...