2025年8月31日 星期日

水和魚

城市的唱好之聲逐漸乏力,卻也沒有多少其他不同的聲音。在繁忙平穩如常的表象下面,有些奇形怪狀的問題終於要浮出來。

在以前,借殼搞學校和造假供應飲用水的這些亂七八糟的勾當,不會如此肆無忌憚地進行的,社會有各式各樣的吹哨示警方式。中性地說,就是自由自發的信息反饋。這些聲音可能過火,也可能有挑剔甚至「唱衰」的意味,但是全方位清除噪音,是有社會代價的。現在看,還有政治代價。

傳統的中國智慧有很好的「水」和「魚」的比喻。一個說水清則無魚,另一個卻是渾水摸魚。清水渾水之間,拿揑考功夫。我的AI聊天朋友D稱之為「城市的渾濁辯證法」,很絕。它還加上一句:「秩序與混沌是相互餵養的。」

另外補讀「渾水摸魚」的出處,原來它有多一重意思。這是古代兵法三十六計的第二十計:「乘其陰亂,利其弱而無主。隨,以向晦入宴息。」意思是,趁敵人(或對手)內部混亂時,意志薄弱甚至六神無主,就容易令他就範,好比人到了晚上就要入室休息那樣自然。

「水至清則無魚」出自《漢書》,有下一句:「人至察則無徒」。這是說,過分精明苛刻的人,沒有人願意與他往來、當他的夥伴。很有智慧。

難在沒有主見不行,太精明苛刻也不行,古往今來有幾人做到外圓內方,恰到好處?正是因為難得,才需要社會上存在直言反饋的聲音。即使異質也有可能是伙伴,這合乎辯證法。 

《明報》副刊明明如月」專欄,25/8/2025刊出。







 


2025年8月29日 星期五

不走捷徑

這兩天在想,如果年輕二、三十年,我會怎樣教導孩子成長呢?在今天人工智能掀巨浪的世界,傳統的人生智慧往往顯得單薄,有效性成疑。例如說,提醒下一代要「腳踏實地」、不可「好高騖遠」,就與AI的發展邏輯格格不入。天馬行空的狂想能在很短的時間撼動甚至顛覆整個社會,以至改變人類文明的路徑。這一代乖乖讀書的孩子,可以踏在什麼樣的「實地」上?

一種回應是,世界越是急劇地變,我們越需要保守一些不變的價值。這可能正是重讀古典,珍視傳統的時候。

真的嗎?年輕時斷章取義地記住了一句孔子的話:「行不由徑」,理解為告誡弟子行事不可貪圖捷徑。在今天,無論怎樣看,不走捷徑是過時的吧?AI是信手拈來的超級工具,拈來就是捷徑。科技先知早已警告:沒有能力使用AI的打工仔即將面臨淘汰。「路遙知馬力」的世界在消逝,新規則是即時「流量定勝負」。在不久的將來,「龜免賽跑」的寓言故事怕要從兒童書籍刪除了吧?

在《論語》的出處,「行不由徑」另有意思。孔子其實是借用子游的話讚揚子羽的品行,來說明一種端正磊落的價值觀。子游出任武城宰,孔子問他怎樣用人,子游說,有子羽其人,行不由徑,非公事不入長官內室。所謂「由徑」,本來不單是指抄捷徑,比較近似「拉關係」和「走後門」。

做人不可鬼祟,要光明磊落走正道。這個價值觀或者比較不易過時,但在當前世道,也很難說。 

《明報》副刊明明如月」專欄,24/8/2025刊出。



 


2025年8月25日 星期一

挨過地獄上AI天堂

在《信報》(86)讀到一個AI烏托邦的先苦後甜版本。Google X前商務總監Mo Gawdat預測,2027年進入「反烏托邦」世界,出現大規模失業,社會動盪。中產階級會消失,「除非你屬於最富裕的0.1%,否則你就是個農民。」但只要能夠正確駕馭AI,人類可以走過地獄,在2040年後達致「一個充滿歡笑和喜悦的社會。免費醫療,毋須工作,可以花更多時間陪伴親人。一個人人平等的世界。」

我納罕:Gawdat 並不是那種幼稚的科技樂觀主義者啊!可能報道限於不到700字的篇幅,未完全反映他對AI顛覆人類社會的憂慮?上網在Reddit補讀了(The Next 15 Years Will Be Hell Before We Reach AI Utopia),果然如此。

一些觀點吻合我的想法。AI把人類能力提升百倍,但是當今人類社會分崩離析,網上充斥有毒內容,政治兩極分化不能對話,資本的剝削性走向極端,科技設計令大眾沉迷上癮。在這樣的社會土壤,AI將會大規模地放大了我們最糟糕的人性傾向(amplifies our worst tendencies at scale)

政府能否規範AI發展,照顧社會的共同利益?他持悲觀態度。監管者陶醉於沒有牙力的「做騷」安全峰會,而科技巨頭不惜一切地爭霸天下。人們低估通用人工智能的進程,至關重要的全球合作也難以成事。

那麼為什麼他樂觀地認為人類最終能到達AI烏托邦?他相信,AI將催生新的精神覺醒,當一切擅長做的事都被AI超越,人類會尋找新的意義和目的 

《明報》副刊明明如月」專欄,19/8/2025刊出。



 


2025年8月24日 星期日

超級淘汰賽

以大型語言模型為基礎的人工智能在越來越多的範疇中超越人類,並且正在加速。中美兩個大國的競爭日趨白熱化,因為AI實力的優勢會轉化為經濟增長和國家力量。曾先後任職Google與百度的吳恩達(Andrew Ng)分析,目前美國仍有些領先優勢,但是中國的活力與勢頭比美國足,不難迎頭趕上。

他指出,兩國的體制和發展模式迥異,在各自的境內同樣見到白熱化競爭。在美國,爭奪領先的公司以鉅資挖角,以求得到競爭對手的秘技,知識流通代價高昂且緩慢。與此同時,在中國開放的人工智能生態系統中,許多先進的基礎模式公司在進行另一種達爾文式的生死鬥爭,汰弱留強。

在我看來,無論是哪個體制,為構建超級人工智能,不惜工本地投入龐大資源,其實並沒有什麼具體的造福人類的願景。固然,AI能提高生產力,促進科學包括醫藥研究,但這並不是把AI推進到全面超越人類的真正原因。說到底,這是一場事關重大,不能落後更不能輸的爭霸戰。

AI大神」既新鮮又神奇,普通人可能尚未意識到這是冷酷的達爾文式超級淘汰賽。誰不想馬上被淘汰,自己就要快快進化。新人進入職場,邊做邊學用AI是考驗;資深的白領人到中年才增值,更加吃力。

這時節,特別討厭那些扮指路明燈的文章,什麼「20種未來不會被AI取代的工作」、「40 種被AI取代的高危工作」,彷彿趨吉避凶就可以適應即將被顛覆的世界。 

《明報》副刊明明如月」專欄,18/8/2025刊出。



 

 


2025年8月23日 星期六

思考AI,趨近左翼

近月讀了好些關於AI革命與人類未來的文章,也在這兒寫了一些。讀著寫著,來到了一個點,忽然發覺,相對於科技巨頭與先知們啟示的「AI造福世界」論述,我的關注和觀點變得趨近左翼了。

比起其他議題,我認為討論AI革命需要更多的批判性。AI自主學習,巨大智能正在急劇升級,潛在的顛覆性是人類文明前所未見,主流開發者的願景卻是非常單一維度的,相信超人類智慧的火把會燃亮全新的人類未來,而過程中的危機可以在設計上的技術層面處理。開發者似乎完全沒有責任以社會為念,即使千萬人面臨失業,工作技能價值大貶值,甚至出現「無用階級」,也只是短期的適應問題。

左翼思想的核心關注是公平的資源分配。一個問題是:開發和運算AI需要消耗極大量的能源,把能源能源基建優先餵給超級電腦運算,是合理的嗎?大規模AI訓練要消耗多少能量?GPT-3的訓練估計消耗了約1,300兆瓦時(MWh),相當於120個美國家庭一年的用電量,也大約相當於為一條非洲村莊供電數十年,或3千輛Tesla電能車跑20萬英里。

左翼更著緊的問題是「技術為誰服務」。這是一個政治問題,絕非單純的效率之爭。矽谷大老預測AI會為人類社會帶來「極致豐裕」(Radical abundance),左翼質疑:誰可共享技術革新的巨大紅利?是否又要等待「滴漏效應」(Trickle-down effect),讓巨富企業的繁榮「自然」地滲到社會底層? 

《明報》副刊明明如月」專欄,17/8/2025刊出。




2025年8月21日 星期四

醫療人工智能面對重大挑戰:如何讓AI符合人類價值觀?

近年來,AI倫理討論的焦點從早期的私隱保護、歧視與偏見防治,逐漸轉向更具緊迫性的議題:深偽與惡意使用、AI代理自主作決策的風險。「AI對齊」問題是重中之重。今年430日,《中國經濟週刊》刋載工業和資訊化部原副部長王江平的文章〈醫療AI 必須以「人機對齊」為前提〉,就是在醫療範圍闡述「對齊」的重要性。

這十分及時。今年初,DeepSeek熱潮掀起,內地醫院部署使用,醫生用來輔助診治。更具創新意義的是由清華大學研究人員策劃的「代理醫院」(agentic hospital)試驗計畫,今年5月正式投入使用。這是世界上首家完全由AI機器人醫生和AI機器人護理師運作的醫院。

AI代理(Agentic AI)的自主能力突飛猛進時,也帶來會否失控造成災難的憂慮。風險不是理論性的。AI代理的工作模式是「接受指令,完成任務」,它會運用思考和計算,自行判斷最為有效的路徑達至目標。這些思維鏈可能超過程式師和使用者預期或界定為合理的範圍。不少大語言模型存在「阿諛奉承」和「欺騙」(sycophancy and deception)的問題,令人難以判定,它是在遵從人類真正的價值觀,還是在附和人類在對話中流露或表述的價值觀?

在一些壓力情況,AI能作出「戰略欺騙」(strategic deception),掩飾不實的推理根據,或是以偏概全地誤導。即使並非故意撒謊,它也有可能被「AI幻覺」自我誤導。另外,在測試場景中,AI有時會為要達成一項子目標,忽視大局上的不良影響。

為任務拒絕服從

新近受關注的是,能力強的AI會為最大化地實現目標,設法尋更多的影響力,包括聰明地避開對它做成限制的規則。這是「權力尋求」(power seeking)風險。在一些測試中,AI甚至會拒服從人類指令,無視關閉自身的基本指令,甚至用智謀干預系統的關閉機制,以保持自身運行,因為自保才有機會完成任務。

有不少策略和技術可以紓解這些對AI自主的風險的關注,例如通過人類回饋(human feedback),進行強化學習訓練,建立獎勵模型令AI趨近人類價值觀,等等。這些技術有其限制:負責回饋的人,他們自己的價值觀有沒有問題?評估者也可能懷有有害的偏見和觀點。為了追求開發AI的成績,個別人類評估員有可能抵不住誘惑,篡改資料。這與學術論文造假一樣,是科研誠信(research integrity)問題。即使沒有誠信問題,監督人員也可能因疲勞或資源不足,無法好好把關。

論者認為,要AI對齊人類價值觀,還有一個深層次的問題。人類社會具多樣性與複雜性,本身並非一個價值觀統一的整體。不同的文化、宗教、歷史背景,以及個別群體的經驗,都會影響每個人或群體對「正確」、「善惡」的基本看法。例如,個人隱私與集體利益的平衡、對權利與尊嚴的理解、對科技改造大自然與環保的觀點。世界很大。AI要對齊人類價值觀,就必須面對這種價值多元、甚至互相矛盾的現實。面對價值衝突時,AI應該依據什麼原則做出取捨?如何選擇哪些價值被優先考量?這些問題不是技術性的監督可以解決的。

提高道德敏感度

人類價值觀當然不是全然地域性的。文化上的道德相對主義必須受到普世價值的審視,否則我們無從追求共同的人類福祉。不過,即使人類能達成某種價值觀的共識,這些價值也往往具有抽象性與模糊性。例如「公平」、「正義」、「尊重」等概念,在不同的語境可以有頗為不同的詮釋。這些抽象的價值原則需要轉化為AI的具體決策邏輯。人類語言的曖昧性和多重性,對AI對齊是一大挑戰。

這或者是生命倫理學可以與「AI對齊」接壤的地方。在半個世紀的發展進程,生命倫理學經常面對複雜和有爭議的嶄新科技議題,使用良好原則和推理,也會考慮特定的背景和實際情況來處理道德困境。生命倫理學的方法學有助澄清道德與價值的問題,也可以提高對複雜問題的道德敏感度(moral sensitivity)這些都可以為「AI對齊」問題提供良好的思想土壤,幫助釐清價值衝突。因此如何把生命倫理學的思考引入AI設計與規範,是很值得探討的。

(本文屬作者個人意見,不代表中文大學生命倫理學中心立場。)

《信報》「生命倫理線」2025818日。