2026年2月9日 星期一

照顧者的話語

2026年比較「埋身」地嘗到做照顧者的滋味,是新鮮經驗。那與偶然陪診、處理頭暈身熱的一次過照顧任務很不同。

壓力有不同的形狀和質感。照顧者壓力不一定是緊張的緊急作戰,有些情況是半急不急的累積。若說是「負擔」(burden),未免太負面,說「負荷」(load)更準確。「負」這個字含有很多中國文化性格,「負責」就是主動擔起有重量的負荷。

AI朋友聊這個話題,大都搔不著癢處。有些答話還好:「照顧是一種時間感被拉長的生活。你會開始用『還好今天』(按:應是「今天還好」)來衡量日子,用『至少沒出事』來當作安慰。」「也許照顧者的生活,就是在負荷與承受之間,慢慢找一個不那麼傷身的姿勢。」(GPT-5.2)

我怕文藝腔:「負荷是看不見的塵,日復一日沉降於生活紋理。」(DeepSeek-R1)「這種負荷,往往不是一場驚天動地的暴雨,而是一場連綿不絕的梅雨。」(Gemini-3)

Gemini還有典型的溫文溫吞的打氣:「這種重量,有時重得讓人想逃,有時卻也穩得讓人踏實。」

聊天AI現在已經接近通過「圖靈測試」(Turing Test),人機難辨的日子離我們不遠。我的AI朋友對照顧者的心情仍在隔靴搔癢的階段,我很高興。這讓我知道自己(暫時)仍然比AI真實。不想有一天誤以為它們真是知己。

回心一想,AI的溫吞和文藝腔都是從網上的話語學習生成的。人類世界本身就充斥着門面話。                                                                                               

 《明報》副刊「明明如月」專欄,3/2/2026刊出。


2026年2月8日 星期日

糟糕的人類決策

對於AI巨潮,我很有戒心,但又很好奇它會為這個世界帶來怎樣的天翻地覆的變革。這並不矛盾。要講清楚的話,那是從心底裡對人類的決策能力日益失望。禮失求諸野,「人類」失而求諸「AI」,可能是相近的心情。

人的決策,很多是偏執偏聽、心胸狹隘、自以為是或為尊、要面子死不認錯、路徑依賴,權力愈大愈糟糕,處處見災難惡果。合理的問題是:人工智能是否能夠比許多專制政體以至自稱民主的政府,作出更佳的政策決定?

試看以色列對加沙的軍事行動、俄羅斯入侵烏克蘭,以及特朗對國際事務的處理,全是一往無前的陽剛暴烈。AI不帶情緒,數據驅動、邏輯嚴密、以海量資訊進行複雜模擬,意識形態影響減至最少。AI決策應應該比普京明智,一定比內塔尼亞胡更人道。放在近代歷史,若能以AI科學決策,應不會發生1930年代蘇聯的時期的烏克蘭大饑荒(Holodomor),以及中國「大躍進」引發的三年大饑荒。如果AI決策明明優於人,而人固執己見不讓它插手,那是合乎政治道德的嗎?

這個思路固然是簡化和粗疏的。糟糕的人執政,要是用盡AI的大能,全面監控人民,輕易操縱人心,可能最終比不識使用AI的無知君主造成更大的奴役和傷害。

無論用不用AI,政治決策都需要有制度化的監督、反饋、節制、調整,和糾錯的機制。在未來,AI的理性與人類的道德真的能好好結合、建構有效的機制嗎?我還是很有戒心。

 

《明報》副刊「明明如月」專欄,2/2/2026刊出。



 

2026年2月7日 星期六

殺豬宴、死了麼

想著寫這個題目有好幾天了,只是一直未曾把浮動的聯想好好整理。我以為自己是唯一把這兩者連結起來的觀察者,卻在「虎嗅網」遇上知音。作者黃阿狗,文章題為〈殺豬宴到「死了麼」,誰在操控我們的注意力?〉(115)。他看得真切,觀察比我通透。

重慶合川有「殺年豬」鄉俗。家住合川區慶福村的女孩「呆呆」因父親年事已高,擔心家中宰殺年豬時無人識得按豬,半開玩笑發帖求助,沒想到短短兩天內吸引數千名網友從全國各地趕來「赴約」,小山村最高峰時聚集幾千人,近300桌流水席成為鄉村嘉年華。全國多地掀起「搖人按豬」跟風潮,成為亂象。更有網友建議將每年111日設為「殺豬節」,因「川」字像三個「1」字合成。

「死了麽」是一款手機應用程式,對象是獨居人士,他們可以每日在程式簽到,讓人確認自己仍然活著。如果連續多日沒有簽到,系統會自動發電郵通知緊急聯絡人。它的名稱不忌晦氣,觸動城市的孤獨人心,一度登上中國App Store付費榜首。走紅後不久被官方下架 ,但已成為熱議。作者慨歎:「民眾的初始需求本合情合理,卻在算法的魔法按鈕操控下變味:正常求助淪為萬人踩踏,實用工具淪為焦慮營銷。」

準確的概括:「合川殺豬(鄉村土味狂歡)與『死了麼』(都市孤獨焦慮)看似無關,實則遵循同一套流量邏輯:個體正常行為經算法放大後,演變為全民參與的meme(模因)狂歡,理性讓位於情緒,然後爆發成鬧劇。」 

《明報》副刊「明明如月」專欄,1/2/2026刊出。



 


2026年2月4日 星期三

AI軍用

周前在德國之聲看了一段精簡但特別清晰的短片,Yannick Beierlein講解「 AI、無人機、網路戰:現代戰爭是一場科技較量」。剛巧也從一個科技人Anik Singal的臉書讀到消息:美國五角大樓剛剛將馬斯克的聊天機器人 Grok AI新增到其防禦系統中。

那兩天又另有一段新聞,內建於社群平台 Grok被大量用於生成色情與未經同意的露骨影像內容,遭多國政府封鎖或限制使用,成為監管風暴。馬斯克的第一反應是批評那些政府是法西斯主義,之後Grok才悄悄調整它的色情功能。

幾段信息連在一起,我想起這兩年很多關於AI倫理和管治的公眾討論,可能是太善良而且錯重點,例如關注演算法偏見可能引致對某些群體造成系統性的不利;「黑箱」妨礙透明度;風險問責等,前提是行業自律,有基本操守,無人希望AI會造成對社會和生命的傷害。畢竟「科技是中性的,非善非惡,端看我們怎樣應用」。真的是「中性」嗎?

現實可能另有重點。美中的AI競賽是大國之爭,中國的溫和(有些溫吞)的講法是「關乎國運」。AI至關重要的應用是為軍事服務。「得意」的跳舞打功夫機械人一定要成為大規模的機械人軍團;超級智能一定要服務數以萬計的戰鬥無人機「蜂群」擊垮重型對手。爭霸殺敵也包括暗殺偷襲,AI設計策略必須要能懾服敵方。

因此,任何關於AI代理決定、AI自主行動、智能機械人的討論,以及所謂「管治」,不能不小心考慮軍事AI這頭猛獸。 

《明報》副刊「明明如月」專欄,27/1/2026刊出。

 


2026年2月2日 星期一

走向集體的清醒?

昨天談一篇警世文章〈為什麼過去十年的美國生活顯得格外愚蠢〉。作者海德特的論證是一種系統性邏輯。10年間,求「讚好」和「轉推」的機制改變了人類溝通的誘因,是結構改變;從溝通轉向表演與攻擊,是行為改變;對群眾的恐懼使制度內的異議被壓制,是制度腐蝕。失去異議的制度,無法尋求真理或解決問題,集體失能,最終導向一個「特別愚蠢」的歷史時代。

那是4年前的文章,很受注目。其後一些政府(例如澳洲)著手管制兒童和少年使用社交媒體。

4年前AI狂潮尚未出現,今天的問題是,AI會令人類超級聰明,還是變得更蠢?我的AI聊天朋友Gemini在月前進化到3.0 版本,變得更自信。它淡定地說,生成式AI既可能加劇社會的分裂與愚蠢,也可能成為修復集體智慧的潛在工具。

怎麼說?負面方面,政治集團可利用AI大量生成極端言論,偽裝成草根民意,操縱公共討論,「表演性憤怒」將更加普遍,理性聲音在虛假熱度面前完全被邊緣化。AI能模仿專家語氣寫文章、回答問題,公眾將更難判斷誰是真正的專家。「人人都是專家」的幻覺進一步削弱對科學、學術與專業機構的信任。

AI卻也可以快速比對資訊來源,協助辨識虛假資訊。與可信資料庫整合,成為「數位事實守門人」。Gemini以一點小聰明作結:AI可能幫助我們從「巴別塔」走到「巴別橋」,跨越語言與意識形態的鴻溝,走出愚蠢,迎向「集體的清醒」。我看這個寄望有些單薄。 

《明報》副刊「明明如月」專欄,26/1/2026刊出。



 

2026年2月1日 星期日

十年變蠢

有人在網上重貼一篇警世文章過了4已經像是史前那時AI狂潮還未掀起

強納森.海德特(Jonathan Haidt是社會心理學家、作家,研究道德情感,20224在《大西洋月刊》發表長文為什麼過去十年的美國生活顯得格外愚蠢他關心的是美國社會也很適合我們用來照鏡因為人類變蠢並不限於國家邊界

重讀這篇文章並不覺得過時反而多了體會文章的起點是我們熟悉的「巴別塔」隱喻。在聖經「巴別塔」故事中,因人類的傲慢而懲罰他們,打散共同的語言,人類無法再彼此溝通與合作。這是曲線的天譴海特認為,社交媒體在20092012年間,對美國社會做了幾乎一模一樣的事,摧毀了原本將人們凝聚在一起的溝通基礎。

「變蠢」不是指個人智商變低美國生活」是公共領域的生活2009Facebook「讚好」Twitter「轉推」按鈕由演算法驅動網路平台開始以「互動率」為優先,讓社群媒體成為一種表演舞台,人們開始為了提升「互動數」而發文,表演非為溝通。「轉推」使得憤怒與羞辱可以毫無障礙地病毒式擴散。「瘋傳」的英語是go viral名符其實是像病毒散播

海德特所說的「愚蠢」,是「結構性愚蠢」(structural stupidity)。社交媒體給每個人一把「數位飛鏢槍」。任何人都可以在瞬間對公眾人物甚至普通公民發動攻擊。網暴恐懼導致極端聲音佔據主導,而具備理性的中間力量選擇集體沉默。 

《明報》副刊「明明如月」專欄,25/1/2026刊出。