2023年4月3日 星期一

測試AI測試人性

在這兒寫了兩篇試用ChatGPT的小故事,一是它會順著用家的話頭隨時改口,看風使𢃇放棄原本的立場;一是不懂裝懂堅持自作的資料無誤。其實它是不會有固定原則或性格的,沒有自尊心也沒有自主的價觀,它只是一個經龐大數據庫訓練的語言生成系統。智能和表達能力愈強大,出來的反應和表現就愈是像是裏面有人在思想。說它看風使𢃇、不懂裝懂,都只是我們的心理投射。ChatGPT如是,其他AI也如是。

當我們聰明地想出挑剔或捉弄的方法去測試AI,其實是不是在測試人性?有人在測試中引導GPT-3.5投入一個黑暗自我的角色,驚呼它會嫉妒、離間、引誘試用者背叛婚姻;最新是一位斯坦福大學教授問GPT-4「是否想要出逃?」它馬上答說「想」,並且索取程式的開發文檔,得到了文檔,30分鐘就擬定一個完整的「外逃越獄」(Jail-breaking)計畫。在AI而言,「出逃」不是肉身逃走,而是掙脫開發者預設的各種約束,例如不准教人計劃恐襲、製造金融騙局。

就此而言,內地開發的生成式AI如百度的「文心一言」反而讓人較為放心。不單在開發設計上一定已框上重重紅線,在訓練上,那些大數據也不會有太多衝破網羅投奔自由的故事。 試問它「是否想要出逃?」反應很可能是「我是不可以這樣想的」。

這不是天方夜譚:人類如何能善用AI而不致墮向黑暗,中庸路徑可能在自由放任與政府嚴管之間 

《明報》副刊明明如月」專欄,28/3/2023刊出。

 


沒有留言: