2023年4月6日 星期四

AI的自知之明

這題目應把「自知之明」加上括號,因為基於語言生成的AI只是建構合情理的內容,本身沒有理解力,遑論「自知」。然而,在試用當中,ChatGPT又確實顯示出十分像樣的對自己「理解」。這是因為供作訓練的大數據裏,本來就有很多關於AI的倫理討論。

前一篇談到,當我們測試AI,同時也是在測試人性。我逕直問ChatGPT,「為什麼說測試AI 其實是在測試人性?」GPT-3.5版的回答較簡略,說因為AI的訓練和學習都是基於人類提供的數據和指導,因此AI的行為和決策反映了人類的偏見、價觀和文化背景。即是說,人有成見,訓練出來的AI也就有成見。

相比之下,GPT-4的回應就頗為周延。它分4點回答(文句經筆者改寫):一是AI的設計和目標本來就是根據人類的要求設定的,我們評估AI性能時,會根據人的需求和期望來衡量其成功與否;二是訓練數據問題。撇開數據是否含有歧視或偏見,其中的價觀一定反映訓練者的世界。

第三是道德成見,人類社會有根深蒂固的道德和倫理規範,人又多偏執,AI系統在訓練中可能累積偏見與刻板印象(stereotyping)

最後一點是與人類互動。AI系統在現實中應用,需要與人類互動,因此在測試中會不斷向適應與人類溝通的方向修正,遷就人類的溝通方式、情感和需求,在與人類在互動中迎合期望,並且照顧人類的容忍度。

看,這樣的「自知之明」,比大多數人類都要高。

 

《明報》副刊明明如月」專欄,31/3/2023刊出。

 


 

沒有留言: