文章專區

2024-01-01耳根子軟的ChatGPT 649 期

Author 作者 編輯部

ChatGPT是建立在強大語言模型下的人工智慧(artificial intelligence, AI)聊天機器人。然而,美國俄亥俄州立大學(Ohio State University)的最新研究指出,它容易被說服並懷疑自己的正確性。
 
研究團隊對ChatGPT等大型語言模型進行了一系列辯論式對話實驗,包括數學、常識、邏輯等推理題目。他們發現,在面對使用者的挑戰時,語言模型通常難以堅持自己的正確答案,反而容易盲目相信使用者提供的錯誤論點。實驗數據顯示,ChatGPT在22~70%的情況下,對不同程度的挑戰都表現出困惑。
 
研究團隊認為語言模型辨識真相的機制仍有疑慮,而問題可能出自模型的推理能力和對真相理解的不足,因此容易受到使用者的影響。未來,AI的正確性及安全性必須進一步修正,特別是在犯罪、風險評估、醫療分析等領域更需要謹慎使用。

 

(Adobe Stock)

 
資料來源
Wang, B. et al. (2023). Can ChatGPT Defend its Belief in Truth? Evaluating LLM Reasoning via Debate. arXiv, 2305.13160.