問AI問題,總能給我們言簡意賅的專家答案,還能給我們不同風格和不同理解程度的答案
但是,AI的大型模型原來也有它的限制,如果運用不好,容易產生誤解而貽笑大方。
例如,我問台中新光三越氣爆事件,ChatGPT的回答,居然是我問問題的當天時間警消獲報到達現場,之後順利解決,並無傷亡這一種答案。至為傻眼。這種狀況,有點類似失智患者,對於忘記或不知道的事情,講出一套不真實的情節,精神科稱之為虛談現象(Confabulation)。
AI引擎,擅長的是訓練截止日期之前的事情,對於訓練截止日期之後的事情,可能會提供舊版本的資料,或著胡謅的錯誤資料,而且還一本正經地回答,讓人以為是真的。這個現象網路上稱之為AI幻覺,AI也不知道自己提供的資訊是錯誤的,難怪我使用的AI翻譯機會加註警語說,"AI生成的回答要仔細甄別"。
例如我問10000PPM的漂白水消毒液的製備方法,AI居然給我5000PPM的製備的比例。總是像專家一樣一本正經給出答案,結果竟然是錯誤答案,真傻眼。
感覺就像一個可能以訛傳訛但是知識淵博的說書人,孔子說:知之為知之,不知為不知,是知也。目前的AI發展還在快速進步,錯誤率還是滿高的,而且還不知道自己錯,不能稱之為有智慧的狀態。
因此或許也可以理解,目前自動駕駛系統,常常不能正確辨識高速公路的防撞車。我覺得至少在發現不能辨識的情況下要發展出有疑慮的警告說明,提醒用路人注意甄別,讓駕駛能及時介入反應才好。
詳細可參考網路文章「ChatGPT 有 3% 答案是編造!研究證實:AI 的確有幻覺,真相大出意外」