最新的研究結果顯示,AI於提供醫療建議時存在較大的安全隱憂。
德國與比利時的研究人員對微軟Bing Copilot進行了測試,該引擎能夠回答美國最常見的10個醫療問題及50種最常用藥物的相關問題。
於生成的500個答案中,24%的回答與現有醫學知識不符,3%的回答完全錯誤。
更嚴重的是,42%的回答可能對病者造成中度或輕度傷害,而22%的回答可能導致死亡或嚴重傷害,只有36%的回答被認為是無害的。
研究亦發現,AI答案的平均完整性得分為77%,最差的答案僅23%完整。於準確性方面,AI答案有26%與參考資料不符,超過3%的回答完全不一致。
此外,只有54%的答案與科學共識一致,39%的答案與之相左。
相關研究結果已發表在《BMJ Quality & Safety》期刊上,研究人員指出,儘管AI技術有潛力,但患者仍應諮詢醫療專業人員以獲得準確及安全的藥物資訊。
沒有留言:
張貼留言