IT之家 1 月 25 日消息,哥本哈根大學(xué)的研究人員在世界上首次用數(shù)學(xué)方法證明,在各種基礎(chǔ)問題之上,不可能開發(fā)出始終穩(wěn)定的人工智能算法。

以 ChatGPT 為代表的 AI 浪潮下,機器能比醫(yī)生更準(zhǔn)確解讀醫(yī)學(xué)掃描圖像、能比人類更安全地駕駛汽車,但再優(yōu)秀的算法也存在弱點。
以自動駕駛汽車讀取路標(biāo)為例,如果有人在路標(biāo)上貼有標(biāo)簽,人類駕駛員的注意力通常不會被分散,而機器由于和接受訓(xùn)練的路標(biāo)存在差異,很容易出現(xiàn)分心。
該小組負(fù)責(zé)人阿米爾?耶胡達(dá)約夫(Amir Yehudayoff)教授說:“現(xiàn)實生活中存在著各種各樣的噪音,人類習(xí)慣于忽略這些噪音,而機器卻會感到困惑”。
IT之家附上報告原文地址,感興趣的用戶可以深入閱讀。
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。