IT之家 7 月 26 日消息,2025 世界 AI 大會(huì)今日在上海開幕,圖靈獎(jiǎng)得主約書亞?本吉奧發(fā)表演講稱,前沿模型近期在規(guī)劃和推理方面取得了顯著進(jìn)展。如果這樣的趨勢(shì)持續(xù),AI 的規(guī)劃推理能力有望在十年內(nèi)達(dá)到人類的水平。
IT之家從演講中獲悉,如果缺乏堅(jiān)實(shí)的防護(hù)措施,強(qiáng)大的 AI 系統(tǒng)可能會(huì)放大虛假信息,網(wǎng)絡(luò)攻擊和生物威脅等現(xiàn)有風(fēng)險(xiǎn)。更令人擔(dān)憂的是,人類恐將失去對(duì)自我保護(hù)型智能體的控制,這些智能體的認(rèn)知能力或?qū)ⅰ昂芸斐饺祟悺薄?/p>
本吉奧認(rèn)為,科學(xué)界仍有相當(dāng)比例認(rèn)為這種情況可能發(fā)生,就必須保持最高警惕。目前尚無(wú)科學(xué)驗(yàn)證方法確保 AI 可信且始終遵從人類意圖。更糟糕的是,欺騙和自我保護(hù)行為在最強(qiáng)模型中似乎更加明顯?!半S著 AI 的智能水平不斷提升,這才是真正令人擔(dān)憂的地方,因?yàn)橹悄芤馕吨鴻?quán)利?!?/p>
本吉奧表示,我們急需在技術(shù)和政策層面采取措施,以應(yīng)對(duì)這些風(fēng)險(xiǎn)和其他潛在的問(wèn)題。理性的政策應(yīng)鼓勵(lì)開發(fā)不具備危險(xiǎn)能力的 AI 開源項(xiàng)目;同時(shí),禁止其他情況下的開發(fā),并對(duì)閉源模型實(shí)施充分的安全保障措施,包括網(wǎng)絡(luò)安全和物理安全,確保其不易被犯罪分子、恐怖分子或流氓國(guó)家所利用。
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。