【有卡有網(wǎng)】 5 月 13 日消息,美國(guó)麻省理工學(xué)院的研究團(tuán)隊(duì)近日發(fā)布成果指出 AI 已經(jīng)開始學(xué)會(huì)欺騙人類,該成果原文刊登在最新一期的《模式》期刊(Pattern)上。
該研究的第一作者 Peter Park 聲稱,Cicero AI 被設(shè)定在一個(gè)虛擬外交戰(zhàn)略游戲中,但這個(gè) AI 不僅不會(huì)去公平地游玩游戲,甚至?xí)?duì)游戲的真人玩家撒謊,或者繞過許多網(wǎng)頁(yè)里“我不是機(jī)器人”的驗(yàn)證。
Peter Park 告知大家,“我們需要盡可能多的時(shí)間來為未來人工智能產(chǎn)品和開源模型中更高級(jí)別欺騙的可能性做好準(zhǔn)備。我們建議將欺騙性人工智能系統(tǒng)歸類為高風(fēng)險(xiǎn)系統(tǒng)?!?/strong>
版權(quán)聲明:本文采用知識(shí)共享 署名4.0國(guó)際許可協(xié)議 [BY-NC-SA] 進(jìn)行授權(quán)
文章名稱:《研究發(fā)現(xiàn)部分 AI 系統(tǒng)已學(xué)會(huì)“說謊”》
文章鏈接:http://www.ljxxtl.cn/it-keji/zhineng/106415.html
本站資源僅供個(gè)人學(xué)習(xí)交流,請(qǐng)于下載后24小時(shí)內(nèi)刪除,不允許用于商業(yè)用途,否則法律問題自行承擔(dān)。
文章名稱:《研究發(fā)現(xiàn)部分 AI 系統(tǒng)已學(xué)會(huì)“說謊”》
文章鏈接:http://www.ljxxtl.cn/it-keji/zhineng/106415.html
本站資源僅供個(gè)人學(xué)習(xí)交流,請(qǐng)于下載后24小時(shí)內(nèi)刪除,不允許用于商業(yè)用途,否則法律問題自行承擔(dān)。