在科技界的璀璨星河中,兩位杰出科學(xué)家——安德魯·巴托與理查德·薩頓,因其在人工智能訓(xùn)練領(lǐng)域的非凡成就,共同摘得了2024年圖靈獎(jiǎng)的桂冠。這一被譽(yù)為“計(jì)算機(jī)界諾貝爾獎(jiǎng)”的殊榮,不僅是對(duì)他們卓越貢獻(xiàn)的認(rèn)可,也再次將強(qiáng)化學(xué)習(xí)技術(shù)推至聚光燈下。
作為馬薩諸塞大學(xué)的研究員,巴托與曾任DeepMind研究科學(xué)家的薩頓,憑借強(qiáng)化學(xué)習(xí)技術(shù)的開創(chuàng)性工作贏得了這一殊榮。強(qiáng)化學(xué)習(xí),這一通過不斷試錯(cuò)來優(yōu)化人工智能決策過程的機(jī)器學(xué)習(xí)方法,已成為推動(dòng)AI發(fā)展的核心動(dòng)力。從OpenAI的ChatGPT到谷歌的AlphaGo,這些突破性模型的成功背后,都離不開強(qiáng)化學(xué)習(xí)的身影。谷歌高級(jí)副總裁杰夫·迪恩更是將其譽(yù)為“人工智能進(jìn)步的關(guān)鍵”。
然而,在榮耀加身的時(shí)刻,兩位科學(xué)家卻對(duì)當(dāng)前人工智能開發(fā)中的安全隱患表達(dá)了深深的憂慮。他們指出,許多企業(yè)為了追求商業(yè)利益,往往在產(chǎn)品尚未經(jīng)過充分測(cè)試的情況下便急于推向市場(chǎng),這種做法無異于將用戶置于未知的風(fēng)險(xiǎn)之中。
巴托在接受采訪時(shí)直言不諱:“在沒有足夠安全保障的情況下向公眾發(fā)布軟件,這不僅違背了良好的工程實(shí)踐原則,更是對(duì)用戶的不負(fù)責(zé)任。我們本應(yīng)通過不斷的工程實(shí)踐演進(jìn)來減輕技術(shù)可能帶來的負(fù)面影響,但遺憾的是,許多人工智能公司并未遵循這一原則。”
事實(shí)上,人工智能開發(fā)中的安全性問題早已成為業(yè)界關(guān)注的焦點(diǎn)。包括“人工智能教父”約書亞·本吉奧和杰弗里·辛頓在內(nèi)的多位圖靈獎(jiǎng)得主,也曾對(duì)這一問題提出過尖銳的批評(píng)。他們擔(dān)憂,過度的商業(yè)化追求可能會(huì)阻礙人工智能技術(shù)的深入發(fā)展,甚至給社會(huì)帶來不可預(yù)知的后果。
巴托進(jìn)一步批評(píng)道,當(dāng)前的人工智能公司過于“受商業(yè)利益驅(qū)動(dòng)”,而忽視了科研的本質(zhì)——探索未知、追求真理。他呼吁業(yè)界應(yīng)回歸科研初心,將用戶的安全和福祉放在首位,通過更加嚴(yán)謹(jǐn)、科學(xué)的研發(fā)流程來確保人工智能技術(shù)的安全性和可靠性。