首頁 > 基金 > 正文

科技觀察|“AI傳奇教父”:我仍對AI倫理問題感到顧慮-環(huán)球新消息

2023-06-13 15:11:33來源:封面新聞  

作為一種具有開放性、顛覆性但又遠未成熟的技術(shù),人工智能在帶來高效生產(chǎn)與便利生活的同時,也對現(xiàn)有技術(shù)倫理關(guān)系與社會結(jié)構(gòu)造成沖擊,AI詐騙、AI侵權(quán)等不少倫理沖突與法律問題也正在涌現(xiàn)。

在AI技術(shù)快速更新的時代,如何準(zhǔn)確把握時代發(fā)展和社會運行特質(zhì),深刻反思并能對人工智能引發(fā)的倫理風(fēng)險,做到有針對性和前瞻性地進行應(yīng)對?


(相關(guān)資料圖)

Geoffrey Hinton演講。

6月10日下午,在2023北京智源大會“AI安全與對齊”專題論壇上,圖靈獎得主、“深度學(xué)習(xí)之父”辛頓 (Geoffrey Hinton)在閉幕演講接近尾聲時,以引人深思的問題結(jié)束了題為“通向智能的兩條通路”(Two paths to Intelligence)演講:“假設(shè)青蛙創(chuàng)造了人類,那么你認為現(xiàn)在誰會占據(jù)主動權(quán),是人,還是青蛙?”

“科學(xué)史上看到的都是先驅(qū)在閃光,從內(nèi)心深處熱愛科學(xué)的科學(xué)家們,也是如此。”對此,中關(guān)村互聯(lián)網(wǎng)金融研究院兼職研究員、《Web3:互聯(lián)網(wǎng)的新世界》作者張雅琪表示,如果智源大會上只看一個人,那一定是辛頓。

今年75歲的辛頓,出生于英國,是反向傳播算法和對比散度算法的發(fā)明人之一,在類神經(jīng)網(wǎng)路方面擁有巨大技術(shù)貢獻。此外,辛頓還是深度學(xué)習(xí)的積極推動者,被譽為“深度學(xué)習(xí)之父”。因其在深度學(xué)習(xí)技術(shù)方面的重大貢獻,辛頓與約書亞·本希奧和楊立昆一同被授予了2018年的圖靈獎。

人工神經(jīng)網(wǎng)絡(luò)會更聰明嗎?

辛頓在演講時提出的第一個問題,是人工神經(jīng)網(wǎng)絡(luò)的聰明程度是否很快將超越真實的神經(jīng)網(wǎng)絡(luò)。

在辛頓看來,未來的計算機系統(tǒng)將采取不同的方式,它們將是“神經(jīng)形態(tài)的”。這意味著每臺計算機都將是神經(jīng)網(wǎng)絡(luò)軟件與雜亂無章硬件的緊密結(jié)合,在具有模擬而非數(shù)字元件的意義上,它可以包含不確定性因素并隨時間推移而發(fā)展。

“我們可以嘗試找到適用于小型神經(jīng)網(wǎng)絡(luò)的目標(biāo)函數(shù)。這里的思路是:我們想要訓(xùn)練一個大型神經(jīng)網(wǎng)絡(luò)的話,要做的是使用許多小的目標(biāo)函數(shù)來應(yīng)用于網(wǎng)絡(luò)的各個小部分。因此,每個小組神經(jīng)元都有自己的局部目標(biāo)函數(shù)。”

辛頓指出,現(xiàn)在,可以使用這種活動擾動算法來訓(xùn)練一個小型的多層神經(jīng)網(wǎng)絡(luò)。它的學(xué)習(xí)方式與反向傳播大致相同,但噪聲較大。然后通過使用許多更多的小型局部神經(jīng)元組,將其擴展到更大的網(wǎng)絡(luò)規(guī)模。

“到目前為止,我們還沒有找到一個真正好用的學(xué)習(xí)算法,可以充分利用模擬屬性。但我們有一個可以接受的學(xué)習(xí)算法,足以很好地學(xué)習(xí)諸如小規(guī)模任務(wù)和一些較大的任務(wù)(如ImageNet),但效果并不太好。”

毫無疑問,有限計算的第二個重大問題是其有限性

當(dāng)特定的硬件設(shè)備失效時,所有學(xué)到的知識也會隨之喪失,因為知識和硬件細節(jié)密切相連。“解決這個問題的最佳方案是在硬件設(shè)備失效之前,將知識從教師傳授給學(xué)生。這就是我現(xiàn)在正在嘗試做的事情。”在實驗中,教師向?qū)W生展示了對各種輸入的正確響應(yīng),然后學(xué)生試圖模仿教師的反應(yīng)。

這是辛頓曾在視覺計算機技術(shù)會議NeurIPS 2022上公布的研究成果——一種取代反向傳播的前向-前向傳播的Forward-Backward算法,以這種算法方式進行新的“非永生計算”訓(xùn)練和計算方法,以限制 AI 無限復(fù)制可能帶來的威脅。

未來計算機系統(tǒng)會如何發(fā)展,辛頓指出它們將是“神經(jīng)形態(tài)的”。這意味著每臺計算機都將是神經(jīng)網(wǎng)絡(luò)軟件與雜亂無章硬件的緊密結(jié)合,在具有模擬而非數(shù)字元件的意義上,它可以包含不確定性因素并隨時間推移而發(fā)展。

當(dāng)智能體變得比我們更聰明,會發(fā)生什么?

人類對AI技術(shù)的發(fā)展究竟是否可控?辛頓對AI倫理問題的擔(dān)憂,早已顯露。

在接受紐約時報采訪時,辛頓曾表示自己在今年四月辭去了Google 副總裁和工程fellow 的職務(wù),就是為了能不受制約地警告人們警惕AI 的潛在風(fēng)險。辛頓擔(dān)心Google 會為了和ChatGPT、Bing 等服務(wù)競爭,而放松對公開發(fā)布AI 的約束,而這可能會引發(fā)一系列的倫理問題。

“一旦數(shù)字智能開始追求更多控制權(quán),我們可能會面臨更多的問題。比如,在使用物理氣隙隔絕的情況下,超級智能物種仍然可以輕易通過控制人類來獲得更多的權(quán)限。”在辛頓看來,作為對比,人類很少去思考比自身更智能的物種,以及如何和這些物種交互的方式,“在我的觀察中,這類人工智能已經(jīng)熟練地掌握了欺騙人類的動作,因為它可以通過閱讀小說,來學(xué)習(xí)欺騙他人的方式,而一旦人工智能具備了‘欺騙’這個能力,也就具備前面提及的——輕易控制人類的能力。”

盡管人類在這個問題上目前還沒有什么好的解決方案,但好在這些智能物種都是人打造的,而非通過進化迭代而來,這可能是人類目前具備的微弱優(yōu)勢,恰恰是因為沒有進化能力,它們才不具備人類的競爭、攻擊性的特點。

對此,西南科技大學(xué)計算機科學(xué)與技術(shù)學(xué)院楊春明副教授告訴封面新聞記者,智能技術(shù)發(fā)展的目標(biāo)是為人類解決繁雜的體力勞動,AI技術(shù)的發(fā)展應(yīng)該以人類的需求為目標(biāo)。“利用人工智能去解決實際的問題,才能在未來是友好的。”

“我們可以做一些賦能,甚至是賦予人工智能一些倫理原則,只不過現(xiàn)在我仍然會感到緊張,因為到目前為止,我還想象不到更智能的事物,被一些反倒沒那么智能的事物所控制的例子。”辛頓認為,一旦 AI 掌握了“欺騙”技能,也就能輕易具備控制人類的能力。“超級智能控制問題非常重要。我看不出如何防止這種情況發(fā)生。我希望像你們這樣年輕且才華橫溢的研究人員,能弄清楚我們?nèi)绾巫柚惯@種通過欺騙實現(xiàn)控制的行為。”

關(guān)鍵詞:

責(zé)任編輯:hnmd003

相關(guān)閱讀

推薦閱讀