欧美成人A片免费|日韩无码一级av|一级黄色大片在线播放|黄片视频在线观看无码|亚洲精品成人无码影视|婷婷五月天视频网站|日韩三级AV在线播放|姓爱av在线婷婷春色五月天|真人全黃色录像免费特黄片|日本无码黄在线观看下载

  • +1

圖靈獎得主Bengio:關(guān)于AI的未來,哪些判斷是靠譜的

澎湃新聞記者 邵文
2022-02-11 19:04
來源:澎湃新聞
? 科學(xué)湃 >
字號

關(guān)于人工智能的未來發(fā)展,常常出現(xiàn)各種令人興奮或害怕的預(yù)言。

如近日,谷歌創(chuàng)新部門前商業(yè)總監(jiān)Mo Gawdat表示,“我們不會在下個(gè)世紀(jì)經(jīng)歷 100年的AI進(jìn)步:相反,我們將經(jīng)歷2萬年的進(jìn)步。”

未來學(xué)家伊恩·皮爾遜(Ian Pearson)曾于迪拜舉行的世界政府首腦峰會期間表示,人工智能可能比人類聰明數(shù)十億倍,將來人類要想繼續(xù)生存,必須要與計(jì)算機(jī)進(jìn)行整合。

馬斯克也曾表示,人類將來需要與機(jī)器相結(jié)合,成為一種“半機(jī)械人”,從而避免在人工智能時(shí)代被淘汰。

對于如此多令人眼花繚亂、難辨真假的預(yù)測,應(yīng)該如何思考分辨呢?

“這種預(yù)測越是準(zhǔn)確,就越是要警惕。”近日,2018年圖靈獎得主Yoshua Bengio在自己的博客中寫道。

2018年圖靈獎得主Yoshua Bengio

Yoshua Bengio是蒙特利爾大學(xué)教授,最被廣為知曉的是他在深度學(xué)習(xí)方面的開創(chuàng)性工作,他與Geoffrey Hinton和Yann LeCun一起贏得了2018年圖靈獎。2019 年,他獲得了加拿大國家最高科學(xué)獎“基拉姆獎”,并于2021年成為世界上被引用次數(shù)第二多的計(jì)算機(jī)科學(xué)家。

Bengio認(rèn)為,現(xiàn)實(shí)情況是,最好的AI研究人員無法認(rèn)真做出這樣的預(yù)測,除非他們將其視為科幻電影的一部分。不僅AI研究人員對AI未來的發(fā)展步伐沒有達(dá)成共識,而且做出這樣的預(yù)測也沒有科學(xué)依據(jù)??茖W(xué)研究可以在特定問題上停滯很長時(shí)間(比如物理學(xué)中所有力量的統(tǒng)一),或在突破之后取得快速進(jìn)展(比如深度學(xué)習(xí))。

那么,哪些事情是我們當(dāng)下可以很有把握做出判斷的呢?

Bengio列出了以下幾點(diǎn):

· 可以構(gòu)建像人類一樣聰明的AI。我們的大腦是復(fù)雜的機(jī)器,其工作原理正變得越來越好理解。我們是活生生的證據(jù),證明某種程度的智能是可能的。

·構(gòu)建比人類更聰明的AI是可能的。人類有時(shí)會受到認(rèn)知偏見的困擾,這些偏見阻礙著人類的祖先向智人進(jìn)化過程中可能需要的推理能力。而我們可以合理假設(shè),我們將能夠構(gòu)建出沒有這些缺陷(如需要社會地位、自我或?qū)儆谝粋€(gè)群體,毫無疑問地接受群體信仰等)的人工智能。此外,人工智能可以訪問更多的數(shù)據(jù)和內(nèi)存。因此,我們可以自信地說,構(gòu)建比人類更聰明的人工智能是有可能的。

·盡管如此,現(xiàn)在也還遠(yuǎn)不能確定我們是否能夠像一些文章所聲稱的那樣構(gòu)建比我們自己更智能的AI。各種計(jì)算現(xiàn)象都遇到了指數(shù)級的難度墻(臭名昭著的NP計(jì)算難度),而我們還沒有發(fā)現(xiàn)智能的極限。

·人類智能和人工智能科學(xué)越進(jìn)步,它就越有可能為社會帶來巨大的利益和危險(xiǎn)。人工智能的應(yīng)用可能會增加,總體上可以極大地推動科學(xué)和技術(shù)的發(fā)展,但工具的力量是一把雙刃劍,必須制定法律、法規(guī)和社會規(guī)范,以避免或至少減少這些工具的濫用。

·為了防止被權(quán)力、金錢或仇恨欲望蒙蔽的人類利用這些工具損害其他人類,我們無疑需要改變法律并在機(jī)器中引入同情心,同時(shí)也要加強(qiáng)人類固有的同情心。

· 由于我們真的不知道人工智能或其他領(lǐng)域(例如生物技術(shù))的技術(shù)進(jìn)步會有多快,因此最好立即著手更好地監(jiān)管這些強(qiáng)大的工具。事實(shí)上,人工智能已經(jīng)存在有害用途,無論是在軍隊(duì)中的使用,如可以識別某人的臉并進(jìn)行射擊的殺手無人機(jī),還是在人工智能系統(tǒng)中做出有偏見的決定并歧視女性或部分種族的人。一般來說,對計(jì)算的監(jiān)管很差,必須改變這一點(diǎn)。我們必須規(guī)范這些新技術(shù),就像我們對航空或化學(xué)所做的那樣,以保護(hù)人類和社會。

· 此外,應(yīng)該鼓勵對社會明顯有益的人工智能應(yīng)用,無論是在健康、應(yīng)對氣候變化、反對不公正還是增加獲得知識和教育機(jī)會。在所有這些領(lǐng)域,政府可以發(fā)揮關(guān)鍵作用,將人工智能研究和創(chuàng)業(yè)的力量引導(dǎo)到對社會有益的應(yīng)用,因?yàn)樵谶@些應(yīng)用中,盈利的愿望并不總是足以刺激所需的投資。

    責(zé)任編輯:李躍群
    校對:劉威
    澎湃新聞報(bào)料:021-962866
    澎湃新聞,未經(jīng)授權(quán)不得轉(zhuǎn)載
            查看更多

            掃碼下載澎湃新聞客戶端

            滬ICP備14003370號

            滬公網(wǎng)安備31010602000299號

            互聯(lián)網(wǎng)新聞信息服務(wù)許可證:31120170006

            增值電信業(yè)務(wù)經(jīng)營許可證:滬B2-2017116

            ? 2014-2026 上海東方報(bào)業(yè)有限公司