[摘要] 霍金生前的最后一本著作“Brief Answers to the Big Questions”近日正式出版。他在書中認(rèn)為,技術(shù)奇點(diǎn)之后超級(jí)智能將出現(xiàn),人類經(jīng)過基因編輯之后成為超人,未來人類將到星系開疆拓土,新生命形式的星際旅行機(jī)器會(huì)出現(xiàn)。
霍金生前的最后一本著作“Brief Answers to the Big Questions”近日正式出版西安車牌識(shí)別公司。他在書中認(rèn)為,技術(shù)奇點(diǎn)之后超級(jí)智能將出現(xiàn)西安專業(yè)車牌識(shí)別系統(tǒng),人類經(jīng)過基因編輯之后成為超人西安公司車牌識(shí)別,未來人類將到星系開疆拓土西安辦公室考勤車牌識(shí)別,新生命形式的星際旅行機(jī)器會(huì)出現(xiàn)。
“我在這個(gè)星球上過著不平凡的生活西安軍用車牌識(shí)別,同時(shí)用我的頭腦和物理定律穿越宇宙。我去過銀河系最遠(yuǎn)的地方,進(jìn)入了黑洞,回到了時(shí)間的起源西安立方車牌識(shí)別。在地球上,我經(jīng)歷過高潮和低谷,動(dòng)蕩和和平,成功和痛苦西安安全車牌識(shí)別。我富有過,貧窮過,我健全過,殘疾過。我受到過贊揚(yáng)也受到過批評(píng),但我從未被忽視西安密碼車牌識(shí)別。”霍金逝世7個(gè)月后,他生前的最后一本著作“Brief Answers to the Big Questions”近日正式出版,上述文字是他在書中寫的自白。
不同于經(jīng)典著作《時(shí)間簡史》西安員工打卡機(jī),這本最新的著作重點(diǎn)關(guān)注目前地球上所有人都將面臨的幾個(gè)重大挑戰(zhàn)監(jiān)獄車牌識(shí)別,包括人工智能的發(fā)展、基因編輯技術(shù)、氣候變化、核戰(zhàn)爭(zhēng)的威脅等等。這部書由《萬物理論》(The Theory of Everything)男主角、霍金扮演者Eddie Redmayne和2017年諾貝爾物理學(xué)獎(jiǎng)獲得者Kip Thorne做前言介紹,霍金女兒Lucy Hawking做后記?;艚鹪跁性噲D回答幾個(gè)問題:人類會(huì)在挑戰(zhàn)之下活下來嗎?我們應(yīng)該在太空中殖民嗎?上帝真的存在嗎?
在亞馬遜Kindle版的介紹中,給出了這樣的評(píng)價(jià):對(duì)世界來說,“Brief Answers to the Big Questions”是這位偉大的物理學(xué)家最給出的最后信息。
創(chuàng)造AI可能是人類歷史上最后一個(gè)大事件
人們很容易把高度智能機(jī)器的概念當(dāng)作科幻小說來看待,但這將是一個(gè)錯(cuò)誤,而且可能是我們有史以來犯的最嚴(yán)重的錯(cuò)誤?;艚鹫J(rèn)為,當(dāng)AI在人工智能設(shè)計(jì)領(lǐng)域變得比人類更優(yōu)秀,以至于它可以在沒有人類幫助的情況下遞歸地自我改進(jìn)時(shí),我們可能會(huì)面臨一場(chǎng)智能爆炸,最終導(dǎo)致機(jī)器的智能遠(yuǎn)遠(yuǎn)超出我們。
機(jī)器智能跟人類的差距有多大?霍金說,這種差距甚至比人類超過蝸牛的還要大。當(dāng)這種情況發(fā)生時(shí),我們需要確保計(jì)算機(jī)有跟我們一致的目標(biāo)。
迄今為止,人工智能的原始形式已被證明非常有用,但霍金擔(dān)心,如果創(chuàng)造出一種能與人類匹敵或超越人類的東西,后果將不堪設(shè)想。人類受到緩慢的生物進(jìn)化的限制,無法競(jìng)爭(zhēng),將被取代。在未來,人工智能可以發(fā)展出自己的意志,一種與我們的意志相沖突的意志。
霍金認(rèn)為,創(chuàng)造人工智能將是人類歷史上最大的事件。不幸的是,它也可能是最后一個(gè),除非我們學(xué)會(huì)如何規(guī)避風(fēng)險(xiǎn)。
技術(shù)奇點(diǎn)之后超級(jí)智能會(huì)降臨
數(shù)學(xué)家Irving Good在1965年提到,擁有超人智能的機(jī)器可以不斷地進(jìn)一步改進(jìn)它們的設(shè)計(jì),科幻作家Vernor Vinge把這種進(jìn)化稱之為技術(shù)奇點(diǎn)。我們可以想象,這種技術(shù)會(huì)超過金融市場(chǎng),超過人類研究人員的發(fā)明,超過人類領(lǐng)導(dǎo)人的操縱,甚至可能用我們甚至無法理解的武器制服我們。人工智能的短期影響取決于誰來控制它,而長期影響則取決于它能否被控制。
在中期,人工智能可能會(huì)使我們的工作自動(dòng)化,帶來巨大的繁榮和平等。展望未來,可以實(shí)現(xiàn)的目標(biāo)沒有根本的限制。一個(gè)爆炸性的轉(zhuǎn)變是可能的,盡管它可能會(huì)以不同于電影的方式上演。簡而言之,超級(jí)智能人工智能的出現(xiàn)要么是人類有史以來最好的事情,要么是最糟糕的事情。人工智能真正的風(fēng)險(xiǎn)不是惡意,而是能力。
一個(gè)超級(jí)智能的人工智能會(huì)非常擅長實(shí)現(xiàn)它的目標(biāo),如果這些目標(biāo)與我們的不一致,我們就有麻煩了。你可能是憎恨螞蟻,也不出于惡意踩死螞蟻,但如果你負(fù)責(zé)一個(gè)綠色水電能源項(xiàng)目,而該地區(qū)有一個(gè)蟻丘要被淹沒,這種情況下對(duì)螞蟻來說實(shí)在太糟糕了。因此,人類不要成為AI的螞蟻。
不要覺得這種擔(dān)憂很可笑,舉例來說,如果一個(gè)高級(jí)外星文明給我們發(fā)了一條短信,說:“我們?cè)龠^幾十年就會(huì)到達(dá)”。我們會(huì)不會(huì)只是回復(fù)說:“好吧,你來的時(shí)候給我們打電話,我們會(huì)讓燈一直亮著?!蓖庑侨丝赡懿粫?huì)來,但這很可能是會(huì)發(fā)生在人工智能身上的事情。
近期最擔(dān)憂:各國開發(fā)自主武器系統(tǒng)
雖然霍金自己是一個(gè)眾所周知的樂觀主義者,但他不確定這種樂觀能持續(xù)多久。例如,在短期內(nèi),世界各國軍隊(duì)正在考慮在自主武器系統(tǒng)中展開軍備競(jìng)賽,以選擇并消滅自己的敵人。
當(dāng)聯(lián)合國正在討論一項(xiàng)禁止此類武器的條約時(shí),自主武器的支持者通常忘記問一個(gè)最重要的問題:軍備競(jìng)賽可能的終點(diǎn)是什么?這對(duì)人類來說是可取的嗎?我們真的希望廉價(jià)的人工智能武器成為未來沖鋒槍,在黑市上賣給犯罪分子和恐怖分子嗎?考慮到人們對(duì)我們長期控制越來越先進(jìn)的人工智能系統(tǒng)的能力的擔(dān)憂,我們是否應(yīng)該武裝AI,并將我們的防御力量交給AI?
因此說,現(xiàn)在是停止自主武器軍備競(jìng)賽的最佳時(shí)機(jī)。
星際擴(kuò)張也許是人類拯救自己的唯一辦法
霍金認(rèn)為,在未來1000年的某個(gè)時(shí)間點(diǎn),核對(duì)抗或環(huán)境災(zāi)難將使地球癱瘓是不可避免的。到那時(shí),霍金希望并且相信,人類這個(gè)聰明的種族將會(huì)找到一種方法來擺脫地球上粗暴的束縛,從而在這場(chǎng)災(zāi)難中幸存下來。
目前,除了地球人類無處可去,但從長遠(yuǎn)來看,人類不應(yīng)該把所有雞蛋都放在一個(gè)籃子里,或者放在一個(gè)星球上?;艚鹣M谌祟悓W(xué)會(huì)如何逃離地球之前,能避免掉下籃子。并且,離開地球需要一個(gè)協(xié)調(diào)一致的全球方式——每個(gè)人都應(yīng)該加入。人們需要重新點(diǎn)燃20世紀(jì)60年代早期太空旅行的激情。
現(xiàn)在,太空探索技術(shù)幾乎在人類的掌握之中,因此,是時(shí)候探索其他太陽系了。星際擴(kuò)張也許是唯一能把人類拯救自己辦法。
本世紀(jì)出現(xiàn)基因編輯后的超人
另一方面,人類沒有時(shí)間等著達(dá)爾文的進(jìn)化論讓我們變得更聰明、更善良。人類現(xiàn)在正進(jìn)入一個(gè)新的階段,這個(gè)階段可能被稱為“自我設(shè)計(jì)進(jìn)化”——人類將能夠改變和改善我們的DNA。
首先,這些變化將局限于修復(fù)遺傳缺陷——例如囊性纖維化和肌營養(yǎng)不良,它們由單個(gè)基因控制,因此很容易識(shí)別和糾正。其他的品質(zhì),比如智力,很可能是由大量的基因控制的,而要找到它們并找出它們之間的關(guān)系就會(huì)困難得多。但也不是不可能?;艚鸫_信在本世紀(jì)人們將會(huì)發(fā)現(xiàn)如何修正智力和本能,比如攻擊性。因此,他預(yù)測(cè)反對(duì)人類基因工程的法律可能會(huì)通過。但有些人無法抗拒改善人類特征的誘惑,比如記憶力大小、抗病性和壽命長短。
一旦人們嘗試這種“誘惑”,就會(huì)出現(xiàn)超人。一旦這樣的超人出現(xiàn),那些無法與之競(jìng)爭(zhēng)的人類將面臨重大的問題,他們將會(huì)消亡,或者變得不重要。相反,那些靠自我設(shè)計(jì)改變基因的人,會(huì)以越來越快的速度提升自己。從這個(gè)角度講,如果人類能夠重新設(shè)計(jì)自己,也很可能會(huì)擴(kuò)展到其他星球。
新生命形式的星際旅行機(jī)器會(huì)出現(xiàn)
然而,長距離的太空旅行對(duì)于以化學(xué)為基礎(chǔ)的生命形式來說將是困難的,與旅行時(shí)間相比,人類這種生物的自然壽命很短。根據(jù)相對(duì)論,人類到達(dá)星系中心大約需要10萬年。在科幻小說中,人們通過太空扭曲或者穿越維度來克服這個(gè)困難。但霍金認(rèn)為這些都不可能實(shí)現(xiàn),無論生命變得多么聰明。
而未來還可能出現(xiàn)一種更簡單的方法——幾乎已經(jīng)在我們的能力范圍內(nèi)——設(shè)計(jì)出能夠持續(xù)足夠長的機(jī)器用于星際旅行。當(dāng)人們到達(dá)一顆新恒星時(shí),他們可以在合適的行星上著陸,開采出更多的物質(zhì)來制造更多的機(jī)器,這些機(jī)器可以被送往更多的恒星。這樣的機(jī)器將會(huì)是一種新的生命形式,基于機(jī)械和電子元件而不是大分子。它們最終可能取代以DNA為基礎(chǔ)的生命,就像DNA可能取代了早期生命一樣。
宇宙中還有其他智慧生命嗎?這個(gè)問題爭(zhēng)論已久。如果存在外星生物,那為什么我們沒有被拜訪過呢?霍金提出了幾種可能。
形成自我復(fù)制系統(tǒng)的可能性是合理的,就像細(xì)胞一樣,但這些生命的大多數(shù)形式并沒有進(jìn)化出智力。我們習(xí)慣于認(rèn)為智能生命是進(jìn)化的必然結(jié)果,但如果不是呢?更有可能的是,進(jìn)化是一個(gè)隨機(jī)的過程,智力只是眾多可能結(jié)果中的一個(gè)。甚至不清楚智力是否有任何長期的生存價(jià)值。如果地球上所有其他生命都被我們的行為所消滅,細(xì)菌和其他單細(xì)胞生物可能會(huì)繼續(xù)生存。
從進(jìn)化的年表來看,也許智力對(duì)地球上的生命來說是不太可能的發(fā)展,因?yàn)閺膯蝹€(gè)細(xì)胞到多細(xì)胞生物需要很長時(shí)間——25億年——這是智力的必要前體,所以這與生命發(fā)展智力的概率很低的假設(shè)是一致的。在這種情況下,我們可能期望在銀河系中找到許多其他的生命形式,但我們不太可能找到智慧生命。
另一種無法發(fā)展到智能階段的生命可能是小行星或彗星與行星相撞。一部分觀點(diǎn)認(rèn)為,大約6600萬年前,一個(gè)相對(duì)較小的天體與地球相撞,導(dǎo)致了恐龍的滅絕。一些早期的小型哺乳動(dòng)物幸存下來,但是任何像人類一樣大的動(dòng)物幾乎肯定會(huì)被消滅。
還有一種可能性是,生命有合理的可能性形成并進(jìn)化為智能生物,但系統(tǒng)變得不穩(wěn)定,智能生命毀滅了自己。這將是一個(gè)悲觀的結(jié)論,霍金說,我希望這不是真的。
他更傾向于第四種可能性:我們忽略了其他形式的智慧生命。在我們目前的階段,與一個(gè)更先進(jìn)的文明相遇,可能有點(diǎn)像當(dāng)初的美洲居民與哥倫布相遇,霍金認(rèn)為對(duì)方會(huì)因此而更現(xiàn)先進(jìn)。
|