地球難逃一劫 殖民外星求存
霍金警世預言:
基因改造人主宰世界
https://hk.news.appledaily.com/internati...5/20522322
英國天體物理學家霍金(Stephen Hawking)3月離世,遺下的警世預言至今才公開,他寄語人類改造基因讓自己進化,然後設法殖民外星,因地球會在1,000年內遭遇災劫,但他警告基因經改造的「超級人類」,或會令剩下的未進化人類滅絕,造成嚴重政治問題。
匯集霍金多篇文章及論文的書籍《大問小答》(Brief Answers to the Big Questions)明天出版,記錄他對人類前途、人工智能和外星人等大問題的最後思考,其中一篇講述霍金對地球很可能在未來1,000年內,被核戰或環境災難摧毀的憂慮,霍金指殖民外星或是人類唯一自救方法,「現在我們無處可逃,但長遠而言人類不應將所有蛋放在同一個籃,或同一星球」。
「自主進化」修復遺傳缺陷
霍金認為要離開地球、向外發展,人類基因就要改造,「我們無暇等達爾文式進化令我們變得更聰明、更善良,但我們正踏入『自主進化』的新階段」,他指基因改造技術起初只能修復遺傳缺陷,但「肯定人類會在本世紀發現如何改變智力和侵略等本能」,儘管主宰智力和本能的基因可能很多,破解過程會很複雜。
他警告,基因改造技術越先進,人類想自我改造的誘因就越大,富人很快就可選擇編輯自己或孩子的脫氧核糖核酸(DNA),令他們變成比一般人有記性、聰明、長壽、能抵禦疾病的「超級人類」,屆時雖或有限制改造人類基因的法律,「但總有人抵受不住進化的誘惑」。
超級人類亦會與「未進化人類」的產生嚴重政治問題,霍金指後者無能力競爭,最終「可能會滅絕,或變得不重要」;反之,超級人類將以不斷增長的速度進步。
新形式「機器」取代DNA生命
然而霍金指出,移居系外星球的超長途旅程,對人類這些基於DNA化合物的生命,始終非常困難,科幻小說會以空間翹曲(space warp)或遊走額外維度去「走捷徑」,但霍金認為這永遠不可行,無論人類如何進化。他認為基因工程或可能令基於DNA的生命活超過10萬年,足以到銀河系中心,但較簡單和接近人類能力範圍內的方法,是把可承受長程太空旅行的「機器」送到外星,這些「機器」將是新形式的生命,以機械和電子元件而非高分子構成,「取代基於DNA的生命,就像DNA可能取代了更早期的生命」。
英國皇家天文學家里斯認為,人類靠改造基因進化並不如霍金說得般輕易,難在本世紀內成事,因「大部份人類特質……都是由大量基因的聚集體決定的」,但里斯認同未來數十年內會出現前所未見的變化,人類身心均可能因基因改造及半機械人技術而變得可塑。
倫敦大學學院環境科學教授拉普利則認為「超級人類」是拯救地球的最大希望,因以人類現時的智力,已對他們在地球產生的問題束手無策,形容超級人類是張王牌,「他們有能力一同並理性思考行為」,拉普利更指未進化人類有必要滅絕,「以防他們在地球造成更多無可挽救的破壞」。
英國《星期日泰晤士報》
未見外星人或因走漏眼
https://hk.news.appledaily.com/internati...5/20522326
霍金在遺作中表示,他不信UFO有外星來客,因外星人來地球一定不會那麼「閃縮」,但他相信外太空有其他類型的智慧生命存在。至於為何人類一直未有目擊外星生物出現,他分析了四個可能性:
一.
生命自然誕生的可能性很低。地球可能是銀河系或者宇宙可觀察星體中,唯一一個僥倖地讓生命自然誕生的星體。
二.
其他星球上的生命體自我繁殖機率雖然不低,但如細胞這種生命體不必然進化成智慧生命。地球花了25億年才由單細胞生物進化成多細胞生物,為孕育智慧生命提供必需的基礎。但是每個行星平均2,000萬年就會遇上一次大型星體碰撞,地球6,600萬年前所遇的一次就令恐龍絕種,只餘少量哺乳類動物存活。所以其他星體或許躲不過碰撞,物種沒有足夠時間進化成智慧生命,只能孕育其他形式的生命體。
三.
智慧生命自我毀滅。他指其他星球即使有機會進化及孕育智慧生命,但繁殖系統和生態系統或許不穩定,使智慧生命滅亡。
四.
人類只是走漏眼。他於2015年參與推出「突破倡議」(Breakthrough Initiatives)計劃尋找外星生命,包括利用無線電從外太空尋找外星生命所發射的訊號,以及設計代表地球和人類文明的訊息,但他指地球人現階段見外星人將自討麻煩,所以未有計劃向外星人發送訊息。
霍金指他相信第四個可能性,又認為有一天人類將學習在外星存活。他呼籲讀者保持好奇,勿忘思考宇宙的種種可能性。
人類料長遠無法駕馭AI
https://hk.news.appledaily.com/internati...5/20522324
「超級人工智能(AI)的到來,可以是對人類來說最好的事,也可成為最壞的事。」霍金在遺作涉獵到AI議題,他指當受制於緩慢生物進化的人類,無法駕馭具無限發展潛能的AI,我們將面對極大風險。
電腦出事 道指閃崩跌千點
霍金形容,擁有高智慧的AI不再是科幻故事的情節;藉此科技,人類有機會享受一個免受疾病貧窮侵擾的未來。而AI亦將可不依靠人類輔助,以循環提升形式自我完善,令其智慧超越人類的能力。但霍金警告,在AI超越人類的一刻來臨時,我們必須確保AI與人類站在同一陣線,否則AI或會轉向對抗人類。
霍金舉例指出,如近年各國國防考慮展開自主武器的軍備競賽。自主武器可以在無人干預下,識別並攻擊目標,趨勢惹他擔憂,並反問:「當人類對能否長遠控制先進的AI,仍尚存憂慮,我們又應否用它來武裝自己,或把國防交給它呢?」他又提起,美股2010年因電腦操盤交易系統問題發生閃崩(Flash Crash),令道指在數分鐘內暴跌近1,000點,「若此由電腦觸發的崩潰,發生在軍事舞台上會是怎樣呢?」
他強調,「短期來說,AI的影響是基於誰控制它;長期來說,AI的影響是基於是否能控制它」。因此,他及SpaceX創辦人馬斯克,皆同一眾AI專家提倡認真研究AI對社會的影響,「我們的未來是一場競賽,是日漸強大的科技與我們掌握它的智慧之間的比賽,要確保我們的智慧取勝」。