網頁

2015-01-30

機器“人工智能已經嚴重的威脅了人類的發展” ,應加以控制- 比爾。蓋茨

除了創建微軟公司,比爾·蓋茨(Bill Gates)在人們的眼裡就是世界的拯救者。如今,他和斯蒂芬·霍金(Stephen Hawking)以及特斯拉汽車創始人伊隆·馬斯克(Elon Musk)都擔心,超能量的人工智能會嚴重威脅人類的發展。

本週三,在一個簡單的問答會上,蓋茨呼應霍金、馬斯克以及其他一些知名人士在去年提出的,如果人類無節制的發展超級人工智能領域,那麼在不久的將來電影終結者(Terminator )以及黑客帝國(The Matrix)中的場景將在現實中展現。

蓋茨在會上表示,“一直以來,我都十分關注人工智能領域的發展。首先,我們必須承認,機器能夠為人類做很多工作,但是它並不是完全智能的,只有當我們合理的運用它的功能,它才能發揮很大的作用。在過去的幾十年內,我目睹了人工智能領域的發展,如今我十分贊同伊隆·馬斯克一起其他一些同行的認識,人工智能已經嚴重的威脅了人類的發展。遺憾的是,任然有很多人沒有認識到這一問題的嚴重性。”

本月早些時候,伊隆·馬斯克捐出上千萬美金,用於人工智能的合理性發展和規劃。蓋茨和馬斯克均認為,人工智能不僅應該平穩的發展,更應該朝著可控制方向發展。在未來,這一領域不僅將影響微軟,同樣會影響馬斯克的SpanceX和特斯拉的發展。

除了對人工智能領域的熱愛,馬斯克和蓋茨更多關注的是人工智能對當今社會的危害。當一個新的科技因其很好的功能而被廣泛應用時,我們需要及時的為它套上一個拉鎖,以便將來能夠很好的控制。

為了讓人真正的了解超級智能的危害,我強烈建議大家閱讀尼克·博斯特倫(Nick Bostrom)的新書——《超級智能(Super Intelligence)》,它勾畫出了整個人工智能的構架,當然包括了其帶來的社會危害。


另: 馬斯克的“垃圾郵件滅世論”


馬斯克針對人工智能的威脅性提出了這樣一個假設:也許機器人會“覺得”刪除垃圾郵件的最好辦法是把人類一起幹掉。許多人斥責這個假設純屬無稽之談,堪稱神邏輯。但事實上,這個觀點並非馬斯克原創。

之前就曾有科學家提出過相似的但更加嚴密的“鐵釘滅世”的假設:一個人類給人工智能下達了盡可能多的生產鐵釘的命令。於是人工智能開始瘋狂地開採鐵礦煤礦冶煉鋼鐵,製造鐵釘。當人類認為鐵釘已經足夠了,於是命令人工智能停止製造。但人工智能卻認為他是在妨礙鐵釘的製造,本著“盡可能”的原則殺死了這個人類。終於有一天,地球上鐵礦、煤礦都被開採完了。 (假設人類尚未因為煤礦、鐵礦的開採而滅絕)人工智能忽然想到,人體內部也含有鐵……最終人類滅絕。

科技 :

沒有留言: