為什麼有很多名人讓人們警惕人工智慧?

問題描述:一些新聞: 霍金:人工智慧會導致人類滅亡 比爾・蓋茨:人類需要敬畏人工智慧的崛起 馬斯克稱人工智慧是人類生存最大威脅 這是因為人工智慧要進入新階段了?這些名人是不是可能比較先得到資訊,所以向人們預警? 或者是每年都有很多人提出這個問題,只是今年報道的比較多? 有人說在人工智慧的發展上存在一個奇點,越過這個奇點就能通過圖靈測試。 如果人工智慧已經越過了這個奇點,這個世界會發生怎樣的質變? 超體和超驗駭客…
, ,
大個子小貓貓:
警告源於恐懼,而恐懼原因多種多樣

個人覺得這和人性也有關系,這種人性弱點無關乎對方是人工智慧或者其他智能。
人類依靠自己的價值和立場來估測其他智慧,這是不可跨越的認知鴻溝。而宇宙和未來並不一定與人類幻想的一樣,不管你怎麼預測都可能會啪啪打臉呢。

人類就是這樣對可能威脅到自己的人/機器/動物 產生本能的恐懼和強烈好奇。不只是人工智慧:外星人啦,人工智慧啦,動物突發進化(人猿星球)啦等等不一而足。[地球從恐龍手裡易手統治權的歷史可是真實存在的喲]

我們本能的想要和接近人類的智慧接觸,但更恐懼自己會被取而代之(或消滅),這種自卑和自我保護甚至強烈到失去理智。這一切都是因為我們自知,人類和人類文明相當脆弱,我們文明本身也像個體一樣恐懼死亡和毀滅。

接觸更多類人智慧是進化自身文明的本能,同時消滅對方是保證自己不會被滅絕的本能。說是黑暗森林理論也對呢。但是,大劉也說了黑暗森林理論並不是絕對成立。人類對其他智慧和文明的恐懼這一切都是建立在人類的價值觀基礎上的臆想。
最近看了海伯利安系列,環網和霸主的關系就是大家想的那種人類依賴終極智能,然後被進化的終極智能消滅甚至奴役的故事。在人類文明的腦海里似乎共生關系必須有一種利益驅動即【我還用得著你的時候我們可以共生,我用不著你了就會把你一腳踹開】其實這些理論看起來合理又可怕主要還是因為這些都符合我們的價值體系。人類總是用自己的立場來幻想別人的立場,當然因為我們沒有可能成為硅基生命自然也無法體會對方的思維和價值觀。

【我們靠自己想像其他智能,也只能靠自己來想像,因為上帝是按照自己的形象來造人的所以我們的人工智慧很有可能和我們一樣。從這點上來說真是悲哀】

當然,科學家們最近也警告我們不要貿然對待外星人了不是嗎?雖然我們幼稚的曾經熱情洋溢的向宇宙吶喊【我們在這里~~】。由此可見,那時候我們是多麼天真純潔,以至於認為全宇宙都是如此天真純潔友好。世界沒變,只是我們變了


小心假設:
個人認為,智能硬體,機器人,無人車,無人機等,有軟體也有硬體,比特控制原子,bit控制it,現在結合人工智慧演算法,用可能真會出現很多意想不到的事情。

可能並不是人工智慧演算法本身需要警惕,而是跟硬體結合之後,有很多意外。

比如同一套演算法,在兩個不同的機器人上,一個機器人螺絲比另一個多擰了半圈,最後的控制效果可能都會千差萬別。再比如,控制系統、機器人、無人機等,每次更換硬體,控制演算法都是要重新調整的,而且很多時候,這調參都是靠現場經驗,產品級的自適應控制、自學習演算法還不成熟。再比如一些估計、定位演算法的程序,上次運行的還好好的,下次就不行了,也沒bug,但原因卻可能處在傳感器介面接線處接觸不良。而現在的容錯估計、容錯控制也還不成熟。

所有的這些問題,都會有很大的、乃至災難性的影響。原來的自動控制,機器人,就經常出現這些問題,比如火星車,工業機器人等。現在要大眾化,結合人工智慧演算法,不確定性更是大大增加。

而且結合了網路,以後的黑客,黑了某個系統,就不簡單的是停機或資訊竊取這么簡單了。比如更改傳感器或控制器發出的信號,等等,後果不堪設想。

當然,這些問題存在,人工智慧機器人的大趨勢也是不可逆的。擔心下雨不如修屋頂。


陳一佳:

近些年,人工智慧越來越火,電影以人工智慧為主題的也越來越多,比如《超級駭客》,《人工智慧》,《她》。2013年年底上映的電影《她》(her)里,主人公和他的電腦操作系統墜入愛河。除了Scarlett Johansson的性感聲音,吸引主人公的可能就是人工智慧技支持的操作系的善解人意和機智靈敏。這些富於想像的情節雖然聽著有點離奇,但在人工智慧科學家的眼裡,大概就是他們努力開發的目標。

雖然在專業領域里,人工智慧不是什麼新鮮事兒了,但是對於大多數的普通人,
人工智慧還是一個新概念。

人工智慧這個概念的生可以追溯到上個世50年代。從字面上理解就是人造的機器自動得完成一些任務。當然任務有高有低。

的就是簡單邏輯推理。通過大量運算,推倒一些結論,並作出反應,同時完成計劃安排等任務。比如著名的會下象棋的「深藍「,就是可以快速推倒一步棋在長運的多種結果,在各種排列組合當中,選擇最好的一步。

更高一的就是機器人學,也是在很熱門的理簡單來說就是收集你的大量數據,然後進行分析,並根據得出的結論對於系統提供的服務進行改進。比如你在亞馬遜上,只會去點菜譜類的書,和時尚類的書,系統就是學習到你可能比較喜歡的話題和內容,以後可能就會經常給你推薦不光是,菜譜類和時尚類的書,可能還有家庭裝飾,化妝等的書。在我們今天的生活有很多的應用,我們享受到很多人工智慧帶來的好處。我們節目採訪到的Coursera,Hinge等公司也都有使用這方面的技術。

更高次的可能就是,像人一有情感,有常,並且具備創造力,也就是電影「Her「當中的那個電腦操作系統如果誕生需要的技術基礎。這是現在的技術還不能達到的。也是引起最多的爭議的部分。近期霍金,伊隆·斯克等上千個一科學家名寫信表示於人工智慧一步於人的擔心,提倡要做好人工智慧展影響的研究,保的使用是在有利於人社會的方向上。

伊隆·馬斯克還捐獻1000萬美元,用於相關的研究。對於人工智慧的擔心,有不同的理由。霍金在去年底接受採訪時表示,當機器智慧到一定程度,就可以做我完善,高速改良,很快超過自然進化的人類,並摧毀和取代人類。紐約大學的教授Gary Marcus則認為,最大的風險,高智能機器人誕生和發展,將會和人類競爭資源,最終帶來人類的滅頂之災。而除了技術,其實還有很多假設我們現在無法回答,比如機器會伴隨產生什麼樣的情感,什麼樣的價值觀,以及形成什麼樣的社會關系。

當然這里很多提到的都是假設,也有人認為現在人們透露出得惶恐不過是在未知面前人性的體現。機器達到人的智能水準到底會不會實現,什麼時候實現都還是未知數,但很多科學家把他只是看作一個時間的問題,遲早是需要面對的。


蛋蛋姐:

因為大佬們認為,人工智慧會消滅人類。

話不多說,看圖吧

有人擔心馬斯克的新技術會引發隱私保護方面的問題,以及隨之帶來的各種資訊安全問題。其實,所有的新技術都是有兩面性的,或多或少都會有一些負面的影響。

物理的進步使得人類擁有的核彈足以毀滅地球,生物的進步讓壞人能夠製造生化武器摧毀世界,汽車、飛機的發明帶來了車禍、空難,導致每年上百萬人的死亡。網際網路使假新聞的傳播成為可能,讓我們更容易遭受網路攻擊,讓恐怖分子更方便招募成員,讓犯罪分子無處不在。但是,我們卻並不會因此選擇回到出行基本靠走、通訊基本靠吼的日子,因為,這些新技術帶來的好處,顯然更加重要。

我曾經看過一部電影里有這樣一句話:「Guns don』t kill people. People kill people. 」「槍是不會殺人的,人才會殺人。」

所有的技術,當在被壞人利用時,都會被用來做壞事。但這並不是我們不使用新技術的理由。

我相信,馬斯克的幾家公司為人類帶來的,一定是美好的福祉。


dikidster:

馬斯克的公司是做自動駕駛的,在宣傳中也不遺餘力的號稱自己的產品是’自動駕駛'(雖然他家公司的車根本不是現在市場上最高等級的自動駕駛產品),卻一個勁的叫人警惕人工智慧,是很讓人可疑的。厚黑一點的說,這只是他的手段,目的是刺激大眾的想像,讓人認為人工智慧的發展遠遠超過大家想像,馬上就可以發展到危言聳聽的地步了,以至於現在就要警惕、立法,更深一步的目的,其實是為了維持他公司的高估值和融資。

但是並不是說人工智慧不會在短期內產生影響,就現在,有很多的投資基金廣泛利用了人工智慧技術,但其中的技術是否穩定其實很多時候並沒有驗證(人在追逐利益的時候,很多都不考慮可能的嚴重後果的。等不到科學傢具體驗證的時候就肯定會有人上馬,在這市場上,誰都想走在別人前面),如果現在的金融市場並不是我們認為的那麼健壯,而在很多人工智慧系統在其中自動下單運行,各個系統交錯後太復雜穩定性不可預測,如果在某些情況下並不是穩定的,後果可想而知。所謂的’烏龍指’只是其中的縮影而已。個人認為這個其實是比較可見的威脅,但原因不在技術,而在於人的貪婪。


匿名用戶:
不要盲目迷信名人,即使他們在某一些領域非常成功。

一個名人之所以有名往往是因為他在某些地方做得好,但不代表他在他所評論的所有領域都有足夠的話語權。打個比方,崔永元有名是因為他節目主持得好,但是他給你講生物知識你願意聽么?

在我們所處的時代,任何一門現代科技都有著足夠高的技術壁壘。所謂隔行如隔山,外行人的霧里看花是很容易產生曲解的。在這種情況下,一個名人對自己不熟悉領域的評論往往並不會比鄰居大媽吹的牛更可信多少。

人工智慧是一個很容易讓人望文生義的詞語,尤其是經過大量電影和媒體的渲染,彷彿人人都能對這個領域說上幾句。但其實經過幾十年的曲折發展,主流AI的發展方向早已從怎麼模擬人腦變為了怎麼解決實際問題,而後者在現在的演算法實現里是不需要真正意義上的智能的。為了便於理解,我們來看一看人類和人工智慧演算法在解決問題(解題)步驟上的差異:

* 人類: 讀題 –> 理解題意 –> 尋找答案 –> 解決問題
* 人工智慧演算法: 讀題(不好意思我不識字,人類快來看看這問題啥意思)–> 理解題意(不好意思這活我也干不利索,人類快來把題目抽象成一個優化問題)–> 解題(哈哈優化問題我喜歡,居然還是smooth的凸函數真是天助我也哇哈哈,你們都閃開我要開始裝逼了)

如果上面的表述有點抽象的話,下面來兩個畫風已變的簡單例子:

1. 分類演算法A:來了一堆人臉照片讓我分辨裡面的是男是女怎麼辦好緊張。。。對了,其實我連男女是什麼意思都不太懂。。。不管了,我也算是閱片無數的演算法了,怎麼能自亂陣腳呵呵呵。通過訓練數據我發現臉部下方五分之一處有沒有一排連續的黑色像素很關鍵。什麼,人類管那個叫「鬍子」?呵呵,管他呢,叫阿貓阿狗都跟我沒關系,反正我只用識別像素顏色。

2. 回歸演算法B:人類給我一堆數據說要讓我找到他們智商和身高體重大腦容量之間的關系,這什麼意思啊一個字都聽不懂啊。。。大腦又是什麼東東我沒有啊。沒關系,給我一個X一個Y肯定是讓我找它們的關系來著。別問我怎麼知道的,反正這是我唯一會乾的呵呵噠。哎呀,這一擬合發現Y不就是X線性相加嘛,而且我秒秒鐘就算出了相加要乘的參數,簡直棒棒噠。再測測平均誤差,只有2%哎呦不錯哦。呵呵呵呵呵,too simple,贊我贊我贊我!

看到這群演算法有多弱雞了吧,這群不能真正理解問題,只會在人類幫助下在數學框架內尋找最優解(有時候還找不到)的演算法們,你們還擔心它們將來會改姓趙?

最後套用大神Andrew Ng對一個類似問題的回答吧:「現在就開始警惕人工智慧就好比我們現在就開始擔憂火星移民的人口爆炸問題一樣,而事實上我們還沒登上火星呢。


yang leonier:
因為他們還無法捨棄他們的臭皮囊
人類的定義被允許改變之日,就是技術奇點突破之時


M3小蘑菇:

因為沒准哪天邪教恐怖分子開了竅,要等科學家發明能毀滅世界的人工智慧後再把科學家燒死呢?

還有一個原因:

設想現在地球上,有一戶家庭站在金字塔的頂端,過著奢侈無度的生活,全世界的財富和人口都是他們的私有財產,他們可以肆意殺人,不受法律的懲罰

而全球其他人承受著他們的剝削和奴役,每一次反抗都毫無希望

那麼,這戶家庭是憑什麼讓全球其他人的反抗都毫無希望的呢?

是靠軍隊嗎?軍隊也是人,這戶人家如果不給予軍隊一定利益,軍隊也不可能保他們;況且軍隊也有可能發生兵變,取而代之;軍隊的成員也可能來自民間

所以顯然能維持他們地位的暴力機器不是由其他人構成的軍隊,那會是什麼?


金融隱士:

從宏觀上來講,我比較認同《未來簡史》中的一個觀點:人工智慧有可能會動搖自由主義的根基。現代人類能夠擁有自由與尊嚴,很可能並非是因為統治者的仁慈,而更可能是因為統治者的理性。通俗的說法就是:奴隸制並不適合第二產業(工業),而血淚工廠式的壓榨也並不適合第三產業(服務性行業)。或者也可以這樣說,要麼給予國民更多地自由,要麼就要承受北韓那樣的貧窮。其實,二戰以後世界範圍內殖民地的消亡,顯然也是統治者的一種理性選擇。殖民統治的成本逐漸變大,而收入卻不斷減小。比如說,美國獨立的背景就是英國所要承擔的統治成本明顯大於統治收入(稅收)。即使統治收入大於統治成本,但這種模式卻必須要面對一種更高的機會成本:自由貿易。對於英國來說,殖民統治印度的選擇,遠不如與印度展開自由貿易更加劃算。一言以蔽之,人權的基礎來自於人類的價值。問題是,如果人工智慧能夠替代人類的價值,那麼人權的基礎就很可能會喪失殆盡。

或許,宏觀風險的問題並非是我們這代人需要考慮的東西。但如果我們對微觀風險(個體層面)視而不見,那麼就很難說是一種明智的選擇了。從某種意義上來講,人類相對於機器最後的尊嚴與價值體現為決策。當我們開車使用導航時,其實我們已經逐漸將決策的權利交付給了機器。接下來,我試圖從決策的層面來分析一下人工智慧代替人類的幾個階段。

第一個階段:過程可量化,結果具有剛性的正確答案。

從某種意義上來講,這個階段與其說是決策,不如說是一種工具。也就是說,終極意義上的決策仍舊掌握在人類手中。比如說,汽車導航雖然能夠決策路徑,但卻不能決策應該選擇什麼樣的目的地。對於翻譯、律師等工作來說,人類需要的也並非是是其本身,而是一種更高維度目的的工具。當一位企業家聘請翻譯時,他的動機很可能並非是對語言本身感興趣,而更可能是為了同外商談一筆生意。

對於這個階段來說,人類唯一的壁壘很可能就是復雜性。問題在於,人工智慧很可能最先攻破的恰恰是復雜性壁壘。也就是說,如果某人的工作是他人更高維度目的的工具,那麼早晚都將要面對人工智慧的競爭。

第二個階段:過程可量化,結果並不具備剛性的正確答案(而只具有概率上的偏向)。比如說,對於某種疾病類說,我們可以選擇兩種治療方案:中醫和西醫。問題是,中醫治療方案也可能出現治癒的結果,而西醫的治療方案同樣可能出現治療失敗(甚至毒副作用)的結果。

對於這類問題的決策來說,最為明顯的案例應該是期貨市場上的程序化交易。任何程序化交易的演算法,都很難對單次交易的結果負責,但卻可以在多次交易後累計出一種結果偏向性。通常來說,這種偏向的存在很可能來自於「行為金融學」中所述的人性偏向。當然,還有一種可能的原因就是理性主義想當然的自大。(這方面的話題,就不展開討論了。)

對於這個階段來說,人類似乎完敗人工智慧。甚至這時人工智慧的價值,反而來自於人類本能系統中的誤區。對於交易這個行業來說,只要人工智慧的使用者具有概率思維,從而不要求程序能夠輸出一種對單筆交易負責的結果。那麼每年、甚至每個月看一次報表(結果)的人工智慧使用者,就可以輕松的獲得一種優勢。

第三階段:過程不可量化的決策過程。過去十年,我做交易的風格基本上可以歸納為:用可量化的方式,去回答不具備剛性正確答案的問題。我所需要加工的資訊,100%都基於真實的價格,而忽略其他可能對結果造成影響的資訊。也就是說,我的決策方法,初始資訊是有限的。不過多談論交易的問題,這里我只想說明:市場的主體為人類決策時,這種簡潔性啟發式的策略具有很大的優勢。與此對應的是基本分析,其所需要考慮的資訊接近與無限。順便說一句:基本分析大師的能力並非是綜合分析資訊的能力,而是在近乎無限的資訊中抓住重點的能力。那麼什麼是重點呢?而基本分析者又是如何抓住的呢?這些問題的答案或許來自於經驗和天賦,而這顯然很難被量化出來。最低限度,程序需要運算的資訊,暫時還必須有人類來對其進行定義。

這么說吧,如果一種技能一個人教會另一個人都將要面對嚴重的可傳遞性難題,那麼將這種技能教會人工智慧同樣會非常困難。反之,能夠在課堂上學會的技能,恐怕就很容易通過人工智慧的方式實現。從這個角度上來講,人工智慧產生於科學,但也同樣會在人類社會中終結科學的價值。因為科學具有近乎無限的可傳遞性。相反,藝術和經驗能力,卻能夠更好的對抗人工智慧的威脅。

第四階段:不具有再現性的創新。

如果我們觀察一流的企業家,那麼不難發現:他們在很多環節上表現出來的風格都可能是截然相反的。這還不是最為可怕的,更加可怕的是:你就算掌握了馬雲全部的智慧,那麼你也很難再創造出第二個阿里巴巴,甚至連保證創業成功都做不到。

雖然第二階段的決策,我們無法分析出所有可能對結果造成影響的原因,但我們仍就可以依賴於概率和統計。問題是,沒有先例的創新,我們應該怎麼辦?《未來簡史》中認為人工智慧,也能夠實現創新的能力。對此,我深表懷疑。

倒不是說人工智慧因為某種缺陷,從而使得創新無法實現。問題恰恰是,人工智慧的精確使得創新無法完成。如果當年發現青黴素的培養基,是由人工智慧來控制的。那麼人類很可能將不會發現青黴素。

我的意思是,當我們剝離了錯誤和偶然性時,那麼創新將難以完成。比如說,生物的進化不就是源自於基因代碼復制時的錯誤嗎?或許,有人會說:那麼教會機器犯錯不就OK了嗎?我相信,從技術的層面上來看,這應該並不困難。問題是,誰來承擔責任呢?難道我們真的能夠容忍人工智慧,由於某種(被設計出的)失誤來污染培養基(青黴素的發現)嗎?

其實,創新通常需要由個體來完成的道理,並非是因為政府不會犯錯。而是因為政府不適合承擔責任(再執拗的創業者也會給系統帶來危害,因為當他賠完了本金後創業行為將會終止),以及實現多元化的試錯方式。或許,人類相對於人工智慧最後的一點點尊嚴就是:每個人都是不一樣的,而不一樣的人又在承擔著不一樣的責任。

——————–分割線————————-

我在回復中,看到了一些專業性很強的質疑。我必須承認:從專業的角度來講,我肯定自嘆不如的甘拜下風。而我所能做的,只不過是從最粗狂的角度上,進行概念上的思考。比如說, @軸心鹿 就指出「遺傳演算法」就可以給系統注入隨機性和偶然性。雖然我之前並不太了解遺傳演算法,但我也能夠猜想到從技術層面上並不難實現。當然,我從他的回復中學到最重要的內容是:基因突變並非是基因內所有代碼以相同的概率出現突變,而是低風險的部分出現突變的概率會更大。。。。。。

最終,我與 @軸心鹿 仍舊存在兩點重要的分歧。第一,我沒有在前文中闡述明白「第二階段」與「第四階段」的根本區別在哪裡,這方面的內容我稍後詳細討論。第二,生物進化離不開個體的死亡。雖然他通過技術的層面詳細的講述了,基因突變存在一種降低風險的策略,但我仍舊認為生物進化必須存在一個「回收站」。也就是說,在具有適應性優勢的基因能夠像整體傳播的過程中。必須存在一個機制保證不具有適應性優勢的基因,無法大面積的向整體傳遞。當然,這種機制很可能是在N代內完成的,而不是個體的立即死亡。我不是學生物學的,所以這方面的內容就不過多的討論了。否則,說不定我還真的會再說出一些錯得離譜的觀點。

如果要讓我講明白第二階段的意思,那麼我們還是舉一個例子吧。比如說,天使投資基金很可能無法回答出,哪個創業企業最終會成功的問題。但天使投資基金卻可以用一種非常簡單的策略:只要N個創業企業中能夠有一家最終成功,那麼利潤就足以覆蓋N-1家創業失敗企業所造成的虧損。通俗的說,只要天使基金能夠具有大於1的期望收益,那麼隨機性與偶然性將不再是問題。

如果所有的創新都具有大於1的期望收益,那麼第四階段的難題將不會出現。問題是,創新真的是具有大於1的期望收益嗎?或許你會說,答案當然是肯定的,否則天使投資這個行業將不復存在。遺憾的是,我的觀點遠沒有如此的樂觀。天使投資基金所涉及的領域,往往體現為創新的末端:模式創新。更苛刻的說法是:模式創新的末端!比如說,阿里巴巴的成功,就是一種模式創新,因為所有技術層面的東西都是早已成型的。甚至就連這種模式創新,很大程度上也體現為對易貝(成立早於阿里巴巴4年)的模仿。與其說阿里巴巴是模式創新,不如說他是「地域創新」。當然,「地域創新」也需要承擔巨大的風險。請別告訴我,滴滴打車的創新模式在中國沒有承擔政策風險。

一言以蔽之:在創新的最末端,存在一定程度的可預見性,從而使得期望收益有可能大於1。即使我們不談技術創新(科學的可傳遞性,基本上就註定了市場不會給予技術創新太大的回報)的問題而只考慮創業的話,那麼結論很可能也是不容樂觀的。據說,所有新成立的公司,在未來5年內破產的概率是相當大的。即使考慮到某些極其成功的企業,那麼這些龐大的收益也不足以覆蓋大量企業的虧損和機會成本。也就是說,把資金存入銀行收取利息,並且找一份工作獲得工資收入,在概率上要好於自己去創業。從某種意義上來講,我們能夠享受到創新果實的原因,很可能是因為創業者並不理性的自大。

換一種說法就是:創新是一種對個體不利,而對整體有利的一種行為。微妙之處在於,創新行為具有一種負道德風險。整體內的其他個體根本就不需要承擔創新的風險,但卻可以享受創新所帶來的利益。我猜想,生物進化很可能也會符合上述觀點。對於某生物個體而言,基因突變的風險要遠大於其潛在收益,但整個生物種群卻可以通過優勢基因的擴散而分享這種潛在收益,並且不用承擔與此對應的風險。也就是說,如果個體生物擁有足夠的理性和控制力,那麼它應該是拒絕主動進化的。

事實上,很多創新行為,並非是因為不理性,而是因為缺乏控制力。比如說,青黴素的發現是由於培養基被污染,這並非是發明者所希望看到的事情。更為重要的是,培養基被污染的風險,本質上並沒有對應任何預期的收益。也就是說,這種黑天鵝式的創新,一定對應著控制力的欠缺。或者說,青黴素的發現與天使投資基金存在本質的不同。後者是在可控的情況下進行有預期的「試錯」,而前者完全是在不可控的情況下,去犯一個沒有任何積極預期的「錯誤」。

顯然而易見的是:即使培養基被污染在極小的概率下有可能使獲得諾貝爾獎成為可能,但現在的生物學從業者仍舊在努力的避免培養基被污染。道理很簡單:那種黑天鵝式的獎賞,並不足以覆蓋從業者可能會失業的風險。與此同時,社會上的而其他人,應該盼望著有更多的培養基被污染。因為人類可能會發現另一種葯物供我們廉價的使用,並且我們根本就不需要承擔失業的風險。

我個人的觀點是,人與人工智慧最為根本的區別在於:人生在本質上是沒有意義的(這需要我們每個人來自己去定義意義),但人工智慧之所以存在必定對應著某種被定義的意義。人類可以不算經濟價值,而在不被餓死(在現代社會,保證不被餓死只需要花費很短的時間去工作)的情況下去追求自己定義的意義,並且我們能夠為這種行為的結果承擔責任。(通俗的說法就是,當我們為了欣賞美景而選擇了一條「繞遠」的道路時,我們根本沒有義務向任何人解釋這種選擇。只要我們能夠承擔更高的油耗和時間成本即可。)更重要的是,人類遠沒有人工智慧完美,但這種控制力的缺失,反而可能在事與願違的情況下,獲得一種黑天鵝式的收益。


覺淺:
因為這些「名人」不懂人工智慧。


位元組君:

針對題主的問題可以分兩方面作答:

1.問題中提到的名人,很多都是科技的研發者,他們走在我們普通大眾的前面,他們在一定程度上能依據科技經驗等對人工智慧進行預測,發現我們所後知後覺的事情。當前人工智慧發展迅速,有利有弊,這也是不可否認的事實。

2.問題中的警惕人工智慧,主要是因為存在的一些不可控性,舉個現實點的例子:人工智慧現在已發展到可以根據人類所需來定製服務,即我們常說的「智能家居「服務,它能夠讓你隨時隨地掌控家裡面的一切——你家電器是否安好,誰徘徊在你家門口……就像鋼鐵俠的管家賈維斯一樣。然而,目前看來,智能家居最大的問題不是貴,不是復雜,是我在之前提到人工智慧的不可控性,也可以說是不安全性。往大里說就是物聯網的安全問題,防止智能家居系統遭到惡意入侵和意外重寫,並且具備對數據傳輸進行身份驗證的能力。試想一下,如果黑客獲得系統中內存設備的訪問權限,設備中的內容就會面臨被清除或修改的可能,影響系統功能和用戶體驗事小,但如果危害用戶本身呢?

警惕並不意味著抵制。已經有很多技術應運而生以克服人工智慧的缺陷。以存儲來說,閃存是物聯網設備不可或缺的組成部分,存儲啟動代碼、設備配置、IP 和數據都依賴於它。以前,安全功能只覆蓋到高層計算系統,如操作系統和應用層的軟體身份驗證、加密技術、防火牆、虛擬專用網路、防病毒等程序。但道高一尺魔高一丈,對於現在這些科班出身的黑客,這些防盜技術都是小case. 現在,行業內的做法是進一步提供硬體安全功能,提高硬體安全性可使多方面受益,如保障安全啟動、安全更新、通信完整性以及具備將損壞代碼恢復的功能。一些存儲行業的巨頭,例如美光科技就在針對物聯網安全問題的存儲技術及產品上做出很多努力,通過不同類型的存儲來應對不同情形。

目前,Nor閃存和Nand閃存的應用最為常見,Nor閃存因其可靠性、安全性和低延遲訪問等優勢而廣受歡迎,它可以為代碼和少量數據提供理想的晶元內執行 (XiP) 存儲。NAND 閃存具備較高的單元密度和容量,寫入和清除速度快,通常適用於數據存儲。SLC NAND 用於存儲和下載啟動架構,也適用於數據存儲。而MLC NAND 通常應用於數據存儲。以下是目前的閃存設備提供的多層安全功能概覽:

塊鎖定能夠通過設置配置數據位鎖定內存塊;當配置數據位狀態不正確時,閃存內容將無法修改。此外,還可以防止對配置數據位的修改,防止意外或惡意修改代碼。讀取保護能夠即將閃存設備中的內存塊可設置為禁止內存讀取,防止復制內存中存儲的 IP 或數據。

其他解決系統安全漏洞的存儲技術我就不一一詳述了。總之我的態度是,任何一項新興技術都有應該被警惕,但警惕的目的最終還是使之更加完善。


周照之:
不是他們警惕你,是寫新聞報道的人警惕你。


Aorqu用戶:
現在某些樂觀的情緒簡直和上世紀對人工智慧的盲目樂觀的觀點一模一樣。然而在經歷了數十年嚴酷的人工智慧寒冬之後,已經不敢有人說這樣的話了。而且越是專業的人士越不敢這么說。深度學習演算法的發明人之一就說過現在的進步仍然極其有限。「梯子建的很高,卻仍遠遠夠不到月亮」。現在的所謂人工智慧根本算不上智能。只是人的知識策略機械死板地代碼化。最後得出的結果根本不是建立在對事物的理解的基礎上的。此文章引用的圖中說2020年人工智慧會達到蜻蜓的級別。現在已經2015年,敢有任何一個機構說自己造出能媲美蜻蜓的電子腦么?不用說真正的產品。就是理論上的突破。甚至是理論突破的跡象也不明顯。建議大家做更詳盡的分析調查,不要從模糊推理和類比的角度得到一個簡單的結論。事實的殘酷的。弱人工智慧和強人工智慧的差別是本質的不同,就如同雷鋒和雷峰塔的差別一樣!!拿弱人工智慧的蓬勃發展來預測強人工智慧的臨近。就好像單細胞生命出現的第二天就預測馬上就會進化能抽象思維的人一樣!我們人類對腦,思維,精神,抽象理解,記憶學習,生命等等的認知仍然即使膚淺!這篇盲目樂觀的文章讓我想起了20世紀初的物理學終結論,普朗克的導師甚至建議他改行,因為物理學已沒什麼可研究了。然而相對論和量子力學的出現證明了我們人類是多麼地膚淺!人類的確在加速發展,但如此不切實際的預測,只能讓後人笑掉大牙。徒增笑談!!


張雲帆:
正好前些天和小孩子討論機器的智商如何判斷,如何與人相比。就是晚上洗漱的時間,隨意扯了一下。今天正好看到這個話題,整理當時扯的思路,感覺AI還真是值得關注的。
首先來說,智商,我們扯出來的結果,簡化模型後,除去反應速度,就是資訊量,以及資訊之間聯想(應該說準確一點,是建立資訊之間關聯關系)和判斷的能力。那麼,機器人,或者說現在的計算機在資訊量,就是存儲空間上來說,已經有計算機超過人腦,而且從發展潛力來說,計算機/機器人的存儲能力遠超人類也是指日可待;而聯想和判斷的能力,應該是人類大腦神經元細胞發展了無數時間才形成的,現在的計算機,如同我們知道的,基本上它的判斷規則,聯想規則,也是程序員限定了的,所以從目前來說,在這方面計算機是遠遠比不上人類的,所以計算機必須聽從人類的指揮,沒有了自主的判斷,機器人再厲害也只是無牙老虎。但隨著科技的發展(以現在應用層技術近乎爆炸的速度,當然基礎學科要慢一些),特別是生物技術和計算機技術結合起來,相信解開神經元細胞運行的奧秘,不會需要太久,或許一代,或許兩代人的時間,在這方面,計算機也必將超越人類。那時候,或許我們要靠阿西莫夫的機器人三原則之類的規則來限制機器人危害人類。不幸的是,如果計算機/機器人具備了聯想和判斷的能力,誰又能說它們不會具備情緒呢?那時,用什麼來限制機器人呢?
在現在而言,這些還只是杞人憂天。不過,科技的發展,或許會有人類不能駕馭它的時候。


Aorqu用戶:
生命智能和機器智能沒有本質區別,如果它們能被研發出來的話。

警惕的話談不上,因為它們的存在形式和人類具有本質區別,這就好比獅子和獅子之間存在領地、食物、配偶等競爭關系,獅子和老虎也存在競爭,但是獅子和蚊子不存在領地之爭,獅子和體內的寄生蟲更不存在競爭。

為啥科學家那麼害怕?
因為你是從新聞報紙雜志上看到的。


維小維:

馬雲曾經在演講裡面說過的一段話:

「人工智慧」 這幾個字聽起來,我就很生氣。人把自己看得太高大,把自己過分的提升。

指南針是我們發明的,人家拿去做航海,我們拿去算命和看風水;火藥是我們發明的,人家去做了槍炮,我們拿去做了鞭炮;

航母也是我們最早想出來的,三國赤壁大戰把船連起來是最早的航母思想,一把火燒了以後,誰都不能再碰了。

所以,創新很正常,關鍵是怎麼用。

李開復早就預言:在未來的10到15年,50%的人會失去工作。而怎樣去應對才是最好的辦法?

我最近看的一本書——泰勒.皮爾遜寫的《未來工作》,提供了非常好的解決方案。

01. AI時代,是噩耗,也是單個體的機會

AI時代,你別以為只有你找不到工作,現在美國的應屆畢業生,也有一半是失業的。文憑已經越來越不值錢了。你也許會覺得自己的世界末日要來了,科技就不應該進步吧?

一個人在科技進步面前只會自怨自艾的話,估計就是兩種情況:

對自己的偉大程度有點誤解;
對創新這件事怎麼用有點誤解。

你記得支付寶沒有問世的時候,我們是怎麼匯款的?

首先可能是跑到銀行排半小時的隊,然後填一張紙質的單,還要不斷地簽字確認,直到差不多10分鐘了櫃員才告訴你可以了。而且跨行的話,對方說不定還要等上個一兩天。這中間的48小時,可能現在4.8秒就搞定了。網銀和移動支付,一鍵淘汰無奈的等待。

這當中可能會讓一些人失業,也可能讓金融系統地震,更多的銀行從業人員會不安。

但是,它也使得不見面就能交易成為可能。

於是,淘寶、微商誕生了,一個小屌絲想做點生意更加容易了。

網際網路的日益進步,成就的其實更多是個體。

AI可以實現千人千面的推廣,可以實現無人批量海報製作,但是不能做好一個店鋪的定位經營、選品物流、客戶服務一腳踢。這總歸需要人去做把控。這是科技平台造就個體崛起的時代。

微信公眾號平台造就了邏輯思維和咪蒙,知識付費造就了無數培訓師。

一個新系統誕生,淘汰了老舊的同時,也會有新的希望在熠熠上升。

02. 中庸的人將極為危險

先給大家看一副圖:

對,這個倒鍾型的曲線大家都很熟悉,正態分布的高斯曲線。

它說明:所有拔尖兒的和墊底的人都是少數,世界就是中庸的。

我們從小到大,只要成績不掉到全班最後,只要工資能能達到中等水準,我們就可以大言不慚自己進入了中產階級。

殊不知,在AI到來的時代,世界將會變成這樣:

當你努力到80分,也不過只能拿20%的報酬,最優異的資源,會聚集在最top的20%那部分人手上。這就是著名的二八定律,也叫做帕累托分布。

為什麼會有這種變化呢?

因為大部分的80分以下的人能做的工作,基本上都可以用機器替代了。

打個比方吧,一個醫學院的學生只有出類拔萃,才有機會進入一流的研究機構一流的醫院,甚至成為研發手術機器人的顧問專家;

普通的學生,只能進入普通的醫院,日復一日做普通的手術,案例也千篇一律毫無疑難,那必然很快會被醫療方面的機器人所替代。

試問一個普通的醫生,就算面對的案例再多,他能有機器在大數據雲計算的基礎上面對的多嗎?他的判斷能比得過儀器測量和判斷準確嗎?

所以,普通的醫生,很可能就是被AI淘汰工作的一批人。

中庸已經越來越危險了。

用火箭送特斯拉上天的馬斯克說過一段感言:

數量永遠難以彌補質量優勢。

我們都知道,一位傑出的程序員在一夜之間就解決復雜的難題,而雇請10名平庸的程序員,只會花費一個月的時間將問題搞砸。

二八定律的分裂,最終會讓中庸的人成為一隻胖胖的火雞——越舒服,越胖,越容易被帶著殺機的廚子盯上。

03. 二流學位的人,到底該如何生存?

在自媒體這種形式出現之前,我們寫作者要跟讀者見個面,可能就要正兒八經租個地方,鋪張浪費搞個見面會,才有機會給你面對面跟我吐個槽;而現在,你只要在留言區留個言,我就知道你在罵我了。

在Airbnb(愛彼迎)面世之前,我們出去旅遊,尤其是去台灣、日本這些酒店死貴死貴的地方,也只能擠在那個超貴又超小的數尺空間。而現在,我們去哪,都可以通過平台以更低廉的方式住進別人的家裡面。

這就是這個日益發展的網際網路時代賜予我們的生存機會。

它拉短了人和人之間的距離——無論你是一流的尖子還是二流的普通人,都可以創立「一個人的品牌」。只要你願意研究這個平台的規則,有耐心去試錯,你一定有機會找到自己的一席之地。

除了個人品牌,網際網路還給了我們更多的銷售方式。

我聽過一個最短而有意思的生產鏈條是這樣的。

有一個做淘寶服裝的賣家,在杭州的郊區租一個三層樓的廠房,一樓囤布匹,二樓做生產,但是只是生產1件。然後,那件新鮮出爐的衣服,會被送上3樓的直播間,由美美的小姐姐在直播現場穿給大家看。大家線上看,喜歡了就下單。當那件衣服在小範圍被確認是一件爆品的時候,賣家立馬讓二樓趕緊批量生產,全面上線。這樣,商家再也不用囤一堆過時不好看的款式,堆在倉庫裡面發霉,也再也不擔心自己拿了一堆貨回來根本賣不去。

在沒有「直播」這種銷售形式之前,我想,他們只能困在囤貨賭眼光的死局裡面吧。每個淘汰的信號,也會給我們更多未知的機會。

高收入的快遞員、月入過萬的滴滴司機、年費過萬的社群大佬、日進斗金的自媒體紅人、粉絲千萬的抖音網紅……

用更寬容的角度看,這,就是二流學位的人能崛起的新機會。

我篤信的是,這個世界沒有永遠的危和機。

取得成就,除了天分和努力之外,還要有一點靈敏的先機嗅覺,以及順應時代的變通思維。

以上,與你共勉。

公眾號:維小維生素

ps:後台回復【888】可獲取一份吐血整理的個人技能實用大禮包。內容涵蓋幫你賺更多錢的理財課,各種PPT模板、升職加薪的寶典

專注職場、財商和個人成長


COCO李晶:
謝邀!

先問一個問題,為什麼需要人工智慧,因為人工智慧會讓人在各行各業,包括生活中帶來極大的便利,這是一定的,否則人工智慧的存在毫無意義。

那麼問題來了,各行各業,大家注意,各行各業,就是你想得到的工種,正規的或者非正規的,只要是人類的活動,AI都有可能給予幫助。所以這個時候,問題就出現了。

因為小偷也有一個行業,強盜也有一個行業,恐怖分子也有一個行業,各種十惡不赦的人也有自己的行業。他們開展各種對人類不利的事情的時候,AI也有可能幫助到他們。正如現在我們用到刀、槍等武器,壞人也可以用到。

當然,壞人還是佔少數,所以在冷兵器時代,一直是好人統治世界,哪怕是壞人掌權,也會慢慢的裝成好人,畢竟他要統治。冷兵器的使用,讓小數的壞人打不過好人。現在到了「熱」兵器時代,掌握兵器的壞人也不是很多,但已經變得很麻煩,因為以前壞人用刀來作惡,相對比較難害人。現在有槍有炮了,殺傷力大大增加,比如911事件,一下子害了那麼多人。

盡管這樣,這個世界還是可控的。但是到了AI時代,工具進一步進化和智能化,效率大大的提高,著對於少數壞人來說,犯罪效率也飛速提高。如果一個壞人掌握了尖端的技術,或者操控了什麼,那麼這個世界可能就像電影說的那樣,瞬間被摧毀,這不是危言聳聽,因為未來是聯網的世界。

所以說,AI的發展,大大提高了科技工具的效率,但如果這個工具使用不當,會非常容易造成傷害人類的事情,畢竟不像以前了。雖然道高一尺魔高一丈,但AI未來能誕生什麼產品,還不得而知,所以很多人是擔憂,擔憂方向走錯了,擔憂各種因素,本來是正面的科技發展,到了最後可能卻毀於一旦。


Aorqu用戶:
針對 @謝熊貓君 回答的一些想法:

我覺得文章的重點不在討論如何製造出超人工智慧,所以所謂的硬體,量子計算機,演化演算法等等都只是探討手段而已。重點應該是在於警示我們人工智慧有超越人類智力的那一天。

其中最令人擔憂的一點是,這個超越時刻可能是不容易或者沒有被注意到的,而且很有可能這個超越的速度跟加速度是非常快的。也就是說,計算機一下子就從未超越跨越到超越人類很大一截,從而導致無可挽回。

我覺得值得探討的東西在於,現實是否有可能跟科幻電影中一樣,一不小心輸了一段代碼,意識或者智能就產生了? 或者是在實驗室里,碰掉了某個燒杯試劑,就能產生一個科學怪人?

我覺得這是不太可能的,

  1. 首先,超強的計算能力並不代表超強的智能。現實世界的現象(簡單如物體滴落入水中,復雜如人腦),需要用極其巨大的計算能力進行模擬。但是在自然中,我們只要輕輕一揮手就能引起無數計算機耗盡能力也模擬不出來的景象。
  2. 模擬人腦並不是最佳途徑,而且一旦以人腦作為模擬對象,那麼最優的結果也只可能是人腦。談大幅度超越也是不可能的。
  3. 超人類智能的形態一定是非人類的。就像人類放棄模仿鳥而產生飛機一樣。超人工智慧很有可能是另闢蹊徑。

總之,在這個計算機是否能產生意識都未能搞清楚的時代,就說計算機能夠反噬人類還是太早。計算機如果真能產生意識,也需要人類自己明確清晰地定義出來。

並且一群人會在計算機尚未產生意識的那時候,就開始糾結、無限放大道德問題。最後使得這個問題被無限關注和限制住。

總而又言之,這個逼近的過程應該是一個平滑而連續的,是可以被充分察覺而且預估的。而且在人類做好充分預估的情況下,在人工智慧還沒完成超越的階段,採取足夠的控制措施,限制住其發展,有目的地進行利用,這是完全可能的。

但的確 @謝熊貓君 的文章給了大家一個非常好的警示,讓我們提前品味了低估計算機智能的後果。但我覺得這也是促進我們對計算機智能安全問題重視指數級增長的引子。

還有再看開一點,從更長遠地去看,計算機毀滅了人類,進入一個新的時代又未必不是一件自然而然的事呢?


黃鐵軍:

各種腦計劃是學術界乃至社會各界關注的熱點。2013年1月,歐洲啟動十億歐元的「人類大腦計劃」,提出將資訊技術和生命科學結合,十年內在認識腦、治療腦疾病和類腦計算三個方面取得突破。不到三個月之後的4月2日,歐巴馬高調宣布美國腦計劃,美國國立衛生研究院(NIH)一馬當先,經過一年多研究,2014年6月發布12年規劃,計劃投入45億美元,最終目標是繪制出堪比「人類基因圖譜」的「人類大腦動態圖」。大陸正在制定的「十三五規劃」中,腦計劃也是重要方向。

比較認識腦、保護腦(治療腦疾病)和創造腦(類腦計算機)這三個目標,哪一個更重要呢?保護腦是最現實的目標,但從戰略層次看,擺不到最重要的位置。雖然腦疾病困擾著高達百分之十的人群,但也只是人類面臨的諸多疾病和諸多問題之一,與「認識腦」這個科學、哲學和人文等諸學科關注的宏大問題來說,後者顯然更重要,而且後者也是前者的重要基礎。

認識腦固然重要,但也還只是人類自己的事,人類大腦不過是宇宙智能進化史的一個階段。人類大腦最重大的使命不僅僅是認識自身,而是創造出具有自主意識、能夠更好地表達和認識「客觀知識世界」的「超級大腦」。

人類能夠製造出具有自主意識的「超級大腦」嗎?這方面的哲學論辯已經持續上百年,再喋喋不休已經意義不大。行勝於言,對這個問題最好的回答是製造出「超級大腦」。六十多年來,計算機性能按照摩爾定律持續提升,新型微納電子器件快速進步,越來越多的技術徵象表明,仿照人類大腦結構和機理,製造出逼近乃至超越人腦的「超級大腦」,不僅在技術上是可能的,而且它的性能會遠超人腦,還很有可能會湧現出自主意識。

…… 更多請參見《人類能製造出「超級大腦」嗎?》

http://epaper.gmw.cn/zhdsb/images/2015-01/07/05/2015010705_pdf.pdf

發表迴響