“人工智障” 杂谈
什么是人工智能
人工智能(Artificial Intelligence),英文縮寫為AI,它是研究、開發用于模擬和擴展人的智能的理論、方法、技術及應用系統的一門新的技術科學。
上個世紀50年代一次學術討論會議上,當時幾位著名的科學家從不同學科的角度探討用機器模擬人類智能等問題,并首次提出了“人工智能”的術語。從此,人工智能這門新興的學科誕生了。
那場學術討論會議,就是計算機科學史上著名的達特茅斯會議(Dartmouth Conferences)。
人工智能之父麥卡錫給出的定義:
- 構建智能機器,特別是智能計算機程序的科學和工程
- 人工智能是一種讓計算機程序能夠 “智能地” 思考的方式
- 思考的模式類似于人類
什么是智能?
- 智能的英語是:Intelligence
- 推理、知識、規劃、學習、交流、感知、移動和操作物體,等等
- 智能 ≠ 智力(IQ:智商。比較類似計算機的計算能力)
如何算有智能?
- 可以根據環境變化而做出相應變化的能力
- 具有 “存活、生存” 這種最基本的動因
- 自主能力、自我意識,等等
人工智能的評判標準是什么?
要回答這個問題,就不得不先介紹另一個著名的概念:圖靈測試。
圖靈測試是著名科學家阿蘭·麥席森·圖靈于1950年提出的。其內容是,如果計算機程序能在5分鐘內回答由人類測試者提出的一系列問題,且其超過30%的回答讓測試者誤認為是人類所答,則該程序通過測試,表明該程序擁有接近于人類的智能。
就如下圖中的情景:
圖靈測試的參與者包含一名或多名評委,兩名測試者。其中一名測試者是人類,另一名測試者是計算機程序。在評委不能直接看到測試者的情況下,由評委提出若干問題,然后根據回答做出自己的判斷。
時至今日,世界上只有一個智能聊天程序勉強通過了圖靈測試,它的名字是 尤金·古斯特曼。由此可見,人類距離實現真正意義上的人工智能,還有很長的道路要走。
智能分為人工智能與自然智能兩種:
-
自然智能:人和動物的智能:天生的,非人類制造的,純天然,無添加。自然智能英文為:Natural Intelligence
- 人工智能:人類制造出來的智能。人工智能英文為:Artificial Intelligence
人工智能需要的基本數學知識
學習人工智能,數學知識是非常必要的,需要的基本數學知識如下:
人工智能簡史
1.人工神經網絡被提出(AI緣起):
- Artificial Neural Network(一般簡稱為 Neural Network,神經網絡)
- 沃倫·麥卡洛和沃爾特·皮茨在1943年創造了神經網絡的計算模型
- 為以后的深度學習等領域打下基礎
2.達特茅斯會議(定義AI):
- 達特茅斯學院(Dartmouth College)是一所美國私立大學
- 達特茅斯會議由約翰·麥卡錫等人與1956年8月31日發起
- 標志著AI(人工智能)的正式定義(誕生)
3.感知器(Perceptron)
- 一種最簡單的人工神經網絡,是生物神經網絡機制的簡單抽象
- 由羅森布特拉于1957年發明
- 將人工智能的研究推向第一個高峰
感知器典型示意圖如下:
感知器是人工神經網絡中的一種典型結構, 它的主要的特點是結構簡單,對所能解決的問題 存在著收斂算法,并能從數學上嚴格證明,從而對神經網絡研究起了重要的推動作用。
感知器是生物神經細胞的簡單抽象,如下圖,神經細胞結構大致可分為:樹突、突觸、細胞體及軸突。單個神經細胞可被視為一種只有兩種狀態的機器——激動時為‘是’,而未激動時為‘否’,而細胞核可以認為是處理信息的程序。
神經細胞示意圖:
4.人工智能的第一個寒冬:
- 1970年開始的那十幾年
- 傳統的感知器耗費的計算量和神經元數目的平方成正比
- 當時的計算機沒有能力完成神經網絡模型所需要的超大計算量
5.霍普菲爾德神經網絡:
- 這是一種遞歸神經網絡(Recurrent Neural Network)
- 由約翰·霍普菲爾德在1982年發明
- 該神經網絡具有反饋(Feed back)機制
6.反向傳播(Back Propagation)算法
- 1974年哈佛大學的保羅·沃伯斯發明,由于當時處于人工智能的第一個寒冬,所以沒有受到重視
- 1986年大衛·魯姆哈特等學者出版的書中完整地提出了BP算法
- 使大規模神經網絡訓練成為可能,將人工智能推向第二個高峰
7.人工智能的第二個寒冬:
- 1990年開始
- 人工智能計算機 Darpa 沒有實現
- 政府的投入縮減
8.深度學習(Deep Learning)
- 基于深度(指 “多層” )神經網絡
- 2006年 由 杰弗里·辛頓(Geoffrey Hinton)提出
- 人工智能在性能上獲得突破性進展
9.進入感知智能時代:
- 深度學習在語音和視覺識別上分別達到99%和95%的識別率
- 2013年開始
- 人工智能三個時代:運算智能、感知智能、認知智能,目前我們處于感知智能時代
10.AlphaGo 擊敗眾多人類選手:
- Google買下的DeepMind公司的AlphaGo (基于TensorFlow開發)
- 2016年接連擊敗圍棋界頂尖棋手,如柯潔、李世石等
- 深度學習被廣泛關注,掀起學習人工智能的熱潮
11.未來由我們創造:
- 目前已經進入了大數據時代,人工智能需要基于海量數據訓練,我們可以利用大數據去訓練人工智能
- 并且現在的計算機的運算能力也越來越強
- 特別是在CES 2018的Intel展臺上,Intel展示了Tangle Lake量子計算芯片(CPU),該芯片達到49量子比特
- 同時英特爾在此次展會期間還再次展出了其AI芯片Loihi,基于人工神經網絡
- Loihi有128個計算核心,每個核心1024個人工神經元,整個芯片上含有13萬個人工神經元和1.3億個 “突觸” 連接。
- 它模擬人體大腦的工作方式,替代傳統半導體芯片的邏輯門,號稱相比傳統CPU能耗比高出千倍
- 所以人工智能是大勢所趨,不過我們也不能過分樂觀,未來也許還會有低潮
Tangle Lake量子計算芯片:
AI芯片Loihi:
AI、機器學習和深度學習的關聯
簡單來說AI、機器學習和深度學,這三者呈現出同心圓的關系:
同心圓的最外層是人工智能,從提出概念到現在,先后出現過許多種實現思路和算法。
同心圓的中間層是機器學習,屬于人工智能的一個子集,互聯網的許多推薦算法、相關性排名算法,所依托的基礎就是機器學習。
同心圓的最內層是深度學習,以機器學習為基礎的進一步升華,是當今人工智能大爆炸的核心驅動。
人工智能能夠王者歸來,深度學習功不可沒,深度學習是引領人工智能熱潮的 “ 火箭 ” ,深度學習作為 “后代”,卻給 “爺爺” 和 “爸爸” 爭光了。
什么是機器學習
什么是學習?
- 學習是一個過程:如果一個系統,能夠通過執行某個過程,改善了性能,那么這個行為就是學習
- 說得更深入一些,學習的目的是 “減熵”
- 熱力學第二定律:一個孤立系統傾向于增加 熵 (混亂程度)
- 例如我們處于一個新環境時,我們需要通過學習這個新環境的知識去適應環境,應對該環境的變化,減少混亂程度,所以才說學習的目的是 “減熵”
機器學習的必要性:
- 很多軟件無法靠人工去編程,例如:自動駕駛、計算機視覺、自然語言處理等
- 人類經常會犯錯(比如緊張、累了、困了),機器不容易犯錯
- 機器的計算能力越來越強,提高我們的生活質量,加快科技發展
“晦澀” 的機器學習定義:
- 對某類任務T(Task)和性能度量P(Performance)
- 通過經驗E(Experience)改進后
- 在任務 T 上由性能度量 P 衡量的性能有所提升
簡單的機器學習定義:
- 機器學習:讓機器 學習到東西
- 機器學習:用數據 來 解答問題
- 數據 對應 訓練
- 解答問題 對應 推測
練習和考試:
- 學生學習:用 做練習題 來 提高考試成績
- 做練習題 對應 訓練
- 考試 對應 推測
AlphaGo學下圍棋:
- 圍棋博弈:用和自己下棋 來 提高下棋的勝率
- 和自己下棋 對應 訓練
- 與人類下棋 對應 推測
機器學習大致等同于找到一個 好的函數(Function)/ 模型,Y = f ( X )
機器學習的分類:
- 監督學習
- 非監督學習
- 半監督學習
- 強化學習
監督學習會把不同標簽的數據進行分類,然后通過學習生成預測模型,監督學習的特點就是在于數據有標簽。
生成預測模型后就可以讓模型來判斷給的數據是什么:
非監督學習就是給的數據沒有標簽,讓機器自己進行學習將相似的數據分成不同的類別,非監督學習的特點就是給的數據都沒有標簽:
然后把數據給生成的預測模型進行歸類:
半監督學習最類似于人類的生活,半監督學習的特點就是給的少部分訓練數據有標簽,大部分訓練數據沒有標簽。這就好比在人類還未成年、未踏入社會之前,都是由父母或老師來教授一些知識,這些知識就是有標簽的數據,因為有人告訴你什么是什么,哪些事情能做哪些事情不能做。而當人類離開父母或老師踏入社會后,生活上的種種事情都是由自己去摸索學習,這部分的數據就是無標簽的,所以說半監督學習最類似于人類的生活。
可以用AI玩游戲來簡單解釋一下強化學習,例如讓AI去玩跑跑卡丁車,當AI跑贏了就加一分,失敗則減一分,并且告訴它分數越高越好,那么這個AI就會有想要去獲得更高分數的趨勢,經過很多輪的訓練后AI的總分數會達到一個比較高的分數。這就好像是給它一個獎勵,通過這個獎勵的機制去刺激它獲得更高的分數,這種方式就是強化學習。
機器學習的算法:
我們可以根據以下這張圖來篩選適合的算法來訓練模型:
面對AI,我們應有的態度
近年來人工智能的概念大熱,很多人都跟風想轉行學習人工智能,或者對人工智能有恐懼感,我們應該要有正確的態度對待這項技術:
“人工智障”
- 目前的人工智能還停留在比較初級的階段,相比于人類大腦的智能,人工智能相當于是個 “智障” ,目前的人工智能只是在機械性的運算、數據處理等方面比人類強很多,所以它還終究是機器
人類從未創造過生命
- 人類到目前為止只不過能復制生命,改造已有的生命,例如生物克隆、轉基因技術等
- 但是人類從沒有從無到有來創造生命,而且基于無機體來創造生命,目前的技術是不可能的
- 不過我個人認為這只是時間問題
目前對人工智能的看法,有兩個派別
反省自己比擔心AI更重要
- “人心比萬物都詭詐”,與人心相比,現在的AI真的是太人畜無害了
AI并非全能
- 即使出現威脅人類的人工智能,它首先得發展出自己的體系才能夠和人類競爭資源
- AI并不能像電影那種無所不能,就像***的電腦并不像電影那樣永遠不會出現藍屏宕機的情況
- 面對目前如此龐大的人類社會,估計AI還沒起義就涼了
不過也是需要適當的防備AI
- 可能 AI 會在不斷學習的過程中習得一些不可控的「思維」,這種可能性也不是沒有的
借人工智能來認識自己
- 人類大腦是怎么運行的,我們都還知之甚少,更不用說模擬或仿造了
- 我們或許可以通過研究人工智能來發現自己大腦的運行原理
人機合作
- AI “機智過人” 但又 “技不如人”。如果人機合力,定驚為天人2333
什么是過擬合
先簡單介紹一下什么是擬合:形象的說,擬合就是把平面上一系列的點,用一條光滑的曲線連接起來。因為這條曲線有無數種可能,從而有各種擬合方法。擬合的曲線一般可以用函數表示,根據這個函數的不同有不同的擬合名字。我們訓練模型的曲線就是擬合,擬合結果主要有三種:欠擬合(UnderFitting)、擬合完美(Fitting right)以及一會要重點介紹的過擬合(OverFitting):
從以上的圖形可以看到,欠擬合就是 “不在點子上” ,完全沒有達到我們的要求,偏得讓你想說一句“誒誒誒,兄弟你要去哪啊,我說“,這種就是所謂的欠擬合。好的擬合則是有一定的 ”彈性“ ,因為它合適的達到了我們的要求,但它又不會 “完美得過分 “ 。過擬合就比較逗逼了,就跟強迫癥似地要去不擇手段的完全貼合各個分散的點,或者完全區分不同的點,雖然看起來很完美,但是這種完美的代價就是泛化性能很差。
過擬合就好比追一個妹子時,去了解了這個妹子的所有喜好、興趣,然后你就拼命學習對方感興趣的東西,穿著打扮上也迎合對方的口味,終于你不辭艱辛完美地符合了妹子的要求,然后你也自信滿滿的去追這個妹子,你也的確追到手了。但是不久后你們分手了,悲傷過去沒多久,你又看上了一個妹子,想要拿之前學習的一身本領去追這個妹子,結果這個妹子對你并不感冒,這個妹子的喜好和興趣和之前的妹子完全不一樣,甚至還有點討厭。這就是過擬合,過擬合帶來的泛化性能很差或者基本為0導致了你無法沿用之前的把妹技巧。
舉個物理學上的段子(轉自他人博文),費米的話就是一個非常直觀的理解:
1953年春天,戴森和自己的學生利用贗標介子理論計算了介子與質子的散射截面,得到了與費米的實驗觀測值十分相符的結果。然而該理論需要4個自由參數,費米很不屑,講了一句日后很著名的話:“我記得我的朋友約翰·馮·諾依曼(John von Neumann)曾經說過,用四個參數我可以擬合出一頭大象,而用五個參數我可以讓它的鼻子擺動。”
有趣的是,2010年6月,尤根·邁爾(Jurgen Mayer)等三位德國分子生物學家在《美國物理學期刊》(American Journal of Physics)發表了題為“用四個復參數畫出一頭大象”的論文。他們發現,利用四個復參數可以大致勾勒出大象的形態,再引入一個復參數則可以讓大象的鼻子擺動起來。
再附上一張有趣的圖片:
小結
以上簡單的聊了關于人工智能的各種概念,看了這篇文章的你或許會馬上轉身投入這個領域的研究、學習,也可能會對人工智能抱有一些恐懼,對其敬而遠之。whatever,人工智能的確在慢慢改變我們的生活,雖然也可能會帶來一些負面的影響,但是這項技術終究是有助于人類科技的發展,而且要學習這項技術門檻也比較高,比成為一個普通的程序員來說門檻是高得多的。首先你得要有高數、線代、統計學、概率論等數學基礎,還要英語過關,不然谷歌都用不6,因為不管怎么說很多技術論文都是英文的,最先出的譯文也是英文的,我個人認為學習英語的優先級要比數學高,不要讓語言成為自己學習最大的障礙。
轉載于:https://blog.51cto.com/zero01/2064022
總結
- 上一篇: 完整的查询语句
- 下一篇: CSS边界样式 (背景、边框)