【完结】AI1000问以后知识星球和B站见啦
文/編輯 | 言有三
學(xué)習(xí)從來(lái)都是從大處著眼,小處著手。前段時(shí)間公眾號(hào)開(kāi)通了專欄《AI 1000問(wèn)》,專門(mén)選擇那些很小,容易被忽視,普通但是不簡(jiǎn)單,可以引申很多思考的問(wèn)題,得到了大家的喜歡,現(xiàn)在已經(jīng)12期了。
因?yàn)橹R(shí)點(diǎn)無(wú)法系統(tǒng)性串接,而且內(nèi)容更新會(huì)不定時(shí),所以后續(xù)AI1000問(wèn)就會(huì)全部并入知識(shí)星球了,歡迎繼續(xù)來(lái)關(guān)注噢。
下面我們?cè)賮?lái)回顧一下之前的12個(gè)問(wèn)題吧,在沒(méi)有看我們公眾號(hào)內(nèi)容之前,你都能回答出來(lái)嗎?
?
第1問(wèn)
做過(guò)圖像分類項(xiàng)目或者看過(guò)文章的小伙伴們應(yīng)該都知道,在論文中進(jìn)行各類方法的比較時(shí),要求使用同樣的數(shù)據(jù)集。而為了公平的比較,網(wǎng)絡(luò)的輸入大小通常都是224*224的大小,那為什么呢?你第一時(shí)間思考出答案了嗎?
【AI-1000問(wèn)】為什么深度學(xué)習(xí)圖像分類的輸入多是224*224
?
第2問(wèn)
相信大家也都知道LeNet5這個(gè)經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò),它有3個(gè)全連接層,輸出維度分別是120,84,10,不知道大家知不知道為什么倒數(shù)第2個(gè)全連接層的維度是84呢?這背后有一個(gè)有趣的小故事,考驗(yàn)論文是不是看得比別人細(xì)致,思考是不是比別人更多的機(jī)會(huì)來(lái)了。
【AI-1000問(wèn)】為什么LeNet5倒數(shù)第二個(gè)全連接層維度為84?
?
第3問(wèn)
做圖像處理的我們應(yīng)該都知道,OpenCV是我們必備的一個(gè)工具,在使用OpenCV讀取圖像時(shí)你應(yīng)該也發(fā)現(xiàn)了讀取出來(lái)的數(shù)組居然是BGR格式,而不是我們聽(tīng)的最多,用的最多的RGB格式,這是為什么呢?
【AI-1000問(wèn)】為什么OpenCV讀取的圖像格式是BGR?
?
第4問(wèn)
現(xiàn)在說(shuō)起人工智能,聊起AI,每個(gè)人或多或少都能說(shuō)出一點(diǎn),從歷史到未來(lái),從圖靈到馮諾依曼,從SVM到CNN等等,但是如果問(wèn)你是否知道機(jī)器學(xué)習(xí)和模式識(shí)別有什么區(qū)別?我相信大多數(shù)人很懵圈,這兩個(gè)東西有區(qū)別嗎?
【AI-1000問(wèn)】機(jī)器學(xué)習(xí)和模式識(shí)別是什么關(guān)系?
?
第5問(wèn)
人臉識(shí)別一直以來(lái)都是當(dāng)前生物特征識(shí)別研究的熱點(diǎn)之一,人臉識(shí)別技術(shù)在工業(yè)界應(yīng)用價(jià)值尤為突出。那么face detection、alignment、verification、identification(recognization),你能分的清楚嗎?
【AI-1000問(wèn)】人臉識(shí)別的4個(gè)方向,你還分的清楚嗎?
?
第6問(wèn)
我們都知道在2014年ILSVRC比賽中GoogLeNet獲得了冠軍,其所用模型參數(shù)不足AlexNet的1/12,但性能卻比AlexNet好不少。那么為什么GoogLeNet要取一個(gè)跟作者名字沒(méi)有關(guān)系,也不能直接表現(xiàn)出網(wǎng)絡(luò)特點(diǎn)的InceptionNet作為名字呢?
【AI-1000問(wèn)】你知道為什么GoogLeNet也被稱為InceptionNet嗎?
?
第7問(wèn)
想必大家也都聽(tīng)過(guò)熵這個(gè)概念,也都知道softmax以及softmax loss這個(gè)概念,那么交叉熵和softmax loss有什么區(qū)別和聯(lián)系呢?。
【AI-1000問(wèn)】softmax loss和交叉熵有什么關(guān)系?
?
第8問(wèn)
想必熟悉圖像噪聲和和圖像信噪比的應(yīng)該都聽(tīng)說(shuō)過(guò)dB,一般監(jiān)控?cái)z像機(jī)的圖像信噪比是50dB,信噪比的典型值一般為45-55dB,若為50dB,則圖像有少量噪聲,但圖像質(zhì)量良好;若為60dB,則圖像質(zhì)量?jī)?yōu)良,不出現(xiàn)噪聲。說(shuō)了這么多dB,那你知道dB的由來(lái)嗎?
【AI-1000問(wèn)】為什么信號(hào)有單位而且是dB?
?
第9問(wèn)
在很多的書(shū)以及一些公開(kāi)數(shù)據(jù)集中,都會(huì)將數(shù)據(jù)集分為訓(xùn)練集,驗(yàn)證集和測(cè)試集,看起來(lái)驗(yàn)證集和測(cè)試集并沒(méi)有區(qū)別,為什么要分這兩個(gè)呢?
【AI-1000問(wèn)】訓(xùn)練為什么要分測(cè)試集和驗(yàn)證集
?
第10問(wèn)
我們知道現(xiàn)在在構(gòu)建CNN時(shí)大家喜歡用3*3的卷積,而不是早期的5*5,7*7等更大尺寸的卷積,如vgg系列網(wǎng)絡(luò)中全部使用了3*3的卷積。那么你知道為什么這樣做嗎?
【AI-1000問(wèn)】為什么現(xiàn)在大家喜歡用3*3小卷積?
?
第11問(wèn)
熟悉CNN應(yīng)該都知道常見(jiàn)的卷積核都是3*3或者5*5等,也就是奇數(shù)*奇數(shù),似乎都沒(méi)看過(guò)偶數(shù)的,這是為什么呢?
【AI-1000問(wèn)】為什么CNN中的卷積核半徑都是奇數(shù)?
?
第12問(wèn)
大家都知道圖像分割(image segmentation)是怎么回事,就是將每個(gè)像素進(jìn)行分類。常常將圖像分割用于摳圖替換背景,但是摳圖真的只是圖像分割就能搞定嗎?為什么還有個(gè)技術(shù)叫做image matting呢?
【AI-1000問(wèn)】segmentation和matting有什么區(qū)別?
看了這么多,你在看我們答案之前,都能回答出幾個(gè)問(wèn)題呢?
然后就是重要通知了!主要有兩個(gè)。
1、圖文版本的《AI1000問(wèn)》以后將每天在知識(shí)星球更新。
2、視頻版本的《AI1000問(wèn)》以后將在bilibili同步更新。
感謝各位看官的耐心閱讀,不足之處希望多多指教。后續(xù)內(nèi)容將會(huì)不定期奉上,歡迎大家關(guān)注有三公眾號(hào) 有三AI!
?
?
總結(jié)
以上是生活随笔為你收集整理的【完结】AI1000问以后知识星球和B站见啦的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: 【图像分割模型】以RNN形式做CRF后处
- 下一篇: 【AI不惑境】网络的宽度如何影响深度学习