有用facs做计算机表情识别的嘛,人脸表情识别可以测谎吗
近日來,樂視發布了一款外界期待已久的超級汽車。這款汽車不僅可以實現自動駕駛功能,還可以實現自我學習,具備人臉識別,情緒識別和環境識別等功能。那么,關于情緒識別運用于ADAS上,從技術角度來講,這一過程是如何實現的呢?
首先,情緒識別運用于ADAS中,比較典型的場景有疲勞駕駛和路怒駕駛的檢測和預警。通過實時捕獲駕駛者的面部表情特性,可以理解駕駛者的情緒和精神狀況。如發現駕駛員有疲勞駕駛和路怒駕駛的狀況后,可以觸發一系列干預手段。從技術角度,比如疲勞駕駛可以通過若干動作單元以及面部特征的組合來識別,比如閉眼超時、眉頭下垂、睜眼被動等。
那么情緒識別是什么呢?廣義上來說它是可以通過表情、語音語調或者腦電捕捉等進行的生物識別技術。然而目前技術上最成熟、得到廣泛應用的是表情識別技術,也就是基于計算機視覺算法,識別人臉的表情動作和推斷喜怒哀樂等基本情緒。
面部情感的研究始于19世紀,達爾文在他著名的論著《人類和動物的表情》中就闡述了人的面部表情和動物的面部表情之間的聯系和區別。根據心理學的基本情緒理論,人類的基本情緒包括:喜悅、悲傷、憤怒、討厭、害怕、驚奇和中性。為了理解人類的表情變化,著名心理學家Paul Ekman教授(美劇lie to me的角色原型)提出了一套面部動作編碼理論(Facial Action Coding System),把人類的表情分解為多個面部動作單元(Action Units),來描述面部表情和研究人類的認知行為。為多個面部動作單元,來描述面部表情和研究人類的認知行為。雖然這些面部單元單獨并不能夠代表任何的情感,但是它們的組合理論上可以表達人類的任何面部表情。
FACS的基本示意如下:
近些年,隨著計算機技術和人工智能技術及其相關學科的迅猛發展,FACS編碼系統也被成功的運用于表情識別。首先,機器學習算法會從很多的表情照片中習得特定的表情單元是否出現。不同的表情單元組合代表了不同的表情,比如AU12+AU6在一定程度上表示了喜悅的情緒,AU4+AU16的組合在某種意義上表示了悲傷的情緒。表情單元的不同組合代表了不同的情緒,基于表情單元對表情進行識別,理論上可以捕捉上千種的不同的情緒,并進一步可以做到表情映射和遷移,即把人的表情變化實時遷移另外一個人物模型上面去。
有人也許會問:既然機器通過學習算法,理論上可以識別各種不同情緒,那表情識別可以用來測謊嗎?在現實世界中,人類的內心世界和表情十分復雜,往往會有一些假的表情,比如強裝笑顏或者假笑。相信看過美劇《Lie to me》的朋友,應該十分向往劇中Ekman教授通過識別人的表情來判斷一個人是不是在說謊的情景。比如笑的時候只牽動了顴大肌,那么這八成就是一個實實在在的假笑,因為一個的自然笑除了顴大肌以外眼輪匝肌也會被牽動。心理學研究表明,真笑和假笑在一定程度上可以通過動作所涉及到AU的強度和動態過程來區分。其中AU的動態信息,例如持續時間和達到動作峰值的速度等,尤其具有顯著的區分能力。近年來,學術研究界有些工作將自動表情分析技術應用于這方面。
區別于基本情緒識別,上面這種稱之為“微表情”。雖然學術屆有些研究,但在應用中,目前這種“微表情”的識別還沒有較成熟的商用系統,實用性不強。所以,計算機領域的“表情識別”主要還是指對人類基本情緒的識別,而不是微表情識別。讓計算機或者人工智能技術通過表情識別去做《Lie to me》中的微表情測謊,目前是不太現實的,這可能會讓大家失望。主要的原因,不是因為現在的計算技術達不到,而是因為這方面的心理學理論還缺乏對“微表情”的清晰定義,從而構建相關數據來指導計算機認知就非常困難。
但近年來,情緒識別應用于ADAS逐漸火熱了起來,關于樂視汽車中情緒識別運用于ADAS上,從技術角度而言,這個過程是這樣實現的。情緒識別在用于ADAS的技術實施上,要考慮對人臉的捕捉角度以及計算效率等問題。ADAS系統要實時的在后臺計算,所以這種情況下,云服務不是好的選擇。而是需要讓計算機視覺的識別算法能夠高精度、高效率的運算在本地的嵌入式系統上。算法的前端化是計算機視覺應用于消費級智能機器的趨勢。
總結
以上是生活随笔為你收集整理的有用facs做计算机表情识别的嘛,人脸表情识别可以测谎吗的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: git push到GitHub的时候遇到
- 下一篇: html中怎么写多选框,如何在HTML中