利用人工智能分析视频行为
隨著人工智能的發展,特別是越來越準確的各類行為及物品識別的發展讓軟件自動識別視頻成為了一種可能。如行人行為分析,課堂教學分析,人流車流擁堵分析。值班人員狀態分析,駕駛人員疲勞分析等。由于這些一般都是實時或以視頻形式出現,所以就要利用視頻處理技術和人工智能識別技術相結合的方式來解決這些問題。用的技術有opencv.ffmpeg,yolo.人臉識別,ocr等等。(全文以各種開源技術應用為主,感謝各開源作者的貢獻)
ffmpeg是視頻處理的基礎。opencv是處理圖像的基礎。yolo.人臉識別,ocr等是識別分析技術。在opencv可以直接使用dnn加載各種模型處理后。有些識別技術可以由opencv 直接來實現。下面就以一個實例來實現分析視頻行為來進行視頻分類。
總體設計思路,先以指定的間隔時間提取視頻圖像。比如隔30秒提取一次,這個一個30分鐘的視頻提取圖片數為60張。然后按提取順序進行圖像中行為分析。如有人正面人臉,有無人頭,有無站立的人。有無教學白板。等等。(這里處理的是一個教學視頻行為判斷)。根據st教學法的判斷方法,最后得出視頻的類型。如下圖。
視頻圖像分析
分析圖中的聽課的人,講授的人,白板等。
得到分析的數據,用qchart作出st圖
分析完的圖片保存分析結果
用qchart做出實時st圖。
用qchart做出標準st圖。
得出分析結果。
根據以上分析的流程和原理。可以將視頻分析用于行人行為分析,鑒黃分析等等應用。
總結
以上是生活随笔為你收集整理的利用人工智能分析视频行为的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Android怎么插手机卡,魅蓝E手机卡
- 下一篇: idc机房运维巡检_智和信通赋能国产信创