音视频技术开发周刊 64期
『音視頻技術開發周刊』由LiveVideoStack團隊出品,專注在音視頻技術領域,縱覽相關技術領域的干貨和新聞投稿,每周一期。點擊『閱讀原文』,瀏覽第64期內容,祝您閱讀愉快。
架構
劉歧:FFmpeg Filter深度應用
本文來自OnVideo視頻創作云平臺聯合創始人劉歧在LiveVideoStackCon的講師熱身分享,劉歧分享了FFmpeg的基本原理、使用方法及開發方法。在10月19-20日的LiveVideoStackCon 2018上,劉歧還將分享如何通過FFmpeg實現視頻版權保護的方法。
快手QoE指標設計的分析初探
全鏈路的數據收集,分析,才能精準的定位問題,并制定方案改進。本文來自快手流媒體大數據平臺架構師羅喆在LiveVideoStackCon熱身分享上的分享,他會在10月19-20日的LiveVideoStackCon上分享更詳細和完整的內容。
MacOS 下單步調試 WebRTC Android & iOS
本文詳細介紹了困擾廣大 WebRTC 安卓開發者的一項技術難題:如何在 Android Studio 里單步調試 WebRTC Android 的 Native 代碼。
張睿:OpenH264擁有產品級的魯棒性 歡迎contribute
張睿擁有超過20年多媒體領域研發經驗,是WebEx視頻會議系統的媒體架構師,同時也是OpenH264的項目負責人,她在LiveVideoStack的采訪中表示,思科不僅貢獻了高魯棒性的代碼,還承擔了IP費用,希望能與AV1一樣幫助多媒體生態健康發展。
Dweb:使用WebRTC / WebTorrent構建彈性Web
本文來自WebTorrent的創始人、PeerCDN聯合創始人Feross Aboukhadijeh,他介紹了一種基于WebRTC通信的Web協議WebTorrent,通過WebTorrent可以節省服務器資源,降低成本。LiveVideoStack對原文進行了摘譯。
RTSP協議轉換RTMP直播協議
RTSP協議也是廣泛使用的直播/點播流媒體協議,以前的項目里實現了一個RTSP協議轉換RTMP直播協議的程序,為的是可以接收遠端設備或服務器的多路RTSP直播數據,實時轉換為RTMP直播協議,推送到NginxRtmp等RTMP服務器,可以在PC上實現flash觀看RTSP直播源(比如IPCAM)的需求,也能通過Nginx的HLS協議轉換,在手機上觀看。
萬萬沒想到-Flutter這樣外接紋理
本文以IOS端為范例介紹了Flutter外接紋理的基本原理,以及優化策略。
FPGA在大數據時代的機遇與挑戰
本文從以下幾個方面探討了FPGA在大數據時代的各種機遇和挑戰:1.英特爾“泛數據中心”業務及其潛在市場2.基于FPGA的智能網卡產品線的正式發布3.英特爾人工智能計算加速器產品系列的相關布局4.FPGA開發的痛點與潛在方案。
音頻/視頻技術
追根溯源解雜音之謎,臻于至善得完美音質
本文介紹了針對雜音問題從背景分析,問題分解與切入到發現根源提出解決方案的完整處理流程。
WebRTC基于TransportCC和Trendline Filter的發送端碼率估計(Sendside-BWE)
本文基于WebRTC的M66版本和相關RFC,深度分析學習最新Sendside-BWE算法的實現。
IP現場直播場景下生產端延遲分析與設計
本文主要參考了Michael Cronk等人的文章“A Model for the Design of IP Based Live Production Systems with Low Latency”(NAB 2017),文章首先討論了現場生產制作中需要考慮的基本延遲要求,然后對基于IP接口的制作系統所存在的延遲量進行了建模,最后提出了一種有效控制延遲的系統性方案,可以實現與SDI制作系統相同或更低的延遲。
視頻傳輸延遲分析及解決方案:CMAF、LHLS
本文詳細分析了造成視頻傳輸延遲的原因,介紹了兩個縮小延遲的解決方案:CMAF和LHLS,為提升直播觀看體驗提供了思路。
編解碼
超高清內容生產中的視頻編碼技術
本文主要參考Anaya等人的文章“HEVC Mezzanine Compression for UHD Transport over SDI and IP infrastructures”(SMPTE ATC’16)。文章重點分析了如何調整HEVC幀內編碼結構以滿足UHD-1 Mezzanine壓縮在質量、延遲和復雜度方面的要求,還對無損、接近無損(4:1)和級聯這三種編碼模式進行了測試,并將HEVC的編碼結果與JPEG 2000和SMPTE VC-2等視頻編解碼器的結果進行了比較。
FFmpeg音視頻解碼
本文詳細介紹了FFmpeg解碼視頻的流程以及解碼用到的關鍵API和數據結構。
音視頻基礎_Mpeg4封裝格式音視頻編碼格式
MPEG-4標準將眾多多媒體應用集成于一個完整框架內,旨在為多媒體通信及應用環境提供標準算法及工具,從而建立起一種能被多媒體傳輸、存儲、檢索等應用領域普遍采用的統一數據格式。
使用OpenGL實現視頻錄制
Mediacodec可以用來獲得安卓底層的多媒體編碼,可以用來編碼和解碼,它是安卓low-level多媒體基礎框架的重要組成部分。它經常和 MediaExtractor, MediaSync, MediaMuxer, MediaCrypto, MediaDrm, Image, Surface, AudioTrack一起使用。?
AI智能
針對 3D 計算機視覺的簡介
隨著 AR / VR 技術和自動駕駛汽車技術的發展,3D 視覺問題變得越來越重要,它提供了比 2D 更豐富的信息。本文將介紹兩種用于 3D 場景分析的基本深度學習模型:VoxNet 和 PointNet。
TensorFlow 將發布v2.0 — TensorFlow 招牌特性回顧
TensorFlow 2.0要來了,伴隨著一些令人期待的改進,但同時也帶來了版本上的一些不兼容。本文介紹TensorFlow 2.0即將帶來的一些變化,以及老版本TensorFlow中的一些招牌特性。
基于內容的圖像檢索技術綜述-CNN方法
和SIFT等算法類似,CNN訓練的模型同樣對縮放、平移、旋轉等畸變具有不變性,有著很強的泛化性。CNN的最大特點在于卷積的權值共享結構,可以大幅減少神經網絡的參數量,防止過擬合的同時又降低了神經網絡模型的復雜度。
基于深度學習的目標檢測算法綜述(二)
目標檢測(Object Detection)是計算機視覺領域的基本任務之一,學術界已有將近二十年的研究歷史。近些年隨著深度學習技術的火熱發展,目標檢測算法也從基于手工特征的傳統算法轉向了基于深度神經網絡的檢測技術。
XNN:打開了自己黑箱的神經網絡
本文介紹了一種旨在「打開」并解釋神經網絡的新模型 XNN(可解釋神經網路)。該網絡包含三個重要組成部分:投影層、子網絡、組合層。XNN 還可用于替代復雜模型,無論將 XNN 用作主要模型還是用于更復雜模型的替代模型,XNN 都可以直接解釋模型如何使用輸入特征進行預測。
畫個草圖生成2K高清視頻,這份效果驚艷研究值得你跑一跑
在圖像到圖像合成的研究領域熱火朝天的當下,英偉達又放大招,聯合 MIT CSAIL 開發出了直接視頻到視頻的轉換系統。該系統不僅能用語義分割掩碼視頻合成真實街景視頻,分辨率達到 2K;能用草圖視頻合成真實人物視頻;還能用姿態圖合成真人舞蹈視頻。更令人驚艷的是,在語義分割掩碼輸入下,換個掩碼顏色該系統就能直接將街景中的樹變成建筑!目前該項目已開源。
圖像
深度學習AI美顏系列----AI美甲算法揭秘(WANNA NAILS)
本文將給大家分享WANNA NAILS App中漂亮的美甲效果是如何實現的,對其背后的圖像算法技術做一個詳解。
HDR關鍵技術:光學、視覺與光電轉換曲線
本系列的前作當中介紹了HDR技術的相關技術與標準,本文將從更基礎的知識點出發,重點介紹HDR技術的兩大關鍵基礎-亮度與顏色中的前者
總結
以上是生活随笔為你收集整理的音视频技术开发周刊 64期的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 51Talk音视频技术实践和独特挑战
- 下一篇: 七牛云徐晶:低延迟互动时代看好WebRT