挑战GPT-4V!清华开源多模态14边形战士问世:在线可玩
看看這張圖中有幾個(gè)房子?如果你回答3個(gè),就和GPT-4V的答案一樣。
但是最新開源的國(guó)產(chǎn)多模態(tài)模型CogVLM-17B,就能看出另有玄機(jī)。
甚至能區(qū)分在圖中完整可見的有3個(gè)和部分可見的有1個(gè)。
CogVLM由清華和智譜AI合作開發(fā),通訊作者為唐杰和丁銘,論文和開源代碼已上傳到GitHub。
除這個(gè)單獨(dú)案例之外,CogVLM-17B還在10項(xiàng)權(quán)威跨模態(tài)基準(zhǔn)上取得了SOTA性能。
另外在VQAv2, OKVQA, TextVQA, COCO captioning取得第二,超越或匹配谷歌的PaLI-X 55B。
與之前的開源多模態(tài)大模型相比,可以算是14邊形戰(zhàn)士。
雷達(dá)圖中包含13個(gè)基準(zhǔn),最后一個(gè)TDIUC單獨(dú)展現(xiàn)。
CogVLM可以回答各種類型的視覺問(wèn)題,比如從馬斯克的陰陽(yáng)怪氣中推理出小扎假裝去旅行了,回避約架。
認(rèn)出照片中的C羅,并回答他在2018年世界杯中有多少進(jìn)球。
帶圖的編程題也能給出代碼了。
甚至能完成復(fù)雜的目標(biāo)檢測(cè),并打上標(biāo)簽,自動(dòng)數(shù)據(jù)標(biāo)注成了。
從淺層對(duì)齊到深度融合
CogVLM模型包含4個(gè)基本組件
ViT編碼器
MLP適配器
大型預(yù)訓(xùn)練語(yǔ)言模型
視覺專家模塊
其中,每層中都添加了可訓(xùn)練的視覺專家模塊,以實(shí)現(xiàn)圖像特征和文本特征的深度對(duì)齊,而不會(huì)犧牲任何NLP任務(wù)的性能。
之前主流的淺層對(duì)齊方法,如BLIP-2,圖像特征和語(yǔ)言模型之間缺乏深度融合,導(dǎo)致性能不佳。
但微調(diào)語(yǔ)言模型的全部參數(shù)又會(huì)損害其NLP能力。
CogVLM的方法可以說(shuō)是改變了視覺語(yǔ)言模型的訓(xùn)練范式,從淺層對(duì)齊轉(zhuǎn)向深度融合。
另外值得注意的是,CogVLM訓(xùn)練數(shù)據(jù)中沒有專門的OCR數(shù)據(jù),但表現(xiàn)出了很強(qiáng)的文字識(shí)別能力。
CogVLM開源并給出了在線試玩。
不過(guò)目前僅支持英文,后續(xù)會(huì)提供中英雙語(yǔ)版本支持,可以持續(xù)關(guān)注。
試玩地址:http://36.103.203.44:7861
開源及論文地址:https://github.com/THUDM/CogVLM
總結(jié)
以上是生活随笔為你收集整理的挑战GPT-4V!清华开源多模态14边形战士问世:在线可玩的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: 美股结束连续3天上涨 搜狗签订私有化协议
- 下一篇: 小米推新技术!利用手机闪光灯和镜头完成心