日日碰狠狠躁久久躁96avv,色电影,一本久久a久久精品vr综,水浴精品视频

大模型機器視覺新突破,SAM進化版SAV來了:分割一切視頻!開源!

2023-07-19 16:18
瀏覽:5325

  今年4月,Meta的AI模型Segment Anything Model(SAM,分割一切模型)發(fā)布,一鍵輕松實現(xiàn)圖像分割,難怪網(wǎng)友直呼太強。

 

  SAM模型之所以在計算機視覺領域產(chǎn)生重要影響,是因為圖像分割是許多任務中的基礎步驟,比如自動駕駛、人臉識別、車牌識別等都有用到。

 

  在這些應用過程中,從目標檢測、分割再到識別的整個流程,由算法自動完成,無需人工干預,而SAM模型正是專攻其中的圖像分割。

 

  雖然SAM是圖像分割的代表性模型,但不可避免存在以下短板:

 

  1.它能夠處理圖片分割,但是不能處理視頻,尤其是不能對視頻里邊移動的物體做連續(xù)追蹤。

 

  2.它能分割,但是并不認識所分割的區(qū)域到底是什么。

 

  3.它存在過度分割的問題,經(jīng)常把一個完整的物體分割成不同的部分,而人是把目標作為整體看待的。

 

  一、SAV模型

 

  現(xiàn)在,云創(chuàng)數(shù)據(jù)(835305.BJ)在SAM和YOLOv8的基礎上,“分割一切”模型的進化版——分割一切視頻Segment-Any-Video(SAV)來了,進一步豐富了計算機視覺成果。

 

圖片SAV模型(圖片來源:SAV)

 

  作為一種新的圖像、視頻分割方法,SAV可以在圖片或視頻中實現(xiàn)全自動標注,一鍵分割物體。

 

  同時,基于Zero-Shot Transfer(零樣本遷移),SAV無需額外訓練,即使是訓練庫中沒有的圖片,也可以實現(xiàn)輕松分割。

 

  與SAM相比,SAV升級主要表現(xiàn)在以下方面:

 

  1.既可以分割圖片,也可以分割視頻;

  2.可以明確目標對象并打標簽;

  3.可得到語義上完整的目標區(qū)域。

 

圖片SAV與SAM圖像分割對比結果(圖片來源:SAV)

 

  從上圖可以看出,SAV將巴士、小汽車等分割成一個個完整的區(qū)域,而SAM是把這些單個的物體又分割為不同的區(qū)域。

 

  除了圖片以外,通過SAV,視頻也可以進行清晰的目標分割和追蹤。

 

  二、示例

 

  現(xiàn)在,我們在網(wǎng)頁版 demo (http://sav.cstor.cn)上體驗一下SAV,可以直觀地感受SAM和SAV兩者的差異。

 

  在首頁可任意選擇一張示例圖片,也可從本地上傳圖片,然后點擊Segment按鈕,就可以同時得到SAM和SAV的結果。

 

demo首頁示例圖片(圖片來源:SAV)

 

圖片分割結果:左側為SAM,右側為SAV(圖片來源:SAV)

 

  如果需要觀察某個實例的詳細效果,鼠標放置原圖,移動鼠標即可。

 

圖片移動鼠標查看詳細分割效果(圖片來源:SAV)

 

  在上圖中,由SAV分割的兩只小狗是完整而獨立的色塊,并不像左邊分割結果所展示——小狗耳朵顏色和身體部分顏色不一,不是完整的目標對象。同時,SAV分割的兩只小狗都打上了“dog”的標簽。

 

  需要說明的是,本項目只關注算法自動分割的應用場景,所以SAV無需人工輸入點、曲線、矩形框等提示信息。

 

  更多示例如下:

 

 

 

圖片圖片分割結果對比(圖片來源:SAV)

 

  三、原理

 

  如前所述, SAM的自動分割不返回標簽信息,并且一個實例(例如,一輛車)可能會被拆分成多個小區(qū)域。

 

自動分割模式下,SAM不返回標簽信息,車輛被分割成多個區(qū)域(圖片來源:SAM)

 

  基于此,研發(fā)團隊在SAM的基礎上加入YOLOv8檢測模型,YOLOv8返回的結果中包含目標框、類別及置信度,目標框可作為提示信息輸入到SAM,類別名稱即為標簽,因此SAM加YOLOv8可有效地解決上述問題。

 

  該方法同樣可用于視頻分割任務,與處理單幅圖像不同的是,除了分割,我們通常更關心目標的運動軌跡、目標重識別,以及如何實現(xiàn)一鍵摳視頻等。因此研發(fā)團隊在SAM和YOLOv8的基礎上加入跟蹤算法,持續(xù)關注感興趣的目標,這樣比單純地分割每幀圖像更有實際意義。

 

  考慮到使用了目標檢測模型,在跟蹤方面,研發(fā)團隊選擇Tracking-By-Detection(TBD) 范式的跟蹤方法,例如BoTSORT,而TBD是目前多目標跟蹤任務中特別有效的范式。

 

  圖像分割

 

  使用YOLOv8做前向推理,獲得n個目標框,將這n個目標框作為提示信息輸入到SAM模型并推理,即可完成目標框的實例分割并且得到n個對應的掩膜,然后對這n個掩膜取并集,結果記為m。

 

使用YOLOv8做前向推理(圖片來源:SAV)

 

  然后使用SAM做一次全局自動分割,將此時得到的掩膜圖像記為m2。

 

使用SAM做全局自動分割(圖片來源:SAV)

 

  由于YOLOv8無法檢測到它不能識別的物體,可以設置兩個超參數(shù)來確定新的物體,即未知區(qū)域與檢測區(qū)域的交并比r,以及未知區(qū)域的像素個數(shù)n。具體而言,按面積對m2中的區(qū)域作降序排序,依次取出其中的區(qū)域,然后分別與m計算交并比,若交并比r小于0.3且該區(qū)域的像素個數(shù)n大于100,則認為該區(qū)域是一個新的物體。按照此方法處理m2中的所有區(qū)域,即可完成SAV分割單幅圖像的全部流程。

 

SAV分割單幅圖像(圖片來源:SAV)

 

  視頻分割

 

  SAV視頻分割的原理可以簡單描述為:

 

  1.使用YOLOv8檢測某幀圖像中的所有目標;

  2.使用跟蹤算法預測后續(xù)幀中的目標框;

  3.根據(jù)檢測到的目標框與當前軌跡集合相關聯(lián),獲得每個目標的id;

  4.將目標矩形框輸入SAM,進行實例分割。

 

  重復上述1~4步驟,實現(xiàn)視頻分割。

 

SAV視頻分割算法框架圖(圖片來源:SAV)

 

  效果展示

 

圖像分割對比(圖片來源:SAV)

 

  可以看出,SAV能夠很好地解決文章開頭提到的SAM存在的問題。

 

  四、潛在用途

 

  無人駕駛。特斯拉無人駕駛汽車經(jīng)常會把樹樁或者墓碑當成行人,這個對于無人駕駛來說是不利的,因為如果是電線桿子在路邊的話,我們沒必要讓無人駕駛汽車減速,但如果是一個行人準備過馬路的話,那么就需要預先作出處理。SAV可以有效地解決這種問題。

 

  無人機自主飛行。無人機自主飛行在密林中或者建筑物中,需要對所有的目標進行識別,并且做出恰當?shù)姆磻AV將大大提高這種智能水平。

 

  機器人視覺。機器人行走在工廠或者街上的時候,如果不認得障礙物,不認得道路,不認得其他移動的物體,那將寸步難行。SAV將為機器人裝上智慧的眼睛。

 

  重點區(qū)域防護。可連續(xù)追蹤和識別每個目標,結合其他的算法對目標的身份和行為進行識別。確保重點區(qū)域的的每一個人,每一輛車都在管控的范圍內。

 

  五、更多

 

  目前,SAV模型已開源,并在GitHub正式上線。感興趣的朋友可以點擊【閱讀原文】或者直接前往https://github.com/cStor-cDeep/Segment-Any-Video了解,也歡迎向研發(fā)團隊訂制更高性能的大模型算法,聯(lián)系方式如下:

 

  聯(lián)系人:張先生

  郵箱:zhangkun@cstor.cn

  手機:15895885574(微信同號)

 

  參考文獻

  [1] Kirillov A, Mintun E, Ravi N, et al. Segment anything[J]. arXiv preprint arXiv:2304.02643, 2023.

  [2] Dillon Reis, Jordan Kupec, et al. Real-Time Flying Object Detection with YOLOv8[J]. arXiv preprint arXiv:2305.09972, 2023.


黄色av一区| 婷婷五月综合国产激情| 姦淫日韩AV| 2020国产在线| 美女AV影视| 国产伦乱| 美女禁区A级全片免费观看| 99热视| 久久久一| 中文字幕人妻无码专区| 国产干逼视频| 国产午夜福利精品一区二区三区| 亚洲欧美日韩国产一区二区三区| 亚洲综合五月婷婷网| 久久国产欧美日韩精品| 夜夜草影院| 欧美1级黄片(孕妇版)| 懂色av一区二区三区蜜臀| 日韩欧美国产电影| 漂亮人妻被中出中文字幕| 自拍偷拍欧美| 男女xxoo啪啪高潮| 成熟的水蜜桃2法国| 日本色图亚洲| 日日夜夜狠狠天天干| 亚洲码w欧洲码s视频在线播放| 国偷自产视频一区二区久| babsexxx.xxx| 亚洲欧美国产另类| 日韩国产欧美综合| 亚洲成人在线观看第一| 日韩免费精品| 精品国产99久久久久久影视99 | 色哟哟精品视频| 中文字幕乱码人妻一区| 狼友视频在线观看免费播放| 欧美日本中文| 日韩一区二区三| caopeng97福利在线| 色熟妇| 成人精品一区二区三区|