《東方看點|SAM模型發(fā)布 關注AI視覺領域》
時間:2023-04-10
近日Meta發(fā)布AI模型Segment Anything Model(SAM模型),由于其泛化能力和數(shù)據(jù)多樣性,SAM模型能夠在零樣本的基礎上查找和分割圖像中的任意對象。
東方基金權益研究部認為,SAM與之前計算機視覺的不同點在于,計算機視覺依賴于人工標注和企業(yè)自身數(shù)據(jù)訓練,缺點是舉一反三的能力不夠強,且容易被圖像中可能存在的對象目標小、數(shù)量多和相互重疊等因素干擾,難以區(qū)分和識別對象。在Chatgpt實現(xiàn)了文字端的智能化之后,SAM模型的出現(xiàn)又進一步實現(xiàn)了視覺端的智能化,在沒有預訓練的情況下,SAM模型也能夠進行圖像識別和分割。而且SAM模型學會了對象通用的概念,能夠在從未識別過的圖像和視頻中分離出對象,或許代表著AI具備了視覺能力。
東方基金權益研究部認為,SAM模型意味著多模態(tài)模型在視覺領域加速發(fā)展,其對圖像處理和識別的功能有望應用于多個領域,包括安防鏡頭識別、智能駕駛識別(3D物體自動建模)、機器視覺和工業(yè)自動化、AR追蹤和內容產出、醫(yī)療影像識別、遙感衛(wèi)星等,建議關注AI視覺領域的機會。
市場有風險,投資需謹慎。
|
關閉本頁 打印本頁 |