蜜桃无码视频,国产精品 17c,5g-天天看天天奭免费入口,乱亲女H秽乱长久久久

歡迎來到 常識詞典網(wǎng) , 一個專業(yè)的常識知識學習網(wǎng)站!

[ Ctrl + D 鍵 ]收藏本站

您所在的位置:首頁 > 資訊 > 最新資訊

最新資訊

谷歌MIT最新研究證明:高質量數(shù)據(jù)獲取不難,大模型就是歸途

分類: 最新資訊 常識詞典 編輯 : 常識 發(fā)布 : 01-13

閱讀 :381

新智元報道編輯:桃子【新智元導讀】數(shù)據(jù)獲取最新解,便是從生成模型中學習。獲取高質量數(shù)據(jù),已經(jīng)成為當前大模型訓練的一大瓶頸。前幾天,OpenAI被《紐約時報》起訴,并要求索賠數(shù)十億美元。訴狀中,列舉了GPT-4抄襲的多項罪證。甚至,《紐約時報》還呼吁摧毀幾乎所有的GPT等大模型。一直以來,AI界多位大佬認為「合成數(shù)據(jù)」或許是解決這個問題的最優(yōu)解。此前,谷歌團隊還提出了用LLM代替人類標記偏好的方法RLAIF,效果甚至不輸人類。現(xiàn)如今,谷歌MIT的研究人員發(fā)現(xiàn),從大模型中學習可以得到使用真實數(shù)據(jù)訓練的最佳模型的表征。這一最新方法稱SynCLR,一種完全從合成圖像和合成描述學習虛擬表征的方法,無需任何真實數(shù)據(jù)。論文地址:https://arxiv.org/abs/2312.17742實驗結果表明,通過SynCLR方法學習到的表征,能夠與OpenAI的CLIP在ImageNet 上的傳輸效果一樣好。從生成模型中學習目前表現(xiàn)最好的「視覺表征」學習方法依賴于大規(guī)模的實際數(shù)據(jù)集。然而,真實數(shù)據(jù)的收集卻有不少的困難。為了降低收集數(shù)據(jù)的成本,研究人員本文中提出了一個問題:從現(xiàn)成的生成模型中采樣的合成數(shù)據(jù),是否是一條通往大規(guī)模策劃數(shù)據(jù)集的可行之路,從而訓練出最先進的視覺表征?與直接從數(shù)據(jù)中學習不同,谷歌研究人員稱這種模式為「從模型中學習」。作為建立大規(guī)模訓練集的數(shù)據(jù)源,模型有幾個優(yōu)勢:- 通過其潛在變量、條件變量和超參數(shù),為數(shù)據(jù)管理提供了新的控制方法。- 模型也更容易共享和存儲(因為模型比數(shù)據(jù)更容易壓縮),并且可以產(chǎn)生無限數(shù)量的數(shù)據(jù)樣本。越來越多的文獻研究了生成模型的這些特性和其他優(yōu)點和缺點,并將其作為訓練下游模型的數(shù)據(jù)源。其中一些方法采用混合模式,即混合真實數(shù)據(jù)集和合成數(shù)據(jù)集,或需要一個真實數(shù)據(jù)集來生成另一個合成數(shù)據(jù)集。其他方法試圖從純粹的「合成數(shù)據(jù)」中學習表征,但遠遠落后于表現(xiàn)最好的模型。論文中,研究人員提出的最新方法,使用生成模型重新定義可視化類的粒度。如圖2所示,使用2個提示生成了四張圖片「一只戴著墨鏡和沙灘帽的金毛獵犬騎著自行車」和「一只可愛的金毛獵犬坐在壽司做成的房子里」。傳統(tǒng)的自監(jiān)督方法(如Sim-CLR)會將這些圖像視為不同的類,不同圖像的嵌入會被分開,而不會明確考慮圖像之間的共享語義。另一個極端是,監(jiān)督學習方法(即SupCE)會將所有這些圖像視為單一類(如「金毛獵犬」)。這就忽略了這些圖像在語義上的細微差別,例如在一對圖像中狗在騎自行車,而在另一對圖像中狗坐在壽司屋內(nèi)。相反,SynCLR方法將描述視為類,即每個描述一個可視化類。這樣,我們就可以按照「騎自行車」和「坐在壽司店里」這兩個概念對圖片進行分組。這種粒度很難在真實數(shù)據(jù)中挖掘,因為收集由給定描述的多張圖片并非易事,尤其是當描述數(shù)量增加時。然而,文本到圖像的擴散模型從根本上就具備這種能力。只需對相同的描述設定條件,并使用不同的噪聲輸入,文本到圖像的擴散模型就能生成與相同描述相匹配的不同圖像。具體來說,作者研究了在沒有真實圖像或文本數(shù)據(jù)的情況下,學習視覺編碼器的問題。最新方法依賴3個關鍵資源的利用:一個語言生成模型(g1),一個文本到圖像的生成模型(g2),以及一個經(jīng)過整理的視覺概念列表(c)。前處理包括三個步驟:(1)使用(g1)合成一組全面的圖像描述T,其中涵蓋了C中的各種視覺概念;(2)對于T中的每個標題,使用(g2)生成多個圖像,最終生成一個廣泛的合成圖像數(shù)據(jù)集X;(3)在X上進行訓練,以獲得視覺表示編碼器f。然后,分別使用llama-27b和Stable Diffusion 1.5作為(g1)和(g2),因為其推理速度很快。合成描述為了利用強大的文本到圖像模型的能力,來生成大量的訓練圖像數(shù)據(jù)集,首先需要一個不僅精確描述圖像而且展示多樣性的描述集合,以包含廣泛的視覺概念。對此,作者開發(fā)了一種可擴展的方法來創(chuàng)建如此大量的描述集,利用大模型的上下文學習能力。如下展示了三個合成模板的示例。如下是使用Llama-2生成上下文描述,研究人員在每次推理運行中隨機抽取三個上下文示例。合成圖像對于每個文本描述,研究人員都會用不同的隨機噪聲啟動反向擴散過程,從而生成各種圖像。在此過程中,無分類器引導(CFG)比例是一個關鍵因素。CFG標度越高,樣本的質量和文本與圖像之間的一致性就越好,而標度越低,樣本的多樣性就越大,也就越符合基于給定文本的圖像原始條件分布。表征學習論文中,表征學習的方法建立在StableRep的基礎上。作者提出的方法的關鍵組成部分是多正對比學習損失,它的工作原理是對齊(在嵌入空間)從同一描述生成的圖像。另外,研究中還結合了其他自監(jiān)督學習方法的多種技術。與OpenAI的CLIP相媲美實驗評估中,研究人員首先進行消融研究,以評估管道內(nèi)各種設計和模塊的有效性,然后繼續(xù)擴大合成數(shù)據(jù)的量。下圖是不同描述合成策略的比較。研究人員報告了9個細粒度數(shù)據(jù)集的ImageNet線性評估準確性和平均準確性。這里的每個項目包括1000萬個描述和每個描述4張圖片。下表是ImageNet線性評估與細粒度分類的比較。盡管只使用了合成數(shù)據(jù),但SynCLR與OpenAI的CLIP和DINO v2模型取得了不相上下的結果。下表是在相同的合成數(shù)據(jù)上比較SynCLR和CLIP,可以看出,SynCLR明顯優(yōu)于CLIP。具體設置為,每個標題生成4個圖像,SynCaps-150M為SynCLR和CLIP提供了更好的表示。PCA可視化如下。按照DINO v2,研究人員計算了同一組圖像的斑塊之間的PCA,并根據(jù)其前3個分量進行著色。與DINO v2相比,SynCLR對汽車和飛機的繪制的圖更為準確,而對能繪制的圖則稍差一些。圖6和圖7中,分別展示了不同訓練規(guī)模下的ImageNet線性準確率,以及不同訓練參數(shù)規(guī)模下的精細分類。為什么要從生成模型中學習?一個令人信服的原因是,生成模型可以像數(shù)百個數(shù)據(jù)集一樣同時運作,能夠為策劃訓練數(shù)據(jù)提供了一種方便有效的方法??偠灾钚抡撐难芯苛艘曈X表征學習的新范式——從生成模型中學習。在沒有使用任何實際數(shù)據(jù)的情況下,SynCLR學習到的視覺表征,與最先進的通用視覺表征學習器學習到的視覺表征不相上下。參考資料:https://huggingface.co/papers/2312.17742

下一篇:英特爾宣布ArrowLake和LunarLake將于2024年推出 下一篇 【方向鍵 ( → )下一篇】

上一篇:程前向周鴻祎道歉:失態(tài)失禮,回頭看自己都覺得不可原諒 上一篇 【方向鍵 ( ← )上一篇】

制服丝袜影音先锋| 免费久久99精品国产自在现| 午夜在线免费视频| 亚洲成人免费网| 亚洲欧美日韩综合玖玖| 久久久久不卡网站毛片| 人禽无码视频在线观看| 天天弄91视频| 久久熟伦熟女专区| 亚洲精品被多人伦好爽| 久久精品国产亚州Av无码| 久久久久亚洲AV色欲av| 先锋资源影院| 亚洲人成影院在线高清| 亚洲AV无码一区二区三区在线观...| 色婷婷综合操| 久久精品国产综合牛牛影视| 日本潮喷在线观看| 6月色婷婷| 国产精品视频区a区| 天堂√AⅤ| 丰满的大屁股一区二区| 五月天综合影院| 美女啪啪一区二区三区激情| 天堂无码在线观看免费视频| 色导航com| 天天操夜夜操天天天天| 日本中文字幕爆乳| 超碰Sm| 欧美日韩国产激情| 成年入口无限观看免费完整大片| 亚洲欧洲精品福利下载| 亚洲日韩欧美日本高观看| 久久久久国产精品…| 六月婷婷伊人依依| 中国一级做a爰片久久毛片| 亚洲国产精品自在拍在线播放蜜臀 | A91精品国产自产| 丁香五月资源| 一级毛片成人| 欧美一区二区三区人人喊爽|