找回密碼 或 安全提問
 註冊
|註冊|登錄

伊莉討論區

搜索
尊貴會員無限觀看附件圖片你準備好成為出色的版主了嗎?安全提問(回答) 和 永久尊貴會員 事宜
rion七龍珠強姦柯南旬果母乳按摩
ipx 184一次性交腐界に眠禁親聖交我想成為無限煉姦寢取られ

休閒聊天興趣交流學術文化旅遊交流飲食交流家庭事務PC GAMETV GAME
熱門線上其他線上感情感性寵物交流家族門派動漫交流貼圖分享BL/GL
音樂世界影視娛樂女性頻道潮流資訊BT下載區GB下載區下載分享短片
電腦資訊數碼產品手機交流交易廣場網站事務長篇小說體育運動時事經濟
上班一族博彩娛樂

[繁]七龍珠大魔04-

[簡]重啟人生的千金小

[繁]香格里拉・開拓異

[繁]BLEACH 死神 千年

[繁]被逐出隊伍的治癒

[繁]機械臂05-
電腦新資訊電腦軟體討論電腦軟體資訊分享電腦硬體討論電腦硬體資訊分享電腦萌化版電腦系統 OS 討論電腦程式設計
電腦設計技術交流圖像設計及交流各類下載工具教學寬頻上網討論
查看: 20672|回復: 1
打印上一主題下一主題

[軟體新資訊]Google開發逐步蒸餾技術,小資料小模型也能打敗LLM[複製鏈接]

Rank: 2Rank: 2

帖子
560
積分
533 點
潛水值
31934 米
跳轉到指定樓層
樓主
發表於 2023-9-23 09:07 AM|只看該作者|倒序瀏覽
本帖為轉載帖

Google開發逐步蒸餾(Distilling Step-by-Step)技術,以較少資料訓練專用小模型,效能即可優於少樣本提示語言模型,解決龐大模型的部署挑戰,同時也使小模型效能可超越大型語言模型



為了解決模型大小和訓練資料收集成本之間的權衡問題,Google現在發展一種稱為

下載: 訪客無法瀏覽下載點,請先 註冊登入會員
的技術,可用比一般方法少得多的資料,訓練用於特定任務的小模型,但是效能卻能優於少樣本提示語言模型(Few-Shot Prompted LLM)。

大型語言模型雖然功能強大,但是實際部署卻具有各種挑戰,Google提到,光是要部署一個1,750億參數的大型語言模型,專用基礎設施的GPU記憶體就至少需要350 GB。更不用說先進的語言模型參數可能高達5,000億個,所以供應商為了規避這類部署挑戰,通常會選擇部署較小的專用模型。

研究人員解釋,小型專用模型有兩種訓練方式,分別是微調(Fine-tuning)和蒸餾(Distillation)。微調使用人工註釋資料,更新預先訓練的BERT或T5等規模較小的模型。而蒸餾的概念則是將一個大型模型,或稱為教師模型的知識,轉移至一個比較小的學生模型,運用大型語言模型所生成的標籤,訓練相同但規模較小的模型,雖然蒸餾法可以讓學生模型的規模和複雜性都遠低於教師模型,效能卻可以接近或是超越教師模型。

但是要達到良好的效能,微調法需要人工生成標籤,這個過程既昂貴又繁瑣,而蒸餾法則需要大量未標記的資料,且收集資料本身就並非一件簡單的事。因此Google發展了逐步蒸餾法,這相對是一個簡單的機制,能夠讓研究人員以比標準微調或是蒸餾法少得多的訓練資料,訓練一個更小且專用於特定任務的模型,而且效能還可能可以優於少樣本提示語言模型。

少樣本提示語言模型是指,大型語言模型使用少量的樣本,並透過提示來完成任務的方法,像是要求語言模型完成翻譯任務,研究人員便可以提供少量的英翻中樣本,再給予新的提示問題,期望模型能夠依據範例正確翻譯新問題。

研究人員解釋,當大型語言模型被問到某些問題時,能夠透過推理並給出最終答案,這些中間的推理包含了可以完成任務需要的重要知識,但是小型模型需要大量資料才能學到這些知識。因此逐步蒸餾的核心想法,便是從大型語言模型中擷取有用的自然語言解釋,也就是中間的推理步驟,然後使用這些解釋更有效地訓練小型模型。

因此逐步蒸餾的第一步驟,是從大型語言模型中擷取解釋,研究人員會提供少數範例,這些範例包含問題、中間的解釋和答案,引導大型語言模型對新的問題產生相對應的解釋。第二階段則是利用第一階段取得的解釋訓練小型模型,小型模型學習由大型語言模型生成的中間推理步驟,便能夠更好地預測答案。

研究人員使用5,400億參數的PaLM大型語言模型,並選用T5作為特定任務的模型,實驗在不同自然語言處理任務的表現。透過逐步蒸餾法,使用較少的訓練資料就能超越標準微調方法的效果,甚至僅擁有2.2億參數的T5模型,在e-SNLI資料集表現就可超越5,400億參數的PaLM大型語言模型。

而在ANLI資料集上,只擁有7.7億參數的T5模型只使用整個資料集的80%,效果便以超越擁有5,400億參數的PaLM大型語言模型。這些結果證明了逐步蒸餾法即便使用小資料,小模型仍可以超越大型語言模型的效能。




...
瀏覽完整內容,請先 註冊登入會員
分享分享0收藏收藏0支持支持0
JOY CHEN
Best regards
若新密碼無法使用,可能是數據未更新。請使用舊密碼看看。

使用道具檢舉

Rank: 3Rank: 3Rank: 3

帖子
2358
積分
2916 點
潛水值
39195 米
頭香
發表於 2023-10-16 09:07 AM|只看該作者
雖然看得不是很懂,但這是不是意味著,未來個人電腦或手機不用上網,不用連到伺服器,也能自己作到GPT的能力?
所有積分大於負-100的壞孩子,將可獲得重新機會成為懲罰生,權限跟幼兒生一樣。

使用道具檢舉

您需要登錄後才可以回帖 登錄 | 註冊

Powered by Discuz!

© Comsenz Inc.

重要聲明:本討論區是以即時上載留言的方式運作,對所有留言的真實性、完整性及立場等,不負任何法律責任。而一切留言之言論只代表留言者個人意見,並非本網站之立場,用戶不應信賴內容,並應自行判斷內容之真實性。於有關情形下,用戶應尋求專業意見(如涉及醫療、法律或投資等問題)。 由於本討論區受到「即時上載留言」運作方式所規限,故不能完全監察所有留言,若讀者發現有留言出現問題,請聯絡我們。有權刪除任何留言及拒絕任何人士上載留言,同時亦有不刪除留言的權利。切勿上傳和撰寫 侵犯版權(未經授權)、粗言穢語、誹謗、渲染色情暴力或人身攻擊的言論,敬請自律。本網站保留一切法律權利。
回頂部