天天看點

【Paper标題自動生成神器|ChatGenTitle】ChatGenTitle--使用百萬arXiv論文資訊在LLaM

作者:三哥平凡創作生活

【Paper标題自動生成神器|ChatGenTitle】ChatGenTitle--使用百萬arXiv論文資訊在LLaMA模型上進行微調的論文題目生成模型

項目名稱:ChatGenTitle

項目Star:137

項目Fork:5

項目連結:網頁連結

項目介紹:

1、作者正式釋出LLaMa-Lora-7B-3 和 LLaMa-Lora-7B-3-new 版本的LoRA模型權重,允許本地部署使用;

2、定時在arXiv上定時爬取cs.AI 、cs.CV 、cs.LG 論文的任務,作為模型語料

3、合計整理了220W+篇arXiv論文的元資訊,這些元資訊包括:title和abstract

4、文章标題生成效果見圖4

微調技術:

注:Instruct微調和LoRa微調是兩種不同的技術。

Instruct微調:

1、Instruct微調是指在深度神經網絡訓練過程中調整模型參數的過程,以優化模型的性能。

2、在微調過程中,使用一個預先訓練好的模型作為基礎模型,然後在新的資料集上對該模型進行微調。

3、Instruct微調是一種通過更新預訓練模型的所有參數來完成的微調方法,通過微調使其适用于多個下遊應用。

LoRa微調:

1、LoRa微調則是指對低功耗廣域網(LoRaWAN)中的LoRa節點參數進行微調的過程,以提高節點的傳輸效率。

2、在LoRa微調中,需要了解節點的硬體和網絡部署情況,并通過對節點參數進行微小調整來優化傳輸效率。

3、與Instruct微調相比,LoRA在每個Transformer塊中注入可訓練層,因為不需要為大多數模型權重計算梯度,大大減少了需要訓練參數的數量并且降低了GPU記憶體的要求。

4、研究發現,使用LoRA進行的微調品質與全模型微調相當,速度更快并且需要更少的計算。

5、是以,如果有低延遲和低記憶體需求的情況,建議使用LoRA微調。

【Paper标題自動生成神器|ChatGenTitle】ChatGenTitle--使用百萬arXiv論文資訊在LLaM
【Paper标題自動生成神器|ChatGenTitle】ChatGenTitle--使用百萬arXiv論文資訊在LLaM
【Paper标題自動生成神器|ChatGenTitle】ChatGenTitle--使用百萬arXiv論文資訊在LLaM
【Paper标題自動生成神器|ChatGenTitle】ChatGenTitle--使用百萬arXiv論文資訊在LLaM

繼續閱讀