1、 BloombergGPT ——是一個新的金融 LLM。它是一個基于金融資料訓練的 500 億參數語言模型。聲稱擁有 3630 億個tokens的最大特定領域資料集......進一步增加了來自通用資料集的 3450 億個tokens。在财務任務上優于現有模型,同時不犧牲一般 LLM 基準的性能。
2、HuggingGPT —— 一個利用像 ChatGPT 這樣的 LLM 來進行任務規劃、選擇模型并充當控制器來執行子任務并根據執行結果彙總響應的系統。
3、ChatDoctor ——使用醫學領域知識在 LLaMA 上微調的醫學聊天模型。收集大約 700 種疾病的資料并生成 5K 醫患對話以微調 LLM。
4、 LLaMA-Adapter——一種輕量級自适應方法,可有效地将 LLaMA 微調為指令跟随模型;通過完全微調的 7B 參數生成與Alpaca相媲美的響應;它還擴充了多模态輸入支援。
5、ChatGPT for Text-Annotation——表明 ChatGPT 在相關性、主題和架構檢測等多項注釋任務上優于衆包工作者;除了更好的 0-shot 準确性外,ChatGPT 的每個注釋成本比 MTurk 便宜約 20 倍。未來标注都用AI也是有可能的……
6、Language Models can Solve Computer Tasks ——能夠在計算機上執行一般任務的代理可以通過自動執行重複性任務和協助解決複雜問題來提高效率和生産力。讓 LLM 遞歸地批評和改進其輸出,在計算機任務上顯着優于現有的 LLM 方法,并超越監督學習 (SL) 和 RL 方法。
7、Dialog-Enabled Resolving Agents (DERA)——一種通過允許模型傳達回報和疊代改進輸出來增強大型語言模型完成的範例;DERA 在以臨床為重點的任務上優于基礎 GPT-4。#機器學習# #最新的gpt相關論文#