天天看點

OpenAI 對 GPT-4 保持沉默背後的真相

作者:AI自智體

科技世代千高原

Anirudh VK

在使 GPT-4 比其前身更好的過程中,OpenAI 可能已經嚼得太多了

OpenAI 對 GPT-4 保持沉默背後的真相

3月份,OpenAI大張旗鼓地推出了GPT-4,但烏雲籠罩在地平線上。科學家和人工智能愛好者都批評該公司沒有釋出有關該模型的任何細節,例如參數大小或架構。然而,一位頂級人工智能研究人員推測了 GPT-4 的内部運作原理,揭示了 OpenAI 選擇隐藏這些資訊的原因——這令人失望。

OpenAI 首席執行官 Sam Altman在 GPT-4 上談到該模型的潛在規模時曾說過一句名言:“人們乞求失望,而且他們一定會失望”。該模型推出前的謠言稱,它将擁有數萬億個參數,并且是世界上見過的最好的東西。然而,現實卻有所不同。在使 GPT-4 比 GPT-3.5 更好的過程中,OpenAI 可能會貪多嚼不爛。

風衣裡有 8 個 GPT

世界著名的黑客和軟體工程師George Hotz最近出現在播客中,對 GPT-4 的架構本質進行了推測。Hotz 表示,該模型可能是一組八個不同的模型,每個模型都有 2200 億個參數。這一猜測後來得到了 PyTorch 聯合創始人 Soumith Chintala 的 證明。

雖然這使得 GPT-4 的參數數量達到 1.76 萬億個,但值得注意的是所有這些模型并不是同時工作。相反,它們被部署在專家架構的混合中。這種架構将每個模型分成不同的元件,也稱為專家模型。這些模型中的每一個都針對特定目的或領域進行了微調,并且能夠為該領域提供更好的響應。然後,所有專家模型利用專家模型的集體智慧與完整的模型一起工作。

這種方法有很多好處。一是由于模型針對各種主題進行了微調,是以得到了更準确的響應。MoE 架構還易于更新,因為模型的維護者可以以子產品化方式改進它,而不是更新整體模型。Hotz 還推測該模型可能依賴于疊代推理過程來獲得更好的輸出。通過這個過程,模型的輸出或推理結果通過多次疊代得到細化。

這種方法還可能允許 GPT-4 從每個專家模型中擷取輸入,這可以減少模型中的幻覺。Hotz表示,這個過程可能要進行16次,這将大大增加模型的運作成本。這種方法類似于三個孩子穿着風衣僞裝成成年人的古老比喻。許多人将 GPT-4 比作穿着風衣的 8 個 GPT-3,試圖蒙蔽世人的眼睛。

偷工減料

雖然GPT-4 在GPT-3 遇到困難的基準測試中表現出色,但 MoE 架構似乎已成為 OpenAI 的痛點。在現已删除的采訪中,Altman 承認了 OpenAI 面臨的擴充問題,特别是在 GPU 短缺方面。

在具有 MoE 架構的模型上運作推理 16 次肯定會以類似的規模增加雲成本。當擴充到 ChatGPT 的數百萬使用者時,即使是 Azure 的超級計算機也會出現動力不足也就不足為奇了。這似乎是 OpenAI 目前面臨的最大問題之一,Altman 表示更便宜、更快的 GPT-4 是該公司目前的首要任務。

據報道,這還導緻 ChatGPT 輸出品質下降。在整個網際網路上,使用者 都 報告說,甚至 ChatGPT Plus 的響應品質也下降了。我們發現 ChatGPT 的發行說明似乎證明了這一點,其中指出:“我們在免費計劃中更新了 ChatGPT 模型的性能,以便為更多使用者提供服務”。在同一份說明中,OpenAI 還告知使用者,Plus 使用者将預設使用該模型的“Turbo”變體,該變體已針對推理速度進行了優化。

另一方面,API 使用者似乎完全避免了這個問題。Reddit 使用者注意到,使用 OpenAI API 的其他産品為他們的查詢提供了比 ChatGPT Plus 更好的答案。這可能是因為與 ChatGPT 使用者相比,OpenAI API 的使用者數量較少,導緻 OpenAI 在 ChatGPT 上削減成本,而忽略 API。

在瘋狂地将 GPT-4 推向市場的過程中,OpenAI 似乎已經走捷徑了。雖然所謂的 MoE 模型在提高 GPT 系列性能方面向前邁出了一大步,但它所面臨的擴充問題表明該公司可能隻是貪多嚼不爛。

OpenAI 對 GPT-4 保持沉默背後的真相

https://analyticsindiamag.com/the-truth-behind-openais-silence-on-gpt-4/

OpenAI 對 GPT-4 保持沉默背後的真相

ChatGPT 術語表

OpenAI 對 GPT-4 保持沉默背後的真相

如果您有興趣了解有關 ChatGPT 的更多資訊,請使用與線上閱讀文章時在日常對話中聽到的最相關的類似術語。此ChatGPT 術語表将提供對 50 個最相關術語的更多了解,并附有每個術語的較長的描述。

人工智能(AI)正變得無處不在,幾乎滲透到我們生活的方方面面。在人工智能技術中,最引人注目的一項是 OpenAI 開發的 ChatGPT。讓我們通過最基本的 ChatGPT 術語的綜合詞彙表深入探讨這項令人着迷的技術。

1. 人工智能 (AI):這是任何模仿人類智能的系統的總稱。這可以包括從語音識别和決策到視覺感覺和語言翻譯的任何内容。

2.自然語言處理(NLP):該術語是指專注于計算機與人類通過自然語言進行互動的人工智能領域。NLP 的最終目标是以有價值的方式閱讀、破譯、了解和了解人類語言。

3. 機器學習(ML):這是一種人工智能,它使系統能夠自動學習并從經驗中改進,而無需明确程式設計。機器學習專注于開發可以通路資料并使用資料進行自我學習的計算機程式。

4.深度學習:這是機器學習的一個子集,基于具有表示學習的人工神經網絡。深度學習模型可以實作最先進的準确性,在某些任務中通常超過人類的表現。

5.生成預訓練轉換器(GPT):這是一種自回歸語言預測模型,使用深度學習來生成類似人類的文本。GPT 是 ChatGPT 所基于的模型。

6. ChatGPT: OpenAI開發的AI程式。它使用 GPT 模型根據給出的提示生成類似人類的文本。

7. Transformer:這是《Attention is All You Need》中介紹的一種模型架構,使用自注意力機制,并已在 GPT 等模型中使用。

8.自回歸模型:該術語是指使用時滞值作為輸入變量的統計分析模型。ChatGPT 使用這種方法來預測句子中的下一個單詞。

9. 提示:在 ChatGPT 的上下文中,提示是給模型的輸入,模型會響應該輸入。

10. Token:整體的一部分,是以單詞是句子中的Token,句子是段落中的Token。令牌是自然語言處理的建構塊。

11. 微調:這是初始訓練階段之後的一個過程,其中模型被調整或适應特定任務,例如回答問題或語言翻譯。

12. 上下文視窗:在ChatGPT中,這是模型可以用來生成響應的最近對話曆史記錄的數量。

13. 零樣本學習:這是指模型在訓練期間沒有看到此類示例的情況下了解任務并生成适當響應的能力。

14. 一次性學習:這是模型在訓練期間僅通過單個示例了解任務的能力。

15.少樣本學習:這是模型在訓練期間提供少量示例後了解任務的能力。

16.注意力機制:這是深度學習模型中使用的一種技術,模型在處理資料時為不同的單詞或特征配置設定不同的權重或“注意力”。

17. 人類回報強化學習(RLHF):這是 ChatGPT 中使用的一種微調方法,模型從人類提供的回報中學習。

18. 監督微調:這是微調的第一步,人類 AI 教育訓練師向模型提供與使用者和 AI 角色的對話。

19. 獎勵模型:這些模型用于對不同響應進行排名

20. API(應用程式程式設計接口):這允許不同軟體程式之間的互動。OpenAI 為開發人員提供 API,将 ChatGPT 內建到他們的應用程式或服務中。

21. AI 教育訓練師:在微調過程中通過提供回報、對響應進行排名和編寫示例對話來指導 AI 模型的人員。

22. 安全措施:這些措施是為了確定人工智能以安全、道德和尊重使用者隐私的方式運作而采取的措施。

23. OpenAI:開發GPT-3和ChatGPT的人工智能實驗室。OpenAI旨在確定通用人工智能 (AGI) 造福全人類。

24. 縮放法則:在人工智能的背景下,這是指觀察到的趨勢,即人工智能模型在獲得更多資料、更多計算量以及規模更大時往往會提高性能。

25.人工智能中的偏差:這是指人工智能系統可能由于訓練資料中存在的偏差而在其反應中表現出偏差的情況。OpenAI 緻力于減少 ChatGPT 對不同輸入的響應方式中明顯和微妙的偏差。

26. 稽核工具:這些工具是為開發人員提供的,用于控制其應用程式和服務中模型的行為。

27. 使用者界面(UI):這是裝置、應用程式或網站中人機互動和通信的點。

28. 模型卡:提供有關機器學習模型的性能、限制和理想用例的詳細資訊的文檔。

29. 語言模型:一種使用數學和機率架構來預測句子中的下一個單詞或單詞序列的模型。

30. 解碼規則:這些規則控制語言模型的文本生成過程。

31. 過度使用懲罰: ChatGPT 解碼過程中使用的一個因素,用于懲罰模型重複同一短語的傾向。

32. 系統消息:這是當使用者開始與 ChatGPT 對話時向使用者顯示的初始消息。

33. 資料隐私:這是為了確定與 ChatGPT 的對話是私密的,并且存儲時間不會超過 30 天。

34. 最大響應長度: ChatGPT 在單個響應中可以生成的文本長度的限制。

35. 圖靈測試:艾倫·圖靈提出的一項測試,用于衡量機器表現出與人類行為相同或無法區分的智能行為的能力。

36. InstructGPT: ChatGPT 的擴充,旨在遵循提示中給出的說明并提供詳細解釋。

37. 多輪對話:涉及兩個參與者(例如使用者和人工智能)之間來回交換的對話。

38. 對話系統:旨在以類人方式與人類對話的系統。

39. 響應品質:衡量人工智能對使用者提示的響應程度,包括響應的相關性、連貫性和真實性。

40. 資料增強:用于增加訓練資料量的技術,例如引入現有資料的變體或建立合成資料。

41. 語義搜尋:一種搜尋類型,旨在通過了解搜尋者的意圖和術語的上下文含義來提高搜尋準确性。

42. 政策:管理人工智能如何響應不同類型輸入的規則。

43. 離線強化學習(RL):一種使用固定資料集訓練人工智能模型的方法,無需與環境實時互動。

44. 近端政策優化(PPO):強化學習中用于改進模型訓練的優化算法。

45. 沙箱環境:一種受控設定,開發人員可以在其中安全地試驗和測試新代碼,而不會影響實際産品。

46.分布式訓練:這是在多台機器上訓練AI模型的做法。這使得訓練過程能夠處理更多資料并更快完成。

47. Bandit Optimization:機器學習中的一種方法,根據有限的資訊實時做出決策。這是關于平衡探索(嘗試新事物)和利用(堅持有效的方法)。

48. 上遊采樣: ChatGPT 微調過程中使用的一種技術,生成多個響應,然後進行排序以選擇最佳響應。

49. Transformer Decoder: Transformer 模型的一部分,用于預測序列中的下一個标記。

50.反向傳播:這是一種通過計算損失函數的梯度來訓練神經網絡的方法。這對于微調網絡權重至關重要。

顯然,ChatGPT 背後的技術廣泛且複雜。然而,它的影響更為深遠,有可能重新定義人機互動以及我們與人工智能的關系。無論您是打算将該技術內建到項目中的開發人員,還是試圖了解這一令人印象深刻的人工智能模型的構模組化塊的好奇心,熟悉基本術語和概念都很重要。

了解這些術語不僅可以讓您更好地了解 ChatGPT 的工作原理,還可以欣賞開發如此複雜的人工智能的複雜過程。我們希望本術語表能夠成為您探索 ChatGPT 和更廣泛的人工智能領域的便捷參考指南。

If you’re interested in learning more about ChatGPT in similar terms most associated with it that you will hear in everyday conversation when reading articles online. This ChatGPT glossary will provide a little more insight into the 50 most relevant terms with equipped description about each.

Artificial Intelligence (AI) is becoming ubiquitous, permeating nearly every facet of our lives. Among AI technologies, one that stands out is ChatGPT, developed by OpenAI. Let’s dive deep into this fascinating technology with our comprehensive glossary of the most essential ChatGPT terms.

1. Artificial Intelligence (AI): This is the overarching term for any system that mimics human intelligence. This can include anything from speech recognition and decision-making to visual perception and language translation.

2. Natural Language Processing (NLP): This term refers to the field of AI that focuses on the interaction between computers and humans through natural language. The ultimate objective of NLP is to read, decipher, understand, and make sense of the human language in a valuable way.

3. Machine Learning (ML): This is a type of AI that provides systems the ability to automatically learn and improve from experience without being explicitly programmed. Machine learning focuses on the development of computer programs that can access data and use it to learn for themselves.

4. Deep Learning: This is a subset of machine learning that’s based on artificial neural networks with representation learning. Deep learning models can achieve state-of-the-art accuracy, often exceeding human-level performance in certain tasks.

5. Generative Pre-training Transformer (GPT): This is an autoregressive language prediction model that uses deep learning to produce human-like text. GPT is the model upon which ChatGPT is based.

6. ChatGPT: An AI program developed by OpenAI. It uses the GPT model to generate human-like text based on the prompts it’s given.

7. Transformer: This is a model architecture introduced in “Attention is All You Need” that uses self-attention mechanisms and has been used in models like GPT.

8. Autoregressive Model: This term refers to a statistical analysis model that uses time-lagged values as input variables. ChatGPT uses this approach to predict the next word in a sentence.

9. Prompt: In the context of ChatGPT, a prompt is an input given to the model, to which it responds.

10. Token: A piece of a whole, so a word is a token in a sentence, and a sentence is a token in a paragraph. Tokens are the building blocks of Natural Language Processing.

11. Fine-Tuning: This is a process that follows the initial training phase, where the model is tuned or adapted to specific tasks, such as question answering or language translation.

12. Context Window: In ChatGPT, this is the amount of recent conversation history that the model can utilize to generate a response.

13. Zero-Shot Learning: This refers to the model’s ability to understand a task and generate appropriate responses without having seen such examples during training.

14. One-Shot Learning: This is the model’s ability to comprehend a task from just a single example during training.

15. Few-Shot Learning: This is the model’s ability to understand a task after being provided a small number of examples during training.

16. Attention Mechanism: This is a technique used in deep learning models, where the model assigns different weights or “attention” to different words or features when processing data.

17. Reinforcement Learning from Human Feedback (RLHF):This is a fine-tuning method used in ChatGPT, where models learn from feedback provided by humans.

18. Supervised Fine-Tuning: This is the first step in fine-tuning, where human AI trainers provide conversations with both the user and AI role to the model.

19. Reward Models: These are models used to rank different responses from the

20. API (Application Programming Interface): This allows for the interaction between different software programs. OpenAI provides an API for developers to integrate ChatGPT into their applications or services.

21. AI Trainer: Humans who guide the AI model during the fine-tuning process by providing it with feedback, ranking responses, and writing example dialogues.

22. Safety Measures: These are steps taken to ensure that the AI behaves in a way that is safe, ethical, and respects user privacy.

23. OpenAI: The artificial intelligence lab that developed GPT-3 and ChatGPT. OpenAI aims to ensure that artificial general intelligence (AGI) benefits all of humanity.

24. Scaling Laws: In the context of AI, this refers to the observed trend that AI models tend to improve in performance as they’re given more data, more computation, and are made larger in size.

25. Bias in AI: This refers to situations when AI systems may demonstrate bias in their responses due to biases present in their training data. OpenAI is committed to reducing both glaring and subtle biases in how ChatGPT responds to different inputs.

26. Moderation Tools: These are tools provided to developers to control the behavior of the model in their applications and services.

27. User Interface (UI): This is the point of human-computer interaction and communication in a device, application, or website.

28. Model Card: Documentation that provides detailed information about a machine learning model’s performance, limitations, and ideal use cases.

29. Language Model: A type of model that uses mathematical and probabilistic framework to predict the next word or sequence of words in a sentence.

30. Decoding Rules: These are rules that control the text generation process from a language model.

31. Overuse Penalty: A factor used in ChatGPT’s decoding process that penalizes the model’s tendency to repeat the same phrase.

32. System Message: This is the initial message displayed to users when they start a conversation with ChatGPT.

33. Data Privacy: This is about ensuring that conversations with ChatGPT are private and not stored beyond 30 days.

34. Maximum Response Length: The limit on the length of text that ChatGPT can generate in a single response.

35. Turing Test: A test proposed by Alan Turing to measure a machine’s ability to exhibit intelligent behavior equivalent to, or indistinguishable from, human behavior.

36. InstructGPT: An extension of ChatGPT designed to follow instructions given in a prompt and provide detailed explanations.

37. Multi-turn Dialogue: A conversation involving back-and-forth exchanges between two participants, such as a user and an AI.

38. Dialogue System: A system designed to converse with humans in a human-like manner.

39. Response Quality: The measure of how well the AI responds to user prompts, including relevance, coherence, and factuality of the response.

40. Data Augmentation: Techniques used to increase the amount of training data, such as introducing variations of existing data or creating synthetic data.

41. Semantic Search: A type of search that seeks to improve search accuracy by understanding the searcher’s intent and the contextual meaning of terms.

42. Policy: The rules that govern how the AI responds to different types of input.

43. Offline Reinforcement Learning (RL): A method of training AI models using a fixed dataset without real-time interaction with the environment.

44. Proximal Policy Optimization (PPO): An optimization algorithm used in reinforcement learning to improve model training.

45. Sandbox Environment: A controlled setting where developers can safely experiment and test new code without affecting the live product.

46. Distributed Training: This is the practice of training AI models on multiple machines. This allows the training process to handle more data and complete faster.

47. Bandit Optimization: An approach in machine learning that makes decisions based on limited information in real-time. It’s about balancing exploration (trying new things) with exploitation (sticking with what works).

48. Upstream Sampling: A technique used in the fine-tuning process of ChatGPT, where multiple responses are generated and then ranked to select the best one.

49. Transformer Decoder: A part of the transformer model that predicts the next token in the sequence.

50. Backpropagation: This is a method used to train neural networks by calculating the gradient of the loss function. This is vital for fine-tuning the weights of the network.

It’s clear that the technology behind ChatGPT is expansive and complex. Yet, its implications are even more profound, having the potential to redefine human-computer interaction and our relationship with AI. Whether you’re a developer aiming to integrate this technology into your project or a curious mind trying to understand the building blocks of this impressive AI model, it’s important to familiarize yourself with the fundamental terminologies and concepts.

Understanding these terms will not only allow you to better comprehend how ChatGPT works but also appreciate the intricate process that goes into developing such a sophisticated AI. We hope this glossary will serve as a handy reference guide in your exploration of ChatGPT and the broader field of artificial intelligence.

繼續閱讀