作為最早關注人工智能技術的媒體,機器之心在編譯國外技術部落格、論文、專家觀點等内容上已經積累了超過兩年多的經驗。期間,從無到有,機器之心的編譯團隊一直在積累專業詞彙。雖然有很多的文章因為專業性我們沒能盡善盡美的編譯為中文呈現給大家,但我們一直在進步、一直在積累、一直在提高自己的專業性。
兩年來,機器之心編譯團隊整理過翻譯詞彙對照表「紅寶書」,編輯個人也整理過類似的詞典。而我們也從機器之心讀者留言中發現,有些人工智能專業詞彙沒有統一的翻譯标準,這可能是因地區、跨專業等等原因造成的。舉個例子,DeepMind 的一篇論文中有個詞彙為 differentiable boundary tree,當時機器之心的翻譯為可微分界樹,但後來有讀者表示這樣的譯法如果不保留英文很難明白表達的意思且建議翻譯為可微分邊界樹。
是以,我們想把機器之心内部積累的人工智能專業詞彙中英對照表開放給大家,希望為大家寫論文、中文部落格、閱讀文章提供幫助。同時,這也是一份開放的表單,希望越來越多的人能夠提供增添、修改建議,為人工智能的傳播助力。
項目位址:
https://github.com/jiqizhixin/Artificial-Intelligence-Terminology組織形式

讀者在此項目中,可通過以上表盤檢視自己想要了解的專業詞彙。在單個首字母中,表格的組織形式為:英文/縮寫、漢語、來源&擴充。
來源&擴充是對該詞彙的注解,内容為機器之心往期的相關文章。例如下圖所示的「算法」,我們關聯到的三篇文章是《回歸、分類與聚類:三大方向剖解機器學習算法的優缺點》和《機器學習算法附速查表》和《深度學習算法全景圖:從理論證明其正确性》。是以,我們希望不僅能提供相對應的術語,同時還希望能為讀者提供每一個術語的來源和概念上的擴充。但由于這一部分工作量較大,我們還将與讀者共同推進這一部分擴充的程序。
準确性
本項目中所有英文專業詞彙對照的中文都來自機器之心編譯的文章和系列機器學習教科書(如周志華的《機器學習》和李航的《統計學習方法》等),我們力求在提供準确翻譯的同時保留最常用的形式。同時,為了保證詞彙翻譯的準确性,我們将此項目向讀者開源,并希望能與讀者共同疊代術語的準确度。除此之外,我們還将為每一個詞彙提供來源與擴充進一步提升詞彙的置信度。
機器之心術語編譯标準
因為該項目很多術語都是機器之心平常編譯文章所積累的,是以我們首先需要向讀者說明機器之心術語編譯的标準。
1. 常見術語的編譯标準
機器之心常見術語的編譯首先會確定術語的正确性,其次再考慮術語的傳播廣度。例如常見術語。logistic regression,首先機器之心會保證該術語的準确度。我們常見 logistic regression 會翻譯為邏輯回歸,但中文「邏輯」與 logistic 的含義還是有些差别,是以我們并不太傾向于采用這種譯法。在準确度的基礎上,我們會考慮術語的傳播廣度。例如有學者建議可以将 logistic regression 譯為對數幾率回歸,但鑒于該譯法的傳播度不廣,看到中文并不會馬上檢索到對應英文和概念,是以我們最終在常見術語編譯标準下将 logistic regression 譯為 logistical 回歸。機器之心在對常見術語編譯時并不會保留英文,也不會做進一步說明。
2. 非常見術語的編譯标準
機器之心在編譯技術文章或論文時,常常會遇到非常見的術語。因為像論文那樣的文章是在特定領域下為解決特定問題而規範化書寫的,是以就會存在較多的非常見的術語。而機器之心在編譯非常見術語時,唯一的标準就是準确性,通常我們也會保留英文。因為非常見術語通常是數學、神經科學和實體學等領域上的專業術語,機器之心會盡可能地借鑒其他領域内的譯法和意義而确定如何編譯。例如 fixed-point theorem,在參考數學的情況下,我們會更傾向于譯為不動點定理,fixed-point 譯為不動點而不是定點。
3. 歧義術語的編譯标準
還有很多術語其實是有歧義的,而對于這一類詞,機器之心的編譯标準會根據語義進行确定,是以也會有一些誤差。例如 bias 在描述神經網絡層級單元時可以譯為偏置項。而在描述訓練誤差和與叉驗證誤差間的關系或學習曲線時,bias 可以譯為偏差。這樣的例子還有很多,比如 Stationary 在馬爾可夫模型中可譯為穩态分布(Stationary distribution),在最優化問題中可譯為駐點(Stationary point),而在涉及博弈論或對抗性訓練時,其又可能表達為靜态。
以上是機器之心大概編譯術語的标準,雖然我們在常用術語的編譯上錯誤率相對較少,但在非常見術語和歧義術語上仍然會出現一些錯誤。尤其是在非常見術語的編譯上,沒有特定的背景知識很容易在編譯上出現誤差。是以我們希望能與讀者共同加強術語的編譯品質。
詞彙更新
本詞彙庫目前擁有的專業詞彙共計 500 個,主要為機器學習基礎概念和術語,同時也是該項目的基本詞彙。機器之心将繼續完善術語的收錄和擴充閱讀的建構。詞彙更新主要分為兩個階段,第一階段機器之心将繼續完善基礎詞彙的建構,即通過權威教科書或其它有公信力的資料抽取常見術語。第二階段機器之心将持續性地把編譯論文或其他資料所出現的非常見術語更新到詞彙表中。
讀者的回報意見和更建立議将貫穿整個階段,并且我們将在項目緻謝頁中展示對該項目起積極作用的讀者。因為我們希望術語的更新更具準确度和置信度,是以我們希望讀者能附上該術語的來源位址與擴充位址。是以,我們能更客觀地更新詞彙,并附上可信的來源與擴充。
Letter A
Accumulated error backpropagation | 累積誤差逆傳播 |
Activation Function | 激活函數 |
Adaptive Resonance Theory/ART | 自适應諧振理論 |
Addictive model | 加性學習 |
Adversarial Networks | 對抗網絡 |
Affine Layer | 仿射層 |
Affinity matrix | 親和矩陣 |
Agent | 代理 / 智能體 |
Algorithm | 算法 |
Alpha-beta pruning | α-β剪枝 |
Anomaly detection | 異常檢測 |
Approximation | 近似 |
Area Under ROC Curve/AUC | Roc 曲線下面積 |
Artificial General Intelligence/AGI | 通用人工智能 |
Artificial Intelligence/AI | 人工智能 |
Association analysis | 關聯分析 |
Attention mechanism | 注意力機制 |
Attribute conditional independence assumption | 屬性條件獨立性假設 |
Attribute space | 屬性空間 |
Attribute value | 屬性值 |
Autoencoder | 自編碼器 |
Automatic speech recognition | 自動語音識别 |
Automatic summarization | 自動摘要 |
Average gradient | 平均梯度 |
Average-Pooling | 平均池化 |
Letter B
Backpropagation Through Time | 通過時間的反向傳播 |
Backpropagation/BP | 反向傳播 |
Base learner | 基學習器 |
Base learning algorithm | 基學習算法 |
Batch Normalization/BN | 批量歸一化 |
Bayes decision rule | 貝葉斯判定準則 |
Bayes Model Averaging/BMA | 貝葉斯模型平均 |
Bayes optimal classifier | 貝葉斯最優分類器 |
Bayesian decision theory | 貝葉斯決策論 |
Bayesian network | 貝葉斯網絡 |
Between-class scatter matrix | 類間散度矩陣 |
Bias | 偏置 / 偏差 |
Bias-variance decomposition | 偏差-方差分解 |
Bias-Variance Dilemma | 偏差 - 方差困境 |
Bi-directional Long-Short Term Memory/Bi-LSTM | 雙向長短期記憶 |
Binary classification | 二分類 |
Binomial test | 二項檢驗 |
Bi-partition | 二分法 |
Boltzmann machine | 玻爾茲曼機 |
Bootstrap sampling | 自助采樣法/可重複采樣/有放回采樣 |
Bootstrapping | 自助法 |
Break-Event Point/BEP | 平衡點 |
Letter C
Calibration | 校準 |
Cascade-Correlation | 級聯相關 |
Categorical attribute | 離散屬性 |
Class-conditional probability | 類條件機率 |
Classification and regression tree/CART | 分類與回歸樹 |
Classifier | 分類器 |
Class-imbalance | 類别不平衡 |
Closed -form | 閉式 |
Cluster | 簇/類/叢集 |
Cluster analysis | 聚類分析 |
Clustering | 聚類 |
Clustering ensemble | 聚類內建 |
Co-adapting | 共适應 |
Coding matrix | 編碼矩陣 |
COLT | 國際學習理論會議 |
Committee-based learning | 基于委員會的學習 |
Competitive learning | 競争型學習 |
Component learner | 元件學習器 |
Comprehensibility | 可解釋性 |
Computation Cost | 計算成本 |
Computational Linguistics | 計算語言學 |
Computer vision | 計算機視覺 |
Concept drift | 概念漂移 |
Concept Learning System /CLS | 概念學習系統 |
Conditional entropy | 條件熵 |
Conditional mutual information | 條件互資訊 |
Conditional Probability Table/CPT | 條件機率表 |
Conditional random field/CRF | 條件随機場 |
Conditional risk | 條件風險 |
Confidence | 置信度 |
Confusion matrix | 混淆矩陣 |
Connection weight | 連接配接權 |
Connectionism | 連結主義 |
Consistency | 一緻性/相合性 |
Contingency table | 列聯表 |
Continuous attribute | 連續屬性 |
Convergence | 收斂 |
Conversational agent | 會話智能體 |
Convex quadratic programming | 凸二次規劃 |
Convexity | 凸性 |
Convolutional neural network/CNN | 卷積神經網絡 |
Co-occurrence | 同現 |
Correlation coefficient | 相關系數 |
Cosine similarity | 餘弦相似度 |
Cost curve | 成本曲線 |
Cost Function | 成本函數 |
Cost matrix | 成本矩陣 |
Cost-sensitive | 成本敏感 |
Cross entropy | 交叉熵 |
Cross validation | 交叉驗證 |
Crowdsourcing | 衆包 |
Curse of dimensionality | 維數災難 |
Cut point | 截斷點 |
Cutting plane algorithm | 割平面法 |
Letter D
Data mining | 資料挖掘 |
Data set | 資料集 |
Decision Boundary | 決策邊界 |
Decision stump | 決策樹樁 |
Decision tree | 決策樹/判定樹 |
Deduction | 演繹 |
Deep Belief Network | 深度信念網絡 |
Deep Convolutional Generative Adversarial Network/DCGAN | 深度卷積生成對抗網絡 |
Deep learning | 深度學習 |
Deep neural network/DNN | 深度神經網絡 |
Deep Q-Learning | 深度 Q 學習 |
Deep Q-Network | 深度 Q 網絡 |
Density estimation | 密度估計 |
Density-based clustering | 密度聚類 |
Differentiable neural computer | 可微分神經計算機 |
Dimensionality reduction algorithm | 降維算法 |
Directed edge | 有向邊 |
Disagreement measure | 不合度量 |
Discriminative model | 判别模型 |
Discriminator | 判别器 |
Distance measure | 距離度量 |
Distance metric learning | 距離度量學習 |
Distribution | 分布 |
Divergence | 散度 |
Diversity measure | 多樣性度量/差異性度量 |
Domain adaption | 領域自适應 |
Downsampling | 下采樣 |
D-separation (Directed separation) | 有向分離 |
Dual problem | 對偶問題 |
Dummy node | 啞結點 |
Dynamic Fusion | 動态融合 |
Dynamic programming | 動态規劃 |
Letter E
Eigenvalue decomposition | 特征值分解 |
Embedding | 嵌入 |
Emotional analysis | 情緒分析 |
Empirical conditional entropy | 經驗條件熵 |
Empirical entropy | 經驗熵 |
Empirical error | 經驗誤差 |
Empirical risk | 經驗風險 |
End-to-End | 端到端 |
Energy-based model | 基于能量的模型 |
Ensemble learning | 內建學習 |
Ensemble pruning | 內建修剪 |
Error Correcting Output Codes/ECOC | 糾錯輸出碼 |
Error rate | 錯誤率 |
Error-ambiguity decomposition | 誤差-分歧分解 |
Euclidean distance | 歐氏距離 |
Evolutionary computation | 演化計算 |
Expectation-Maximization | 期望最大化 |
Expected loss | 期望損失 |
Exploding Gradient Problem | 梯度爆炸問題 |
Exponential loss function | 指數損失函數 |
Extreme Learning Machine/ELM | 超限學習機 |
Letter F
Factorization | 因子分解 |
False negative | 假負類 |
False positive | 假正類 |
False Positive Rate/FPR | 假正例率 |
Feature engineering | 特征工程 |
Feature selection | 特征選擇 |
Feature vector | 特征向量 |
Featured Learning | 特征學習 |
Feedforward Neural Networks/FNN | 前饋神經網絡 |
Fine-tuning | 微調 |
Flipping output | 翻轉法 |
Fluctuation | 震蕩 |
Forward stagewise algorithm | 前向分步算法 |
Frequentist | 頻率主義學派 |
Full-rank matrix | 滿秩矩陣 |
Functional neuron | 功能神經元 |
Letter G
Gain ratio | 增益率 |
Game theory | 博弈論 |
Gaussian kernel function | 高斯核函數 |
Gaussian Mixture Model | 高斯混合模型 |
General Problem Solving | 通用問題求解 |
Generalization | 泛化 |
Generalization error | 泛化誤差 |
Generalization error bound | 泛化誤差上界 |
Generalized Lagrange function | 廣義拉格朗日函數 |
Generalized linear model | 廣義線性模型 |
Generalized Rayleigh quotient | 廣義瑞利商 |
Generative Adversarial Networks/GAN | 生成對抗網絡 |
Generative Model | 生成模型 |
Generator | 生成器 |
Genetic Algorithm/GA | 遺傳算法 |
Gibbs sampling | 吉布斯采樣 |
Gini index | 基尼指數 |
Global minimum | 全局最小 |
Global Optimization | 全局優化 |
Gradient boosting | 梯度提升 |
Gradient Descent | 梯度下降 |
Graph theory | 圖論 |
Ground-truth | 真相/真實 |
Letter H
Hard margin | 硬間隔 |
Hard voting | 硬投票 |
Harmonic mean | 調和平均 |
Hesse matrix | 海塞矩陣 |
Hidden dynamic model | 隐動态模型 |
Hidden layer | 隐藏層 |
Hidden Markov Model/HMM | 隐馬爾可夫模型 |
Hierarchical clustering | 層次聚類 |
Hilbert space | 希爾伯特空間 |
Hinge loss function | 合頁損失函數 |
Hold-out | 留出法 |
Homogeneous | 同質 |
Hybrid computing | 混合計算 |
Hyperparameter | 超參數 |
Hypothesis | 假設 |
Hypothesis test | 假設驗證 |
Letter I
ICML | 國際機器學習會議 |
Improved iterative scaling/IIS | 改進的疊代尺度法 |
Incremental learning | 增量學習 |
Independent and identically distributed/i.i.d. | 獨立同分布 |
Independent Component Analysis/ICA | 獨立成分分析 |
Indicator function | 訓示函數 |
Individual learner | 個體學習器 |
Induction | 歸納 |
Inductive bias | 歸納偏好 |
Inductive learning | 歸納學習 |
Inductive Logic Programming/ILP | 歸納邏輯程式設計 |
Information entropy | 資訊熵 |
Information gain | 資訊增益 |
Input layer | 輸入層 |
Insensitive loss | 不敏感損失 |
Inter-cluster similarity | 簇間相似度 |
International Conference for Machine Learning/ICML | 國際機器學習大會 |
Intra-cluster similarity | 簇内相似度 |
Intrinsic value | 固有值 |
Isometric Mapping/Isomap | 等度量映射 |
Isotonic regression | 等分回歸 |
Iterative Dichotomiser | 疊代二分器 |
Letter K
Kernel method | 核方法 |
Kernel trick | 核技巧 |
Kernelized Linear Discriminant Analysis/KLDA | 核線性判别分析 |
K-fold cross validation | k 折交叉驗證/k 倍交叉驗證 |
K-Means Clustering | K - 均值聚類 |
K-Nearest Neighbours Algorithm/KNN | K近鄰算法 |
Knowledge base | 知識庫 |
Knowledge Representation | 知識表征 |
Letter L
Label space | 标記空間 |
Lagrange duality | 拉格朗日對偶性 |
Lagrange multiplier | 拉格朗日乘子 |
Laplace smoothing | 拉普拉斯平滑 |
Laplacian correction | 拉普拉斯修正 |
Latent Dirichlet Allocation | 隐狄利克雷分布 |
Latent semantic analysis | 潛在語義分析 |
Latent variable | 隐變量 |
Lazy learning | 懶惰學習 |
Learner | 學習器 |
Learning by analogy | 類比學習 |
Learning rate | 學習率 |
Learning Vector Quantization/LVQ | 學習向量量化 |
Least squares regression tree | 最小二乘回歸樹 |
Leave-One-Out/LOO | 留一法 |
linear chain conditional random field | 線性鍊條件随機場 |
Linear Discriminant Analysis/LDA | 線性判别分析 |
Linear model | 線性模型 |
Linear Regression | 線性回歸 |
Link function | 聯系函數 |
Local Markov property | 局部馬爾可夫性 |
Local minimum | 局部最小 |
Log likelihood | 對數似然 |
Log odds/logit | 對數幾率 |
Logistic Regression | Logistic 回歸 |
Log-likelihood | |
Log-linear regression | 對數線性回歸 |
Long-Short Term Memory/LSTM | 長短期記憶 |
Loss function | 損失函數 |
Letter M
Machine translation/MT | 機器翻譯 |
Macron-P | 宏查準率 |
Macron-R | 宏查全率 |
Majority voting | 絕對多數投票法 |
Manifold assumption | 流形假設 |
Manifold learning | 流形學習 |
Margin theory | 間隔理論 |
Marginal distribution | 邊際分布 |
Marginal independence | 邊際獨立性 |
Marginalization | 邊際化 |
Markov Chain Monte Carlo/MCMC | 馬爾可夫鍊蒙特卡羅方法 |
Markov Random Field | 馬爾可夫随機場 |
Maximal clique | 最大團 |
Maximum Likelihood Estimation/MLE | 極大似然估計/極大似然法 |
Maximum margin | 最大間隔 |
Maximum weighted spanning tree | 最大帶權生成樹 |
Max-Pooling | 最大池化 |
Mean squared error | 均方誤差 |
Meta-learner | 元學習器 |
Metric learning | 度量學習 |
Micro-P | 微查準率 |
Micro-R | 微查全率 |
Minimal Description Length/MDL | 最小描述長度 |
Minimax game | 極小極大博弈 |
Misclassification cost | 誤分類成本 |
Mixture of experts | 混合專家 |
Momentum | 動量 |
Moral graph | 道德圖/端正圖 |
Multi-class classification | 多分類 |
Multi-document summarization | 多文檔摘要 |
Multi-layer feedforward neural networks | 多層前饋神經網絡 |
Multilayer Perceptron/MLP | 多層感覺器 |
Multimodal learning | 多模态學習 |
Multiple Dimensional Scaling | 多元縮放 |
Multiple linear regression | 多元線性回歸 |
Multi-response Linear Regression /MLR | 多響應線性回歸 |
Mutual information | 互資訊 |
Letter N
Naive bayes | 樸素貝葉斯 |
Naive Bayes Classifier | 樸素貝葉斯分類器 |
Named entity recognition | 命名實體識别 |
Nash equilibrium | 納什均衡 |
Natural language generation/NLG | 自然語言生成 |
Natural language processing | 自然語言處理 |
Negative class | 負類 |
Negative correlation | 負相關法 |
Negative Log Likelihood | 負對數似然 |
Neighbourhood Component Analysis/NCA | 近鄰成分分析 |
Neural Machine Translation | 神經機器翻譯 |
Neural Turing Machine | 神經圖靈機 |
Newton method | 牛頓法 |
NIPS | 國際神經資訊處理系統會議 |
No Free Lunch Theorem/NFL | 沒有免費的午餐定理 |
Noise-contrastive estimation | 噪音對比估計 |
Nominal attribute | 列名屬性 |
Non-convex optimization | 非凸優化 |
Nonlinear model | 非線性模型 |
Non-metric distance | 非度量距離 |
Non-negative matrix factorization | 非負矩陣分解 |
Non-ordinal attribute | 無序屬性 |
Non-Saturating Game | 非飽和博弈 |
Norm | 範數 |
Normalization | 歸一化 |
Nuclear norm | 核範數 |
Numerical attribute | 數值屬性 |
Letter O
Objective function | 目标函數 |
Oblique decision tree | 斜決策樹 |
Occam's razor | 奧卡姆剃刀 |
Odds | 幾率 |
Off-Policy | 離政策 |
One shot learning | 一次性學習 |
One-Dependent Estimator/ODE | 獨依賴估計 |
On-Policy | 在政策 |
Ordinal attribute | 有序屬性 |
Out-of-bag estimate | 包外估計 |
Output layer | 輸出層 |
Output smearing | 輸出調制法 |
Overfitting | 過拟合/過配 |
Oversampling | 過采樣 |
Letter P
Paired t-test | 成對 t 檢驗 |
Pairwise | 成對型 |
Pairwise Markov property | 成對馬爾可夫性 |
Parameter | 參數 |
Parameter estimation | 參數估計 |
Parameter tuning | 調參 |
Parse tree | 解析樹 |
Particle Swarm Optimization/PSO | 粒子群優化算法 |
Part-of-speech tagging | 詞性标注 |
Perceptron | 感覺機 |
Performance measure | 性能度量 |
Plug and Play Generative Network | 即插即用生成網絡 |
Plurality voting | 相對多數投票法 |
Polarity detection | 極性檢測 |
Polynomial kernel function | 多項式核函數 |
Pooling | 池化 |
Positive class | 正類 |
Positive definite matrix | 正定矩陣 |
Post-hoc test | 後續檢驗 |
Post-pruning | 後剪枝 |
potential function | 勢函數 |
Precision | 查準率/準确率 |
Prepruning | 預剪枝 |
Principal component analysis/PCA | 主成分分析 |
Principle of multiple explanations | 多釋原則 |
Prior | 先驗 |
Probability Graphical Model | 機率圖模型 |
Proximal Gradient Descent/PGD | 近端梯度下降 |
Pruning | 剪枝 |
Pseudo-label | 僞标記 |
Letter Q
Quantized Neural Network | 量子化神經網絡 |
Quantum computer | 量子計算機 |
Quantum Computing | 量子計算 |
Quasi Newton method | 拟牛頓法 |
Letter R
Radial Basis Function/RBF | 徑向基函數 |
Random Forest Algorithm | 随機森林算法 |
Random walk | 随機漫步 |
Recall | 查全率/召回率 |
Receiver Operating Characteristic/ROC | 受試者工作特征 |
Rectified Linear Unit/ReLU | 線性修正單元 |
Recurrent Neural Network | 循環神經網絡 |
Recursive neural network | 遞歸神經網絡 |
Reference model | 參考模型 |
Regression | 回歸 |
Regularization | 正則化 |
Reinforcement learning/RL | 強化學習 |
Representation learning | 表征學習 |
Representer theorem | 表示定理 |
reproducing kernel Hilbert space/RKHS | 再生核希爾伯特空間 |
Re-sampling | 重采樣法 |
Rescaling | 再縮放 |
Residual Mapping | 殘差映射 |
Residual Network | 殘差網絡 |
Restricted Boltzmann Machine/RBM | 受限玻爾茲曼機 |
Restricted Isometry Property/RIP | 限定等距性 |
Re-weighting | 重賦權法 |
Robustness | 穩健性/魯棒性 |
Root node | 根結點 |
Rule Engine | 規則引擎 |
Rule learning | 規則學習 |
Letter S
Saddle point | 鞍點 |
Sample space | 樣本空間 |
Sampling | 采樣 |
Score function | 評分函數 |
Self-Driving | 自動駕駛 |
Self-Organizing Map/SOM | 自組織映射 |
Semi-naive Bayes classifiers | 半樸素貝葉斯分類器 |
Semi-Supervised Learning | 半監督學習 |
semi-Supervised Support Vector Machine | 半監督支援向量機 |
Sentiment analysis | 情感分析 |
Separating hyperplane | 分離超平面 |
Sigmoid function | Sigmoid 函數 |
Similarity measure | 相似度度量 |
Simulated annealing | 模拟退火 |
Simultaneous localization and mapping | 同步定位與地圖建構 |
Singular Value Decomposition | 奇異值分解 |
Slack variables | 松弛變量 |
Smoothing | 平滑 |
Soft margin | 軟間隔 |
Soft margin maximization | 軟間隔最大化 |
Soft voting | 軟投票 |
Sparse representation | 稀疏表征 |
Sparsity | 稀疏性 |
Specialization | 特化 |
Spectral Clustering | 譜聚類 |
Speech Recognition | 語音識别 |
Splitting variable | 切分變量 |
Squashing function | 擠壓函數 |
Stability-plasticity dilemma | 可塑性-穩定性困境 |
Statistical learning | 統計學習 |
Status feature function | 狀态特征函 |
Stochastic gradient descent | 随機梯度下降 |
Stratified sampling | 分層采樣 |
Structural risk | 結構風險 |
Structural risk minimization/SRM | 結構風險最小化 |
Subspace | 子空間 |
Supervised learning | 監督學習/有導師學習 |
support vector expansion | 支援向量展式 |
Support Vector Machine/SVM | 支援向量機 |
Surrogat loss | 替代損失 |
Surrogate function | 替代函數 |
Symbolic learning | 符号學習 |
Symbolism | 符号主義 |
Synset | 同義詞集 |
Letter T
T-Distribution Stochastic Neighbour Embedding/t-SNE | T - 分布随機近鄰嵌入 |
Tensor | 張量 |
Tensor Processing Units/TPU | 張量處理單元 |
The least square method | 最小二乘法 |
Threshold | 門檻值 |
Threshold logic unit | 門檻值邏輯單元 |
Threshold-moving | 門檻值移動 |
Time Step | 時間步驟 |
Tokenization | 标記化 |
Training error | 訓練誤差 |
Training instance | 訓練示例/訓練例 |
Transductive learning | 直推學習 |
Transfer learning | 遷移學習 |
Treebank | 樹庫 |
Tria-by-error | 試錯法 |
True negative | 真負類 |
True positive | 真正類 |
True Positive Rate/TPR | 真正例率 |
Turing Machine | 圖靈機 |
Twice-learning | 二次學習 |
Letter U
Underfitting | 欠拟合/欠配 |
Undersampling | 欠采樣 |
Understandability | 可了解性 |
Unequal cost | 非均等代價 |
Unit-step function | 機關階躍函數 |
Univariate decision tree | 單變量決策樹 |
Unsupervised learning | 無監督學習/無導師學習 |
Unsupervised layer-wise training | 無監督逐層訓練 |
Upsampling | 上采樣 |
Letter V
Vanishing Gradient Problem | 梯度消失問題 |
Variational inference | 變分推斷 |
VC Theory | VC維理論 |
Version space | 版本空間 |
Viterbi algorithm | 維特比算法 |
Von Neumann architecture | 馮 · 諾伊曼架構 |
Letter W
Wasserstein GAN/WGAN | Wasserstein生成對抗網絡 |
Weak learner | 弱學習器 |
Weight | 權重 |
Weight sharing | 權共享 |
Weighted voting | 權重投票法 |
Within-class scatter matrix | 類内散度矩陣 |
Word embedding | 詞嵌入 |
Word sense disambiguation | 詞義消歧 |
Letter Z
Zero-data learning | 零資料學習 |
Zero-shot learning | 零次學習 |