晚上在用贝叶斯分析器处理数据时,冒出“Input X must be non-negative”这样的提示,意思是训练集的特征向量组成的矩阵必须是非负矩阵,这几天也刚好在看数值分析的内容,在python上有数值分析的内容,主要是Numpy和SymPy这两个库。
数据和模块导入代码如下:
import pandas as pd
import numpy as np
from sklearn.naive_bayes import MultinomialNB
data=pd.read_csv('column.2C.csv')
data_x=data[['V1','V2','V3','V4','V5','V6']]
y=data[['V7']]
拟合模型代码:
clf=MultinomialNB()
clf.fit(data_x,y)
直接报出这样的错误, Input X must be non-negative
检查矩阵的相关性:
data.corr()
#得到
V1 V2 V3 V4 V5 V6
V1 1.000000 0.629225 0.718142 0.815120 -0.247644 0.639611
V2 0.629225 1.000000 0.434326 0.062655 0.035142 0.399474
V3 0.718142 0.434326 1.000000 0.598453 -0.083829 0.532955
V4 0.815120 0.062655 0.598453 1.000000 -0.344200 0.523602
V5 -0.247644 0.035142 -0.083829 -0.344200 1.000000 -0.029515
V6 0.639611 0.399474 0.532955 0.523602 -0.029515 1.000000
看似也没有多大问题
那么我们检查一下矩阵的条件数
c=np.linalg.cond(data_x,p=None)
print c
49730.566337
非常的不理想,说明存在共线性,上文我们交代了条件数在1附近是理想的,有文献表明超过15就说明存在共线性。
我们进一步计算行列式
np.linalg.inv(data_x)
得到如下的警告:
Last 2 dimensions of the array must be square
直接用原始数据的组成的矩阵,不是一个方阵,所以会报错
max(a.shape[-2:]) != min(a.shape[-2:])
我们无法求出原始数据的行列式。
所以也无法求逆 特征值
最后,给出几个矩阵求解过程中的常用命令
np.linalg.matrix_rank(data_x) #矩阵的秩
np.linalg.inv (data_x)# 求逆矩阵
np.linalg.eigvals(data_x) # 求特征值
np.linalg.eig(data_x) #特征向量
np.linalg.svd(data_x) #singular value decomposition 奇异值分解
附上数据集来源:
http://archive.ics.uci.edu/ml/datasets/Vertebral+Column