Ex 4: Imputing missing values before building an estimator
http://scikit-learn.org/stable/auto_examples/missing_values.htm
在這範例說明有時補充缺少的數據(missing values),可以得到更好的結果。但仍然需要進行交叉驗證。來驗證填充是否合適 。而missing values可以用均值、中位值,或者頻繁出現的值代替。中位值對大數據之機器學習來說是比較穩定的估計值。
(一)引入函式庫及內建測試資料庫
引入之函式庫如下
sklearn.ensemble.RandomForestRegressor: 隨機森林回歸sklearn.pipeline.Pipeline: 串聯估計器sklearn.preprocessing.Imputer: 缺失值填充sklearn.cross_validation import cross_val_score:交叉驗證
(二)引入內建測試資料庫(boston房產資料)
使用 datasets.load_boston() 將資料存入, boston 為一個dict型別資料,我們看一下資料的內容。
n_samples 為樣本數
n_features 為特徵數
dataset = load_boston()
X_full, y_full = dataset.data, dataset.target
n_samples = X_full.shape[0]
n_features = X_full.shape[1]顯示
說明
('data', (506, 13))
機器學習數據
('feature_names', (13,))
房地產相關特徵
('target', (506,))
回歸目標
DESCR
資料之描述
共有506筆資料及13個特徵('CRIM', 'ZN', 'INDUS', 'CHAS', 'NOX', 'RM', 'AGE', 'DIS', 'RAD','TAX', 'PTRATIO', 'B', 'LSTAT')用來描述房地產的週邊狀況,如CRIM (per capita crime rate by town)跟該區域之犯罪率有關。而迴歸目標為房地產的價格,以1000美元為單位。也就是說這個範例希望以房地產的週遭客觀數據來預測房地產的價格。
(三)利用整個數據集來預測
全部的資料使用隨機森林回歸函數進行交叉驗證,得到一個分數。
Score with the entire dataset = 0.56
(四)模擬資料損失時之預測情形
設定損失比例,並估計移除missing values後的得分 損失比例75%,損失樣本數為379筆,剩餘樣本為127筆。 將127筆資料進行隨機森林回歸函數進行交叉驗證,並得到一個分數。
Score without the samples containing missing values = 0.49
(五)填充missing values,估計填充後的得分
每一筆樣本資料都在13個特徵中隨機遺失一個特徵資料,
使用sklearn.preprocessing.Imputer進行missing values的填充。
填充後進行隨機森林回歸函數進行交叉驗證,獲得填充後分數。
利用數據填充後的迴歸函數,去測試填充前的資料,預測的準確率獲得提升。
Score after imputation of the missing values = 0.57
(六)完整程式碼
Python source code: missing_values.py http://scikit-learn.org/stable/auto_examples/missing_values.html#example-missing-values-py
Last updated