不想成為調參俠, 一直調參的話, 只能用autogluon訓練模型
實作: https://github.com/jackliaoall/deep-learning_exercises/tree/master/Titanic
步驟如下:
(1)先安裝autogluon, 不會安裝autogluon的彭友, 可以先參照上一篇文章"Google Colaboratory安裝和導入Autogluon"
(2)下載Titanic 資料集至Colab
(3)訓練及將預測的結果存成submission.csv
(4)將結果上傳到Kaggle, 名次為6362名, 為前20%排名, 不調參數的訓練算是不錯的成績
沒有留言:
張貼留言