2021年5月15日 星期六

Kaggle競賽-Titanic (前20%排名)

不想成為調參俠, 一直調參的話, 只能用autogluon訓練模型

實作: https://github.com/jackliaoall/deep-learning_exercises/tree/master/Titanic


步驟如下:

(1)先安裝autogluon, 不會安裝autogluon的彭友, 可以先參照上一篇文章"Google Colaboratory安裝和導入Autogluon"


(2)下載Titanic 資料集至Colab



(3)訓練及將預測的結果存成submission.csv



(4)將結果上傳到Kaggle, 名次為6362名, 為前20%排名, 不調參數的訓練算是不錯的成績




沒有留言:

張貼留言

Kaggle競賽-Titanic (前20%排名)

不想成為調參俠, 一直調參的話, 只能用autogluon訓練模型 實作: https://github.com/jackliaoall/deep-learning_exercises/tree/master/Titanic 步驟如下: (1)先安裝autogluon, 不會安裝...