MLP(Multilayer Perceptron,多層感知器)回歸是一種基于神經網絡的回歸算法,主要用于解決非線性回歸問題。它通過多個隱藏層將輸入特征映射到輸出,能夠捕捉復雜的模式和關系。MLP回歸的訓練過程涉及前向傳播、損失計算、反向傳播及參數更新的多個步驟,通過這些步驟模型可以逐漸學習并優化,從而準確預測輸出結果。
支持的計算資源
輸入/輸出
輸入樁
通過讀OSS數據組件,讀取OSS路徑下的訓練數據文件。
配置此算法參數訓練數據OSS路徑,選擇訓練數據文件。
輸出樁
訓練生成的模型,保存地址對應算法參數保存模型的OSS路徑。
關于參數詳細說明,請參見下文中的參數說明。
配置組件
在Designer工作流頁面添加MLP回歸算法(訓練)組件,并在界面右側配置相關參數:
參數類型 | 參數 | 是否必選 | 描述 | 默認值 | |
字段設置 | 訓練數據OSS路徑 | 否 | 若無上游OSS數據傳入,需手動選擇訓練數據文件,示例:train_data.csv(格式要求:CSV格式的數值特征文件,無表頭,最后一列為目標值,其余列為特征)。 | 無 | |
保存模型的OSS路徑 | 是 | 保存模型的OSS路徑。 | 無 | ||
預訓練的模型路徑 | 否 | 預訓練的模型路徑,若不填,則不加載預訓練模型。 | 無 | ||
參數設置 | MLP網絡層數 | 是 | MLP的層數(除輸出層外)。 | 3 | |
隱藏層的大小 | 是 | 每個隱藏層的輸出通道數,用半角逗號(,)隔開。若輸入單一數字,則表示所有隱藏層的輸出通道數。 | 64,32,16 | ||
每個Dropout層的丟棄比例 | 是 | 每個Dropout層的丟棄比例,用半角逗號(,)隔開。若輸入單一數字,則表示所有Dropout層的丟棄比例。 | 0.5 | ||
訓練輪數 | 是 | 訓練的總輪數。 | 100 | ||
學習率 | 是 | 學習率。 | 0.01 | ||
訓練批大小 | 是 | 每次迭代中使用的訓練樣本的數量。 | 32 | ||
模型保存輪數 | 是 | 每隔多少個訓練輪次(epoch)保存一次模型(checkpoint )。 | 10 | ||
驗證輪數 | 是 | 每隔多少個訓練輪次對驗證集進行一次評估 | 5 | ||
優化器類型 | 是 | 優化器,用于更新模型參數(如權重和偏置)的算法,支持類型包含Adam、SGD。 | Adam | ||
損失函數類型 | 是 | 損失函數,用于衡量模型預測值與真實值之間差異的一種函數,支持類型包含MSE、L1。 | MSE | ||
執行調優 | 選擇資源組 | 公共資源組 | 否 | 選擇節點規格(CPU或GPU實例規格)、專有網絡。 | 無 |
專有資源組 | 否 | 選擇CPU核數、內存、共享內存、GPU卡數。 | 無 | ||
最大運行時長 | 否 | 組件最大運行時長,超過這個時間,作業會被終止。 | 無 |