日本熟妇hd丰满老熟妇,中文字幕一区二区三区在线不卡 ,亚洲成片在线观看,免费女同在线一区二区

MLP回歸算法(訓練)

MLP(Multilayer Perceptron,多層感知器)回歸是一種基于神經網絡的回歸算法,主要用于解決非線性回歸問題。它通過多個隱藏層將輸入特征映射到輸出,能夠捕捉復雜的模式和關系。MLP回歸的訓練過程涉及前向傳播、損失計算、反向傳播及參數更新的多個步驟,通過這些步驟模型可以逐漸學習并優化,從而準確預測輸出結果。

支持的計算資源

DLC

輸入/輸出

輸入樁

  • 通過OSS數據組件,讀取OSS路徑下的訓練數據文件。

  • 配置此算法參數訓練數據OSS路徑,選擇訓練數據文件。

輸出樁

訓練生成的模型,保存地址對應算法參數保存模型的OSS路徑

關于參數詳細說明,請參見下文中的參數說明。

配置組件

Designer工作流頁面添加MLP回歸算法(訓練)組件,并在界面右側配置相關參數:

參數類型

參數

是否必選

描述

默認值

字段設置

訓練數據OSS路徑

若無上游OSS數據傳入,需手動選擇訓練數據文件,示例:train_data.csv(格式要求:CSV格式的數值特征文件,無表頭,最后一列為目標值,其余列為特征)。

保存模型的OSS路徑

保存模型的OSS路徑。

預訓練的模型路徑

預訓練的模型路徑,若不填,則不加載預訓練模型。

參數設置

MLP網絡層數

MLP的層數(除輸出層外)。

3

隱藏層的大小

每個隱藏層的輸出通道數,用半角逗號(,)隔開。若輸入單一數字,則表示所有隱藏層的輸出通道數。

64,32,16

每個Dropout層的丟棄比例

每個Dropout層的丟棄比例,用半角逗號(,)隔開。若輸入單一數字,則表示所有Dropout層的丟棄比例。

0.5

訓練輪數

訓練的總輪數。

100

學習率

學習率。

0.01

訓練批大小

每次迭代中使用的訓練樣本的數量。

32

模型保存輪數

每隔多少個訓練輪次(epoch)保存一次模型(checkpoint )。

10

驗證輪數

每隔多少個訓練輪次對驗證集進行一次評估

5

優化器類型

優化器,用于更新模型參數(如權重和偏置)的算法,支持類型包含Adam、SGD。

Adam

損失函數類型

損失函數,用于衡量模型預測值與真實值之間差異的一種函數,支持類型包含MSE、L1。

MSE

執行調優

選擇資源組

公共資源組

選擇節點規格(CPUGPU實例規格)、專有網絡。

專有資源組

選擇CPU核數、內存、共享內存、GPU卡數。

最大運行時長

組件最大運行時長,超過這個時間,作業會被終止。