從0開始學Pytorch:激活函數與卷積層基礎講解

### 激活函數與卷積層概述 **激活函數**:神經網絡需非線性變換擬合複雜關係,激活函數引入非線性。常見函數: - **ReLU**:`y = max(0, x)`,計算簡單,解決梯度消失,最常用(PyTorch:`nn.ReLU()`)。 - **Sigmoid**:`y = 1/(1+exp(-x))`,輸出(0,1)用於二分類,但梯度消失(PyTorch:`nn.Sigmoid()`)。 - **Tanh**:`y=(exp(x)-exp(-x))/(exp(x)+exp(-x))`,輸出(-1,1),均值0,易訓練但仍有梯度消失(PyTorch:`nn.Tanh()`)。 **卷積層**:CNN核心,通過卷積核提取局部特徵。基本概念:輸入(如RGB圖像,形狀`(batch, in_channels, H, W)`)、卷積核(小矩陣)、步長(滑動像素數)、填充(邊緣補0控輸出尺寸)。PyTorch用`nn.Conv2d`實現,關鍵參數:`in_channels`(輸入

閱讀全文