我們在使用神經網絡時都處理過激活函數。 - Sigmoid - Tanh - ReLu 和 Leaky ReLu - Gelu 你有沒有想過它們為什麼如此重要❓🤔 讓我來解釋一下... 👇