我们在使用神经网络时都处理过激活函数。 - Sigmoid - Tanh - ReLu 和 Leaky ReLu - Gelu 你有没有想过它们为什么如此重要❓🤔 让我来解释一下... 👇