Todos nós já lidamos com funções de ativação enquanto trabalhávamos com redes neurais. -Sigmóide -Tanh - ReLu & ReLu com vazamento - Gelu Já se perguntou por que eles são tão importantes❓🤔 Deixe-me explicar... 👇