Nous avons tous été confrontés aux fonctions d'activation en travaillant avec des réseaux de neurones. - Sigmoïde - Tanh - ReLu & Leaky ReLu - Gelu Vous vous êtes déjà demandé pourquoi elles sont si importantes❓🤔 Laissez-moi expliquer... 👇