Мы все сталкивались с функциями активации при работе с нейронными сетями. - Сигмоида - Тангенс - ReLu и Leaky ReLu - Gelu Когда-нибудь задумывались, почему они так важны❓🤔 Позвольте мне объяснить... 👇