私たちは皆、ニューラルネットを扱っているときに活性化関数を扱ったことがあります。 -シグモイド - タン - ReLu & リーキー ReLu - ゲル なぜそれらがそれほど重要な❓🤔のか疑問に思ったことはありませんか 説明しましょう...👇