Retour au cours

Fonctions d'activation : ReLU et Sigmoid

Cours Complet : Intelligence Artificielle (IA) et Machine Learning (ML)

L'activation des neurones\n\nLes fonctions d'activation déterminent si un neurone doit « s'activer ». ReLU est la plus courante pour les couches cachées, tandis que Sigmoid ou Softmax sont utilisées pour la sortie.