Cours Complet : Intelligence Artificielle (IA) et Machine Learning (ML)
Cours Complet : Intelligence Artificielle (IA) et Machine Learning (ML)
Un parcours complet allant des bases fondamentales de l'Intelligence Artificielle aux algorithmes avancés de Machine Learning. Ce cours couvre la programmation Python, les bases mathématiques, l'apprentissage supervisé et non supervisé, le Deep Learning et le déploiement en conditions réelles. Conçu pour les débutants, il comble le fossé entre la théorie et la pratique en utilisant les outils standards de l'industrie tels que Scikit-Learn, TensorFlow et Pandas.
Leçons
- Introduction à l'Intelligence Artificielle
- Qu'est-ce que le Machine Learning ?
- Histoire et Évolution de l'IA
- Types de Machine Learning
- Configuration de l'environnement Python
- Bases de Python pour la Data Science
- Algèbre Linéaire : Scalaires et Vecteurs
- Matrices et Tenseurs
- Calcul : Dérivées pour l'Optimisation
- Statistiques : Moyenne, Médiane et Mode
- Bases de Probabilité pour l'IA
- NumPy : Travailler avec des données numériques
- Pandas : L'analyse de données simplifiée
- Visualisation de données avec Matplotlib
- Visualisations avancées avec Seaborn
- Nettoyage des données : Gérer les valeurs manquantes
- Analyse Exploratoire des Données (EDA)
- Régression Linéaire Simple
- Fonction de Coût et Gradient Descent
- Régression Linéaire Multiple
- Train/Test Split et Évaluation de Modèle
- Encodage des données catégorielles
- Mise à l'échelle des caractéristiques : Standard vs Normal
- Régression Logistique pour la Classification
- Explication de la fonction Sigmoid
- Matrice de Confusion et Précision
- Précision, Rappel et F1-Score
- K-Nearest Neighbors (KNN)
- Arbres de Décision : Théorie
- Entropie et Gain d'Information
- Random Forest : Apprentissage d'ensemble
- Support Vector Machines (SVM)
- L'astuce du noyau (Kernel Trick) dans le SVM
- Classificateur Naive Bayes
- Compromis Biais-Variance
- Régularisation : Lasso et Ridge
- Réglage des hyperparamètres avec Grid Search
- Validation Croisée K-Fold
- Introduction à l'Apprentissage Non Supervisé
- Clustering K-Means
- La Méthode du Coude (Elbow Method)
- Clustering Hiérarchique
- DBSCAN : Clustering basé sur la densité
- Analyse en Composantes Principales (PCA)
- Apprentissage de règles d'association
- Intro aux systèmes de recommandation
- Filtrage collaboratif vs basé sur le contenu
- Intro aux Réseaux de Neurones
- Le Perceptron : Le neurone unique
- Fonctions d'activation : ReLU et Sigmoid
- Perceptron Multicouche (MLP)
- Algorithme de Backpropagation
- Fonctions de perte en Deep Learning
- Optimiseurs : SGD et Adam
- Overfitting en Deep Learning
- Dropout et Early Stopping
- Intro aux Réseaux de Neurones Convolutifs (CNN)
- Pooling et Stride dans les CNN
- Construire un classificateur d'images
- Intro aux Réseaux de Neurones Récurrents (RNN)
- LSTMs et GRUs
- Bases du Traitement du Langage Naturel (NLP)
- Word Embeddings : Word2Vec
- Projet d'Analyse de Sentiment
- Transfer Learning
- Introduction aux Transformers
- GANs : Réseaux Antagonistes Génératifs
- Éthique en IA : Biais et Équité
- Déploiement de modèles avec Flask
- Streamlit pour les Data Apps
- Introduction au MLOps
- Intro aux prévisions de séries temporelles
- Apprentissage par renforcement : Q-Learning
- Réduction de dimensionnalité : t-SNE
- Optimisation des hyperparamètres avec Optuna
- Cloud IA : Intro à AWS SageMaker
- Détection d'objets vs Classification d'images
- Introduction à PyTorch
- Tendances futures : IA Générative et LLMs
- Guide du projet de fin d'études