RFIDEC: News

3/11 Examen réparti 1 : L'examen aura lieu en amphi 56B le mardi 5 novembre de 16h à 18h. Le seul document autorisé sera une page recto-verso (antisèche) sur laquelle vous aurez écrit tout ce qui vous a semblé pertinent.
Important : pensez à amener votre calculatrice. Les calculatrices sont individuelles et ne pourront être échangées entre les étudiants pendant l'examen.
Les ordinateurs portables sont interdits. Les téléphones portables sont également interdits.
Les tables des lois (normales, chi2, etc) vous seront fournies dans l'énoncé de l'examen réparti.
13/09 Cours : Le premier cours de RFIDEC aura lieu le mardi 25 septembre de 16h à 18h en amphi 56A.

Le but du cours

Ce cours a pour but d'offrir une introduction douce aux méthodes numériques et statistiques utilisées, en particulier, en intelligence artificielle et en imagerie.

Il aborde les méthodes numériques et statistiques de l'Intelligence Artificielle en s'appuyant sur des exemples de problèmes issus de la reconnaissance des formes et d'autres problèmes décisionnels de l'IA. Il met en avant la compréhension de notions de base et leur utilisation sur des cas concrets qui feront l'objet de TP. L'accent sera mis sur les aspects applicatifs du traitement et de l'analyse des données.

Contenu des cours

  • Cours 1.1 : statistique descriptive :
    • Notions de base de la stat descriptive (population, caractères, etc)
    • Variables discrètes, continues...
    • Effectifs, distributions, discrétisation
    • Graphiques (diagrammes en bâtons, histogrammes)
    • Caractéristiques statistiques (médiane, moyenne, variance, etc)
  • Cours 1.2 : introduction aux probabilités :
    • Probabilités objectives v.s. subjectives
    • La notion d'événement
    • Définition de Kolmogorov
    • Probabilités conditionnelles
    • Formule de Bayes
    • Indépendance, indépendance conditionnelle
  • Cours 1.3 : probabilités (suite) :
    • Variables aléatoires
    • Caractéristiques et variables aléatoires
    • Indépendances de variables aléatoires
    • Loi binomiale et loi de Poisson
    • Loi normale
  • Cours 2 : Échantillons, estimations ponctuelles :
    • Lois des grands nombres
    • Le théorème central-limite
    • Échantillonnage
    • Estimations ponctuelles à partir d'échantillons
    • Biais dans les estimateurs
  • Cours 3 : Intervalles de confiance, tests d'hypothèses :
    • Intervalles de confiance
    • Tests d'hypothèses
    • Loi du chi2
  • Cours 4 : Tests d'ajustement, apprentissage de paramètres :
    • Tests d'ajustement
    • Tests d'indépendance
    • Application aux réseaux bayésiens
    • Introduction à l'apprentissage de paramètres
    • Maximum de vraissemblance
  • Cours 5 : MAP et apprentissage non paramétrique :
    • Maximum a posteriori
    • Estimation de densité

Les cours suivants seront assurés par Patrick Gallinari et porteront sur les points suivants :

  • Cours 6 : Régression linéaire
  • Cours 7 : Méthodes de clustering (K-means, Kohonen, etc)
  • Cours 8 : Classification bayésienne
  • Cours 9 : Classificiation gaussienne
  • Cours 10 : Classifieurs linéaires (LDA, perceptron, etc)

Les transparents du cours

Cours 1.1 : ( 1/page) ( 4/page)
Cours 1.2 : ( 1/page) ( 4/page)
Cours 1.3 : ( 1/page) ( 4/page)
Cours 2 : ( 1/page) ( 4/page)
Cours 3 : ( 1/page) ( 4/page)
Cours 4 : ( 1/page) ( 4/page)
Cours 5 : ( 1/page) ( 4/page)

le poly des 5 premiers cours

Quelques annales


examenénoncéénoncé agrandicorrigécorrigé agrandi
Examen de 2ème session 2011-2012 pdf pdf pdf pdf
Examen 2011-2012 pdf pdf pdf pdf
Examen de 2ème session 2010-2011 pdf pdf pdf pdf
Examen 2010-2011 pdf pdf pdf pdf
Examen de 2ème session 2009-2010 pdf pdf pdf pdf
Examen 2009-2010 pdf pdf pdf pdf
Examen de 2ème session 2008-2009 pdf pdf pdf pdf
Examen 2008-2009 pdf pdf pdf pdf
Examen de 2ème session 2007-2008 pdf pdf pdf pdf
Examen 2007-2008 pdf pdf pdf pdf

Bibliographie en relation avec le cours

  • Christopher M. Bishop (2008) « Pattern Recognition And Machine Learning », 2ème édition, Springer
  • Richard O. Duda, Peter E. Hart, David G. Stork (2000) « Pattern Classification », 2ème édition, Wiley-Interscience
  • Sergios Theodoridis, Konstantinos Koutroumbas (2003) « Pattern Recognition », 2ème édition, Academic Press
  • Andrew Webb (2002) « Statistical Pattern Recognition », 2ème édition, John Wiley & Sons
  • Gilbert Saporta (2006) « Probabilités, analyse des données et statistique », 2ème édition, éditions Technip
  • Patrick Naïm, Pierre-Henri Wuillemin, Philippe Leray, Olivier Pourret, Anna Becker (2007) « Réseaux bayésiens », 3ème édition, Eyrolles
  • Finn V. Jensen, Thomas Nielsen (2007) « Bayesian Networks and Decision Graphs », 2ème édition, Springer