Conférences et débats - Shannon 100
jeudi 9 février 2017, 18h30-20h00
L’entropie est un concept central de la théorie de l’information que Shannon a développé pour des applications en communication. Elle apparait également naturellement en statistique où elle est liée à la méthode de maximum de vraisemblance introduite par Fisher avant les travaux de Shannon.
Venez découvrir ces concepts, encore féconds de nos jours !
Avec Erwan Le Pennec, Ecole polytechnique - Département de Mathématiques Appliquées.
Shannon, son entropie et les statistiques
Une conférence en lien avec l'exposition temporaire Le magicien des codes, dans le cadre du centennaire de Claude Shannon. En partenariat avec l'Institut Henri Poincaré.
http://www.arts-et-metiers.net/musee/shannon-son-entropie-et-les-statistiques