Titres et résumés

Titres et résumés des exposés

Vlad Barbu LMRS, Université de Rouen Normandie 

Tests d'adéquation et d’homogénéité basés sur des divergences pondérées

Dans cet exposé nous nous intéressons d’abord à une classe de tests d’hypothèses d’adéquation à une loi et aussi à une classe de tests d’homogénéité entre deux échantillons, dans un cadre iid. Ces tests sont construits sur des mesures de divergences particulières, appelées divergences pondérées, qui permettent de se concentrer sur une partie spécifique du support des lois, tout en gardant aussi l’information pour le reste du support. Par cette méthodologie, on obtient des tests qui sont souvent plus puissants que les tests classiques, avec des risques de première espèce comparables. Nous présentons aussi la théorie asymptotique associée, avec des simulations Monte Carlo correspondantes, pour investiguer les performances des tests proposés. Nous donnons également quelques éléments pour le calcul de la puissance des tests. Des extensions au cas markovien et semi-markovien seront aussi discutées.
Collaboration avec T. Gkelsinis et A. Karagrigoriou.

Salim Bouzebda LMAC, Université Technologique de Compiègne

Sur les tests d’indépendance  basés sur la norme L1

Le test d'indépendance parmi des vecteurs continus multivariés est une tâche fondamentale mais complexe en statistique. Notre contribution réside dans le développement d'un test basé sur la norme L1 conçu pour évaluer l'indépendance multivariée. Bien que le test basé sur L1, entre la fonction de densité jointe et le produit des densités marginales associées aux vecteurs présumés indépendants, présente des caractéristiques attrayantes, ses fondements théoriques ont été difficiles à établir. Sous l'hypothèse nulle, nous utilisons des techniques de poissonisation pour établir l'approximation normale asymptotique de la statistique de test correspondante, sans imposer d'hypothèses de régularité sur la fonction de densité de Lebesgue sous-jacente. De manière remarquable, nous observons que la distribution limite des statistiques basées sur L1 ne dépend pas du modèle. Ce résultat inattendu contribue à la robustesse et à la polyvalence de notre méthode. De plus, nos tests présentent une puissance locale non triviale contre un sous-ensemble d'alternatives locales, qui convergent vers l'hypothèse nulle à un taux de n^{ -1/2}h(n)^{-d/4}, où n représente la taille de l'échantillon et h(n) désigne la largeur de bande. Enfin, la théorie est soutenue par une étude de simulation approfondie visant à examiner les performances en échantillon fini de notre test proposé. Les résultats démontrent que notre procédure de test surpasse généralement les approches existantes dans divers scénarios examinés. Un travail de collaboration avec N. Berrahou et L. Douge (Univ. Cadi Ayyad Marrakesh.)

Julien David GREYC, Université de Caen Normandie

Génération aléatoire de vecteurs stochastiques avec une propriété fixée

L'entropie des sources avec lesquelles on engendre des objets discrets est connue pour avoir une incidence sur le comportement de nombreux algorithmes prenant lesdits objets en entrée. La génération aléatoire d'objet combinatoire est un outil puissant dans l'étude du comportement des algorithmes.
Partant de ces deux constats, on s'est intéressé à la possibilité d'engendrer aléatoirement et uniformément des vecteurs stochastiques dont l'entropie de Shannon est fixée. Je commencerai l'exposé en explicitant ces motivations.
La méthode obtenue utilise des chaînes de Markov et se généralise à des vecteurs stochastiques dont l'image par une fonction symétrique concave particulière est égale à une valeur donnée.

Cyprien Ferraris LPSM, Sorbonne Université, Paris

Estimation robuste sur les graphes aléatoires : les divergences comme alternative à la vraisemblance

Les modèles de graphes aléatoires par blocs sont étudiés depuis quelques années maintenant et trouvent beaucoup d’applications dans des domaines variés : finance, génomique, réseaux sociaux etc. La plupart des critères d’estimation de la littérature sur ces modèles reposent sur la vraisemblance des données. Or le maximum de vraisemblance peut être fortement influencé par la présence de valeurs aberrantes ou d’autres déviations au modèle de graphe théorique considéré.
Afin d’obtenir des estimateurs plus robustes, nous avons développé de nouveaux critères basés sur l’utilisation de divergences entre graphes, i.e., entre les lois générant ces graphes. Nous démontrons la consistance des estimateurs associés à ces critères. De plus nous proposons un critère de sélection de modèle afin de choisir le nombre de blocs. Enfin, nous illustrons l’intérêt de ces méthodes par rapport à la vraisemblance en présence de mauvaises spécifications du modèle.

Emmanuelle Gautherat REGARDS, Université de Reims Champagne Ardennes

Approches comparées des méthodes statistiques mobilisant des divergences dans le cadre de l'estimation ou des tests statistiques

On propose dans cet exposé de commencer par présenter les notions d'entropie et de divergences (discrepancies et autres termes utilisés dans différents champs d’applications) avec des notations unifiées. On s'attachera ensuite à présenter quelques grands courants de questionnements statistiques qui se sont posés et se posent encore relativement à ces objets. On s’attachera ensuite à distinguer deux approches de traitement statistique : bien souvent les auteurs oeuvrant dans le champ statistique utilisent des notions de dualité mais passent dans le domaine empirique, soit avant cette opération de dualité, soit après cette opération de dualité. On vise dans cet exposé à comprendre quels sont les intérêts respectifs de chacune de ces voies.

Théo Grente LMNO, Université de Caen Normandie

Étudier l'impact de la dégradation des données sur des indices issus de la théorie de l'information : le cas de l'approche LIM pour l'analyse des réseaux trophiques

Selon le paradigme des modèles inverses linéaires (LIM), les réseaux trophiques décrivant les interactions proies/prédateurs d’un écosystème marin peuvent être modélisés par un graphe orienté. Les sommets sont les espèces et les arêtes les flux trophiques d'échanges de matière organique, qui ne sont connus qu'à travers un système d'équations et inéquations lineaires issu de mesures biologiques. Ainsi l'ensemble des flux écologiquement admissibles est un polytope complexe, fortement anisotropique et de grande dimension, décrit en pratique par simulation MCMC.
Dans une approche probabiliste, ce polytope est vu comme un ensemble de distributions, caractérisées par les écologues par des indices appelés ENA (Ecological Network Analysis), issus de la théorie de l'information. L'étude présentée cherche à évaluer la robustesse des ENA face à la dégradation des données dûe à l'incertitude des mesures. La méthode spécifique envisagée permet de quantifier l'impact de la dégradation sur un ENA donné, et de comparer la robustesse de plusieurs ENA pour sélectionner les plus pertinents.
Collaboration avec Jacques Bréhelin, Valerie Girardin et Nathalie Niquil.

 Catherine Huber  MAP5, Université Paris Descartes

Distances et divergences en statistique robuste et non-paramétrique et en IA (réseaux de neurones). Applications biomédicales

Les distances et divergences sur les espaces de probabilité et les relations entre elles et avec la théorie de l'information jouent un rôle majeur en statistique. Par exemple, en statistique robuste, pour définir le voisinage attendu du modèle paramétrique (jamais exactement respecté par les observations), voisinage sur lequel on devra optimiser la pire performance d'une procédure d'estimation ou de test, on doit choisir une distance.
La plus adéquate dans ce cas est celle de Prohorov. Dans le cadre non paramétrique, pour obtenir la vitesse optimale d'estimation, on est amené à utiliser de telles distances pour définir un sous-problème de dimension finie aussi difficile que le problème infini dimensionnel initial. Et pour les réseaux de neurones, en IA, on en a besoin pour définir l'objectif de l'algorithme choisi.

El Mehdi Issouani LMAC, Université Technologique de Compiègne

Maximum d'entropie appliqué aux données textuelles (Natural Language Processing), avec une extension aux vraisemblances empiriques généralisées

Dans le domaine du traitement automatique de texte, l'entropie est un outil essentiel pour évaluer la complexité linguistique. Nous illustrons son utilité à travers des exemples de traduction automatique et de pos-tagging. Notre contribution consiste en une mesure de complexité basée sur une classification en phrases simples versus phrases complexes. Nous présentons les résultats de nos expériences démontrant l'efficacité de cette approche dans certains cas spécifiques. Enfin, nous discutons brièvement de l'extension potentielle de notre méthode à la vraisemblance empirique généralisée, ouvrant ainsi de nouvelles perspectives dans le domaine du traitement automatique du langage naturel.

Maël Le Treust  IRISA, Rennes 

Une borne réciproque sur la fonction distorsion-débit lorsque l'encodeur optimise une mesure de distorsion distincte de celle fixée au décodeur

Nous considérons le problème de compression d'information lorsque l'encodeur optimise une mesure de distorsion distincte de celle fixée au décodeur. Ce problème, formulé par Lapidoth en 1997, est ouvert : la borne atteignable ne coïncide pas avec la borne réciproque. Lorsque le débit de la communication est suffisamment élevé, ce problème se ramène au problème de théorie des jeux appelé conception de mécanisme, formulé par Jackson et Sonnenschein en 2007.
Inspirés par cette solution, nous formulons une nouvelle borne réciproque, laquelle coïncide avec la borne atteignable dans quatre cas particuliers :
1) lorsque le débit est suffisamment élevé,
2) lorsque la source est binaire et uniforme et que la sortie du décodeur est binaire,
3) lorsque la mesure de distorsion de l'encodeur ne dépend pas des symboles sources,
4) lorsque la somme des deux mesures de distorsion est nulle.

Une caractéristique importante du modèle est le post-traitement stochastique des mots de code. En sélectionnant soigneusement l'aléa introduit par la fonction de décodage, l'encodeur est encouragé à révéler la suite de symboles de source.

Eric Marcon AgroParisTech, Montpellier

Mesures de biodiversité et de concentration spatiale par l’entropie : une approche multidisciplinaire

Les mesures de la concentration spatiale et de la spécialisation en économie sont très similaires à celles de la biodiversité et de la valence des espèces en écologie. Les développements méthodologiques, inspirés de la physique statistique, sont plus avancés en écologie mais gagnent progressivement l’économie.
L’entropie est la notion fondamentale, issue de la physique statistique et la théorie de l’information, utilisée pour mesurer la concentration et la spécialisation. La notion de nombre effectif, qui est un nombre de catégories dans une distribution idéale simplifiée, est introduite. La décomposition de la diversité totale d’une distribution en concentration ou spécialisation absolue et relative et en réplication, est présentée. L’ensemble fournit un cadre théorique complet et robuste pour mesurer à la fois la structuration spatiale et la diversité.

Pierre Maréchal IMT, Université Paul Sabatier,Toulouse

Reconstruction des densités de probabilité angulaire par le Maximum d'Entropie - Application à l'estimation de la complexité du trafic aérien.

Un problème important en gestion du trafic aérien consiste en la construction de cartes de complexité du trafic. Les données observées ou simulées fournissent un échantillon statistique des angles des trajectoires. La densité angulaire sous-jacente est un maillon essentiel dans l'évaluation de la complexité locale.
Notre approche consiste en l'application du principe du Maximum d'Entropie, sous contraintes fournies par l'estimation statistique des coefficients de Fourier de la densité recherchée. La prise en compte des propriétés statistiques de l'estimation des moments se fait en prenant pour terme d'attache le carré de la distance de Mahalanobis entre les données statistiques et les coefficients de Fourier de la densité recherchée. La programmation convexe partiellement finie est alors mise en œuvre pour calculer la densité optimale.
La pierre angulaire de cette approche, qui permet un traitement rigoureux des aspects variationnels de la méthode choisie, est une version en dimension infinie du théorème de dualité de Fenchel, couplée avec des résultats de conjugaison des fonctionnelles intégrales. Nous aborderons également les aspects numériques de notre approche et proposerons quelques simulations.

Laurent Mazliak LPSM, Sorbonne Université, Paris

Quelques éléments sur Borel et la théorie des jeux

Le 19 décembre 1921, le mathématicien Emile Borel (1871-1956) présentait à l'Académie des sciences de Paris une note intitulée Théorie des jeux et équations intégrales à noyau symétrique, considérée depuis comme un acte fondateur de la théorie des jeux. Borel, alors âgé de 50 ans, était une véritable star de la scène mathématique mondiale. Il avait été élu membre de l'Académie quelques mois plus tôt, et c'était la première fois dans son abondante production que le titre d'un article faisait explicitement référence à la théorie des jeux.
Dans cet exposé, je donnerai quelques éléments sur le contexte dans lequel le mathématicien français s’est intéressé à ces questions de jeux en lien avec ses intérêts pour la théorie des probabilités et je décrirai comment une polémique impliquant Fréchet et von Neumann dans les années 1950 a ramené dans l'actualité les quelques travaux de Borel sur ce sujet, et a inauguré une profonde transformation dans la présence de l’économie mathématique en France.

Frank Nielsen Sony Computer Science Laboratories Inc., Japon

Quelques résultats récents sur les divergences : principes et géométries sous-jacentes

La notion de divergence est essentielle en théorie de l'information, statistique et apprentissage. De grandes classes fondamentales de divergences comme les divergences monotones, les divergences de Bregman ainsi que les distances basées sur le transport optimal ont été étudiées.
Nous présenterons dans cet exposé quelques résultats récents de nos travaux sur les divergences et leurs relations avec des structures géométriques sur les variétés statistiques.

Ayoub Otmani  LITIS, Université de Rouen Normandie

Entropie en cryptographie

La cryptographie repose sur le concept d’impossibilité pour une partie illégitime d’accéder à un secret. Le premier outil pour offrir une telle garantie est d’avoir accès à une source d’aléa qui soit en mesure de produire à la demande une séquence de bits de manière efficace et fiable. L’entropie introduite par Shannon est une mesure de la qualité de l’aléa mais il existe en cryptographie d’autres notions d’entropie définies pour des notions de sécurité différentes.
Cet exposé a pour vocation d’offrir un panorama des différentes entropies et de leur utilité en cryptographie.

Olivier Rioul Télécom Paris, LTCI, Palaiseau  

L’héritage de Marco Schützenberger en statistique et théorie de l’information : van Trees avant van Trees, Pinsker avant Pinsker, et le mystère de la constante 4/3.

La loi d’éponymie de Stigler stipule que : "une découverte scientifique ne porte jamais le nom de son auteur". Cette présentation invente une nouvelle "loi de Schützenberger” qui va plus loin : "Schützenberger a découvert les inégalités qui ne portent pas son nom 10 ans avant tout le monde". C’est d’autant plus remarquable que ces inégalités, pourtant très utiles en statistique et en théorie de l’information, datent des tous premiers travaux de thèse de Schützenberger, influencé par Darmois et Fréchet; et que Schützenberger ne les a plus jamais mentionnés par la suite, n’étant pas persuadé qu’il avait fait une bonne thèse.
Dans cet exposé, je retrace la vie et l’oeuvre de ce génie dans ce domaine particulier, en me basant sur les témoignages de sa fille et de ses premiers étudiants, et en essayant entre autres de résoudre le mystère de la constante erronée 4/3 au lieu de 4/9.

Adeline Roux-Langlois CNRS, GREYC, Caen

Utilisation de la divergence de Rényi en cryptographie reposant sur les réseaux euclidiens

La cryptographie reposant sur les réseaux euclidiens est un candidat sérieux de la cryptographie dite « post-quantique », c'est à dire qui résisterait à de potentielles attaques venant d'un ordinateur quantique. Même s’il n’existe pas à ce jour d’ordinateur quantique suffisamment élaboré pour attaquer les constructions cryptographiques actuellement déployées, la recherche en calcul quantique est en pleine expansion avec des progrès réguliers. Il est donc important de se préparer à cette éventualité en proposant des alternatives aux solutions existantes.
Cet exposé portera sur l'utilisation de la divergence de Rényi en cryptographie post-quantique, en particulier dans les preuves de sécurité. Ces preuves permettent de prouver la sécurité d'une construction cryptographique en montrant qu'attaquer le schéma est au moins aussi difficile qu'un problème algorithmique difficile.

Wolfgang Stummer Department Mathematik, FAU, Erlangen, Allemagne

New bare simulation optimizations of directed distances and generalized entropies

The constrained minimization (respectively maximization) of directed distances and of related generalized entropies is a fundamental task in information theory as well as in the adjacent fields of statistics, machine learning, artificial intelligence, signal processing and pattern recognition. For this, we give a new approach for obtaining both optima as well as optimizers, based on bare (pure) simulation techniques. Almost no assumptions (like convexity) on the set of constraints are needed, within our discrete setup of arbitrary dimension, and our method is precise (i.e., converges in the limit).
We also discuss the wide applicability of our approach.

Aida Toma  Bucharest University of Economic Studies and ISMMA, Romanian Academy, Romania

Robust methods for semiparametric moment condition models

We introduce robust minimum empirical divergence estimators for moment condition models, based on truncated orthogonality functions and dual forms of divergences. The class of these estimators is indexed by the phi-function corresponding to the used divergence and contains some known estimators as special cases. We mention here the robust empirical tilting estimator that can be obtained through our procedure when using the Kullback-Leibler divergence, as well as a robust version of the empirical likelihood estimator obtained in the case of using the modified Kullback-Leibler divergence.
For the class of these estimators, we proved robustness properties using the influence function approach and asymptotic properties including consistency and asymptotic laws. Robust tests based on estimators of the divergences are also derived. Some examples based on Monte Carlo simulations illustrate the performance of the proposed methods.
Joint work with Amor Keziou.

Brigitte Vallée  CNRS, GREYC, Université de Caen

Construction explicite de sources binaires d'entropie nulle  dont le poids de Shannon est donné

Une source binaire  émet une suite infinie de zéros et de uns. Nous étudions des sources binaires très générales  où l'émission d'un symbole dépend de toute l'histoire précédente. Nous nous concentrons sur des sources d'entropie nulle  et nous étudions leur poids  de Shannon m(n), où m(n) est la quantité  moyenne d'information  apportée par le préfixe de longueur n.
Nous donnons une construction explicite de sources d'entropie nulle dont le poids de Shannon m(n) a un ordre de grandeur prescrit. Ce sont des sources dynamiques, où les branches ont des points fixes indifférents, que nous pouvons analyser précisément avec des méthodes d'analyse dynamique.  
Travail commun avec Ali Akhavi, Eda Cesaratto, Frédéric Paccaut, Pablo Rotondo.

  

                                  logo

Personnes connectées : 3 Vie privée
Chargement...