|
|
Titres et résumésTitres et résumés des exposés Vlad Barbu LMRS, Université de Rouen Normandie Tests d'adéquation et d’homogénéité basés sur des divergences pondérées Dans cet exposé nous nous intéressons d’abord à une classe de tests d’hypothèses d’adéquation à une loi et aussi à une classe de tests d’homogénéité entre deux échantillons, dans un cadre iid. Ces tests sont construits sur des mesures de divergences particulières, appelées divergences pondérées, qui permettent de se concentrer sur une partie spécifique du support des lois, tout en gardant aussi l’information pour le reste du support. Par cette méthodologie, on obtient des tests qui sont souvent plus puissants que les tests classiques, avec des risques de première espèce comparables. Nous présentons aussi la théorie asymptotique associée, avec des simulations Monte Carlo correspondantes, pour investiguer les performances des tests proposés. Nous donnons également quelques éléments pour le calcul de la puissance des tests. Des extensions au cas markovien et semi-markovien seront aussi discutées. Salim Bouzebda LMAC, Université Technologique de Compiègne Sur les tests d’indépendance basés sur la norme L1 Le test d'indépendance parmi des vecteurs continus multivariés est une tâche fondamentale mais complexe en statistique. Notre contribution réside dans le développement d'un test basé sur la norme L1 conçu pour évaluer l'indépendance multivariée. Bien que le test basé sur L1, entre la fonction de densité jointe et le produit des densités marginales associées aux vecteurs présumés indépendants, présente des caractéristiques attrayantes, ses fondements théoriques ont été difficiles à établir. Sous l'hypothèse nulle, nous utilisons des techniques de poissonisation pour établir l'approximation normale asymptotique de la statistique de test correspondante, sans imposer d'hypothèses de régularité sur la fonction de densité de Lebesgue sous-jacente. De manière remarquable, nous observons que la distribution limite des statistiques basées sur L1 ne dépend pas du modèle. Ce résultat inattendu contribue à la robustesse et à la polyvalence de notre méthode. De plus, nos tests présentent une puissance locale non triviale contre un sous-ensemble d'alternatives locales, qui convergent vers l'hypothèse nulle à un taux de n^{ -1/2}h(n)^{-d/4}, où n représente la taille de l'échantillon et h(n) désigne la largeur de bande. Enfin, la théorie est soutenue par une étude de simulation approfondie visant à examiner les performances en échantillon fini de notre test proposé. Les résultats démontrent que notre procédure de test surpasse généralement les approches existantes dans divers scénarios examinés. Un travail de collaboration avec N. Berrahou et L. Douge (Univ. Cadi Ayyad Marrakesh.) Julien David GREYC, Université de Caen Normandie Génération aléatoire de vecteurs stochastiques avec une propriété fixée
L'entropie des sources avec lesquelles on engendre des objets discrets est connue pour avoir une incidence sur le comportement de nombreux algorithmes prenant lesdits objets en entrée. La génération aléatoire d'objet combinatoire est un outil puissant dans l'étude du comportement des algorithmes. Cyprien Ferraris LPSM, Sorbonne Université, Paris Estimation robuste sur les graphes aléatoires : les divergences comme alternative à la vraisemblance Les modèles de graphes aléatoires par blocs sont étudiés depuis quelques années maintenant et trouvent beaucoup d’applications dans des domaines variés : finance, génomique, réseaux sociaux etc. La plupart des critères d’estimation de la littérature sur ces modèles reposent sur la vraisemblance des données. Or le maximum de vraisemblance peut être fortement influencé par la présence de valeurs aberrantes ou d’autres déviations au modèle de graphe théorique considéré. Emmanuelle Gautherat REGARDS, Université de Reims Champagne Ardennes Approches comparées des méthodes statistiques mobilisant des divergences dans le cadre de l'estimation ou des tests statistiques On propose dans cet exposé de commencer par présenter les notions d'entropie et de divergences (discrepancies et autres termes utilisés dans différents champs d’applications) avec des notations unifiées. On s'attachera ensuite à présenter quelques grands courants de questionnements statistiques qui se sont posés et se posent encore relativement à ces objets. On s’attachera ensuite à distinguer deux approches de traitement statistique : bien souvent les auteurs oeuvrant dans le champ statistique utilisent des notions de dualité mais passent dans le domaine empirique, soit avant cette opération de dualité, soit après cette opération de dualité. On vise dans cet exposé à comprendre quels sont les intérêts respectifs de chacune de ces voies. Théo Grente LMNO, Université de Caen Normandie Étudier l'impact de la dégradation des données sur des indices issus de la théorie de l'information : le cas de l'approche LIM pour l'analyse des réseaux trophiques Selon le paradigme des modèles inverses linéaires (LIM), les réseaux trophiques décrivant les interactions proies/prédateurs d’un écosystème marin peuvent être modélisés par un graphe orienté. Les sommets sont les espèces et les arêtes les flux trophiques d'échanges de matière organique, qui ne sont connus qu'à travers un système d'équations et inéquations lineaires issu de mesures biologiques. Ainsi l'ensemble des flux écologiquement admissibles est un polytope complexe, fortement anisotropique et de grande dimension, décrit en pratique par simulation MCMC. Catherine Huber MAP5, Université Paris Descartes Distances et divergences en statistique robuste et non-paramétrique et en IA (réseaux de neurones). Applications biomédicales El Mehdi Issouani LMAC, Université Technologique de Compiègne Maximum d'entropie appliqué aux données textuelles (Natural Language Processing), avec une extension aux vraisemblances empiriques généralisées Dans le domaine du traitement automatique de texte, l'entropie est un outil essentiel pour évaluer la complexité linguistique. Nous illustrons son utilité à travers des exemples de traduction automatique et de pos-tagging. Notre contribution consiste en une mesure de complexité basée sur une classification en phrases simples versus phrases complexes. Nous présentons les résultats de nos expériences démontrant l'efficacité de cette approche dans certains cas spécifiques. Enfin, nous discutons brièvement de l'extension potentielle de notre méthode à la vraisemblance empirique généralisée, ouvrant ainsi de nouvelles perspectives dans le domaine du traitement automatique du langage naturel. Maël Le Treust IRISA, Rennes Une borne réciproque sur la fonction distorsion-débit lorsque l'encodeur optimise une mesure de distorsion distincte de celle fixée au décodeur Nous considérons le problème de compression d'information lorsque l'encodeur optimise une mesure de distorsion distincte de celle fixée au décodeur. Ce problème, formulé par Lapidoth en 1997, est ouvert : la borne atteignable ne coïncide pas avec la borne réciproque. Lorsque le débit de la communication est suffisamment élevé, ce problème se ramène au problème de théorie des jeux appelé conception de mécanisme, formulé par Jackson et Sonnenschein en 2007. Une caractéristique importante du modèle est le post-traitement stochastique des mots de code. En sélectionnant soigneusement l'aléa introduit par la fonction de décodage, l'encodeur est encouragé à révéler la suite de symboles de source. Eric Marcon AgroParisTech, Montpellier Mesures de biodiversité et de concentration spatiale par l’entropie : une approche multidisciplinaire Les mesures de la concentration spatiale et de la spécialisation en économie sont très similaires à celles de la biodiversité et de la valence des espèces en écologie. Les développements méthodologiques, inspirés de la physique statistique, sont plus avancés en écologie mais gagnent progressivement l’économie. Pierre Maréchal IMT, Université Paul Sabatier,Toulouse Reconstruction des densités de probabilité angulaire par le Maximum d'Entropie - Application à l'estimation de la complexité du trafic aérien. Un problème important en gestion du trafic aérien consiste en la construction de cartes de complexité du trafic. Les données observées ou simulées fournissent un échantillon statistique des angles des trajectoires. La densité angulaire sous-jacente est un maillon essentiel dans l'évaluation de la complexité locale. Laurent Mazliak LPSM, Sorbonne Université, Paris Quelques éléments sur Borel et la théorie des jeux
Le 19 décembre 1921, le mathématicien Emile Borel (1871-1956) présentait à l'Académie des sciences de Paris une note intitulée Théorie des jeux et équations intégrales à noyau symétrique, considérée depuis comme un acte fondateur de la théorie des jeux. Borel, alors âgé de 50 ans, était une véritable star de la scène mathématique mondiale. Il avait été élu membre de l'Académie quelques mois plus tôt, et c'était la première fois dans son abondante production que le titre d'un article faisait explicitement référence à la théorie des jeux. Frank Nielsen Sony Computer Science Laboratories Inc., Japon Quelques résultats récents sur les divergences : principes et géométries sous-jacentes La notion de divergence est essentielle en théorie de l'information, statistique et apprentissage. De grandes classes fondamentales de divergences comme les divergences monotones, les divergences de Bregman ainsi que les distances basées sur le transport optimal ont été étudiées. Ayoub Otmani LITIS, Université de Rouen Normandie Entropie en cryptographie Olivier Rioul Télécom Paris, LTCI, Palaiseau L’héritage de Marco Schützenberger en statistique et théorie de l’information : van Trees avant van Trees, Pinsker avant Pinsker, et le mystère de la constante 4/3.
La loi d’éponymie de Stigler stipule que : "une découverte scientifique ne porte jamais le nom de son auteur". Cette présentation invente une nouvelle "loi de Schützenberger” qui va plus loin : "Schützenberger a découvert les inégalités qui ne portent pas son nom 10 ans avant tout le monde". C’est d’autant plus remarquable que ces inégalités, pourtant très utiles en statistique et en théorie de l’information, datent des tous premiers travaux de thèse de Schützenberger, influencé par Darmois et Fréchet; et que Schützenberger ne les a plus jamais mentionnés par la suite, n’étant pas persuadé qu’il avait fait une bonne thèse. Adeline Roux-Langlois CNRS, GREYC, Caen Utilisation de la divergence de Rényi en cryptographie reposant sur les réseaux euclidiens La cryptographie reposant sur les réseaux euclidiens est un candidat sérieux de la cryptographie dite « post-quantique », c'est à dire qui résisterait à de potentielles attaques venant d'un ordinateur quantique. Même s’il n’existe pas à ce jour d’ordinateur quantique suffisamment élaboré pour attaquer les constructions cryptographiques actuellement déployées, la recherche en calcul quantique est en pleine expansion avec des progrès réguliers. Il est donc important de se préparer à cette éventualité en proposant des alternatives aux solutions existantes. Wolfgang Stummer Department Mathematik, FAU, Erlangen, Allemagne New bare simulation optimizations of directed distances and generalized entropies Aida Toma Bucharest University of Economic Studies and ISMMA, Romanian Academy, Romania Robust methods for semiparametric moment condition models We introduce robust minimum empirical divergence estimators for moment condition models, based on truncated orthogonality functions and dual forms of divergences. The class of these estimators is indexed by the phi-function corresponding to the used divergence and contains some known estimators as special cases. We mention here the robust empirical tilting estimator that can be obtained through our procedure when using the Kullback-Leibler divergence, as well as a robust version of the empirical likelihood estimator obtained in the case of using the modified Kullback-Leibler divergence. Brigitte Vallée CNRS, GREYC, Université de Caen Construction explicite de sources binaires d'entropie nulle dont le poids de Shannon est donné
|
Personnes connectées : 2 | Vie privée |