Sophia : "Théorie de linformation : modèles, algorithmes, analyse"
"Théorie de linformation : modèles, algorithmes, analyse" : c'est le thème de la conférence que donnera Brigitte Vallée (Université de Caen), jeudi 11 février à 11 heures à Polytech'Nice Sophia (site des Templiers) amphithéâtre Ouest dans le cadre du Colloquium Morgenstern de l'Inria organisé en partenariat avec l'Ecole Doctorale STIC, l' I3S (CNRS/UNSA), l'EPU. Une plongée dans la complexité des algorithmes. Voici en résumé son intervention.
"Tout étudiant dun cours dalgorithmique de base apprend que la complexité moyenne de lalgorithme QuickSort est en O(n log n), celle de QuickSelect est en O(n) et celle de RadixSort est en O(n log n). De tels énoncés ont le mérite dêtre simples, mais leur simplicité est trompeuse, car ils sont fondés sur des hypothèses spécifiques à chaque algorithme : pour les deux premiers algorithmes, le coût unitaire est la comparaison entre clés, tandis que, pour le troisième, le coût unitaire est la comparaison entre symboles.
Ces études souffrent donc de deux inconvénients majeurs : il nest pas possible de comparer réellement ces algorithmes entre eux, car les mesures de coût sont différentes. Ensuite, la mesure de coût adoptée pour analyser QuickSort ou QuickSelect est peu réaliste, dès que les clés ont une structure complexe, ce qui est le cas dans le contexte des bases de données ou de la langue naturelle, par exemple.
Pour effectuer une analyse réaliste, il faut donc dabord travailler en théorie de linformation pour définir un cadre adapté. En théorie de linformation, une source est un mécanisme aléatoire qui produit des symboles dun alphabet donné. On construit ici un modèle de source très général, qui prenne en compte la possibilité de corrélations importantes entre symboles émis. Les clés considérées par lalgorithme sont alors des mots produits (indépendamment) par la même source.
Il faut ensuite considérer un coût unitaire qui soit le même pour tous les algorithmes : cest la comparaison entre symboles, et le coût de lalgorithme est donc le nombre total de comparaisons effectuées entre symboles.
Nous revisitons ainsi, dans un tel modèle, à la fois unifié et réaliste, lanalyse probabiliste de trois principaux algorithmes : QuickSort, QuickSelect, et les algorithmes de dictionnaire fondés sur la structure de tri.
Cet exposé est fondé sur des travaux communs avec Julien Clément, James Fill, et Philippe Flajolet."
Contact
|