You are currently viewing Séminaire Pôle Télécoms et Réseaux 3 novembre 2016 14h (salle de conseil, LSS)

Séminaire Pôle Télécoms et Réseaux 3 novembre 2016 14h (salle de conseil, LSS)

Un séminaire du pôle Télécoms et Réseaux prévu le mardi 3 novembre à 14h (salle de conseil, LSS, SUPELEC). Ce séminaire s’inscrit dans le cadre des séminaires DigiCosme, il est donc ouvert à toutes les équipes du Labex travaillant sur ce thème.

Deux exposés sont prévus :

1) « Communications A/V de qualité sans (?) infrastructure », par Mr Jean-Charles Grégoire (INRS, Canada)

Résumé : Nous assistons depuis quelques années à une transformation dans la nature de certaines communications audio-visuelles sur l’Internet: leur imbrication au sein d’environnements comme des plateformes sociales. Cette transition d’environnement dédié vers composante imbriquée a eu des effets notables sur la manière dont la qualité de service est appréhendée et gérée dans ces environnements, principalement dans des modèles « over the top », et soulève d’autres questions sur le lien avec les infrastructures de communication traditionnelles.

Nous présentons ici la problématique des communications A/V OTT et discutons plus en profondeur deux éléments clés, à savoir les nouvelles architectures de service dans lesquelles elles sont déployées, et les approches de gestion et de substitution à la qualité de service. Nous ferons le point sur l’état de l’art en la matière ainsi que sur des travaux en cours à l’INRS.

Bio: Le professeur Grégoire est diplômé de la Faculté polytechnique de Mons (Belgique). Il détient une Maîtrise en mathématiques de l’University of Waterloo (Canada) et un Doctorat en génie de l’Ecole polytechnique fédérale de Lausanne (Suisse). Il est présentement professeur à l’Institut national de la recherche scientifique (INRS), dans le secteur des télécommunications.

Le professeur Grégoire poursuit des travaux de recherche sur les systèmes de communication répartis et leur implantation dans le contexte de l’Internet. Il a de nombreuses publications sur des sujets divers qui touchent à la sécurité, à la qualité des applications multimédia, aux réseaux d’accès et aux architectures de service sur l’Internet. A travers sa carrière, il a également entretenu des collaborations fructueuses avec diverses compagnies du secteur des télécommunications.

2) « Modulated Erlang loss models: How traffic correlation affects the square-root staffing rule », par KOEN DE TURCK, O2MR, LSS.

Abstract: In this talk, we revisit the classical question of how many servers must one provision in order to guarantee on the one hand a good quality of service to the customer (that is, a limited amount of blocked calls), while on the other hand ensuring an efficient operation of the system, with few idle servers. Since the celebrated work of Halfin and Whitt, we know that for a Poisson arrival stream and a large load \rho, the ideal number of servers must be around $\rho + \beta \sqrt\rho$, where $\beta$ is some hedge factor. This is the square-root staffing rule and the intuition behind it is that one must cater for at least the expected system contents $\rho$, but also provide some ‘wiggle room’ for common fluctuations around the mean. The hedge factor \beta represents the aforementioned tradeoff: the larger $\beta$, the better the quality of service but also the more expensive to the service provider.

As we know, real world traffic often exhibits a large degree of correlation and hence the Poisson assumption is not really valid. Hence, we look at Markov modulated arrival streams, and speed them up at a different rate than we scale the load. We find three different regimes depending on the speed of the modulated chaiin, and a considerably altered staffing rule when said speed is slow.

Short bio: Koen De Turck obtained a master and a PhD in engineering from Ghent University, Belgium. Since July 2015, he is an assistant professor at CentraleSupélec, where he is a member of the lab Signaux et Systèmes (L2S).

He develops and studies stochastic models for telecommunication networks in general and wireless networks in particular. His favorite tools include queuing theory, scaling techniques, large deviations and evolutionary game theory.