Séminaire Big Data du jeudi 12 novembre : l'informatique quantique
Publié le dans seminar
Avec la digitalisation grandissante de business models existants ou plus disruptifs, les Big Data et la Data Science nourrissent les espoirs d'un nouvel eldorado pour des économies en quête désespérée de croissance. L'engouement autour du Big Data occulte pourtant un aspect bassement matériel, mais inévitable, celui de la puissance des machines qui devront tenir ces promesses. Une interrogation se précise même : seront-elles assez puissantes pour relever les challenges de plus en plus ambitieux de la Data Science ?
En vérité, la physique apporte une réponse à cette question. On estime qu'aux alentours de 2025 la miniaturisation des micro-processeurs atteindra une saturation inévitable. En effet, on ne pourra pas faire des transistors aussi petits qu’une dizaine d’atomes avec quelques électrons. Dans une telle configuration, c'e sont les lois de la physique quantique qui domineront. Ce monde est si étrange qu’il a défié l'intuition des physiciens, dont les esprits les plus brillants, Albert Einstein en tête. Richard Feynman (Prix Nobel de physique, 1965) avait même déclaré que "Personne ne comprend vraiment la physique quantique".
Pourtant une autre révolution se dessine, il s'agit de celle de l'informatique quantique. Dans cette informatique quantique, l'atome du digital - le bit - devient un Q-bit capable d'être dans une superposition arbitraire des deux états classiques et incompatibles du bit : 0 et 1, comme le célèbre « Chat de Schrödinger » qui peut être « mort et vivant ». Cette spécificité quantique entraine un saut sans précédant dans le degré de parallélisme atteignable par une telle machine. Dans de nombreux laboratoires, la physique quantique est appliquée à réaliser les premiers embryons de cet ordinateur quantique.
L’exposé a pour ambition d'introduire les concepts de base de l'informatique quantique à un large public de Data Scientists afin qu'ils soient sensibilisés au plus tôt à ces questions. Nous aborderons les principes de cette nouvelle informatique, ses promesses, ses limites mais aussi les solutions qui sont déjà disponibles. Le géant Google s'est déjà doté d'un calculateur quantique capable de résoudre certains problèmes parmi les plus difficiles (dits NP-hard). Nous décrirons le principe de cette machine et ce qu'elle permettra de faire en Data Science. C'est un nouveau monde qui s'ouvre à nous, des algorithmes qui étaient jusqu’ici évités à cause de leur complexité deviendront exploitables. On parle même de « seconde révolution quantique », la première étant celle qui a donné naissance aux technologies de notre monde digital. C’est une excursion
dans le monde quantique, dont les potentialités commencent à peine à être exploitées.
Taoufik Amri est Directeur Data Science pour Keyrus Capital Markets, l'entité du groupe Keyrus dédiée aux services financiers et à leur transformation digitale. Il est responsable d'une équipe de Data Scientists et de Quants qui interviennent chez des clients principalement en finance et assurance, mais également dans d'autres domaines comme l'énergie, l'agroalimentaire ou la santé. Taoufik Amri est normalien et docteur en physique quantique. Il a débuté sa carrière dans la R&D de modèles quantitatifs pour la finance et l'assurance.
La participation aux Séminaires Big Data du jeudi est réservée aux étudiants du Mastère Spécialisé "Big Data" et de la filière "Sciences des données" de Télécom ParisTech, et du Master 2 "Data Sciences" de l'Université Paris-Saclay. Elle est également ouverte aux partenaires de la Chaire Machine Learning for Big Data : Criteo, BNP Paribas, Safran et PSA Peugeot Citroën.
Pour s'inscrire : www.meetup.com/fr/Master-Big-Data-Telecom-ParisTech