Séminaire Big Data - jeudi 4 décembre
Publié le dans seminar
Première partie : Géomarketing
Avec Jérôme Guilmont, Président de Coach & Boost
Alors que le marketing multi-canal des années 2000 laisse maintenant la place au marketing « cross-canal », l’objectif de ce séminaire est de présenter, dans ce contexte, les approches de marketing local pour les points de vente développées avec le géomarketing. Ce séminaire s’attachera, en particulier, à expliciter les apports récents du géomarketing avec l’essor du Big Data et de l’Open Data. Il sera illustré de cas concrets dans les secteurs de la distribution, des média et de la politique.
Introduction
- La révolution numérique au cœur des mutations du commerce et du marketing
- Le Cross-canal, un impératif pour le développement du commerce
- Le rôle essentiel des réseaux physiques et des points de vente
Les concepts du géomarketing
- Nouveaux enjeux et nouvelles problématiques du développement et du pilotage des réseaux de points de vente
- Les bases de données cartographiques
- L’enrichissement de la connaissance client :
- Les bases de données d’indicateurs socio-démographiques
- La construction de typologies de consommateurs et de points de vente : Exemples de typologies fondées sur les attitudes et les valeurs des consommateurs et de typologies de points de vente
- Les méthodologies du géomarketing :
- Les démarches de macro et micro maillage : comment hiérarchiser les meilleurs emplacements d’implantation des points de vente
- Le schéma directeur de développement pour la gestion complète d’un réseau de points de vente
- La modélisation des zones de chalandise pour définir précisément l’influence des points de vente
Démonstrations
- Présentation d’un outil géomarketing de l’éditeur de logiciels Asterop
- Présentation d’une vidéo illustrant les disparités socio-démographiques des territoires
Seconde partie : Big Data, Data Science, et les Machines ? A l’aube d’une Seconde Révolution Quantique
Avec Taoufik Amri, Physicien Quantique, Quant & Data Scientist
Avec la digitalisation grandissante de business models existants ou plus disruptifs, les Big Data et la Data Science nourrissent les espoirs d'un nouvel eldorado pour des économies en quête désespérée de croissance. L'engouement autour du Big Data occulte pourtant un aspect bassement matériel, mais inévitable, celui de la puissance des machines qui devront tenir ces promesses. Une interrogation se précise même : seront elles assez puissantes pour relever les challenges de plus en plus ambitieux de la Data Science ? En vérité, la physique apporte une réponse à cette question. On estime qu'aux alentours de 2025 la miniaturisation des micro-processeurs atteindra une saturation inévitable. En effet, on ne pourra pas faire des transistors aussi petits qu’une dizaine d’atomes avec quelques électrons. Dans une telle configuration, c'est les lois de la physique quantique qui domineront. Ce monde est si étrange qu’il a défié l'intuition des physiciens, dont les esprits les plus brillants, Albert Einstein en tête. Richard Feynman (Prix Nobel de physique, 1965) avait même déclaré que "Personne ne comprend vraiment la physique quantique".
Pourtant une autre révolution se dessine, il s'agit celle de l'informatique quantique. Dans cette informatique quantique, l'atome du digital - le bit - devient un Q-bit capable d'être dans une superposition arbitraire des deux états classiques et incompatibles du bit : 0 et 1, comme le célèbre « Chat de Schrödinger » qui peut être « mort et vivant ». Cette spécificité quantique entraine un saut sans précédant dans le degré de parallélisme atteignable par une telle machine. Dans de nombreux laboratoires, la physique quantique est appliquée à réaliser les premiers embryons de cet ordinateur quantique.
L’exposé a pour ambition d'introduire les concepts de base de l'informatique quantique à un large public de Data Scientists afin qu'ils soient sensibilisés au plus tôt à ces questions. Nous aborderons les principes de cette nouvelle informatique, ses promesses, ses limites mais aussi les solutions qui sont déjà disponibles. Le géant Google s'est déjà doté d'un calculateur quantique capable de résoudre certains problèmes parmi les plus difficiles (dits NP-hard). Nous décrirons le principe de cette machine et ce qu'elle permettra de faire en Data Science. C'est un nouveau monde qui s'ouvre à nous, des algorithmes qui étaient jusqu’ici évités à cause de leur complexité deviendront exploitables. On parle même de « seconde révolution quantique », la première étant celle qui a donné naissance aux technologies de notre monde digital. C’est une excursion dans le monde quantique, dont les potentialités commencent à peine à être exploitées.
Ce séminaire a lieu le jeudi 4 décembre à 13h30 dans les locaux de Télécom ParisTech.
Pour y assister, merci de vous inscrire sur le site: www.meetup.com/Master-Big-Data-Telecom-ParisTech.