Infos Pratiques

GRATUIT - TOUT PUBLIC - INSCRIPTION OBLIGATOIRE
Nombre de places limité

RNID - Jeudi 16 Février 2017

Une inscription par personne !

Accéder au site du DUT STID Niort :

Data Science à l’ère du Big Data

Le thème que nous avons choisi cette année est ambitieux mais plus que jamais d’actualité : « Data Science à l’ère du Big Data ».

Le Data Scientist est le responsable au sein de son entreprise de la gestion et de l’analyse des données. Il doit pour cela conjuguer des compétences en informatique et en statistique. Ses missions vont de la recherche de données pertinentes (internes ou externes à l’entreprise, souvent hétérogènes) à leur exploitation pour en tirer des informations utiles (par construction d’algorithmes ou en mettant en œuvre des modèles statistiques), en passant par leur organisation au sein de bases de données de plus en plus complexes et volumineuses.

Comment les nouvelles technologies liées au Big Data ont-elles fait évoluer les métiers de Data Manager ou Data Analyst vers le métier de Data Scientist ? Quels sont les nouveaux défis que doivent relever ces ingénieurs de la donnée ? Quelles compétences les formations doivent-elles leur apporter ? Voilà quelques questions auxquelles nos intervenants apporteront leurs réponses.

L'équipe du département STID - Niort

Programme

13h30 : Accueil

14h00 : Introduction par l'équipe STID
Big Data : de nouveaux défis pour l'enseignement et la recherche.

14h45 : Henri Laude - BlueSoft
Méthodologie pour aborder un projet Big data.

15h30 : Pause

16h00 : Pierre Ménard - Dataïku
Retour d'expériences et bonnes pratiques issues de différents projets (détection de fraudes, nouvelles offres concernant l'internet des objets, amélioration de l'anticipation de l'attrition clients).

16h45 : Sebastiao Correia - Talend
Dédoublonnage : version big data.

Amin Mesmoudi

Maitre de conférences au département STID de Niort


Dr. Amin Mesmoudi est maître de conférences à l’université de Poitiers. Il effectue ses enseignements au département STID de l’IUT de Poitiers. Il est aussi membre de l’équipe IDD du laboratoire LIAS. Ses travaux de recherches s’articulent autour de l’optimisation de requêtes sur des Big Data.

Résumé de l'intervention :
Le Big Data représente un défi non seulement pour le monde socio-économique mais aussi pour la recherche scientifique. Cette présentation permettra d'aborder les projets du département STID en termes de formation autour de la Data Science, afin de faciliter l’intégration des étudiants dans des projets « Big Data ». D'autre part, un exemple de projet de recherche du laboratoire LIAS montrera comment accélérer le développement d’une nouvelle génération de système de gestion de Big Data.

Henri Laude

Chief data scientist et fondateur du laboratoire BlueDsX du groupe Blue Soft


Henri Laude a occupé divers postes de direction dans plusieurs sociétés et organisations de premier plan telles que OSIS / BULL (Directeur), META Group (aujourd'hui GARTNER - Directeur Général EMEA), METRIS (Vice Président) et BNP Paribas (CIB Capital Markets, CARDIF Insurance - Manager/Directeur).
En tant que cofondateur de Advanced Research Partners (start-up impliqué dans la Data Science, l'intelligence compétitive et la cybersécurité - Paris & Hong Kong) et chief data scientist du laboratoire BlueDsX (Laboratoire français de Data Science et de la cybersécurité du groupe Blue Soft), Henri mène des recherches et développe des projets variés liés aux Big Data pour la sécurité et l'atténuation des risques. Son dernier algorithme, lié aux signaux faibles dans les séries chronologiques multi-variées, est publié dans la revue internationale de l'intelligence compétitive - R2IE (2016).
Henri est consultant auprès du conseil d'administration de Globality Ventures et de Xnotes (blockchain et Fintech, Paris & Hong Kong).

Résumé de l'intervention :
Le cadre méthodologique de l’activité d’un data scientist :
- Un cycle de travail du data scientist qui assure la reproductibilité des travaux, mais devant s’intégrer dans les cycles des projets digitaux ou Big Data,
- L’usage du Design Thinking pour spécifier des cas d'utilisation-métier pertinents et opportuns,
- La mise en œuvre de Proof of Concept ciblés et précis, pour permettre l’engagement des ressources de façon progressive, itérative et raisonnée,
- La mise en œuvre d’un modèle de maturité, Big Maturity Model (BMM), permettant l’évaluation de la maturité des projets Big Data et Data Sciences et la détermination d’opportunités d'améliorations,
- La mise en œuvre de patterns d’architecture et d’algorithmique pour garantir les performances des infrastructures et la création d'algorithmes dimensionnés au plus près des exigences métier.

Pierre Ménard

Account Manager Banque-Assurance-Fintech chez Dataiku


Après un parcours au sein de cabinets de conseil technologique et start-ups, notamment auprès de comptes banques-assurances, Pierre travaille depuis plus de 2 ans au sein d'un jeune éditeur spécialisé en Data Science, Dataiku, sur le secteur banque-assurance-fintech et a l'occasion d'échanger au quotidien sur les nouveaux usages et enjeux du Big Data dans ce domaine.

Résumé de l'intervention :
En tant qu'éditeur spécialisé en Data Science, actif dans différents domaines dont l'assurance, Dataiku a eu l'occasion de faciliter et d'accompagner un certain nombre de projets de Data Science. L'intervention visera à partager notre retour d'expérience et quelques bonnes pratiques que nous avons pu voir dans la mise en place d'équipes de Data Science notamment au travers de différents cas tels que la détection de fraudes dans les prises en charges optiques, la mise en place d'une nouvelle offre IOT (internet des objets) ou encore la meilleure anticipation de l'attrition de clients.

Sebastiao Correia

PhD, Directeur Développement Produit Data Quality, R&D chez Talend


Sebastiao Correia a rejoint Talend en 2007 et est à l’origine des solutions Data Quality de Talend. Il dirige actuellement une équipe de développeurs travaillant sur les sujets de qualité des données, anonymisation des données, apprentissage automatique. Ces problématiques prennent encore plus d’ampleur dans le contexte Big data.

Résumé de l'intervention :
Une des problématiques majeures en qualité de données est la recherche de doublons. En effet, lorsque plusieurs sources d’information existent dans une entreprise, il arrive nécessairement un moment où les informations ne sont plus cohérentes entre elles. Afin de retrouver une cohérence, il faut rapprocher les données qui ont divergé à l’aide de différents algorithmes de comparaison d’enregistrements. Nous nous intéressons en particulier aux données que l’on rencontre le plus souvent en entreprise, comme les données clients, les données produits, etc. Ces données sont en général de type texte. Les approches classiques demandaient souvent un réglage manuel important, requérant des personnes qualifiées pendant un temps relativement long ( plus d'infos ici ). Avec les développements récents autour du Big Data et Spark en particulier, de nouvelles approches de cette problématique sont possibles. Nous verrons comment les techniques d’apprentissage automatique permettent de simplifier et de réduire les temps de développement nécessaires au dédoublonnage des données.

Informations pratiques

5èmes Rencontres Niortaises de l'Informatique Décisionnelle
Jeudi 16 février 2017
Accueil à partir de 13h30
IUT - Pôle Universitaire de Niort - 8 rue Archimède, 79 000 Niort
Amphi GEA

GRATUIT - TOUT PUBLIC - INSCRIPTION OBLIGATOIRE
Nombre de places limité