Programme


Structure du programme

Les JDEV2017 commenceront le mardi matin 4 juillet 2017 avec des ateliers. Le mardi après-midi sera consacré à des présentations plénières. Elles permettront d'aborder des sujets de premier plan. Nouveauté de cette édition, un tour de d'horizon des thématiques suivra et permettra à chacun de prendre connaissance de la richesse du programme et d'enrichir sa veille technologique.

Le mercredi 5 et le jeudi 6 juillet 2017 seront dévolus aux sessions parallèles des 8 thématiques sur environ 20 sessions en parallèle. Elles vous permettront de construire votre parcours personnalisé. Chaque thématique est structurée selon le format suivant:

  • une demi-journée de présentations (P) sur l'état de l'art
  • des demi-journées d'ateliers (A) pour acquérir un savoir-faire
  • des groupes de travail/tables rondes prospectifs (GT) sur ¼ de journée pour échanger des retours d'expérience, de la veille technologique, des pratiques, discuter de verrous technologiques, méthodologiques, d'initier des éventuelles collaborations.

Enfin, le vendredi matin 7 juillet 2017 aura lieu une session plénière pour revenir sur les évolutions majeures de la transition numérique des laboratoires et du développement logiciel.


Thématiques (cliquez sur une thématique pour accéder à sa description)

Les systèmes embarqués continuent leur révolution en offrant de nouvelles possibilités comme dispositifs expérimentaux en tant que capteurs, interfaces homme-machine ad hoc ou comme périphériques mobiles, points d'entrée des infrastructures numériques. Les nouveaux réseaux basse fréquence accroissent le rayon d'action et la diversité des objets de l'internet contribuant au déluge de données de toutes sortes.

en savoir plus

La modélisation du logiciel est d'un apport méthodologique incontestable et nécessaire pour l'ingénierie de système de plus en plus complexe. Nous nous intéresserons plus particulièrement au prototypage rapide apporté par la modélisation des IHM par exemple comme moyen agile de définir les contours d'un système. Nous nous intéresserons également à la modélisation des données dans le cadre des bases de données relationnelles, semi-structurées, non-structurées et du big data. Nous étudierons les profils SysML, les profils UML et les ontologies ainsi que l'opportunité qu'ils représentent pour expliciter, représenter, construire et capitaliser les connaissances pour différentes communautés scientifiques et techniques (chimie, santé, électroniciens, mécaniciens…). Nous serons attentifs à la génération de code, à la rétro-ingénierie et à la capitalisation de l'existant.

en savoir plus

L'impact de nos métiers sur le monde socio-économique sera mis en lumière par la thématique « usine personnelle et les objets libres ». Le monde numérique usuellement immatériel a maintenant la possibilité de produire des objets matériels avec la mouvance open hardware, rebattant les cartes de l'équation économique de la production unitaire d'objets et ouvrant la porte à la production de dispositifs expérimentaux ad hoc pour les laboratoires. Nous nous intéresserons ici aux développements des méthodes numériques appropriées (DAO, CAO, méthodes…) pour la création et l'usinage. Nous nous intéresserons aux chaînes de productions ouvertes des usines personnelles (scanneur 3D, imprimantes 3D filaires ou par poudre…), à développement, leur configuration et leur adaptation.

en savoir plus

Les usines logicielles seront abordées comme environnement de développement intégrant les différents outils et services de production de code pour le support des activités de développement. Nous ferons le point sur les ateliers de génie logiciel, les environnements de développement intégré collaboratif, les différents services tels que les référentiels de code (les forges, SourceSup, GitHub…), les gestionnaires de projet, les gestionnaires de tâche, les bibliothèques de contexte d'exécution (Docker, PaaS…), les plateformes de test, d'intégration continue, etc. Leur plugin/intégration dans les IDE sera à l'ordre du jour.

en savoir plus

L'explosion du volume des données, leur répartition dans le nuage nécessitent de réfléchir aux infrastructures facilitant leur interopérabilité, leurs usages et leurs valorisations.

Dans un contexte de convergence des ressources de calcul et de données, du web des données, les infrastructures numériques permettent l'automatisation de la collecte et des traitements des données indispensable pour assimiler de grands volumes, certifier, fiabiliser les traitements en vue de rendre les expérimentations, les simulations numériques et la science reproductibles.

Nous nous intéresserons à comprendre l'enjeu des infrastructures numériques scientifiques en émergence, à apprendre à les utiliser pour mettre en place ses solutions et aussi à contribuer à leur essor en proposant des ressources de données et des ressources de calcul additionnelles.

En complément à leur développement, nous apprendrons à les architecturer (architectures orientées ressources, pilotage par processus, référentiels de contenu, référentiel de type, méta-données, indexation…). Nous parlerons de leur urbanisation avec en ligne de mire la convergence du HPC et du cloud (OpenStack, SaaS, PaaS…) et la bonne utilisation des infrastructures matérielles sous-jacentes.

Nous ferons un focus particulier sur les données liées et l'open-access, les humanités numériques et l'utilisation des ressources dans les systèmes d'information scientifique.

en savoir plus

Nous nous intéresserons aux différentes méthodes et techniques intervenant tout du long du cycle de vie du logiciel du recueil des besoins au déploiement. Nous ferons le point sur les méthodes agiles et autres adaptées aux contextes des laboratoires et les différentes méthodes d'expression des besoins et de spécification (par les tests, les users stories, les cas d'utilisation…). Nous intéresserons aussi au différents niveaux de maturité des logiciels, à leur certification éventuelle et à la sécurité des développements : comment développer des applications intégrant des produits tiers et comment déployer en toute sécurité. Quelles contraintes sur la maintenance du code et comment l'administrateur système et réseau peut-il mettre en place un « bac à sable » pour assurer la sécurité ? Quelle approche DevOps ?

en savoir plus

La science des données et l'apprentissage automatique sont au coeur de la recherche par les données. Nous nous intéresserons lors de cette thématique au métier d'expert de la données, au métier d’expert d'apprentissage automatique (machine learning) et à la conception et au développement de systèmes pouvant « apprendre » à partir des données afin de faire des prédictions. En effet, de nouveaux métiers autour de la données (data scientist, data engineer, software engineer) apparaissent, nécessitant de nouveaux savoir-faire pour le développement et l'utilisation d'outils d'analyse et de fouille de données, de prototypage, etc, de visualisation, d'explicitation de la données (recherche de corrélations, statistiques, IT platform for linked data, outil d'annotations, SaaS data science platform, …). La gestion et le traitement des données scientifiques nécessite également de faire le point sur les structures de données abstraites et leur implémentation dans différents langages. Nous nous intéresserons au calcul de complexité des algorithmes et aux outils de test et de métrologie des codes. Ces connaissances sont des préalables à la mise en oeuvre du traitement du big data et plus largement à la bonne conception des logiciels pour le passage à l'échelle. Nous nous intéresserons à la persistance de ces structures de données dans les bases de données relationnelles, semi-structurées, distribuées. Ce sera l'objet des débats de cette thématique.

en savoir plus

Faire un panorama des moyens et des techniques de calcul, de leurs utilisations et de leurs évolutions à l'ère du big data. Etudier les technologies permettant l'itinérance des applications parallèles, leurs déploiements, leurs portages et la reproductibilité des calculs. La convergence HPC-Cloud et la convergence calcul-données seront traitées.

en savoir plus


Evènement Social

Un spectacle d'art vivant numérique de grande qualité : Hakanaï (Compagnie Adrien M/ Claire B)

La compagnie Adrien M & Claire B crée des formes allant du spectacle aux installations dans le champ des arts numériques et des arts vivants. Elle est co-dirigée par Claire Bardainne et Adrien Mondot. Leur démarche place l’humain au centre des enjeux technologiques, et le corps au coeur des images, avec comme spécificité le développement sur-mesure de ses outils informatiques. Ils poursuivent la recherche d’un numérique vivant: mobile, artisanal, éphémère et sensible.

http://www.am-cb.net/projets/hakanai
https://vimeo.com/amcb
https://vimeo.com/46045360