14 juin 2019 Au 147 rue de l'Université Paris (France)

Thématiques


La journée se composera de 6 thématiques. Chaque thématique durera 30 minutes. Une présentation de 10 minutes maximum sous forme de retour d'expérience ou de tour d'horizon de la problématique permettra de lancer les échanges.

Nous avons pré-défini 11 thématiques.

Lors de votre inscription nous vous avons demander de choisir les 3 thématiques qui vous tiennent le plus à cœur.

Vous pourrez aussi proposer des thématiques non listées. Les 6 thématiques les plus plébiscitées seront traitées. Pour des raisons d'organisation nous fixerons les thématiques le 1er juin.

Les 6 premières thématiques sont celles retenues. Nous tiendrons compte de vos choix pour de futurs séminaires.


#10   Stockage capacitif/performant et  distance données/calcul ?

#6.  Quels besoins, quels usages pour les cluster de calcul par rapport aux clouds orientés calcul ou lambda compute

#2   Développement, optimisation, parallélisation de code
    quels sont les challenges en développement pour calculer ?

#8   Logiciels et licences
    support en installation de logiciels et besoins en licences
 
#9   Infrastructure de données
    besoin d'un entrepôt structuré de données hétérogènes et interrogeables
    base des données, banque de données, ...
    comment accompagner les évolutions et besoins (hadoop, spark, datalake, datawarehouse, ...)

#1   Formation/support
    quel accompagnement humain aux scientifiques pour le calcul ?
    le calcul comme culture : une courbe d’apprentissage / coût d'entrée élevé

----------------------------------

#5   Quels besoins en CPU/GPU maintenant et à l'avenir ?


#3   Algorithmes, méthodes mathématiques
     Est-ce un service souhaitable ou à ré-inventer et dans quelles mesures ?


#4   Passage à l'échelle
    pourquoi, quand et comment passer à l'échelle : de la workstation, au serveur, au cluster d'unité, au mésocentre, aux centres nationaux, à la grille ....
    diversité des offres, complexité de l'écosystème


#7   Frameworks, chaînes de traitement
    des infrastructures de calcul c'est bien mais faut-il des chaînes de traitement installées et pré-configurées ? (galaxy, mais aussi tensorflow, pytorch, ...)

 
#11   Visualisation des données massives
 

Personnes connectées : 8