beandeau>

Programme > Mardi 25 novembre


13h00 - 13h30 | Café d'accueil

13h30 - 13h45 | Introduction des journées

  • Julie Sorba (Vice-Présidente Recherche SHS UGA)
  • Lucie Albaret, Alexis Arnaud (Cellule Codes Données Grenoble Alpes)

Session 1 : Enjeux de l'intelligence artificielle pour la recherche, les établissements et les laboratoires

Session animée par Joanna Janik

13h45 - 14h15 | L'intelligence artificielle en pratique : définitions et usages de l'IA générative

  • Pierre Girard (GRICAD - CNRS)

Résumé : Cette présentation se veut un retour d'expérience d'un non expert en IA qui est peu à peu amené à côtoyer l'IA dans son rôle de soutien à la recherche. En effet, l'IA s'invite de plus en plus dans le domaine du calcul scientifique comme étant une solution permettant d'accélérer significativement les calculs, voire de faire sauter des verrous. L'expert en calcul scientifique qui déploie des logiciels scientifiques sur les infrastructures de calcul doit donc s'adapter à ce nouveau paradigme. De plus, les grands modèles de langage offrent des perspectives qui attirent de nouveaux utilisateurs sur les clusters de calcul mutualisés de Grenoble, en particulier ceux disposant de GPUs propices à faire tourner ces modèles.
Au gré d'expériences vécues ces dernières années, l'ingénieur, que je suis, livre sa perception et sa compréhension, très incomplète et superficielle, de l'IA qu'il est amené à déployer.

SUPPORT

14h15 - 15h00 | IA et science ouverte : vers de nouvelles pratiques de production et de diffusion des savoirs

  • Julien Le Sommer (Institut des Géosciences de l'Environnement - UGA)

SUPPORT

15h00 - 15h45 | Grands modèles de langue : quelles perspectives à l’ère de la science ouverte ?

  • Didier Schwab (Laboratoire d'Informatique de Grenoble - UGA)

Résumé : Dans cette présentation, j’explore les perspectives offertes — mais aussi les limites imposées — par les grands modèles de langue (LLM) dans le cadre de la science ouverte, avec un accent particulier sur le Traitement Automatique des Langues et de la Parole (TALP). Elle met en regard modèles décodeurs (génératifs, comme GPT) et encodeurs (prédictifs, comme BERT), en illustrant leurs architectures d’autoapprentissage non supervisé. J’y souligne les risques majeurs liés à l’opacité et à la contamination des données d’entraînement des modèles fermés, qui compromettent toute reproductibilité scientifique. La présentation analyse ensuite le spectre d’ouverture des modèles actuels — fermés, poids ouverts ou entièrement ouverts — et insiste sur la nécessité d’un encadrement clair pour l’usage des modèles opaques en recherche. Elle rappelle enfin que la science ne peut progresser que si les données, les modèles et les pipelines sont documentés, traçables et accessibles.

SUPPORT

15h45 - 16h15 | Pause

16h15 - 17h00 | Enjeux éthiques de l’lntelligence Artificielle pour la recherche scientifique

  • Raja Chatila (Sorbonne Université)

Résumé : L’intelligence artificielle (IA) basée sur l’apprentissage machine, en tant que méthode statistique, est un outil efficace pour l’analyse des données et pour effectuer des prédictions. Les succès de ces usages dans plusieurs domaines, par exemple la synthèse de molécules, sont remarquables.
Ces propriétés pourraient-elles conduire les chercheurs à l’utiliser en lieu de place de la méthode scientifique, voire de la production scientifique elle-même ?  Nous mettons en évidence les limitations de ces systèmes d'IA et discutons les questions éthiques soulevées par l’usage de l’IA dans le domaine de la recherche, de la conception à l’évaluation.

SUPPORT

  

 

Chargement... Chargement...