Accueil » Les institutions » INRIA Rennes-Bretagne Atlantique
Le centre de recherche Inria de Rennes-Bretagne Atlantique a été créé en 1980 et est implanté à Rennes, Nantes et Lannion. En 2012, il implique 650 personnes (dont 560 scientifiques), 330 rémunérées par Inria (dont 250 scientifiques) et 33 équipes-projets y sont développées.
Les partenaires académiques du centre sont l’Université de Rennes 1, l’Université de Rennes 2, l’Université de Nantes, le CNRS, l’ENS Cachan Bretagne, l’INSA de Rennes, l’École des Mines de Nantes, l’IRSTEA, l’INSERM, Supélec, et bientôt l’Institut Curie et l’IFSTTAR.
Le centre travaille en collaboration étroite avec les pôles de compétitivité Images et Réseaux, et ID4CAR.
Ses principaux partenaires industriels sont Alcatel-Lucent, France Telecom, Technicolor, Thalès, EDF, EADS, Airbus, Intel, Microsoft, Canon, Siemens (Grands Groupes) ; BA Systèmes, Artefacto, GenomeQuest, Kereval, CAPS Entreprise, SenseYou, Golaem, Powedia, Syneika et de nombreuses autres PME et start-ups.
Principaux thèmes de recherche actuels :
– logiciel et matériel pour les systèmes et les réseaux avec des exigences de fiabilité, de sécurité et de performance ;
– données et interaction : données multimédias, gestion des grands volumes de données, interaction entre systèmes, mondes réels ou virtuels et utilisateurs
– modélisation mathématique et symbolique pour l’environnement, le climat, l’énergie et l’ingénierie ;
– STIC pour les sciences de la vie, de la santé : robotique, bio-informatique, imagerie
Priorités scientifiques de recherche que le centre se fixe pour la période à venir :
1. Fiabilité du logiciel : du déterminisme au stochastique ; 2. Bio-imagerie à haute résolution et à haut débit et biologie numérique à grande échelle ; 3. Humain virtuel : simulation de la performance motrice humaine ; 4. Anges gardiens intelligents connectés ; 5. Stockage et exploitation de données massives distribuées
Le centre se positionne comme « un acteur majeur et reconnu au cœur d’un riche écosystème de recherche et d’innovation » dans une région historiquement dynamique dans les domaines de l’informatique, des télécommunications et aujourd’hui des sciences du numérique. Ceci a été vrai dès sa création dans l’environnement breton, et est également le cas sur Nantes. Les interactions avec les UMR locales (IRISA et IRMAR à Rennes, LINA à Nantes), constituent un point fort qu’il est important de conserver.
Le contexte local s’est enrichi de nombreuses nouvelles structures dans les dernières années, en particulier dans le cadre du programme des investissements d’avenir, structures qui offrent des opportunités importantes pour développer notre recherche et son impact économique.
• Sur le plan de la recherche, le labex Comin Labs concerne, à son lancement, environ la moitié de la capacité de recherche du centre sur les aspects télécommunications et médias.
• Le labex « Centre de mathématique Henri Lebesgue » va permettre à 5 équipes du centre de collaborer plus fortement avec les deux acteurs majeurs en région : l’Irmar et le laboratoire Jean Leray.
• L’IRT B-Com va fournir des moyens importants pour renforcer notre travail avec les partenaires industriels régionaux, avec la possibilité de mener des projets conjoints d’une manière plus intégrée.
• À Nantes, l’équipe I4S, via son appartenance à l’IFSTTAR sera liée à l’IRT Jules Verne sur les matériaux.
• Au niveau européen, le KIC EIT ICT Labs devrait multiplier les opportunités de contacts sur les plans de la recherche, de la formation, mais surtout de l’innovation.
• Enfin, le centre se situe désormais dans un réseau plus dense de partenariats : IRMAR, IRSTEA, IFSTTAR, Institut Curie. Le développement sur Nantes offre lui aussi des opportunités.
Nous continuerons à participer activement aux structures existantes : pôle Images et Réseaux, pôle ID4Car, ainsi que les deux PRES (Université Européenne de Bretagne, et L’Université de Nantes Angers Le Mans).
Nous poursuivrons le développement de nos plates-formes matérielles et logicielles, dont l’ouverture aux acteurs de l’écosystème constitue un point d’ancrage particulièrement important.
En matière de transfert et de valorisation, nous continuerons une démarche proactive importante, appuyée par le label Carnot, par le CVT CVSTENE, en complémentarité avec la possible nouvelle SATT Ouest Valorisation.
Principaux thèmes de recherche actuels :
Pour les systèmes d’information distribués à grande échelle, à forte dynamique et/ou hétérogénéité,
a) une facette infrastructure sur les logiciels et matériels pour les systèmes et les réseaux avec des exigences fortes de fiabilité, de sécurité et de performance, avec les équipes : celtique, cidre, espresso, vertecs, s4, alf, cairn, dionysos, distribcom, aces, asap, ascola, atlanmod, myriads, triskell ;
b) une facette sur les données et l’interaction : données multimédias, gestion des grands volumes de données, interaction entre systèmes, mondes réels ou virtuels et utilisateurs, avec les équipes : asap, kerdata, sirocco, texmex, metiss, mimetic, vr4i, lagadic.
Pour les « sciences numériques » pour désigner le couplage entre les STIC et d’autres disciplines scientifiques.
c) un axe sur la modélisation mathématique et symbolique pour l’environnement, le climat, l’énergie et l’ingénierie, ce qui regroupe les équipes : aspi, i4s, ipso, tasc, dionysos, dream, fluminance et sage ;
d) un axe autour des STIC pour les sciences de la vie, de la santé qui comprend les équipes : dyliss, genscale, visages, serpico et lagadic.
Le renforcement des croisements bénéfiques entre les mathématiques appliquées, en particulier les aspects de probabilités et de statistiques, et l’informatique est un objectif transversal important. Nous avons un groupe de travail en ce sens. En particulier, le traitement d’applications de plus en plus complexes et hétérogènes conduit les études sur la vérification, le test ou l’apprentissage à s’intéresser de près et en profondeur à des méthodes statistiques et stochastiques, et plus largement à couvrir le spectre d’analyse allant du booléen jusqu’au quantitatif.
Priorités scientifiques de recherche que le centre se fixe pour la période à venir :
Fiabilité du logiciel : du déterminisme au stochastique
Dans les couches basses, les multi-cœurs, l’asynchronisme des communications entre processeurs et mémoires, entre les cartes d’un même serveur entre serveurs dans le cloud, dans les systèmes embarqués critiques, fait qu’il devient peu réaliste d’avoir une certitude sur les temps de réponse, les WCET, les consommations d’énergie etc. Comme on le fait depuis longtemps dans les réseaux, il devient nécessaire de travailler sur des distributions de probabilités et de trouver des moyens de les composer. Par exemple, on n’attend plus seulement d’un système qu’il donne une réponse, mais qu’il donne une réponse suffisamment bonne avec une probabilité suffisamment grande. À l’autre bout du spectre, on n’a pas toujours besoin que la notion de correction d’un logiciel soit définie de manière binaire : parfois, du point de vue de l’utilisateur, il peut suffire de pouvoir spécifier et vérifier de manière rigoureuse que « cela marche suffisamment bien ». D’où la nouvelle problématique : concevoir et valider des systèmes matériels et logiciels marchant dans une enveloppe de probabilité maîtrisable et quantifiable.
Bioimagerie à haute résolution et à haut débit et biologie numérique à grande échelle
Un des grands enjeux de la biologie numérique est de décrire et modéliser les relations entre structures macromoléculaires et fonctionnement biologique de la cellule. Il faut décrypter un dialogue moléculaire très complexe à différentes échelles spatiales (du gène à la cellule et de la cellule à l’organe) et temporelles (de la picoseconde à la minute et au-delà). En couplant codes informatiques et développements de méthodes mathématiques, la bioinformatique a joué un rôle considérable pour appréhender cette complexité. Parallèlement, les avancées en microscopie multidimensionnelle et multimodale ont révolutionné la biologie moléculaire et cellulaire. La bioinformatique et la bio-imagerie doivent faire face à une masse considérable de données hétérogènes. L’exploitation de ces données à des fins de prédiction requiert à la fois des modèles qui représentent les lois complexes du vivant, et des travaux en informatique, pour simuler ou estimer ces modèles, fouiller les données, ou pour intégrer toutes ces sources d’informations hétérogènes au sein de bases de données. Ces nombreux problèmes réclament des moyens de calcul massif impliquant le développement de codes parallèles et distribués et des moyens de stockage importants pour la fouille de données, l’indexation, la classification…
Humain virtuel : simulation de la performance motrice humaine
La performance motrice humaine intervient dans de nombreux domaines, en particulier dans la définition d’interfaces homme-machine plus naturelles, plus intuitives, en réalité virtuelle, réalité augmentée, mais aussi pour les interfaces gestuelles ; dans l’analyse vidéo, le suivi d’activités, le monitoring de signaux biologiques, avec des problématiques de maintien à domicile, de suivi à distance de certaines populations ; dans la conception de contrôleurs biomimétiques pour les robots et les humains virtuels, leur donnant une allure naturelle et facilement interprétable, des capacités plus grandes de s’adapter à un environnement conçu pour l’homme, à coopérer avec l’homme de manière plus intuitive. Plusieurs équipes s’intéressent à ces différents aspects qui s’appuient sur une connaissance plus ou moins fine des capacités motrices des individus. Savoir mesurer ces compétences motrices, savoir modéliser les phénomènes qui en sont responsables, pour mieux interfacer les mondes numériques à l’homme est un défi très actuel. Il s’appuie sur une démarche pluridisciplinaire qu’il est difficile de trouver naturellement dans une seule équipe. Ce défi implique naturellement la collaboration de plusieurs équipes.
« Anges gardiens intelligents connectés »
L’idée que les systèmes techniques et les êtres vivants disposeront autour d’eux, à proximité, à leur contact, voire même en interne, de dispositifs numériques destinés à assurer leur bien-être et leur sécurité, s’est fortement développée depuis les premières initiatives sur l’intelligence ambiante et la pervasivité. La conception actuelle et future de tels dispositifs repose sur plusieurs éléments : des capteurs et systèmes de traitement dotés d’une autonomie énergétique suffisante pour fonctionner sur de longues durées ; l’accès des dispositifs à des réseaux génériques ou ad hoc permettant de communiquer entre eux et avec des systèmes numériques distants ; une intelligence embarquée ou déportée capable de superviser, diagnostiquer, recommander, voire même décider et agir.
C’est dans cette perspective que le centre souhaite s’engager dans quelques actions emblématiques qui devraient être amenées à se développer dans les prochaines années.
Stockage et exploitation de données massives distribuées
La problématique des données en très grand volume a pris de l’ampleur avec l’accroissement phénoménal des capacités de stockage en ligne, la production de contenus qu’ils soient structurés dans des bases de données, multimédia, ou produits par des capteurs ou des simulations. Le traitement du contenu produit par les utilisateurs du web en particulier au sein des réseaux sociaux est également une problématique de recherche cruciale. Des équipes du centre prennent ces problèmes à bras le corps en développant des nouveaux algorithmes pour le stockage et l’utilisation de données massives réparties, pour la fouille de contenus multimédia ou web à très grande échelle, pour la diffusion ciblée d’information dans les réseaux sociaux, et en explorant comment les données scientifiques peuvent permettre de résoudre de nouveaux problèmes en biologie par exemple.