Quand la bioinformatique jette des ponts entre les disciplines.
Nicolas Guex, le nouveau «Monsieur bioinformatique» de l’UNIL, évoque son parcours, des Lego aux algorithmes, et les spécificités de sa discipline.
Quand on pénètre dans le bureau de Nicolas Guex, un espace fonctionnel, presque zen avec ses murs de béton nu, ce qui attire l’œil, ce sont les vastes photos qui occupent les murs: des images d’insectes massivement agrandies, un «peuple de l’herbe» qui côtoie un léopard, saisi au Botswana, et un gypaète barbu.
C’est que l’homme, en plus d’être bioinformaticien, est photographe. Cette passion l’a pris tôt, lui qui avait installé son labo photo dans le grenier familial. Elle ne l’a pas quitté; son œil s’allume quand il montre ses photos nocturnes de montagne, dévoilant une Voie lactée envoûtante, ou ses clichés «volés» d’une famille de lynx prenant son repas, un soir de septembre dans le Jura. «J’étais tremblant d’émotion… et de froid», se remémore-t-il.
Mais ces photos, ces près de 60'000 clichés, il a fallu les classer, les répertorier. Et c’est là que l’informaticien et l’adepte du do-it-yourself ont pris le relais: Nicolas Guex a développé son propre logiciel, parce que «iPhoto, ça crashe».
Enfant déjà, il voulait savoir «comment les choses fonctionnaient», démontait postes de radio et téléviseurs, était un grand bâtisseur de Lego et attendait comme le messie chaque nouveau numéro de Jeux & Stratégie et de Science & Vie. Il reçoit sa première machine à calculer programmable à 9 ans, suivi par son premier ordinateur, un Commodore 3032. Et il a accès au Graal au bureau de son père: un ordinateur mainframe 370 d’IBM, une machine avec ses «lumières clignotantes» tout droit sortie de Star Trek.
Aujourd’hui à la tête du nouveau Centre de compétences en bioinformatique de l’UNIL (voir la news du 14 octobre 2019), comptant six collaborateurs, Nicolas Guex a accès à des machines, des clusters, dont la puissance de calcul rend anecdotique la machine d’IBM de son enfance. Mais au fond, il n’a pas changé: son moteur, comme quand il désossait des radios ou qu’il mélangeait plusieurs puzzles avant de les reconstituer, reste toujours l’envie, presque une pulsion, de trouver la solution à un problème. Il vit pour la satisfaction d’arriver à ce moment en suspens où il peut dire: «ça marche!» Son moment Eurêka.
Nicolas Guex répond à nos questions.
On peut s’étonner qu’un tel passionné d’informatique ait fini par faire biologie: pourquoi ce choix?
Quand j’étais enfant, puis ado, je programmais tout le temps. J’avais appris à me débrouiller seul, dans les livres, en bidouillant. Quand est venu l’heure du choix, après le gymnase, j’ai hésité entre l’informatique à l’EPFL et la biologie à l’UNIL. J’étais resté fasciné par les cours sur les gènes et les protéines au gymnase. Mais au fond, j’ai choisi biologie parce que je voulais du neuf. À l’époque, je maîtrisais déjà plusieurs langages de programmation, je n’avais vraiment pas envie de réapprendre les bases! L’informatique devait rester un «hobby», que j’ai d’ailleurs pu mettre à profit pendant mes études – j’ai obtenu des certificats en biologie végétale et en biochimie - et pendant ma thèse.
Comment avez-vous utilisé ce bagage?
J’ai développé divers logiciels pour faciliter mon travail, comme par exemple un programme de reconnaissance vocale des lettres A, C, G, T qui me permettait de dicter directement le résultat de mes gels de séquençage, sans devoir enrôler un collègue. Ou un autre qui interfaçait un spectrophotomètre avec un Mac Plus afin de capturer directement les cinétiques enzymatiques. Ce dernier programme a été en opération pendant plus de dix ans au sein de l’Institut de biologie et physiologie végétales (ndlr: devenu le Département de biologie moléculaire végétale). J’ai appris qu’ils gardaient même de vieux Mac Plus en réserve pour le faire tourner! Enfin, au terme de ma thèse, j’ai développé mon propre logiciel de modélisation de protéines, Swiss-Pdb Viewer. Cela m’a valu d’être recruté par Glaxo, devenu plus tard GlaxoSmithKline. J’ai passé treize ans chez eux, dont six aux Etats-Unis, en Caroline du Nord. Là j’ai dirigé un groupe de bioinformatique qui travaillait en soutien de multiples projets de recherche.
Que vous a apporté cette expérience dans l’industrie?
C’est une logique très différente d’un travail de thèse, par exemple: dans une thèse, on a le temps de fouiller, c’est finalement plus le chemin parcouru qui compte, la connaissance emmagasinée et défrichée, que la destination. Au contraire, dans une entreprise, tout est strictement orienté vers le résultat: comment y arriver de la façon la plus efficiente possible. On cherche le chemin le plus court, celui qui coûte le moins cher. Bien sûr, ça peut être un peu frustrant: on ne va jamais au bout des choses, et c’est un constat qu’on peut généraliser à toute la recherche appliquée. Mais on peut aussi essayer beaucoup de choses, certes avec une limite de temps: les projets peuvent s’arrêter du jour au lendemain; on avait même souvent l’impression que notre job consistait à trouver une bonne raison d’arrêter un programme de recherche! On apprend aussi à se mettre en retrait, au service du projet; on travaille pour un but commun, c’est un travail d’équipe, l’ego est un peu mis côté.
En 2008, vous êtes de retour en Suisse…
Oui, j’ai rejoint le groupe de Ioannis Xenarios au Swiss Institute of Bioinformatics, le SIB, juste au moment où la Suisse lançait une initiative de recherche en biologie des systèmes, SystemsX. L’idée était de connecter plusieurs groupes de recherche travaillant sur des problématiques similaires. J’ai été impliqué dans CycliX et dans LipidiX, projets pour lesquels j’ai développé des algorithmes pour le traitement de données. Mais je n’ai pas œuvré que dans le cadre de SystemsX; au contraire, j’ai eu l’occasion de toucher des domaines aussi différents que l’oncologie, les maladies rares, le sommeil, l’écologie, les pathologies oculaires, la virologie, le transfert horizontal de gènes chez les bactéries… Une entreprise nous a même mandatés pour développer un test prénatal de détection des aneuploïdies (ndlr: anomalie génétique caractérisée par la présence d’un nombre anormal de chromosomes dans une cellule), qui a été commercialisé.
Autrement dit, vous avez touché un peu à tout…
En bioinformatique, on n’est jamais spécialiste d’un domaine, on reste généraliste. Mais, et c’est notre force, on met en relation différents domaines par les problèmes, on jette des ponts. Très concrètement, cela signifie aussi qu’un algorithme développé pour un problème particulier peut être réutilisé, adapté pour un autre. Rappelons que la bioinformatique est par définition, par son étymologie même, interdisciplinaire. Ne pas être spécialiste permet aussi un certain recul, d’aborder les choses avec un nouvel angle, loin du dogme d’une discipline. Mais dans mon cas, être biologiste à la base a été un atout: je parle le même langage que les chercheurs, cela fait tomber des barrières.
Après treize ans dans l’industrie pharmaceutique, vous passez onze ans au SIB, avant de rejoindre l’UNIL en juin 2019: comment avez-vous géré ce passage de l’industrie à l’académie?
J’ai un parcours atypique, mais il y a tout de même une ligne directrice: comment trouver une solution satisfaisante qui permette d’avancer face à un problème scientifique ou technique. Je ne parle pas forcément d’une solution définitive, mais d’une solution pragmatique qui permette de débloquer la situation, en tenant compte de diverses contraintes, comme le temps et le budget. Cette vision industrielle, où les projets sont tirés en avant avec un «sens de l’urgence», je l’ai importée dans mon travail au SIB et à l’UNIL. Pour autant, je ne dis pas qu’il y a une façon juste ou fausse de faire les choses; au contraire, les deux approches sont complémentaires.
Changer d’approche est devenu d’autant plus nécessaire avec l’explosion des données générées par les sciences de la vie?
Exactement, il faut transformer les données brutes – les big data – en données exploitables – les smart data. Et c’est le rôle du nouveau Centre de compétences en bioinformatique, ou Bioinformatics Competence Center, BICC…
Que vous prononcez «bics»…
Ça sonne bien, non? Il y a déjà le PAF (ndlr: la plateforme Protein Analysis Facility), il fallait trouver quelque chose de percutant, pour que les gens s’en souviennent! En fait, c’est la contraction de «bioinformatics», et nous l’écrivons avec une police inversée, «BIƆC». Le BIƆC donc est rattaché au Centre informatique qui héberge une nouvelle Division calcul et soutien à la recherche. Cette DCSR met à disposition la puissance de calcul et la capacité de stockage, tandis que nous assurons le «support» informatique des projets, autrement dit nous apportons notre expertise pour le traitement et l’analyse des données. Nous intervenons de manière ponctuelle sur les projets, mais il faut bien faire comprendre que la bioinformatique n’est pas juste un service: c’est un réel partenaire qui doit être impliqué très en amont, dès le début des projets. En effet, la qualité de l’analyse des données est intimement liée à leur acquisition. Nous sommes également face à des projets de plus en plus complexes, sur plusieurs sites, avec de plus en plus d’intervenants. Il y a donc un grand besoin de coordination, et la bioinformatique peut être ce liant. Je vois aussi le BIƆC comme un hub pour faire circuler l’information.
Pour l’heure, la FBM est votre principal client…
Oui, c’est là que sont les besoins actuellement, mais notre offre est ouverte à toutes les Facultés. Nous avons également des opportunités de collaborations en externe, par exemple avec les sciences de la vie à l’EPFL, les HUG ou l’Inselspital. Nous avons d’ailleurs le projet de développer une offre proprement médicale au sein du BIƆC. Nous traitons déjà beaucoup de projets qui touchent à ce domaine, mais le besoin d’analyses d’images va en augmentant dans les hôpitaux, que cela soit pour les coupes histologiques de tumeurs, le comptage des cellules, les images multispectrales. Les humains sont très compétents pour lire ces images, mais ça prend du temps et nous sommes face à d’énormes volumes. Il faut donc essayer d’automatiser au maximum.
Automatiser, tout en gardant de la souplesse, de la réactivité…
C’est l’enjeu. En bioinformatique, rien n’est jamais figé ou complètement robuste. Tout change tellement vite qu’il faut sans cesse adapter nos approches. Une technologie qui arrive à maturité ne le reste malheureusement jamais très longtemps; et quand une nouvelle technologie arrive, il faut revoir tous nos algorithmes, et parfois faire table rase. Il faut donc garder un esprit souple, rapide – nimble comme disent les Américains. Et avoir aussi une curiosité large, l’esprit ouvert sur d’autres approches: nous pouvons avoir besoin d’algorithmes développés dans d’autres disciplines, comme les sciences sociales. Personnellement, ce changement permanent, cette constante évolution me convient bien: quand on commence à comprendre comment quelque chose fonctionne, cela m’intéresse moins, j’ai envie de passer à autre chose.