Comment l’IA transforme-t-elle la recherche scientifique ?
En 2025, l’IA bouleverse tous les secteurs, y compris celui de la recherche. Quel a été son impact jusqu’ici et que pouvons-nous attendre pour l’avenir ?
Elle fait maintenant partie de notre quotidien, l’intelligence artificielle est au cœur des réflexions, notamment dans le milieu de la recherche. Comment l’IA transforme-t-elle les méthodes de travail des chercheurs ? A quelle évolution peut-on s’attendre ? Pour mieux comprendre, nous avons rencontré Romain Bertrand, membre d’Academia, un programme de formation à l’IA de l’Université Libre de Bruxelles.
Est-ce que l’IA a déjà permis de grandes avancées scientifiques ?
Oui bien sûr, et dans différents domaines. L’un des exemples les plus frappants concerne l’étude de papyrus anciens brûlés lors de l’éruption du Vésuve. Ces manuscrits étaient tellement endommagés qu’on ne pouvait pas les ouvrir sans risquer de les détruire. Ce mercredi 5 février, trois étudiants sont parvenus à décrypter les premiers passages avec des techniques de scan et de reconstruction. L’IA a permis de lire ces papyrus sans les abîmer, ce qui est une avancée incroyable. Un autre exemple, ce sont les prix Nobel de chimie et de physique en 2024 qui ont été décernés à des informaticiens pour avoir développé des programmes d’IA capables de réaliser des découvertes qui n’auraient jamais pu voir le jour avec les méthodes traditionnelles.
Est-ce que ces avancées vont encore s’accélérer dans les mois à venir ?
Les outils d’IA évoluent extrêmement vite. Par exemple, le modèle Gemini de Google a développé une fonctionnalité de deep research qui permet de réaliser des recherches de meilleure qualité, avec des réponses plus approfondies et pertinentes, basées sur un plus grand nombre d’articles. Ces nouvelles fonctionnalités vont améliorer l’efficacité des chercheurs, et je pense que dans les mois à venir, ça deviendra un atout incontournable pour eux.
« L’adoption de l’IA par le monde de la recherche va se faire de manière de plus en plus rapide et profonde. »
Quelles sont les règles mises en place ? Les chercheurs doivent-ils mentionner leur utilisation de l’IA ?
À l’ULB, nous avons un guide sur l’usage de l’intelligence artificielle. Le premier impératif, c’est la transparence. Un chercheur qui utilise l’intelligence artificielle a l’obligation de le mentionner dans son document. Le deuxième impératif, c’est la responsabilité. Quel que soit son usage de l’IA, le chercheur reste responsable du contenu qu’il soumet. Par exemple, si l’IA génère un passage plagié, il sera tenu responsable du plagiat. Aujourd’hui, les revues scientifiques, quel que soit le domaine, ont fait évoluer leurs politiques.

Image par Gerd Altmann de Pixabay
Les avantages sont clairs : accélération des découvertes, gain de temps, automatisation des tâches complexes, mais quels sont les risques de son utilisation ?
D’abord, l’IA peut halluciner, sa réponse peut comporter un certain nombre d’approximations ou d’erreurs. Ensuite, il y a l’impact environnemental : une recherche effectuée via un prompt avec une IA générative aurait, selon certaines études, un impact environnemental jusqu’à dix fois supérieur à celui d’une recherche Google. Puis, la question des biais se pose. Ils peuvent être politiques, idéologiques ou encore culturels. Certains modèles refusent de répondre à certaines questions sur des sujets sensibles. Cela montre qu’il y a eu une intervention humaine dans la conception de l’IA pour limiter certaines réponses. Ce phénomène touche toutes les entreprises, qu’elles soient américaines, chinoises etc. Ils prennent des décisions sur les sujets qu’ils choisissent de filtrer ou de censurer.
Pensez-vous qu’un jour, l’IA pourra faire une recherche scientifique en toute autonomie ? Pourrions-nous arriver à un stade où l’intervention humaine n’est plus nécessaire ?
Il n’est pas exclu que, dans un ou deux ans, l’IA puisse accomplir plusieurs étapes d’un processus de recherche. Par exemple, elle pourrait sélectionner des articles, les résumer, définir une problématique à partir de ces résumés, formuler une hypothèse, et donner des réponses, etc. Cela pourrait grandement améliorer la productivité et accélérer certaines étapes de la recherche. Cependant, là où je pense qu’il y aura toujours une intervention humaine, c’est sur la pertinence des questions de recherche. L’IA restera toujours démunie pour évaluer la pertinence d’une question de recherche, car cela dépend d’une expertise humaine.
