Intelligence artificielle
Piccolo ou l’IA apprivoisée
L’intelligence artificielle générative s’est imposée en quelques mois dans l’espace académique et professionnel. Rédaction de textes, synthèses bibliographiques, traduction, aide à la programmation : ses capacités semblent sans limite. Mais cette puissance suscite aussi des inquiétudes, en particulier dans les universités et les institutions scientifiques. Les questions sont connues : que deviennent les données confiées à ces systèmes ? Quelle place reste-t-il à la pensée critique ? Et comment former les étudiants à un outil dont les capacités dépassent parfois celles de leurs enseignants ?
Face à ces interrogations, certaines universités européennes expérimentent une voie intermédiaire : non pas interdire l’intelligence artificielle, mais la domestiquer. C’est dans cet esprit que l’Université catholique de Louvain a développé Piccolo, une interface d’intelligence artificielle mise à disposition de sa communauté académique.
Une IA institutionnelle
Piccolo se distingue des grands modèles d’IA accessibles au public par un principe simple : il s’agit d’une IA institutionnelle, intégrée dans l’environnement numérique de l’université. L’accès se fait via les identifiants institutionnels et les échanges restent dans un cadre contrôlé.
Cette architecture permet d’imposer certaines limites. Les conversations ne sont pas utilisées pour entraîner les modèles, l’accès au web peut être restreint et certaines fonctionnalités comme la génération d’images peuvent être désactivées. L’objectif n’est pas de rivaliser avec les modèles les plus puissants, mais de proposer un outil utile pour les tâches académiques courantes, tout en préservant la confidentialité des données.
Dans un contexte de recherche biomédicale où la protection des données est essentielle, ce type d’approche répond à une préoccupation croissante : éviter que des informations sensibles, données de patients, projets de recherche, protocoles ne soient involontairement transférés vers des plateformes externes. Limiter aussi la génération d’hallucinations, ces informations fausses, absurdes ou imaginaires, faits juridiques créant une jurisprudence fictive, faux articles scientifiques, biographies erronées ou images incohérentes présentées de manière confiante et plausible, qui surviennent quand l'IA manque de données d'entraînement ou que celles-ci soient biaisées. Limiter ces données au vaste contenu académique sans puiser dans la totalité des informations rapportées par l’Internet ou les réseaux sociaux constitue une barrière efficace contre les fake news et autres créations virtuelles sans fondement réel.
Cette démarche s’inscrit dans un courant que certains chercheurs qualifient d’IA frugale ou de “small AI”.
Cette démarche s’inscrit dans un courant que certains chercheurs qualifient d’IA frugale ou de “small AI”. Plutôt que de dépendre de modèles gigantesques et centralisés, il s’agit de développer des systèmes plus modestes, spécialisés et contrôlables. L’idée n’est pas sans rappeler l’évolution d’autres technologies : après une phase d’expansion rapide, vient souvent le temps de la régulation et de l’appropriation. Dans ce contexte, l’IA devient moins un prodige technologique qu’un outil intellectuel, comparable à un logiciel statistique ou à un moteur de recherche scientifique. Pour l’enseignement supérieur, l’enjeu est majeur. Former les étudiants ne consiste pas seulement à leur interdire l’usage de l’IA, mais à leur apprendre à s’en servir de manière critique : vérifier les sources, comprendre les biais, distinguer l’assistance technique de la production intellectuelle.
Une nouvelle pédagogie
L’un des usages envisagés pour ces plateformes consiste à créer des assistants pédagogiques spécialisés. Un enseignant peut par exemple alimenter un agent conversationnel avec ses propres supports de cours. L’étudiant interagit alors avec un système qui répond exclusivement à partir de ces documents. Dans les disciplines médicales, un tel dispositif pourrait servir à simuler des situations cliniques, à réviser des concepts ou à guider l’étudiant dans l’analyse d’un cas. L’IA devient alors un compagnon d’apprentissage, et non un substitut au raisonnement médical.
Piccolo est-il multilingue et accessible à tous?
Comme la plupart des interfaces reposant sur des modèles d’IA générative récents, Piccolo peut fonctionner dans plusieurs langues. Les modèles utilisés permettent de comprendre et de produire du texte notamment en français, en anglais ou en néerlandais, et plus largement dans de nombreuses langues européennes, condition indispensable pour une université internationale où les activités d’enseignement et de recherche se déroulent fréquemment dans plusieurs langues. Dans la pratique, les réponses de l’outil dépendent toutefois de la langue utilisée dans la question et des documents éventuellement fournis par l’utilisateur.
Piccolo est une plateforme institutionnelle dont l’accès est réservé à la communauté de l’Université catholique de Louvain, authentifié via les identifiants habituels. Son utilisation est gratuite pour les membres de l’université et s’inscrit dans un cadre strict de protection des données : les conversations ne sont pas utilisées pour entraîner les modèles, les données chiffrées restent sur les serveurs de l’université et certaines fonctionnalités sont volontairement limitées afin de préserver la confidentialité et la sécurité des échanges.
Des initiatives comparables ailleurs
La démarche de l’UCLouvain n’est pas isolée, même si elle reste encore relativement originale en Belgique. D’autres universités ont également commencé à intégrer l’intelligence artificielle dans leurs infrastructures numériques, mais souvent selon des modalités différentes. À la Katholieke Universiteit Leuven et à l’Université de Gand, l’accent est mis sur l’encadrement pédagogique et l’utilisation d’outils d’IA accessibles via des licences institutionnelles sécurisées, notamment dans l’environnement Microsoft. Les universités bruxelloises, comme l’Université libre de Bruxelles ou la Vrije Universiteit Brussel, privilégient pour leur part des programmes de formation, des recommandations d’usage et le développement de la recherche en intelligence artificielle. À l’étranger, des institutions comme Oxford, Stanford ou les universités néerlandaises expérimentent également des assistants pédagogiques spécialisés capables d’interagir avec des corpus de cours ou des bibliothèques scientifiques.
https://piccolo.uclouvain.be/Chat