Ce mois-ci, nous avons résumé plusieurs chapitres d’un livre qui rassemble une panoplie d’initiatives autour de l’IA en bibliothèque. Notre regard s’est aussi porté sur la description d’œuvres musicales conçues par l’IA générative, l’Ethical Foresight Analysis (EFA), une méthode d’évaluation des risques éthiques qui a été utilisé lors d’un projet d’indexation (semi-)automatique assisté par l’IA, la classification s’appuyant sur une méthode d'apprentissage machine supervisé et l’indexation automatisée utilisant une approche lexicale qui compare du vocabulaire contrôlé et au vocabulaire présent dans les publications numériques.
Bonne lecture!
Balnaves, E., Bultrini, L., Cox, A. & Uzwyshyn, R. (2025). New Horizons in Artificial Intelligence in Libraries. Berlin, Boston: De Gruyter Saur. https://doi.org/10.1515/9783111336435
Ce livre, publié sous licence Creative Commons, explore l'utilisation d'outils d'intelligence artificielle dans les bibliothèques. Il est question des problèmes d'éthique et de gouvernance, mais les auteurs se penchent aussi sur des exemples concrets d'implémentation d'outils d'IA. Voici un résumé des chapitres qui sont particulièrement intéressants pour notre réflexion commune en contexte de traitement documentaire.
L'éthique et gouvernance
(Chapitre 4 : Developing Artificial Intelligence in an Ethical Way in European Libraries)
Les bibliothèques doivent obtenir les autorisations ou licences appropriées pour utiliser des contenus protégés par le droit d'auteur dans leurs systèmes d'IA. La Fédération internationale des associations de bibliothécaires et des bibliothèques (IFLA) a élaboré une déclaration sur l'IA ainsi qu'un code éthique à l'intention des bibliothèques pour les aider dans les choix éthiques.
Projets d'analyse d'images
(Chapitre 5 : Investing in Artificial Intelligence: Considerations for Libraries and Archives)
Le Project AIDA (Image Analysis for Archival Discovery) de l'université de Nebraska-Lincoln et la bibliothèque du Congrès des États-Unis est un projet qui permet de générer des métadonnées pour des images et photos historiques grâce au machine learning. Un projet similaire a été mis en place par la Frick Art Reference Library à New York en collaboration avec les chercheurs de Stanford University, Cornell University et l'Université de Toronto.
Projets d'indexation automatique avec et sans vocabulaire contrôlé – Topic Modelling
(Chapitre 13 : Without Heading? Automatic Creation of a Linked Subject System et Chapitre 15 : Topic Modelling in the Ottoman Kadi Registers)
Il y a plusieurs projets qui utilisent le "Topic Modelling". C'est une technique de fouille de texte, qui consiste à créer un système d'attribution des sujets entièrement automatisée. Cela est utile si on ne veut pas ou ne peut pas utiliser des vedettes-matières.
Dans un exemple au sein de la Bibliothèque royale de Suède, BERTopic est utilisé. Les auteurs pensent que les systèmes de vedettes-matières créés par des humains ont des biais et prennent beaucoup de temps et de ressources pour être maintenus. Cependant, il y a des freins à l'implémentation. Ils concluent qu'il est possible de développer une approche qui permet aux utilisateurs de rechercher en fonction de leurs centres d'intérêt sans aucun vocabulaire contrôlé, mais ce qui freine son implémentation est surtout le manque de documents numérisés au sein du catalogue de la bibliothèque. Donc, cet outil permettra pour l'instant aux indexeurs de mettre en lumière les lacunes des vedettes-matières.
Un autre exemple montre une approche Latent Dirichlet allocation (LDA). Cela a été utilisé pour classifier les documents historiques turcs du "Istanbul Kadi Registers Project". Comme pour le projet de la Bibliothèque royale de Suède, il s'agit aussi d'une technique de "Topic modelling". Cette fois, la librairie Python Gensim a été utilisée pour créer un corpus et le dictionnaire de sujets. L'auteure conclut que l'utilisation d'intelligence artificielle pour analyser des textes historiques est une méthode efficace pour permettre aux usagers et aux chercheurs de trouver des documents pertinents et d'améliorer la compréhension de ceux-ci.
Indexation avec vocabulaire contrôlé
(Chapitre 14 : Transferring Applied Machine Learning Research into Subject Indexing Practice)
L'auteure dit que l'indexation est de plus en plus difficile, vu le nombre de documents qui sont publiés, c'est pour cela qu'il faut explorer les outils d'indexation automatique. La ZBW – Leibniz-Informationszentrum Wirtschaft utilise Annif, un outil d'indexation automatique, ainsi qu'un algorithme maison Stwfsapy qui utilise leurs propres vedettes-matières. De courts textes issus de leur base de données EconBiz ont été utilisés pour entraîner leurs outils d'indexation. Ensuite, des testeurs humains ont donné leurs avis sur la qualité de l'indexation automatique. L'auteure conclut que ce serait bien si l'outil d'indexation pouvait utiliser les avis des personnes pour améliorer la qualité de l'indexation, mais que l'indexation automatique est absolument nécessaire pour les bibliothèques dans le futur.
Projets de catalogage automatisé
Notices bibliographiques
(Chapitre16 Assessing Machine Learning for Cataloging at the Library of Congress)
La Bibliothèque du Congrès des États-Unis a mis en place un projet d'automatisation de catalogage, nommé "Exploring Computational Description". Il s'agit de tester plusieurs modèles Machine learning pendant un an, pour vérifier leur capacité à générer des métadonnées de catalogue MARC à partir du contenu de documents numériques, en particulier des livres électroniques. Les tests sont toujours en cours.
Les outils utilisés sont :
Notices d'autorité
(Chapitre 17 : From Text to Data Inside Bibliographic Records: Entity Recognition and Linking)
Dans le projet d'amélioration de qualité de notices d'autorité du « Système universitaire de documentation » (Sudoc), une approche machine learning a été utilisée. L'objectif du projet était d'entraîner des modèles afin d'analyser le texte pour générer automatiquement les points d'accès manquants pour les contributeurs ou d'ajouter le code relationnel lorsqu'il est manquant dans un point d'accès existant. Le projet a d'abord nécessité l'extraction de deux types d'entités : les personnes et les rôles. Le modèle standard Spacy utilisé pour cette tâche a donné d'excellents résultats avec une précision > 0,99 et un rappel > 0,92 après avoir été réentraîné sur 10 000 enregistrements annotés manuellement. La tâche d'annotation, essentielle, mais souvent chronophage, a été réalisée avec l'aide d'un outil Web d'annotation dédié. Les bibliothécaires peuvent utiliser l'IA pour produire des données d'entraînement plus fiables.
Auteure du résumé
Anita Mazur, Polytechnique Montréal
Berkowitz, A. E. (2025). "Domo arigato, Mr. Roboto": A qualitative content analysis of AI music in WorldCat. Journal of Academic Librarianship, 51(2). https://doi.org/10.1016/j.acalib.2025.103026
Il existe de plus en plus d’œuvres créées par l’IA générative et il est de plus en plus difficile de les distinguer de celles créées exclusivement par l’humain. Cet article propose une façon de les décrire adéquatement pour permettre aux personnes qui ressentent un malaise face au travail créatif automatisé et aux œuvres issues de l’interaction entre les humains et les outils IA de choisir ce qu’elles consomment de manière plus éclairée.
Dans son article, Berkowitz aborde le rôle que les bibliothèques peuvent jouer pour informer les usagers et usagères de l’utilisation de l’IA générative dans les œuvres musicales. En analysant un corpus de 54 notices du catalogue Worldcat décrivant des albums et des chansons produits par des outils IA, il a constaté que la moitié de celles-ci omettaient totalement de mentionner l’apport de l’IA. Seules 9 notices proposaient une description adéquate, c’est-à-dire que le nom de l’outil était présent et qu’il était désigné en tant qu’outil d’IA.
Dans le but d’améliorer la transparence et la précision des notices bibliographiques de ces documents musicaux générés par l’IA, Berkowitz recommande de s’appuyer sur une règle de la norme RDA qui consiste à utiliser des informations provenant d’autres sources que l’item en main lorsque des données sont absentes. Il va d’ailleurs plus loin en déclarant que, dans le cas d’œuvres basées sur l’IA, il faudrait faire des recherches lorsque les données sont incomplètes ou que l’on soupçonne qu’elles sont fallacieuses. En se basant sur la théorie de l’Epidata de Bonnici et O‘Connor (2022), l'auteur estime que les catalogueurs et catalogueuses devraient faire des recherches dès qu’ils et elles soupçonnent l’implication de l’intelligence artificielle dans une création à décrire. En allant chercher à l’extérieur de la source, ils et elles peuvent fournir le contexte de création pour compléter leur notice et ainsi clarifier la provenance et la paternité des œuvres.
Cet article met en lumière de nouveaux défis pour les catalogueurs et catalogueuses en musique et de nouvelles préoccupations de la part du public qui utilisent les notices catalographiques disponibles sur le Web.
Auteure du résumé
Mylène Lalonde, ÉTS
Bubinger, H., & Dinneen, J. D. (2024). “What could go wrong?”: An evaluation of ethical foresight analysis as a tool to identify problems of AI in libraries. Journal of Academic Librarianship, 50(5), https://doi.org/10.1016/j.acalib.2024.102943
Cet article se penche sur l’évaluation des risques éthiques entourant l’utilisation de l’intelligence artificielle dans les bibliothèques. L’étude qu’il présente avait pour objectif de déterminer la pertinence de l’application de l’Ethical Foresight Analysis (EFA), un processus qui vise à anticiper les risques éthiques, lors de l’élaboration d’un projet utilisant l’IA dans une bibliothèque.
Les chercheurs ont donc utilisé les principes de l’EFA pour évaluer les risques éthiques liés à un projet d’indexation (semi-)automatique assisté par l’IA à la Staatsbibliothek zu Berlin (Bibliothèque d’État de Berlin). Dans le cadre de l’étude, sept personnes expertes de différents horizons (bibliothécaire, chargé de projet en IA, développeur, professeur d’université, usager de la bibliothèque) ont été sondées à l’aide de la méthode Delphi afin de (1) identifier les risques éthiques de l’utilisation de l’IA pour l’indexation (semi-)automatique et (2) identifier les avantages et les désavantages de l’approche EFA. Premièrement, 21 risques ont été soulevés par le groupe d’experts. Ceux-ci ont été regroupés en trois grandes catégories par les chercheurs : données et biais; effets du système d’IA sur les humains; futurs profils d’emploi pour les professionnels en science de l’information. L’étude révèle que la principale préoccupation est les données biaisées et leur impact négatif sur les résultats obtenus avec l’IA. Deuxièmement, les personnes expertes ont fait part de leur appréciation de l’approche EFA. Les avantages de celle-ci sont, notamment, son faible coût et la pertinence des risques identifiés. Du côté des désavantages, on note que la démarche demande beaucoup de temps aux participants et que les risques soulevés étaient des problèmes déjà connus.
En conclusion, les auteurs affirment que l’EFA n’était peut-être pas une démarche optimale pour le contexte étudié. Ils croient que l’analyse des risques éthiques aurait pu se faire à l’aide d’un outil qui demande moins de ressources, par exemple une revue de littérature. Cependant, ce type d’analyse, bien qu’imparfait, demeure préférable à ne pas faire d’analyse du tout. Nous retiendrons que l’analyse des risques éthiques par rapport à l’utilisation de l’IA en bibliothèque doit être une préoccupation dès que l’on met un projet en branle.
Auteur du résumé
Xavier Lemire, Université Laval
Poley, C., Uhlmann, S., Busse, F., Jacobs, J.-H., Kähler, M., Nagelschmidt, M., & Schumacher, M. (2025). Automatic Subject Cataloguing at the German National Library. LIBER Quarterly: The Journal of the Association of European Research Libraries, 35(1), 1-29. https://doi.org/10.53377/lq.19422
L'article examine l'intégration de l'intelligence artificielle (IA) dans les processus d’indexation et de catalogage à la Bibliothèque nationale allemande (DNB). Face à l'augmentation exponentielle des documents numériques à traiter, la DNB a initié, il y a quinze ans déjà, le développement de solutions automatisées pour optimiser le traitement documentaire. À ce jour, elle s'appuie sur des algorithmes open source pour l'attribution automatique de diverses métadonnées. Le système de classification adopté par la DNB est fondé sur la Classification décimale de Dewey (CDD), tandis que l'indexation sémantique repose sur le fichier d'autorité allemand Gemeinsame Normdatei (GND).
L'article détaille le système interne du « catalogage matière » automatisé (EMa), dont l'environnement est centré autour de la solution open source Annif. Ce système adopte deux approches distinctes pour la classification et l'indexation automatiques. La classification automatisée s'appuie sur une méthode d'apprentissage machine supervisé, où des modèles sont entraînés grâce à des données préalablement traitées par des experts humains. L'indexation automatisée, quant à elle, utilise une approche lexicale, consistant à comparer les termes du vocabulaire libre des publications numériques avec les termes présents dans les vocabulaires contrôlés.
Pour la classification automatique, différents modèles, tels qu'Omikuji et SVC, sont entraînés sur des textes intégraux en allemand et en anglais. Les résultats obtenus varient selon les catégories de sujets traités et le volume de données d'entraînement disponibles. En ce qui concerne l'indexation automatique avec le GND, le principal défi demeure la quantité de descripteurs disponibles dans le vocabulaire contrôlé. Les modèles linguistiques employés sont entraînés sur divers types de données bibliographiques incluant les textes intégraux, mais également les titres et les tables des matières. Les résultats produits par ces modèles sont ensuite soumis à la validation d'indexeurs humains.
L'article décrit les principales étapes de mise en œuvre du système EMa, soulignant ses avantages majeurs tels que la modularité, la flexibilité et l'utilisation d'outils open source. Il fournit également des statistiques détaillées concernant l'utilisation d'EMa pour l'attribution des indices de classification CDD et des descripteurs GND pour l'année 2023. En conclusion, l'article réaffirme la nécessité du catalogage automatique pour la DNB face à la croissance continue des collections numériques, tout en insistant sur l'importance d'une supervision humaine (« human-in-the-loop »). La DNB poursuit ses efforts d'amélioration du système EMa en explorant de nouvelles approches d'apprentissage machine et en renforçant ses échanges avec la communauté scientifique.
Auteure du résumé
Teresa Bascik, Université de Montréal
Pour ce quatrième numéro du bulletin de veille Traitement documentaire et intelligence artificielle, nous proposons une sélection de quatre documents qui explorent l’apport de l’IA dans l’enrichissement des données et l’amélioration de la découvrabilité des ressources documentaires. L’évaluation de la qualité des résultats générés pour soutenir les tâches de description et d’analyse documentaire y occupe une place importante. Ce numéro inclut également une contribution portant spécifiquement sur l’intégration de l’IA dans les pratiques de gestion des données de recherche (GDR), soulignant les possibilités offertes par les modèles de langage pour améliorer la curation automatisée des métadonnées.
Bonne lecture !
Priya C., B. (2025, 27 février). 11 Python Libraries Every AI Engineer Should Know. https://www.kdnuggets.com/11-python-libraries-every-ai-engineer-should-know
Cet article parle des 11 librairies Python à tester pour créer des applications d'intelligence artificielle et donne aussi des liens vers des cours en ligne qui expliquent comment les utiliser. Ces différentes librairies peuvent être classées selon les thématiques suivantes :
Auteure du résumé
Anita Mazur, Polytechnique Montréal
Kasprzik, A. (2025). Transferring Applied Machine Learning Research into Subject Indexing Practice. Dans E. Balnaves, L. Bultrini, A. Cox & R. Uzwyshyn (Éds.), New Horizons in Artificial Intelligence in Libraries, Berlin, Boston: De Gruyter Saur, pp. 199-212. https://doi.org/10.1515/9783111336435-015
Cet article explore l'intégration de l'apprentissage automatique dans le processus d'indexation sujet au ZBW – Leibniz Information Centre for Economics, en mettant l'accent sur le service AutoSE. Ce service génère des suggestions d'indexation basées sur les métadonnées de documents en anglais, telles que les titres et les mots-clés des auteurs, et évalue la qualité de ces suggestions à l'aide du F1-score, qui mesure la précision et le rappel.
Le processus d'indexation automatique est soutenu par des flux de données entre le catalogue unifié et la base de données EconBiz, où les enregistrements annotés sont stockés. L'article souligne les défis à relever, notamment, la nécessité de collecter des données d'entraînement adéquates pour optimiser les modèles. De plus, il aborde des questions éthiques de droits d'utilisation concernant l'extraction de données à partir des résumés.
En réponse aux biais identifiés par les experts, comme la surreprésentation de certains sujets, des ajustements ont été apportés aux modèles afin de fournir des résultats plus équilibrés. L’article discute également des plans futurs d'intégration de solutions multilingues et de développement d'une interface utilisateur web interactive. Cette interface vise à mettre en valeur les indicateurs de performance du service AutoSE, améliorant ainsi la transparence et l'engagement des utilisateurs dans le processus d'indexation sujet. L'article souligne en outre le rôle indispensable de l'expertise humaine dans le raffinement et l'orientation de cette intelligence artificielle.
Auteur du résumé
Moncif Bouchelaghem, stagiaire de l’EBSI, Université de Montréal
Sundaram, S. S., Solomon, B., Khatri, A., Laumas, A., Khatri, P., & Musen, M. A. (2024). Use of a structured knowledge base enhances metadata curation by large language models [prépublication]. arXiv. https://arxiv.org/abs/2404.05893
Dans cet article, les auteurs examinent le potentiel des grands modèles de langage (LLM), en particulier GPT-4, pour améliorer la qualité des métadonnées générées pour les ensembles de données biomédicales. L’objectif principal est d’évaluer si ces modèles peuvent automatiquement corriger ou enrichir des métadonnées afin de les rendre conformes à des standards établis, notamment les modèles CEDAR (Center for Expanded Data Annotation and Retrieval).
L’étude repose sur un corpus de 200 ensembles de données aléatoires conformes aux normes NCBI BioSample, portant sur des échantillons humains liés au cancer du poumon. Dans le cadre des expérimentations, trois configurations sont comparées : 1) GPT-4 seul, sans aucune information contextuelle ; 2) GPT-4 avec des instructions générales sur les bonnes pratiques en matière de métadonnées ; 3) GPT-4 aligné sur le modèle CEDAR, incluant des définitions de champs, des contraintes et des valeurs attendues. La performance est mesurée en fonction de la conformité aux normes CEDAR des métadonnées générées. GPT-4 seul permet une amélioration minimale de 79 % à 80 % de conformité, tout comme l’ajout d’instructions générales qui apporte peu d’impact. En revanche, l’intégration d’un modèle de connaissances structuré permet d’atteindre un taux de conformité de 97 %, soit une amélioration significative.
La méthodologie de l’étude décrite dans l’article repose sur une expérimentation bien définie, avec une explication claire des configurations testées. Toutefois, le corpus de 200 ensembles de données restreint la portée des conclusions tirées. Par ailleurs, les critères précis de l’évaluation des résultats générés (notamment les critères de conformité mesurée) ne sont pas entièrement détaillés, ce qui pourrait nuire à la reproductibilité des résultats. Il serait intéressant d’évaluer si ces conclusions se confirment dans d’autres domaines scientifiques et sur des ensembles de données plus vastes et plus hétérogènes. Malgré ces limites, l’étude confirme toutefois le rôle clé que peuvent jouer les bases de connaissances structurées dans l’amélioration de la performance des LLM dans la curation des ensembles de données.
Auteure du résumé
Teresa Bascik, Université de Montréal
Murusmith, H. (2024, 22-23 octobre). Deriving MARC records using AI [Présentation orale]. 2024 ai4Libraries Conference, en ligne. https://youtu.be/HxbnGceUfRY?si=5wUxi7-cCj3PPd-J
Dans le cadre de l’édition 2024 du congrès ai4Libraries, Hilary Murusmith, bibliothécaire à la Princeton University Library, a présenté l’expérimentation qu’elle a faite avec l’intelligence artificielle afin de créer des notices MARC en anglais à partir de notices originales en d’autres langues (français, allemand, néerlandais, espagnol). Ce qui a motivé cette expérimentation est la volonté de simplifier le catalogage des ressources qui n’ont jamais été cataloguées en anglais, mais pour lesquelles des notices de qualité sont disponibles en d’autres langues.
Ce projet a utilisé l’outil Copilot de Microsoft. Les notices ont été exportées en format MARC pour être lues avec MarcEdit et ensuite copiées dans Copilot. Un premier essai pour obtenir une notice en anglais à partir d’une notice en français a été fait à l’aide d’une requête très simple. Cela a permis d’identifier certains problèmes, notamment dans les zones 008, 040, 245 et 650. Ensuite, la requête a été raffinée pour y inclure des instructions précises prenant en compte tous les scénarios possibles. Des instructions précises ont été rédigées pour plusieurs zones et sous-zones MARC. Des résultats de meilleure qualité ont été obtenus à l’aide de cette requête plus développée.
Malgré des résultats somme toute satisfaisants, certaines limites sont soulignées : une requête très longue peut donner des résultats inégaux et faire en sorte que certaines instructions sont ignorées; la validation des points d’accès n’est pas optimale sans un accès aux fichiers d’autorités; le langage spécialisé du catalogage n’est pas toujours compris par l’outil d’IA. Bref, une partie du travail peut être faite par l’intelligence artificielle, mais une révision par une catalogueuse ou un catalogueur est toujours nécessaire.
Auteur du résumé
Xavier Lemire, Université Laval
Pour le troisième numéro du bulletin de veille Traitement documentaire et intelligence artificielle, nous vous présentons 5 documents qui abordent l’utilisation de l’IA pour enrichir nos données, augmenter l’efficacité au travail et faciliter la découvrabilité des ressources. La planification du travail avec des outils utilisant l’IA et l’évaluation des résultats générés par l’IA pour appuyer les tâches de description et d’analyse documentaire sont également des thèmes très présents dans les résumés de ce numéro.
Bonne lecture!
Bernard, A. (2025, 12 février). L'IA générative en bibliothèque : défis et compétences critiques dans l’accès à l’information [Partie d’un fichier video débutant à 58 minutes]. Dans Journée IA en bibliothèque. ENSSIB. https://www.youtube.com/watch?v=hIKgmtzTB4E
Ce webinaire parle de cas concrets d'utilisation de ChatGPT, mais aussi d'outils qui permettent de comparer et d'évaluer les outils IA ainsi que d'un site pédagogique pour se former à reconnaître si un texte a été généré par une IA ou non.
La bibliothèque Bacalan à Bordeaux a fait différentes expérimentations avec ChatGPT. Ils en parlent dans leur balado Bibliogrill.
Lors de l'inauguration d'une nouvelle bibliothèque, ils ont utilisé ChatGPT pour se faire recommander des suggestions d'achat de livres. Or, ChatGPT n'était pas adapté du tout pour cet usage, car il ne suggérait que des ouvrages trop datés.
Cependant, pour un autre type d'usage comme la rédaction de fiches domaines, l'outil pouvait être un allié pour faciliter le travail. En donnant des exemples de fiches domaines à ChatGPT, l'outil générait des fiches que les bibliothécaires complétaient ensuite. ChatGPT donnait aussi du contenu sur des points qu'ils auraient pu oublier.
Les outils de comparaison d'outils IA et évaluation des réponses
Compar:IA
L'outil de comparaison d'IA conversationnelles Compar:IA a été développé par le ministère de la culture de France. Les fonctionnalités, les versions et l'impact environnemental de différents outils IA peuvent être comparés.
Chatbot Arena
Cet outil permet une comparaison qui va beaucoup plus loin dans le choix des modèles et dans l'évaluation que Compar:IA.
Auto-évaluation
Dans les réponses de Gemini, il y a un bouton qui permet de vérifier la véracité des réponses. L'outil cherche une source qui corrobore ce qu'il a généré. Parfois, l'outil n'arrive pas à trouver des sources, donc c'est à l'utilisateur de vérifier les réponses.
D'autres outils conversationnels ont la fonction “Recherche web” pour combler leurs lacunes et ainsi éviter les hallucinations.
Site web pédagogique pour se former à reconnaître si un texte a été généré par une IA
Tous les articles du site web Tech Generation sont écrits par des outils d'IA, dans le but de montrer le type de contenu qui peut être généré désormais.
Auteure du résumé
Anita Mazur, Polytechnique Montréal
Hsu, T.-W., Tseng, P.-T., Tsai, S.-J., Ko, C.-H., Thompson, T., Hsu, C.-W., Yang, F.-C., Tsai, C.-K., Tu, Y.-K., Yang, S.-N., Liang, C.-S., & Su, K.-P. (2024). Quality and correctness of AI-generated versus human-written abstracts in psychiatric research papers. Psychiatry Research, 341. https://doi.org/10.1016/j.psychres.2024.116145
Cet article examine la capacité de l’outil d’IA ChatPDF à générer des résumés d'articles de recherche en psychiatrie et évalue la qualité de ces résumés par rapport à ceux rédigés par des humains. L'étude s'est concentrée sur des essais randomisés contrôlés dans le domaine de la psychiatrie, incluant des articles avec des résumés structurés et non structurés. Les chercheurs ont sélectionné une trentaine d’articles qu’ils ont ensuite proposé à ChatPDF pour générer des résumés, en fournissant le texte intégral et en spécifiant des limites de mots pour les résumés structurés et non structurés. La qualité des résumés générés a été évaluée en fonction de la similarité avec les résumés humains, du plagiat et de la détection de contenu généré par l’IA. En outre, cinq psychiatres ont procédé à l’évaluation de la qualité des résumés selon une échelle de Likert.
Les résumés générés par ChatPDF montrent une similarité d’environ 14 % et un taux de plagiat ajusté d’environ 8 % (après exclusion de l’auto-plagiat, c’est-à-dire du plagiat issu de l’article à résumer). La proportion de contenu détecté comme étant généré par l'IA avoisine quant à elle 31 % pour les résumés structurés et 76 % pour les résumés non structurés. Par ailleurs, les résumés structurés ont été jugés de qualité similaire à ceux des auteurs originaux, tandis que les résumés non structurés ont obtenu des notes plus faibles. Enfin (et surtout), environ 30 % des résumés générés contiennent des conclusions incorrectes.
Les résultats de l’article démontrent que, bien que ChatPDF puisse dans l’ensemble produire des résumés de qualité acceptable, les résumés non structurés sont de qualité inférieure. Plus important encore, des lacunes fondamentales existent quant à la validité des conclusions tirées par l'outil, ce qui implique la nécessité d'une vérification/correction humaine a posteriori. Évidemment, étant donné la portée restreinte de cet article, qui s’intéresse uniquement à des publications en psychiatrie, il est impossible de généraliser ces observations à des articles issus d’autres disciplines. Néanmoins, il parait raisonnable d’affirmer que la génération de résumés à l’aide de ChatPDF n’est pas parfaite, et demande une utilisation prudente et limitée.
Auteur du résumé
Moncif Bouchelaghem, stagiaire de l’EBSI, Université de Montréal
Nockels, J., Gooding, P., & Terras, M. (2024). The implications of handwritten text recognition for accessing the past at scale. Journal of Documentation, 80(7), 148-167. https://doi.org/10.1108/JD-09-2023-0183
Cet article explore l’usage des techniques de reconnaissance automatisée du texte manuscrit (Handwritten Text Recognition ou HTR) et de l’extraction des métadonnées pour le traitement des documents historiques à grande échelle, en mettant en lumière tant leurs avancées que leurs limites actuelles. Alimentées par l’intelligence artificielle, ces technologies ouvrent de nouvelles perspectives pour l’élargissement de l’accès aux ressources manuscrites et la constitution de bases de données historiques à grande échelle. L’intégration automatisée des métadonnées pourrait ainsi faciliter leur organisation et leur consultation par les chercheurs. De plus, ces avancées technologiques favorisent la préservation du patrimoine linguistique en facilitant l’accès à des textes rédigés dans des langues rares ou en écriture peu standardisées, en ouvrant de nouvelles perspectives aux recherches historiques.
Toutefois, l’article met en garde contre une dépendance excessive aux modèles IA basés sur l’apprentissage automatisé, susceptibles d'occulter la complexité du contexte historique des documents traités. Les auteurs soulignent la nécessité d’une collaboration interdisciplinaire entre historiens, informaticiens et archivistes afin d’optimiser l’usage de ces outils émergents. L’un des défis majeurs réside dans le choix du corpus textuel à traiter, qui peut amplifier les biais algorithmiques inhérents aux technologies actuelles d’intelligence artificielle.
Les auteurs abordent également les implications éthiques et juridiques, notamment en matière de propriété intellectuelle des transcriptions et de protection des données personnelles. La question de l’impact environnemental des modèles IA est également soulevée, appelant à des solutions plus durables pour le stockage et le traitement des données. Dans cette perspective, des pratiques ouvertes et collaboratives, incluant le partage des modèles et des métadonnées, apparaissent comme essentielles.
En conclusion, l’article propose une analyse nuancée des technologies HTR et de l’extraction automatisée des métadonnées, reconnaissant le potentiel de cette approche, tout en appelant à une réflexion critique sur ces limites.
Auteure du résumé
Teresa Bascik, Université de Montréal
OCLC metadata community. (2025, 12 février). OCLC cataloging community meeting. [Fichier vidéo]. https://community.oclc.org/t5/cataloging-and-metadata/oclc-cataloging-community-meeting-february-2025/ta-p/56869
La rencontre organisée par OCLC abordait de nombreux sujets qui débordent le cadre de cette veille, mais nous concentrerons notre résumé sur l’état d’avancement des travaux relatif à l’entraînement de modèles d’intelligence artificielle.
Tout d’abord, OCLC explique que leur expérimentation avec l’IA est validée par des bibliothécaires d’expérience et qu’ils appliquent le principe de prudence. Le but est d’enrichir les données, d’éliminer les doublons, de rendre certains processus plus efficaces, mais surtout, d’améliorer la découvrabilité des contenus pour les usagers et usagères.
Le premier projet présenté, un modèle d'apprentissage automatique pour détecter les notices bibliographiques en double (Machine Learning Deduplication), a permis de repérer et de supprimer 5,4 millions de notices de livres imprimés depuis août 2023. Pour entrainer le modèle, 300 bibliothécaires avaient préalablement donné des commentaires sur 34 000 notices en indiquant si celles-ci étaient ou non des doublons. Certains cas qui ont fait l’objet d’un dédoublonnage et d’autres qui ne l’ont pas été ont été présentés. L’utilisation du modèle d’IA générative est un processus qui s’effectue conjointement avec l’algorithme DDR qui continue à détecter les doublons sur les nouvelles notices et les notices nouvellement modifiées. OCLC nous invite d’ailleurs à les contacter si l’on constate que des fusions inadéquates ont eu lieu.
Une deuxième version de ce modèle est en cours de production. Son but sera d’étendre le dédoublonnage à plus de langues et plus de formats et de types de documents. Une invitation a été lancée afin de mobiliser des volontaires pour entraîner l’outil en évaluant des paires de doublons potentiels.
Un autre projet lié à l’intelligence artificielle développée par OCLC est l’enrichissement des notices par la prédiction des sujets de la ressource décrite (Enriching records). L’organisme teste présentement un outil qui permet de suggérer au catalogueur des vedettes-matière (LCSH) et des cotes de classification (LCC). Les premiers tests à partir d’un modèle d’IA générative non entrainé généraient un taux de 40% d’erreurs et de nombreuses hallucinations. En entrainant l’IAG avec des données issues de Worldcat, le taux de succès a augmenté. L’expérimentation continue et les catalogueurs d’OCLC qui utilisent l’outil ont maintenant accès à une liste de cote de classification et de vedettes-matière générée à partir des données qu’ils ont ajoutées dans leur notice. Ils sont alors invités à sélectionner la cote et les sujets qu’ils trouvent pertinents. La prochaine étape consistera à recruter des volontaires parmi les membres de la communauté pour tester l’outil.
Auteure du résumé
Mylène Lalonde, Université TÉLUQ
Saccucci, C. & Potter, A. (2025). Assessing machine learning for cataloging at the Library of Congress. Dans E. Balnaves, L. Bultrini, A. Cox & R. Uzwyshyn (Éds.), New Horizons in Artificial Intelligence in Libraries (pp. 227-238). https://doi.org/10.1515/9783111336435-017
Ce chapitre de l’ouvrage New Horizons in Artificial Intelligence in Libraries s’articule autour de la phase de planification du projet « Exploring Computational Description » de la Library of Congress. Ce projet vise à expérimenter cinq modèles de machine learning pour créer ou améliorer des notices bibliographiques de documents numériques. Les résultats obtenus par les différentes approches pourront ainsi être comparés afin d’identifier laquelle présente le plus de potentiel pour la création de notices en format MARC. La Library of Congress pourra alors faire un choix éclairé par rapport à l’utilisation de l’intelligence artificielle pour le catalogage de ses ressources en prenant également en compte les avantages, les risques et les coûts associés à chaque modèle.
Le chapitre présente deux outils de planification créés par la Library of Congress pour la gestion de leurs projets en IA : l’« organizational profile » et le « data processing plan ». L’« organizational profile » permet de préciser et de définir les utilisations potentielles de l’IA à l’intérieur d’une organisation. Cet outil est également utile pour recenser les tâches spécifiques dans lesquelles on pourrait faire intervenir l’IA. Le deuxième outil de planification, le « data processing plan », vise à faire un suivi rigoureux des données utilisées lors des expérimentations avec les modèles de machine learning. Les données et les modèles ainsi que l’utilisation qui en sera faite font l’objet d’une description détaillée. Cet outil permet de faire une utilisation responsable des données et d’évaluer le risque lié aux expérimentations avec l’IA.
À la suite de cette planification, le projet permettra de tester les modèles GROBID, Annif, Spacy, BERT et des NLP avec des fonctions Layout. La prochaine étape sera donc d’évaluer les performances des différents modèles. Ce texte comprend deux aspects importants à souligner. D’abord, la pertinence d’expérimenter et de comparer plusieurs modèles d’IA pour une même tâche. Puis, la nécessité de se doter d’outils de planification et de suivi robustes pour faire face à toutes éventualités lors de l’élaboration d’un projet impliquant l’intelligence artificielle.
Auteur du résumé
Xavier Lemire, Université Laval
Pour le deuxième numéro du bulletin de veille Traitement documentaire et intelligence artificielle, nous vous présentons 4 documents qui abordent le développement, l’utilisation et l’apprentissage de différents outils de l’intelligence artificielle pour appuyer les tâches de description et d’analyse documentaire dans différents types de bibliothèques.
Bonne lecture!
Leclaire, C., & Leroy-Terquem, M. (2021). Quelques projets d'intelligence artificielle en cours à la BnF. Repéré le 16 janvier 2025 à https://www.bnf.fr/fr/quelques-projets-dintelligence-artificielle-en-cours-la-bnf
La Bibliothèque nationale de France a plusieurs projets en cours qui permettent de mieux explorer leurs collections.
Voici les descriptions de ces projets :
Auteure du résumé
Anita Mazur, Polytechnique Montréal
Lo, L. S. (2024). Transforming academic librarianship through AI reskilling: Insights from the GPT-4 exploration program. The Journal of Academic Librarianship, 50(3), 102883. https://doi.org/10.1016/j.acalib.2024.102883
L'article Transforming Academic Librarianship through AI Reskilling: Insights from the GPT-4 Exploration Program explore comment l'intelligence artificielle transforme les bibliothèques universitaires en exigeant le développement de nouvelles compétences de la part des professionnels de l’information. À travers une étude de cas du programme de formation sur l'utilisation de la technologie GPT-4 offert par l'Université du Nouveau-Mexique, l'auteur décrit le développement des compétences en IA grâce à un apprentissage collaboratif. En s'appuyant sur les principes d'apprentissage pour adultes élaboré par Malcolm Knowles, le programme a permis aux participants de développer leurs connaissances des outils IA et d’améliorer leur confiance dans leur capacité à appliquer ces technologies dans leurs pratiques professionnelles. En adoptant une approche pratique et collaborative, ils ont réalisé divers projets d’intégration de l’IA dans les services des bibliothèques, comme l'automatisation des tâches d’indexation des ressources documentaires et l'amélioration de l'expérience utilisateur. Les résultats montrent que le succès de telles initiatives repose sur la création d'une culture d'apprentissage collaboratif. La collaboration entre les participants a permis un partage des connaissances et des expériences et a enrichi les apprentissages individuels et collectifs, notamment en ce qui concerne les biais algorithmiques et la confidentialité des données. Les discussions sur ces enjeux ont aidé les participants à développer une approche critique envers l’IA.
L'article offre quelques recommandations pour les bibliothèques universitaires souhaitant lancer des programmes de formation similaires. Ces milieux doivent encourager leurs professionnels à adopter une culture d’apprentissage continue pour s’adapter aux évolutions rapides des technologies IA. Il est essentiel de les soutenir en mettant en place des structures qui encouragent l’exploration et réduisent la peur de l’échec, comme des ateliers interactifs.
Il est à noter que l’article semble s’appuyer principalement sur des retours qualitatifs des quelques participants. L’absence de données quantitatives pour mesurer l’impact du programme (par exemple, des statistiques sur l’amélioration des compétences ou la productivité des participants) limite l’évaluation critique des résultats. Le nombre de participants et la diversité de leurs profils professionnels ne sont pas suffisamment détaillés. Cela soulève des questions sur la généralisation des résultats à d'autres contextes. Toutefois, nous sommes d’avis que l'article constitue une contribution importante au débat sur l’intégration de l’IA dans les bibliothèques universitaires. Il se distingue par son approche pratique et fournit une base solide pour inspirer des initiatives similaires.
Auteure du résumé
Teresa Bascik, Université de Montréal
Malmsten, M., Lundborg, V., Fano, E., Haffenden, C., Klingwall, F., Kurtz, R., Lindström, N., Rekathati, F. & Börjeson, L. (2025). Without Heading? Automatic Creation of a Linked Subject System. Dans E. Balnaves, L. Bultrini, A. Cox & R. Uzwyshyn (Éds.), New Horizons in Artificial Intelligence in Libraries (pp. 179-198). https://doi.org/10.1515/9783111336435-014
Ce chapitre du livre New Horizons in Artificial Intelligence in Libraries présente un projet de la Bibliothèque nationale de Suède (KB) dans lequel l’intelligence artificielle a été utilisée pour créer un système d’indexation entièrement automatisé. Le but du projet est de développer une nouvelle méthode d’indexation qui pourrait enrichir, compléter ou remplacer l’indexation faite par des humains en utilisant des vedettes-matière et/ou un vocabulaire contrôlé. Le texte identifie trois faiblesses de l’indexation « traditionnelle » qui viennent justifier l’intérêt pour une méthode automatisée. En effet, on souligne que l’indexation « traditionnelle » diffère grandement d’un indexeur à l’autre, qu’elle est biaisée et qu’elle nécessite des ressources importantes pour la mise à jour et le maintien des vedettes-matière et des vocabulaires contrôlés.
Afin d’explorer de nouvelles possibilités en matière d’indexation, l’équipe de la KB a donc utilisé la technique de « topic modelling » BERTopic. Cette technique regroupe l’utilisation, entre autres, de sentence-BERT et des algorithmes UMAP et HDBSCAN. La technique BERTopic se démarque notamment en réduisant le travail de prétraitement des documents et en offrant des paramètres par défaut optimisés. Ainsi, l’outil est hautement automatisé tout en demeurant flexible. Dans le cadre du projet, la technique BERTopic a été utilisée pour analyser un échantillon de documents provenant des collections numériques de la KB. Pour les 954 titres analysés, le système utilisant l’IA a identifié 1211 sujets contre 522 sujets obtenus par l’indexation traditionnelle. L’évaluation des résultats n’est pas une force de ce chapitre puisqu’il n’y a pas de mesures quantitatives adéquates pour faire celle-ci. On souligne néanmoins la cohésion des résultats obtenus à l’aide d’une analyse qualitative.
La possibilité d’une méthode d’indexation automatisée telle que décrite dans ce texte peut susciter un certain intérêt notamment parce qu’on développe un système d’indexation qui se distingue clairement de l’indexation traditionnelle faite par l’humain. On ne tente pas d’automatiser l’utilisation d’un vocabulaire contrôlé ou de vedettes-matière, mais bien de développer quelque chose d’original qui pourrait être à l’avantage des indexeurs et des usagers.
Auteur du résumé
Xavier Lemire, Université Laval
Taniguchi, S. (2024). Creating and evaluating MARC 21 bibliographic records using ChatGPT. Cataloging & classification quarterly, 62(5), 527-546. https://doi.org/10.1080/01639374.2024.2394513
Cet article présente des résultats d’une étude visant à tester l’utilisation de ChatGPT (GPT4) pour créer des notices conformes aux normes MARC 21 et RDA. Chaque notice a ensuite été évaluée pour vérifier si son contenu est conforme à la source d’information qui a été fournie à l’IA et si les règles de catalogage de la norme RDA ont été respectées.
Pour évaluer les notices créées grâce à l’intelligence artificielle, Taniguchi a utilisé des exemples de notices MARC issues du livre Maxwell's Handbook for RDA de Robert L. Maxwell (ALA, 2013). Les sources d’information des exemples de Maxwell ont été fournies par Tanuguchi à ChatGPT pour afin qu’il crée un lot de notices MARC. L’auteur a ensuite fourni à ChatGPT les notices originales de Maxwell pour que l’IA présente les différences entre les deux lots de notices. Ce travail a permis de comparer plus aisément la conformité des notices à la norme RDA pour une diversité de type de ressources et pour plusieurs cas complexes.
L’article expose bien sa méthodologie pour permettre de la reproduire, notamment en fournissant l’instruction (prompt) donnée à ChatGPT pour chacune de ses interventions. L’article est aussi accompagné d’un document qui présente les 105 notices MARC 21 créées par ChatGPT, chacune étant suivie d’un tableau permettant d’évaluer le travail accompli.
Les résultats de l’étude démontrent la capacité de ChatGPT à générer des notices MARC à l’aide de sources d’information qu’on lui transmet, mais parfois, il ajoute quelques données externes empruntées à des notices sur le Web et produit des erreurs pour les points d’accès, les identifiants de même que les mentions de titre, d’édition, de publication et de collection. L’auteur explique ce résultat par la complexité de certains modèles bibliographiques, mais il nuance son propos en expliquant que ceux-ci représentent souvent un défi, même pour des catalogueurs de métier. Il note enfin que, comme le RDA toolkit est accessible sous abonnement, ChatGPT n’y a pas accès directement, ce qui complique une application rigoureuse et nuancée de la norme.
Ce genre d’expérimentation nous confirme la pertinence de poursuivre la formation des employés aux normes de catalogage RDA afin de pouvoir traiter les cas complexes ainsi que pour maintenir une expertise afin de corriger et d’enrichir des notices conçues par l’IA.
Auteure du résumé
Mylène Lalonde, Université TÉLUQ
Pour le premier numéro du bulletin de veille Traitement documentaire et intelligence artificielle, nous vous présentons quatre documents qui mettent en lumière l’utilisation concrète de certains outils issus de l’IA pour enrichir la description de documents dans différents types de bibliothèques. Chaque document est résumé en français. Nous avons aussi indiqué les points qui nous semblent les plus intéressants en fonction de notre contexte de travail au sein du PBUQ. Nous espérons recueillir vos commentaires pour façonner les prochains numéros qui paraitront en 2025.
Bonne lecture!
Houle, A., Lanouette, C. & Boucher-Lafleur, V. (2023). L'intelligence artificielle générative à la Bibliothèque de l'Assemblée nationale : une étude de cas sur les usages potentiels de Chat GPT en contexte professionnel : rapport du groupe de travail sur l'intelligence artificielle. https://numerique.banq.qc.ca/patrimoine/details/52327/4779698
Ce document explique la manière dont l’équipe de la bibliothèque de l’Assemblée nationale s’y est prise pour explorer l’utilisation de ChatGPT. On y présente le résumé des propos tenus lors d’un groupe de discussion semi-dirigée avec l'équipe du développement des collections et du traitement documentaire pour discuter de l'IA. On y indique aussi le type de travail qu’elle envisagerait de confier à l’IA et ce qui, selon elle, ne devrait pas l’être (p. 7-8).
On y présente également la manière dont cette équipe a pu évaluer la fiabilité de ChatGPT (version "abonnement payant") dans les tâches de catalogage et d'indexation, notamment l’utilisation d’une échelle de notation (p.12-14). Cette échelle pourrait être exploitée pour tester d’autres outils d’IA ou tester l’évolution de ChatGPT. Comme les tests ont été faits en français, ils s’avèrent intéressants dans notre contexte.
Les résultats aux tests de catalogage et d’indexation permettent de souligner les forces et les faiblesses de ChatGPT. Deux tableaux synthétisent les données selon plusieurs critères (p. 19-22).
Enfin, ce rapport comprend aussi 8 recommandations (p.32-34) qui dépassent la portée de notre mandat de veille, mais dont plusieurs pourraient tout de même inspirer les équipes responsables du traitement documentaire du PBUQ.
Auteure du résumé
Mylène Lalonde, Université TÉLUQ
RDA toolkit. (2024, 21 octobre). 2024 Fall NARDAC Update Forum [Fichier vidéo]. https://www.youtube.com/watch?v=uLa0Gluu-OU
Lors de ce webinaire, il y a eu des exemples concrets de création, d'entraînement et d'utilisation d'applications d'intelligence artificielle dans les bibliothèques universitaires grâce aux Microsoft Power Apps.
Par exemple, on y explique le processus d’indexation automatique de documents et création automatique de notices MARC21 à partir des pages de livres numérisés au format PDF. On y démontre également la vérification automatique qui permet de s'assurer que les métadonnées sont conformes à un certain profil RDA.
Ces exemples sont intéressants, car nous avons tous accès aux Power Apps dans les BUQ (même s'il y a aussi des versions payantes des modules AI).
Auteure du résumé
Anita Mazur, Polytechnique Montréal
York, E., Hanegbi, D., & Ganor, T. (2024). Enriching Bibliographic Records Using AI–A Pilot by Ex Libris. Internet Reference Services Quarterly, 28(3), 287‑291. https://doi.org/10.1080/10875301.2024.2361871
L'article explore un projet pilote mené par Ex Libris, qui utilise des modèles d'intelligence artificielle (IA), notamment ChatGPT, pour enrichir les notices bibliographiques des ressources électroniques. L’étude a été réalisée sur 1 000 documents en accès libre dotés de métadonnées riches, afin de comparer les résultats générés par l'IA (GPT-3.5) à ceux créés manuellement. Les zones MARC concernées incluaient : 041 (Langue), 520 (Résumé), 650 (Sujets), ainsi que les indices de classification Dewey et ceux de la Bibliothèque du Congrès (LC).
Les expérimentations ont montré un potentiel d'automatisation pour les zones 041, 520 et 650, bien que les indices Dewey et LC générés automatiquement se soient révélés insuffisamment précis. Les sujets (zone 650) nécessitaient toutefois une validation humaine pour corriger certaines erreurs. Par souci de transparence, les zones générées par l'IA ont été clairement identifiées.
En somme, Ex Libris continue d’expérimenter avec l’enrichissement des métadonnées à l’aide de l’IA, dans le but de réduire le besoin de révisions manuelles. Ce projet illustre comment l'IA peut être intégrée au processus de catalogage, tout en mettant en lumière les défis liés à son automatisation.
Auteure du résumé
Teresa Bascik, Université de Montréal
Zaragoza, T., Nicolas, Y., & Le Provost, A. (2022, 21-22 juillet). From text to data inside bibliographic records. Entity recognition and entity linking of contributors and their roles from statements of responsibility [Article]. IFLA WLIC 2022 Satellite meeting : New Horizons in Artificial Intelligence in Libraries, Galway, Irlande. https://repository.ifla.org/handle/20.500.14598/2075
Cet article présente un projet de l’Agence bibliographique de l'enseignement supérieur (Abes) utilisant des outils d’intelligence artificielle afin d’améliorer la qualité des notices bibliographiques dans le catalogue Sudoc. Concrètement, à partir des informations contenues dans la mention de responsabilité, on cherchait à bonifier des notices en générant ou en corrigeant des points d’accès représentant des personnes pour que ceux-ci contiennent une forme normalisée du nom et un code de fonction UNIMARC (indicateur de relation en langage RDA). Deux modèles ont été utilisés, d’abord pour extraire les noms de personne et les rôles, puis pour faire le lien entre la fonction du contributeur inscrite dans la mention de responsabilité et le code UNIMARC approprié.
Les résultats sont excellents en ce qui concerne les noms de personnes, mais ils sont moins convaincants pour l'attribution des codes de fonction (les résultats sont satisfaisants pour 13 codes sur 33). Le modèle devra donc être peaufiné pour atteindre les résultats escomptés.
Le projet décrit dans cet article est intéressant sous plusieurs angles : il montre tout le travail nécessaire pour effectuer une tâche qui peut paraitre simple; il souligne la possibilité d’utiliser des modèles d’IA déjà existants; il affirme l’importance des bibliothécaires dans le processus; il fait valoir que l’IA permettra d’améliorer la qualité des données bibliographiques.
Auteur du résumé
Xavier Lemire, Université Laval