Éthique et IA à la BnF

L’émergence de l’intelligence artificielle (IA) et l’essor du recours à celle-ci dans le secteur culturel, et plus particulièrement dans les bibliothèques, permet à des institutions patrimoniales comme la BnF d’utiliser cette technologie pour la réalisation de leurs missions. Son usage soulève toutefois nombre d’enjeux éthiques pour une institution gardienne de la mémoire collective et de l’accès au savoir. Intégrer l’IA dans son activité doit se faire dans le strict respect de ses missions d’intérêt général ainsi que des valeurs et du droit de la République. La BnF suit cinq grands principes éthiques en matière d’IA et inscrit son action dans une démarche plus large de responsabilité sociétale des organisations (RSO), érigée en « traversée » dans son contrat d’objectifs et de performance (COP).

Une éthique de l’IA à la BnF en cinq grands principes

Recourir à l’IA au service de l’intérêt général

La BnF s’engage dans l’IA au service de ses missions d’intérêt général de collecte, conservation, enrichissement et communication du patrimoine documentaire national. L’IA peut notamment être un vecteur d’efficacité en matière de signalement, de préservation et de découvrabilité des collections.
Si le recours à l’IA renforce l’efficacité des missions par la BnF, notamment par l’automatisation de tâches répétitives, il a pour conséquence la transformation des métiers de la bibliothèque et nécessite un accompagnement humain des professionnels.
La BnF, forte de sa politique de numérisation de ses collections, dispose d’un réservoir unique de données patrimoniales qui peuvent contribuer à l’innovation dans l’écosystème de l’IA par l’entraînement de modèles de langage souverains. Ce soutien doit toutefois être fortement encadré.

Contribuer au renforcement d’une IA de confiance

Les bibliothèques peuvent contribuer à la lutte contre l’opacité des grands modèles de langage et à la compréhension des décisions prises par les IA en veillant à la transparence, l’explicabilité et l’auditabilité des modèles. Dans le cas de la production de données ou métadonnées, l’intervention d’IA dans le processus doit être documentée. La BnF souhaite pouvoir jouer un rôle pédagogique vis-à-vis de ses publics en la matière.

Veiller au respect des droits des personnes

Les bibliothèques doivent être exemplaires en termes de respect du droit des données personnelles. Les pratiques des lecteurs représentent des données sensibles. En cas de recours à ces données d’usage, les bibliothèques doivent appliquer des normes strictes de collecte, de stockage et d’anonymisation pour protéger la vie privée telles que prévues par le RGPD. Des politiques de transparence doivent informer les usagers sur les données collectées et leur utilisation.
Les bibliothèques doivent par ailleurs être, en tant que tiers de confiance des auteurs et éditeurs, exemplaires dans le respect du droit d’auteur. Les IA entraînées sur des collections patrimoniales doivent respecter le cadre juridique du droit d’auteur et de la propriété intellectuelle.

Lutter contre les biais et discriminations reproduits par les IA

Les bibliothèques ont une responsabilité en termes de représentativité et de non-discrimination des données d’entraînement. Les IA reproduisent les biais présents dans les données utilisées pour leur entraînement. Par exemple, des corpus anciens peuvent refléter des représentations désuètes ou discriminantes, qui risquent d’être amplifiées. Les bibliothèques doivent veiller à sélectionner des données diversifiées et représentatives dans leurs corpus de données, et veiller à l’intégration de mécanismes de correction des biais dans les modèles entraînés à partir de ces données.

Réduire l’impact environnemental des IA

Les systèmes d’IA nécessitent des ressources considérables en énergie pour leur entraînement voire leur fonctionnement. Les bibliothèques doivent évaluer l’empreinte carbone de ces technologies et favoriser des solutions écoresponsables.

Intégrer la dimension éthique projet par projet

Pour garantir que ces principes soient intégrés à tous ses travaux impliquant l’IA, la BnF adopte une démarche éthique projet par projet et ce dès leur conception. En voici l’illustration à travers son premier projet IA en phase d’industrialisation, Gallica Images.

  • Phase de cadrage : les enjeux RSE sont explicitement énumérés dans les cahiers des charges techniques (CCTP) fournis aux répondants potentiels au marché public publié.
  • Dispositions environnementales : le CCTP privilégie l’usage de modèles open source. Il mentionne également la nécessité d’évaluer la performance des modèles qui seront utilisés relativement à leur consommation électrique, et de faire des choix proposant les meilleurs compromis en la matière.
  • Sélection des données : les corpus documentaires sélectionnés pour l’entrainement des modèles sont représentatifs de la collection dans son ensemble. La sélection des collections qui feront l’objet d’un traitement sera opérée par les équipes internes et elle prendra en compte les risques suivants :
    • Traitements inutiles : ne pas traiter des corpus pauvres en illustrations
    • Données personnelles : évaluer l’application du RGPD dans le cas des données personnelles présentes dans la presse
    • Données sensibles : évaluer le cas des images à caractère sensible (violence, nudité)
  • Développement de l’outil : lors de la sélection du prestataire, dans le cadre du marché public concerné, une attention est portée aux méthodes de développement et aux outils de développement proposés par les prestataires.
  • Tests et ajustements : les résultats du projet sont proposés pour test aux professionnels concernés, notamment aux chargés de collection, utilisateurs de la future base de données iconographiques. Il en va de même pour les interfaces d’accès à cette dernière, pour lesquelles les enjeux de transparence sont identifiés.
  • Suivi et évaluation : les premiers usages publics du projet doivent faire l’objet d’un suivi et d’une évaluation. Cette attention doit être maintenue à mesure que la production enrichie la base iconographique en nouveaux contenus.

Coopération internationale

La question de l’éthique de l’IA se pose pour le secteur culturel au niveau international. Afin d’inciter les citoyens et les institutions à adopter une posture éthique dans leurs usages de l’IA, l’UNESCO a fondé l’Observatoire mondial de l’éthique et de la gouvernance de l’IA et a adopté en novembre 2021, une Recommandation sur l’éthique de l’intelligence artificielle, tout premier instrument normatif mondial sur le sujet.
Les bibliothèques coopèrent au niveau international pour adopter des approches communes des enjeux éthiques de l’IA. La BnF est notamment engagée sur ce sujet auprès de ses partenaires européens au sein de la CENL et de ses partenaires internationaux au sein du AI4LAM :

CENL (Conference of European National Librarians)

La thématique de travail de la prochaine assemblée générale de la CENL sera « The Transformative Power of Artificial Intelligence for and through National Libraries ». Dans ce contexte, en collaboration avec la British Library qui publiera une charte éthique au cours de l’année 2025, la BnF souhaite porter une initiative de charte éthique partagée au niveau européen à travers les instances de la CENL. La charte éthique pourrait être par la suite transposée à chaque bibliothèque membre de la CENL.

AI4LAM

Les enjeux éthiques de l’usage de l’IA dans le secteur du patrimoine sont également abordés par l’initiative internationale ai4lam.org, (l’IA pour les bibliothèques, archives et musées), à travers ses actions (webinaires, conférences).

Conclusion

L’intégration de l’IA dans les bibliothèques est une formidable opportunité pour améliorer l’accès à la connaissance et préserver le patrimoine, mais elle ne peut se faire sans une réflexion approfondie sur les enjeux éthiques. En adoptant une approche structurée projet par projet, en s’appuyant sur des cadres internationaux et en inscrivant leurs actions dans une démarche de RSO, les bibliothèques peuvent concilier innovation technologique et intérêt général.