La boussole de l'IA
La boussole de l'intelligence artificielle a été imaginée par un collectif de professionnels de la communication publique. Elle vise à accompagner les communicants publics en soulignant plusieurs points de vigilance dans l’utilisation des outils d’intelligence artificielle générative. Ses préconisations pourront notamment servir aux directions de la communication pour poser leurs propres cadres de production de contenus éditoriaux, graphiques ou audiovisuels.
L’ensemble des propositions soumises dans cette boussole vise à poser un cadre de réflexion pour les communicants publics. Il ne s’agit pas d’une charte à suivre à la lettre.
En effet, nous admettons à ce jour :
- qu’il est impossible de disposer une vision globale sur l’ensemble des solutions à disposition
- que les référentiels sur la souveraineté ou la sobriété des IA sont encore incomplets ou insuffisamment reconnus
- que certains points peuvent faire l’objet d’approches différentes au vu des sensibilités multiples des communicants publics
- que certains débats vont encore se poursuivre dans les prochains mois.
1. Donner la priorité à l'humain, son expérience, sa capacité de jugement, et sa subjectivité
Ne pas substituer l’intelligence artificielle aux communicants publics pour faire à leur place. L’intelligence artificielle est et doit rester un outil au service de l’humain, pas à son détriment. La décision humaine reste prépondérante et centrale. L’abus d’IA peut par ailleurs être facteur de perte de compétence. Les communicants l'utiliseront en pleine conscience en veillant à ne pas sacrifier leurs capacités cognitives. Les outils d’intelligence artificielle seront utilisés de manière mesurée pour optimiser le travail du communicant : gagner du temps sur certaines tâches, stimuler le processus créatif, etc. L’usage de documents authentiques doit être privilégié pour traiter de sujets ou événements réels.
2. Assurer un contrôle des contenus
Les communicants publics doivent toujours pouvoir contrôler les contenus produits avec l’aide de l’IA générative, avant leur diffusion auprès des publics, dans un souci de maîtrise et de qualité de l’information publiée. L’IA devra être utilisée sur des sujets maîtrisés par le communicant qui devra être en capacité d’analyser la pertinence et la fiabilité du résultat. Ils doivent pouvoir à tout moment intervenir sur un outil d’IA directement intégré dans certains logiciels (Canva, Adobe…) pour le désactiver. Une vigilance particulière est de mise lorsque l’intelligence artificielle est utilisée en matière de communication de crise, en situation d’urgence ou sur des sujets particulièrement sensibles : sécurité, santé, décès, tensions sociales, événements climatiques, etc.
Des inexactitudes, des formulations maladroites, des simplifications excessives ou des biais risquent d’amplifier la crise. Il convient donc d’encadrer fortement l’utilisation de l’IA dans ce type de situations.
3. Se former pour choisir les bons outils et diffuser une culture de l’IA adaptée au service public
Au préalable, il est nécessaire de s’assurer que l’organisation se dote d’un cadre d’usage qui porte sur les enjeux, les risques, l’usage au quotidien et la formation des agents. L’intelligence artificielle générative peut être très efficace, à condition de pouvoir et de savoir s’en servir. Le droit à une expérimentation encadrée doit être admis et encouragé. Il est recommandé d’effectuer une veille continue sur l'évolution des outils, leurs limites, les pratiques acceptées par le métier et l’évolution du cadre réglementaire. Cette mission pourrait être confiée à un référent IA désigné dans la direction de la communication. Idéalement ce référent IA devrait participer à un groupe de réflexion transversal dans l’organisation : DSI, RH, DPD, juridique, autres directions utilisatrices d’IA générative Une offre de formation de référence pourra être proposée, en lien avec la DSI, et dans l'idéal avec l'ensemble des services concernés de la collectivité, et permettre ainsi aux communicants publics d’être en capacité de choisir les bons outils, adaptés à leurs besoins et les plus éthiques possibles.
4. Poser un cadre éthique la fois dans le choix des outils et dans leur utilisation
Les communicants sont invités à privilégier des usages éthiques des outils IA, les plus respectueux possibles de la sécurité, de l’environnement et des valeurs du service public. Les communicants publics porteront une attention particulière aux biais des algorithmes, de manière à les éviter ou les rectifier pour délivrer une information de la meilleure objectivité possible. Ils veilleront à ce que les contenus générés ne renforcent pas de biais culturels ou sociaux, et tiennent compte de la diversité des publics de la collectivité. La question de la sobriété énergétique fera également l’objet d’une vigilance particulière. Il est nécessaire d’utiliser les outils IA de manière raisonnable dès lors que l’utilité a pu être avérée et l’utilisation concrète bien spécifiée. Dans l’attente d’un référentiel reconnu sur l’impact environnemental des IA, les communicants pourront utilement se tenir informés des évolutions en la matière.
5. Respecter la propriété intellectuelle et les créateurs
Dans la mesure du possible, les droits de la propriété intellectuelle doivent être fortement affirmés dans l’usage des outils d’intelligence artificielle. Les œuvres protégées par le droit d’auteur ne pourront faire l’objet d’une reprise ou d’une modification par un outil d’IA sans le consentement de son auteur ou de ses ayants droit. Le contenu généré par IA ne doit pas faire référence à une œuvre, à un style protégé ou à une marque sans vérifier les licences d’utilisation des contenus générés.
6. Respecter la confidentialité et la protection des données sensibles
Soumises au RGPD et garantes de la protection des données, les structures publiques pour lesquelles nous travaillons se doivent d’assurer le respect de la confidentialité et la protection des données, notamment sensibles : ne pas fournir à l'IA des données sensibles ou non conformes au RGPD, s'assurer qu'elles ne viennent pas entraîner l'IA sans en connaître le cadre d'usages, bien avoir accès aux CGU, savoir les décoder et les comprendre. Elles pourront se référer plus particulièrement à l’AI Act de l’Union européenne. Ces impératifs ont un impact sur le choix et l’usage des outils d’IA, qui ne doivent en aucun cas mettre ces principes en péril.
7. Être transparent dans l’utilisation de l’intelligence artificielle
Dans un souci de transparence vis-à-vis de nos publics, les communicants publics sont invités à préciser lorsque le recours à l’intelligence artificielle a un impact significatif sur le contenu produit, en indiquant l’usage opéré et la partie du document ou visuel concernée. Les indications d’utilisation d’une IA seront adaptées au contexte en distinguant notamment les cas où le contenu est produit par une IA, enrichi ou uniquement corrigé. Les choix des directions de la communication dans ce domaine devront également être mis en œuvre par les prestataires et figurer dans les marchés publics.