
Face à l’adoption rapide de l’intelligence artificielle générative dans les milieux de travail, l’Ordre des conseillers en ressources humaines agréés publie un avis formel destiné aux CRHA et CRIA. L’objectif est clair : rappeler que l’intégration de l’IA dans la pratique professionnelle doit se faire avec rigueur, discernement et dans le respect des obligations déontologiques. L’Ordre insiste sur un principe central : l’outil ne réduit en rien la responsabilité professionnelle.
Selon l’Ordre, les CRHA et CRIA demeurent pleinement imputables des contenus produits avec l’aide de l’IA et des décisions prises à partir de ces résultats. Les communications générées par un outil automatisé doivent être validées, comprises et assumées. Le recours à une technologie dont les mécanismes demeurent largement opaques ne peut servir d’excuse en cas d’erreur, de préjudice ou de mauvaise recommandation.
La compétence professionnelle est également mise de l’avant. Utiliser l’IA suppose une compréhension minimale de son fonctionnement, de ses limites et des risques associés, notamment les erreurs factuelles et les biais. L’Ordre rappelle que l’expertise en ressources humaines demeure indispensable pour évaluer la qualité des résultats générés. Un outil peut assister un professionnel expérimenté, mais il peut induire en erreur une personne qui ne maîtrise pas le domaine traité.
La vérification des sources constitue un autre point de vigilance majeur. L’IA peut produire des contenus plausibles mais erronés, incluant de fausses statistiques, des références juridiques inexistantes ou des jurisprudences inventées. Diffuser ou utiliser ce type d’information peut avoir des conséquences sérieuses pour les personnes concernées et miner la confiance envers la profession.
L’Ordre souligne aussi les risques de discrimination. Les biais présents dans les données d’entraînement peuvent se refléter dans le langage, les exemples ou les analyses proposées par l’IA. Sans intervention humaine, ces biais peuvent influencer les processus de sélection, d’évaluation ou de gestion du personnel, en contradiction avec les principes d’équité et les obligations légales.
La question de la confidentialité est enfin jugée centrale. Saisir des renseignements personnels ou stratégiques dans un outil d’IA comporte des risques de perte de contrôle des données. L’Ordre recommande d’éviter toute information sensible, à moins d’utiliser des solutions sécurisées en circuit fermé, et encourage l’anonymisation des données lorsque cela est possible.
Bref, l’Ordre reconnaît le potentiel de l’IA pour soutenir la pratique RH et libérer du temps pour les dimensions stratégiques et relationnelles du rôle. Mais il rappelle que le jugement professionnel ne peut être délégué. L’IA peut assister, jamais remplacer. Dans un contexte de transformation rapide, le discernement demeure, selon l’Ordre, une responsabilité et une exclusivité humaine.
Source : Carrefour RH
******
Du lundi au vendredi, Bruno Guglielminetti vous propose un regard sur l’essentiel de l’actualité numérique avec 120 secondes de Tech.
Ou encore…
Écoutez la plus récente édition de Mon Carnet,
le magazine hebdomadaire de l’actualité numérique.
En savoir plus sur Mon Carnet
Subscribe to get the latest posts sent to your email.

