Compétences abordées#
Ce guide a été conçu en alignement avec le référentiel de compétences en IA de l’UNESCO (2024) et le référentiel européen DigComp 2.2 (2022), en couvrant en tout une trentaine de compétences.
Références:
DigComp 2.2 - Référentiel de compétences numériques de la commission européenne (2022) - Voir pages 78 à 82
https://www.comprendredigcomp.com/index.html
DigComp 2.2 - Objectifs d’apprentissage#
Catégorie |
Description de la compétence |
Chapitre |
|---|---|---|
IA Générative |
AI05 : Conscient que les systèmes d’IA peuvent être utilisés pour créer automatiquement du contenu numérique (par ex. textes, actualités, essais, tweets, musique, images) et que ce contenu peut être difficile à distinguer des créations humaines |
1, 2, 3 |
AI07 : Conscient que les systèmes d’IA peuvent aider l’utilisateur à éditer et traiter du contenu numérique (par ex. certains logiciels de retouche photo utilisent l’IA pour vieillir automatiquement un visage, tandis que certaines applications de texte utilisent l’IA pour suggérer des mots, phrases et paragraphes) |
1, 2, 3 |
|
AI08 : Conscient que certains systèmes d’IA visent à fournir une interaction semblable à celle des humains avec les machines (par ex. agents conversationnels tels que les chatbots de service client) |
1, 2 |
|
AI23 : Conscient que l’IA est un domaine en constante évolution, dont le développement et l’impact restent encore très incertains |
2, 5 |
|
AI29 : Sait formuler des requêtes de recherche pour obtenir le résultat souhaité lorsqu’il interagit avec des agents conversationnels (par ex. ChatGPT, Dall-E, …) |
3, 4 |
|
AI50 : Conscient que les algorithmes d’IA fonctionnent de manière généralement non visible ou difficilement compréhensible par les utilisateurs. Cela est souvent appelé « prise de décision en boîte noire », car il peut être impossible de retracer comment et pourquoi un algorithme fait certaines suggestions ou prédictions |
2 |
|
Désinformation |
AI05 : Conscient que les systèmes d’IA peuvent être utilisés pour créer automatiquement du contenu numérique (par ex. textes, actualités, essais, tweets, musique, images) en utilisant du contenu numérique existant comme source. Ce contenu peut être difficile à distinguer des créations humaines. |
1,5 |
AI38 : Sait comment intégrer du contenu numérique édité/manipulé par l’IA dans son propre travail (par ex. incorporer des mélodies générées par l’IA dans sa propre composition musicale). Cette utilisation de l’IA peut être controversée, car elle soulève des questions sur le rôle de l’IA dans les œuvres artistiques, et notamment sur qui doit être crédité. |
1, 2, 5, 6 |
|
AI51 : Sait que le terme « deepfakes » désigne des images, vidéos ou enregistrements audio générés par l’IA d’événements ou de personnes qui n’ont pas réellement eu lieu (par ex. des discours de politiciens, des visages de célébrités sur des images pornographiques). Ils peuvent être impossibles à distinguer de la réalité. |
5 |
|
Biais |
AI49 : Conscient que les données sur lesquelles repose l’IA peuvent contenir des biais. Si tel est le cas, ces biais peuvent être automatisés et amplifiés par l’utilisation de l’IA. Par exemple, les résultats de recherche sur les professions peuvent inclure des stéréotypes liés aux genres (par ex. chauffeurs de bus masculins, vendeuses) |
2, 5 |
AI56 : Conscient que les systèmes d’IA sont généralement développés par des personnes issues de milieux démographiques restreints (par ex. hommes blancs de classes socio-économiques élevées dans des pays à haut revenu), ce qui peut signifier que les systèmes développés sont moins sensibles aux besoins des femmes, des personnes issues de minorités ethniques, des groupes socio-économiques inférieurs, des personnes nécessitant une accessibilité numérique (par ex. en situation de handicap, limitations fonctionnelles) ou des citoyens des pays à faible revenu. |
2, 5 |
|
Protection des données |
AI14 : Pèse les avantages et les inconvénients de l’utilisation des moteurs de recherche basés sur l’IA (par ex. bien qu’ils puissent aider les utilisateurs à trouver les informations souhaitées, ils peuvent compromettre la confidentialité et les données personnelles ou soumettre l’utilisateur à des intérêts commerciaux). |
5 |
AI39 : Sait que le traitement des données personnelles est soumis à des réglementations locales telles que le Règlement général sur la protection des données (RGPD) de l’UE (par ex. les interactions vocales avec un assistant virtuel sont considérées comme des données personnelles selon le RGPD et peuvent exposer les utilisateurs à certains risques en matière de protection des données, de confidentialité et de sécurité). |
5 |
|
AI44 : Identifie les implications positives et négatives de l’utilisation des données (collecte, encodage et traitement), en particulier des données personnelles, par les technologies numériques basées sur l’IA, telles que les applications et les services en ligne. |
5 |
|
AI45 : Conscient que tout ce qui est partagé publiquement en ligne (par ex. images, vidéos, sons) peut être utilisé pour entraîner des systèmes d’IA. Par exemple, les entreprises développant des logiciels de reconnaissance faciale par IA peuvent utiliser des images personnelles partagées en ligne (par ex. des photographies de famille) pour entraîner et améliorer la capacité du logiciel à reconnaître automatiquement ces personnes dans d’autres images, ce qui pourrait être indésirable (par ex. une atteinte à la vie privée). |
2, 5 |
|
Environnement |
203 : Conscient de l’impact environnemental des pratiques numériques quotidiennes (par ex. le streaming vidéo qui repose sur le transfert de données), et que cet impact est composé de la consommation d’énergie et des émissions de carbone provenant des appareils, des infrastructures réseau et des centres de données. |
5 |
AI11 : Conscient que les outils numériques (y compris ceux basés sur l’IA) peuvent contribuer à l’efficacité énergétique (par ex. en surveillant les besoins en chauffage d’une maison et en optimisant leur gestion) |
5 |
|
AI57 : Prend en compte les conséquences éthiques des systèmes d’IA tout au long de leur cycle de vie : elles incluent à la fois l’impact environnemental (conséquences environnementales de la production des appareils et services numériques) et l’impact sociétal (par ex. la plateformisation du travail et la gestion algorithmique qui peuvent porter atteinte à la vie privée ou aux droits des travailleurs ; l’utilisation de main-d’œuvre à bas coût pour l’étiquetage d’images afin d’entraîner les systèmes d’IA). |
5 |
|
AI59 : Conscient que certaines activités (par ex. l’entraînement de l’IA et la production de cryptomonnaies comme le Bitcoin) sont des processus intensifs en ressources en termes de données et de puissance de calcul. Par conséquent, la consommation d’énergie peut être élevée, ce qui peut également avoir un impact environnemental important. |
5 |
Cadre de compétences en IA pour les étudiants#
UNESCO – AI Competency Framework for Students (2024)
Catégorie |
Description de la compétence |
Chapitre |
|---|---|---|
Esprit centré sur l’humain |
CG4.1.1.1 : Encourager la compréhension que l’IA est dirigée par l’humain : En se basant sur des outils d’IA sélectionnés, expliquer aux étudiants que l’IA est dirigée par l’humain ; faciliter le développement d’une compréhension progressive et intégrale de l’agence humaine, qui peut couvrir des principes tels que la propriété et la confidentialité des données, la protection des droits humains dans la collecte et le traitement des données, l’explicabilité des méthodes d’IA, le contrôle humain dans le déploiement et la détermination humaine dans l’utilisation de l’IA pour la prise de décision. Guider les étudiants à comprendre que l’IA ne peut pas remplacer la pensée humaine ou le développement intellectuel. |
5, 6 |
CG4.2.1.3 : Favoriser l’attitude personnelle selon laquelle la responsabilité humaine nécessite des compétences personnelles pour orienter l’utilisation intentionnelle de l’IA : Guider les étudiants à interroger comment l’automatisation des revues de littérature, de l’écriture et de la création artistique peut compromettre les processus de pensée et le développement intellectuel humains. Les encourager à discuter des actions concrètes qu’ils peuvent entreprendre pour se protéger et protéger leurs pairs contre l’utilisation des productions ou prédictions de l’IA pour usurper la pensée humaine, les pratiques intellectuelles et l’amélioration continue des capacités. |
5, 6 |
|
Techniques et applications de l’IA |
CG4.1.3.2 : Développer des connaissances conceptuelles sur la manière dont l’IA est entraînée à partir des données et des algorithmes : Encourager l’abstraction conceptuelle des étudiants à partir d’exemples sur la façon dont les modèles d’apprentissage automatique sont entraînés avec des données et des algorithmes ; aider les étudiants à acquérir une compréhension adaptée à leur âge des trois types d’algorithmes d’IA, à savoir l’apprentissage supervisé, l’apprentissage non supervisé et l’apprentissage par renforcement. Cela devrait inclure la manière dont les données utilisées par ces trois types d’algorithmes sont acquises et étiquetées. Démystifier les affirmations selon lesquelles l’IA automatisera la programmation des algorithmes et que les humains n’ont pas besoin d’apprendre les algorithmes. |
2 |
Conception des systèmes d’IA |
CG4.1.4.1 : Développer des compétences de pensée critique sur les situations où l’IA ne devrait pas être utilisée : En s’appuyant sur des exemples, guider les étudiants à développer des compétences d’analyse critique pour examiner les raisons pour lesquelles l’IA devrait ou ne devrait pas être utilisée pour résoudre certains défis du monde réel (ex. : amélioration de la productivité institutionnelle, développement durable des communautés ou précision et efficacité de la prise de décision humaine), en tenant compte des implications humaines et environnementales. Clarifier dans quelles situations et sous quelles conditions l’IA ne peut et/ou ne doit pas être appliquée (ex. : lorsque des solutions non basées sur l’IA offrent des performances équivalentes avec un moindre risque éthique et un impact environnemental réduit, ou lorsque l’utilisation de l’IA affaiblirait la conscience humaine ou manipulerait les actions humaines). |
5 |
CG4.3.4.1 : Développer les compétences pour critiquer les systèmes d’IA : Fournir des opportunités d’apprentissage basées sur des projets pour permettre aux étudiants de s’exercer à tester de manière critique la robustesse technologique et à évaluer l’adéquation éthique d’un système d’IA. Cela inclut l’audit des modèles pour vérifier s’ils améliorent les capacités, l’autonomie et la conscience humaines ou s’ils les affaiblissent ; l’évaluation de leur niveau d’explicabilité et du respect de la confidentialité des données ; la mesure des performances des systèmes d’IA ; et l’analyse des retours des utilisateurs pour examiner leur impact sociétal et environnemental plus large. |
5 |
|
Éthique de l’IA |
CG4.2.2.2 : Offrir des opportunités de renforcer l’autodiscipline dans l’utilisation responsable de l’IA : Permettre aux étudiants d’acquérir une compréhension adaptée à leur âge de leurs responsabilités personnelles, légales et éthiques lorsqu’ils utilisent l’IA ; souligner les conséquences du non-respect des réglementations ; et renforcer des comportements autodisciplinés, en particulier concernant les données personnelles sensibles, les contenus protégés par le droit d’auteur, les images représentant des personnes identifiables, les contenus générés par l’IA ou synthétisés numériquement, ainsi que la diffusion de fausses informations, de désinformation et de discours haineux. |
5,6 |
CG4.2.2.3 : Approfondir les connaissances pratiques sur l’utilisation sécurisée de l’IA et la sensibilisation aux réglementations locales applicables : Aider les étudiants à catégoriser les risques généraux liés à l’IA, les risques spécifiques à certains outils d’IA et les incidents typiques impliquant l’IA. Guider les étudiants à approfondir leurs connaissances sur les droits humains en matière de protection et de confidentialité des données, ainsi que sur les responsabilités légales des créateurs d’IA concernant la collecte de données avec consentement. Les encourager à pratiquer des stratégies garantissant que leurs données personnelles ne sont collectées, utilisées, partagées, archivées et supprimées qu’avec leur consentement éclairé. |
5, 6 |