Avec des informations de Elyette Levy.

Une initiative importante, à la fois pour la pédagogie mais aussi pour la cybersécurité.

Il est désormais très difficile de passer à côté de l’intelligence artificielle (IA). Alors que cette technologie a su se faire une place importante dans nos vies, ce n’était qu’une question de temps avant que les divisions scolaires du Manitoba ne se saisissent de la question afin d’en encadrer l’utilisation. 

Pour ce faire, la Division scolaire franco-manitobaine (DSFM) a créé un comité composé de plusieurs profils par souci de représentativité. Des personnes du bureau divisionnaire, issues de la direction des services, des directeurs d’écoles, mais aussi Alain Laberge, directeur général de la DSFM qui indique « l’on souhaite toucher petites et grandes écoles, celles en ville, mais aussi celles au rural ». 

Alors que la première rencontre du comité s’est déroulée au mois de décembre, l’objectif sera donc de dégager une directive administrative « parapluie ». 

Dimension pédagogique

« On s’est aperçu que l’intelligence artificielle jouait un rôle à plusieurs niveaux, explique Alain Laberge. 

« Bien entendu notre priorité ce sont les élèves, l’éducation, mais il y a plusieurs champs qui gravitent autour de ça. Il y a toute une dimension pédagogique autour de l’IA. Comment est-ce que l’on peut, en tant qu’enseignant, en bénéficier et empêcher les élèves de l’utiliser pour tricher. »

Alors qu’Alain Laberge rappelle que « tricher n’est pas nouveau », il précise que le but ici est de faire en sorte que les élèves utilisent l’IA à bon escient. 

« On ne souhaite pas aller vers une politique punitive, mais il y a une façon de l’utiliser de manière positive, je crois. » 

Le directeur général prend alors l’exemple des enfants qui sont en difficulté. « On pense qu’il nous faut mieux outiller les élèves qui ont des besoins spéciaux et l’on pense que l’IA peut nous y aider. »

Optimisation de certaines tâches

Aider les élèves, mais aussi les adultes. De fait, les applications possibles de l’IA sont nombreuses et il est difficile de ne pas reconnaître son potentiel. Côté DSFM on envisage pourquoi pas de s’en servir en ressources humaines ou bien encore pour optimiser certaines tâches. Toutefois, Alain Laberge tient à préciser que l’utilisation de l’IA n’a pas pour vocation de réduire les effectifs. 

« Ça fait justement partie des points que l’on souhaite démystifier. L’IA est là pour nous aider à appuyer nos employés, pas à supprimer des postes. » 

Finalement, si l’on parle d’une directive parapluie, c’est parce que l’ambition est d’aborder plusieurs aspects sous cette dernière. Il s’agit notamment de s’interroger sur la protection des données. « Présentement, nous avons des milliers de données à la DSFM. Est-ce que nous sommes à risque? Comment les utiliser? Tout cela sera abordé par le comité. On veut s’assurer que l’on est conscient de l’impact que ces données peuvent avoir au niveau de la sécurité de l’enfant. » 

Au Manitoba, la Division scolaire Louis-Riel elle aussi a mis en place un groupe de travail aux objectifs similaires et la division scolaire Rivière Seine entend bien faire de même. 

Quoique l’IA n’a plus grand-chose de récent, Fyscillia Ream, cofondatrice de la Clinique de cyber-criminologie et coordonnatrice scientifique pour la Chaire de recherche en prévention de la cyber-criminalité, note tout de même que les directives administratives sont encore assez rares, notamment au sein des entreprises. « Souvent, l’utilisation de l’IA et de ChatGPT (1) est simplement interdite, en particulier dans les grandes compagnies. D’autres vont simplement chercher à développer leur propre ChatGPT. » 

Important pour les élèves et les salariés

La spécialiste salue donc l’initiative. Encadrer l’utilisation de système d’IA tel que ChatGPT afin notamment de préserver la créativité des élèves est important, mais elle l’est aussi pour les salariés.

« L’utilisation la plus courante que l’on observe de ChatGPT, c’est pour répondre à des courriels. Les gens copient-collent un courriel qu’ils reçoivent dans ChatGPT et celui-ci rédige une réponse. Le problème, c’est que dans ces courriels-là, l’on peut trouver des informations sensibles ou personnelles. Dans les politiques d’utilisation de cette IA, toutes les données sont utilisées pour améliorer les réponses. Lorsque l’on donne des infos personnelles à ChatGPT, elles sont stockées et peuvent potentiellement être retrouvées. » 

Se pose alors la question du consentement. 

« En tant que détenteur de ces informations, l’on n’est pas censé les partager à une tierce personne sans le consentement des personnes concernées. Les mettre sur ChatGPT, c’est comme si on les transmettait. »

Le risque des fuites de données

Au-delà de l’intelligence artificielle, la question des données reste importante. Dans le sillage de la cyberattaque à l’encontre de la division scolaire Pembina Trails, Bertrand Milot, PDG et fondateur de la firme de cybersécurité Bradley & Rollins indiquait que les écoles devenaient des cibles de plus en plus privilégiées par les cybercriminels. 

« Le secteur de l’éducation reste une cible de choix pour les cyberattaques, avec un nombre croissant d’incidents affectant écoles, universités et institutions éducatives. En octobre et novembre 2024, plusieurs institutions éducatives ont signalé des incidents majeurs impliquant des attaques par ransomware, des fuites de données et des perturbations opérationnelles. » 

La question de la sécurité et des technologies est donc toujours autant d’actualité. 

(1) ChatGPT est un agent conversationnel conçu spécifiquement pour fournir des réponses et engager dans des conversations avec les utilisateurs. Lorsque vous donnez une instruction ou une phrase d’amorçage (appelée “prompt”) à ChatGPT, le modèle analyse le place dans un contexte et génère une réponse en utilisant les connaissances acquises pendant son entraînement. Il essaie de produire une suite de mots qui semble appropriée dans le contexte donné. À savoir que les connaissances de ChatGPT s’enrichissent à mesure qu’il est utilisé.