Durée : 45 minutes
Résultats de l’apprentissage : les apprenants seront capables de …
- Identifier les variables/caractéristiques du comportement de cyberintimidation.
- Examiner les avantages et les limites des outils utilisés pour détecter la cyberintimidation.
Vocabulaire clé : cyberintimidation, discours de haine, variables, modèles, algorithmes, intelligence artificielle (IA), surveillance, détection, vie privée, modération
Ressources : Diapositives Google, copies de la feuille de travail “Détecteur de cyberintimidation” (diapositive 6)
Questions clés :
- Comment repérer une cyberintimidation ou un comportement de cyberintimidation sur les médias sociaux ?
- Quelles sont les caractéristiques du comportement de cyberintimidation ?
- La cyberintimidation peut-elle être détectée avec précision dans…
- …des espaces publics en ligne ? Pourquoi/pourquoi pas ?
- …des espaces privés en ligne ? Pourquoi/pourquoi pas ?
- Quels outils/méthodes pourraient être utilisés pour détecter la cyberintimidation ?
- Devrions-nous utiliser des outils automatisés pour détecter la cyberintimidation ? Pourquoi/pourquoi pas ?
- Quelles actions les outils/réseaux doivent-ils entreprendre une fois la cyberintimidation détectée ?
VEUILLEZ LIRE CES DOCUMENTS AVANT DE COMMENCER L'ACTIVITÉ
Activité de démarrage (10 minutes)
Comment repérer une cyberintimidation
Expliquez aux jeunes que cette session porte sur la manière dont les outils en ligne sur les médias sociaux peuvent être utilisés pour détecter des modèles de comportement de cyberintimidation ou des utilisateurs susceptibles de cyberintimider d’autres personnes.
Regroupez les jeunes en petits groupes de 3-4 personnes. Demandez à chaque groupe d’écrire sur une feuille de papier les différentes façons dont ils pourraient reconnaître si quelqu’un fait preuve d’un comportement de cyberintimidation sur une plateforme de médias sociaux.
Demandez-leur de classer leurs suggestions sous les rubriques suivantes :
- Textuel (mots/phrases/langage utilisés pour intimider)
- Visuel (utilisation d’images, de vidéos et d’autres moyens de communication visuelle, par exemple les emoji)
- Oral (audio dans les enregistrements vidéo et sonores)
- Comportemental (actions visibles sur les médias sociaux, par exemple “bloquer”, “ne pas aimer”)
Après cinq minutes, demandez aux groupes de partager certaines de leurs idées et de discuter où et comment ils ont vu/expérimenté ces exemples, par exemple quelles plateformes de médias sociaux, qui affichait ces comportements, etc.
Demandez aux jeunes quelle catégorie contient le plus d’exemples – il se peut que les exemples “textuels” ou “visuels” soient les plus courants.
Demandez aux jeunes s’il existe des types de comportement de cyberintimidation qui ne sont pas facilement identifiables en ligne (par exemple, les messages privés/directs, le signalement vexatoire d’autres utilisateurs, l’utilisation d’outils pour bloquer/mettre quelqu’un en sourdine, d’autres formes d’exclusion d’une discussion ou d’un groupe).
Activité (25 minutes)
Demandez aux jeunes s’ils connaissent les méthodes utilisées par les plateformes de médias sociaux pour repérer les comportements inacceptables (cyberintimidation, discours de haine, harcèlement, etc.). Ils peuvent mentionner des méthodes telles que l’utilisation de modérateurs, d’outils/algorithmes automatisés, l’identification de mots-clés ou l’apprentissage automatique (ou l’intelligence artificielle).
Expliquez-leur qu’ils vont concevoir leur propre “détecteur de cyberintimidation”, un outil automatisé qui sera utilisé sur une plate-forme de médias sociaux pour identifier automatiquement les comportements qui pourraient être des cyberintimidations.
En utilisant le modèle de la diapositive 6, demandez aux jeunes de travailler en binôme pour compléter leur plan.
Ils doivent prendre en compte les domaines suivants :
- Sur quelle plateforme de médias sociaux l’outil sera utilisé.
- Les types de comportement d’intimidation qu’il détectera (par exemple, textuel/visuel/auditif/comportemental).
- Comment l’outil saura-t-il/apprendra-t-il ce qu’il faut rechercher ?
- Comment la précision du travail de l’outil sera-t-elle vérifiée ?
- L’outil examinera-t-il le contenu public, le contenu privé, ou les deux ?
(Rappelez aux jeunes les lois sur la protection des données – les entreprises ne peuvent accéder aux communications privées sur leur plateforme que si les utilisateurs ont explicitement et sciemment donné leur consentement).
Après avoir développé leurs idées, demandez à quelques paires de partager leur “détecteur de cyberintimidation” et de l’expliquer en détail.
Demandez à toutes les paires de considérer jusqu’à trois points forts et trois points faibles de leur outil, et de les noter sur leur feuille de travail.
Plénière (10 minutes)
- Émettre un avertissement à l’utilisateur fautif
- Alerter un modérateur humain pour qu’il examine le contenu
- supprimer ou empêcher le contenu d’être vu par d’autres utilisateurs
- Envoyez un message à la cible pour lui proposer de l’aide ou du soutien.