Adjectif : analyses et recherches sur les TICE

Revue d'interface entre recherches et pratiques en éducation et formation 

Barre oblique

Élaboration d’observables à partir de plusieurs ressources de données : Elèves autistes et TIC

jeudi 15 octobre 2015 Ramia Renault

Pour citer cet article :

Renault, Ramia. (2015). Élaboration d’observables à partir de plusieurs ressources de données : élèves autistes et TIC. Adjectif.net [En ligne]. Mis en ligne le jeudi 15 octobre 2015. URL : http://www.adjectif.net/spip/spip.php?article362.

Résumé :

L’une des questions principale dans notre recherche porte sur les outils permettant de collecter les informations en temps réel durant les phases d’étude chez chacun des agents. Ces informations recueillies et synchronisées ont été traitées afin de fournir des formes visuelles résumées de l’activité, notamment en calculant différents indicateurs. Ces analyses ont été confrontées au regard d’experts de l’autisme et des enseignants pour réaliser des interprétations.

L’objet de ce texte est de présenter comment ont été appréhendés, du point de vue méthodologique, la collecte et le traitement de données qualitatives dans un contexte où l’utilisation de la vidéo était exclue. Le recueil des données a combiné l’utilisation du logiciel Camtasia, celle d’un stylo numérique, celle d’un tableur et celle du logiciel de traitement de données qualitatives ELAN. Nous avons rassemblé les observables, en vue de construire une grille de codage applicable sur tous nos enregistrements. Ceci a eu pour objectif de décrire et d’analyser trois caractéristiques chez les élèves autistes : 1) l’attention conjointe, 2) le penseur en image, 3) le penseur en détail.

Mots clés :

Autisme, Stylo numérique, Grille d’observation, Interaction agent-logiciel.

1. Introduction

Notre travail est centré sur l’utilisation de technologies de l’information et de la communication (TIC), avec des élèves atteints d’autisme. Elle croise ainsi les champs qui relèvent des TIC et de l’autisme avec ceux de la didactique. La particularité de notre étude est de se focaliser sur l’observation et l’analyse de l’interaction in situ entre élèves autistes, l’enseignant et le logiciel éducatif. Notre but est de comprendre le rôle de l’enseignant, dont nous pensons qu’il est majeur, dans ce nouvel environnement.

A ce jour, nous constatons qu’il n’existe pas d’étude détaillant des actions de trois acteurs (enfant autiste-enseignant-logiciel éducatif) et permettant d’analyser l’interaction didactique dans le contexte habituel de l’élève autiste.

Concernant les outils de recueil de données, les études, entre autres : Moor & Clavert (2000), Heimann et al. (1995), Chen et al. (2009) utilisent principalement la vidéo pour collecter ces données. Cet outil permet d’obtenir diverses données fiables et manipulables autant que le souhaite le chercheur. Mais, dans le contexte scolaire des élèves autistes, les instituts concernés ont conditionné les observations possibles à une interdiction de filmer des élèves, faute d’accord des parents. Par contre, l’enregistrement du travail sur écran a été autorisé. Il nous restait alors à trouver un outil qui nous permette de noter, en temps réel, les interactions gestuelles, en vue de les synchroniser plus tard avec les enregistrements d’écran.

2. Contexte de l’étude

Notre recherche se base sur des observations directes pour déterminer les actions à suivre chez chacun de nos agents lors des séances d’apprentissage de la lecture et de l’écriture pour des élèves autistes.

Les troubles du spectre de l’autisme (TSA) se caractérisent par une déficience dans la communication sociale et des comportements répétitifs. Les TSA comportent quatre sous types : troubles autistiques, syndrome d’Asperger, trouble désintégratif de l’enfance et troubles envahissants du développement (TED) non spécifiés (DSM-V, 2013). La personne autiste est souvent décrite dans la littérature concernée en tant que penseur en image (Grandin, 2002) et penseur en détail (Ferrari, 1999 ; Frith, 1989). Un problème majeur dans la scolarisation de ces personnes est de capter et d’orienter leur attention vers l’objet d’apprentissage, faute d’attention conjointe (Gattegno et al., 1999).

Pour aborder notre recherche, nous avons commencé par faire le point sur la littérature concernée. Il es apparu que les méthodologies de recherche [1] font souvent référence aux méthodes expérimentales (Couchard et al., 1995) issues de recherches en psychologie.

Notre recherche s’est déroulée dans des situations d’apprentissage de la lecture et de l’écriture à l’aide d’un logiciel éducatif pour des élèves autistes dans leur contexte habituel. Nous n’avons pu filmer la classe, des questions centrales dans notre recherche sont donc les suivantes : avec quels outils observe-t-on ? Qu’observe-t-on chez des élèves dont la fonction communicative et interactive est déficitaire ?

3. Méthodologie

3.1. Conditions d’observation
Nos observations se sont déroulées durant la séance informatique dans des établissements de prise en charges des élèves autistes en île-de-France. L’âge des élèves va de 6 à 12 ans. Le nombre d’élèves pendant la séance informatique est soit d’un, de trois ou de douze selon l’organisation de chaque structure. Nous avons pu suivre quinze séances avec un total de onze élèves autistes et six enseignants. La durée moyenne des séances est de 45 minutes.

La séance informatique a lieu dans une salle spécialisée. Le profil des enfants autistes est variable : avec ou sans retard mental, verbal ou non verbal. Notre recherche étant portée sur des situations d’apprentissage, les enseignants n’ont, la plupart du temps, pas un diagnostic complet de leurs élèves. Nous avons choisi, dans chaque structure, une position qui nous a donné une large vue sur l’intégralité de la classe et les actions des acteurs présents : enseignants, élèves, incluant parfois l’Assistante de Vie Scolaire (AVS), sans gêner le déroulement de la séance.

Notre rôle se limitait à observer, nous n’intervenions donc, ni au cours du travail de l’élève, ni dans le choix de l’enseignant concernant le logiciel à utiliser. Ces conditions sont justifiées par l’exigence de notre recherche : observer l’interaction didactique des élèves autistes dans leur contexte habituel. Au préalable nous avions déterminé un protocole d’enregistrement des séances, dans les limites du contexte de l’étude, soit une séance par mois pour chaque élève participant, pendant un semestre scolaire. Une condition imposée par les instituts ayant participé à notre recherche était de ne pas filmer les enfants. Cette condition masque une partie importante de l’interaction entre nos agents, notamment la gestuelle.

3.2 Outils de recueil de données

Nous avons utilisé deux outils de recueil de donnée afin d’obtenir un maximum d’informations sur l’interaction entre l’élève autiste, l’enseignant et le logiciel, et de relever un certain nombre de gestes en temps réel : un logiciel de captation d’écran (Camtasia) et un stylo numérique avec une grille d’observation. Nous avons également utilisé un tableur afin de transcrire tous les éléments et les opérations présentes sur l’écran d’un exercice. Pour synchroniser les données provenant des outils de recueil de données et du tableur, nous avons choisi ELAN, un logiciel libre d’annotation. La figure ci-dessous représente tous les outils que nous avons employés afin d’obtenir un maximum d’information sur l’interaction entre un élève autiste, un enseignant et un logiciel éducatif. Nous avons importé l’enregistrement de l’écran tel qu’il est sur ELAN. Sur ce dernier, nous avons synchronisé manuellement les informations provenant de l’interaction gestuelle notée par le stylo numérique avec sa grille et celles provenant du tableur.

3.2.1. Capteur d’écran Camtasia

Camtasia est un logiciel publié par Tech Smith, qui permet d’enregistrer le contenu de l’écran d’un ordinateur. Camtasia capture la totalité de ce qui s’affiche sur l’écran, le mouvement de curseur, la saisie de texte, le son et l’image. Cette dernière option est possible à condition d’ajouter une caméra à l’ordinateur. De plus, il permet de passer d’une application à l’autre sans interrompre le processus d’enregistrement.

Au sein de notre étude, nous avons utilisé les ordinateurs de chaque établissement participant. Ce sont des ordinateurs fixes. Pour l’enregistrement audio, nous avons branché, à chaque séance, un microphone. De plus, à travers l’option audio, nous avons pu choisir le format AVI. Ce dernier nous intéresse en raison de sa compatibilité avec le logiciel d’annotation ELAN. Les enregistrements effectués à l’aide de Camtasia donnent accès aux informations relatives à l’interaction verbale entre l’enseignante et l’élève autiste ainsi que sur l’interaction élève-logiciel.

3.2.2. Stylo Numérique : un objet technique particulier

Le stylo numérique n’est utilisable que par l’observateur de la séance. Cette technologie est employée avec du papier tramé. La trame, ce sont « de points minuscules imprimés sur le papier. Par un algorithme spécifique, la trame permet au stylo la détection de sa position exacte sur le papier » (Barhoumi, 2013, p. 13).

Cette technologie permet de collecter des informations en temps réel. La grille d’observation permet de choisir la nature du champ d’écriture : des zones de texte ou des cases à cocher. Selon notre objectif de recherche, nous avons besoin d’un formulaire avec des cases à cocher. Nous avons donc choisi des colonnes qui représentent les gestes à observer. Chaque colonne comporte des cases. Ces dernières possèdent chacune l’abréviation propre à sa catégorie avec un numéro. Pour que le stylo numérique puisse reconnaître les zones d’écriture, il faut instrumenter un formulaire. L’instrumentation consiste à convertir un document PDF en formulaire FAS, ajouter une trame Anoto [2], choisir un identifiant de formulaire et enfin définir et configurer les champs. La trame Anoto est invisible sur un formulaire imprimé.

Le stylo numérique est composé de plusieurs éléments : une caméra, une mémoire, un processeur, une batterie, une cartouche d’encre et un capteur sensoriel. Le stylo peut ainsi lire et enregistrer les données saisies à la main, en temps réel, sur un formulaire. Ensuite, les données de stylo numérique sont transmises sur une plate-forme via une clé USB reliée à un ordinateur. Pour récupérer ces données depuis la plate-forme de gestion du stylo, Kayentis, un compte d’utilisateur dédié à chaque utilisateur est créé.

L’avantage de ce dispositif est la possibilité de récupérer les données sous tableur, de prendre des notes en temps réel et de les synchroniser avec des données provenant d’autres outils, tel que Camtasia. Cependant, il y a aussi des limites. Par exemple la prise de notes doit être effectuée à l’intérieur de chaque zone et d’une façon correcte. Dans le cas contraire, le stylo vibre et le formulaire nécessite une correction sur la plate-forme avant de pouvoir le récupérer avec le tableur. D’ailleurs, il faut définir les observables à l’avance. Ainsi, la prise de note est effectuée pour chaque cas. Nous avons ainsi suivi un seul élève par séance en raison du nombre de gestes considérable dans notre grille.

3.3. Étapes de construction de notre grille d’observation

Pour construire notre grille d’observations nous avons commencé par collecter les informations utiles à la sélection des observables. Nous avons conçu quatre versions successives de la grille.

3.3.1. Grille de transcription des logiciels éducatifs

Dans le but d’identifier tous les composants d’un exercice multimédia, nous avons transcrit dans un tableur les différents éléments constituant un exercice. Le nombre des exercices effectués par les élèves, suivis dans ce travail, s’élève à 95, provenant de deux sites mettant à disposition ces exercices (ClicLire et PEPIT).

3.3.2. Outil de transcription de données

Nous avons utilisé le logiciel libre d’annotation ELAN afin de réunir les données provenant des deux outils de recueil : stylo numérique / capteur d’écran et un tableur. Cette synchronisation nous apparaît indispensable pour aboutir à une analyse fine de l’interaction didactique entre les trois agents. ELAN permet de définir, soi-même, les items de la liste de codage avec la possibilité d’intégrer des descripteurs à tout moment et permet le partage de données et son traitement ultérieur (Pradel, 2011, p. 58). Depuis son interface, nous pouvons ajouter un nombre illimité d’acteurs aux sources audios et vidéos et, pour chacun, des annotations de toutes sortes (phrase, mot, commentaire, description de n’importe quelle caractéristique observée depuis la source).

Depuis l’interface d’ELAN, nous pouvons ajouter une source média, visible dans un encadré en haut à gauche de l’écran. Pour coder une action, il faut indiquer sur le marqueur de temps, un instant, puis cliquer sur la ligne d’un domaine (enfant, thérapeute, etc.). Ensuite, un clic gauche permet de dérouler une liste en vue de créer une nouvelle annotation.

Nous avons réuni les observables, choisis dans une grille de transcription afin de les appliquer sur tous nos enregistrements. Cette grille se compose de sept lignes, englobant plusieurs observables :

  1. la ligne générale marque le début et la fin d’un exercice,
  2. la ligne opération permet d’analyser ultérieurement l’interaction élève-logiciel en termes d’opération au sens de Leontiev [3]. Sur cette ligne nous avons donné une nomination fine de chaque opération effectué par l’élève autiste,
  3. la ligne élève comporte le contenu de la production verbale de l’élève, sur ce dernier nous différencions le langage verbal et vocal,
  4. la ligne autres est réservée pour décrire toute action de l’élève autiste non prévue dans nos codes, par exemple pleurer,
  5. la ligne enseignant contient le contenu de la production verbale de l’enseignant,
  6. la ligne gestes indique tous les gestes issus de notre grille d’observation à l’aide du stylo numérique et sa grille, elle permet d’analyser l’interaction gestuelle entre acteurs,
  7. la ligne logiciel marque toutes les réactions du logiciel, visibles sur l’écran.

4. Analyse de données

Dans cette section nous allons illustrer une partie de notre analyse quantitative que chaque outil de recueil de données a permis d’obtenir. Nous commençons par les gestes dominants ; ensuite, nous faisons le point sur la répartition des exercices sur l’échelle de complexité. Enfin, nous présentons une analyse quantitative en termes d’interaction positive/négative de l’ensemble de nos observables pour les exercices communs entre quatre élèves.

4.1. Données issues de stylo numérique et la grille d’observation

L’utilisation de ces technologie nous permet d’effectuer plusieurs traitements de données, entre autres : comptage et des séquences temporelles, calcul de gestes dominants, calculer la durée d’un geste, etc. Pour nous, c’est la reconnaissance des gestes dominants de l’élève autiste et de l’enseignant qui nous intéresse afin d’analyser à posteriori leurs significations. Nous présentons ici une comparaison globale des gestes dominants de onze élèves et de six enseignants à raison d’une séance par élève.

D’après cette comparaison, nous constatons que tous les élèves ont manifesté un certain nombre de comportements socio-communicatifs. Ces derniers peuvent être une manifestation d’attention conjointe de la part des élèves autistes. Quand aux gestes dominants, sur les neuf gestes marqués, nous remarquons une domination de certains gestes :

  • chez les élèves, les gestes les plus répétés sont : l’élève regarde l’enseignant (RM : 220 fois) et l’élève pointe l’écran (PE : 94 fois) ;
  • chez les enseignants, les gestes dominants sont : l’enseignant pointe l’écran (MPE : 178 fois) et l’enseignant tient la souris (MTS : 80 fois).

La présence de différents gestes, pendant une séance d’une durée moyenne de 45 minutes, signifie que les élèves, à priori, ne restent pas enfermés dans une interaction avec le logiciel : ils communiquent également avec les enseignants.

4.2. Échelle de complexité

Différents classements des interactions avec les logiciels ont été effectués : selon le nombre d’éléments présents dans un exercice, selon le mode iconique dominant et selon les objectifs éducatifs. Suite à ces classements nous avons identifié des indicateurs afin de construire une échelle de complexité. Elle comporte, principalement, deux indicateurs : la nature des éléments inclus dans la partie contenu de l’exercice, et le nombre d’éléments présents sur l’écran. La nature des éléments nous semble un facteur clé de la complexité, prenant en compte la spécificité des élèves autistes, penseurs en image.

Nous trouvons qu’un exercice qui ne comporte que des images est moins complexe qu’un exercice qui comporte des images et des verbalisations. Néanmoins le nombre d’éléments composant d’un exercice peut influencer d’une façon positive ou négative sa résolution. Cependant, il nous semble nécessaire de suivre un classement emboîté : le premier concerne la nature iconique du contenu d’exercice ; le deuxième concerne le nombre global d’éléments présents dans la partie contenu de l’exercice. De ce fait, nous avons cinq catégories selon la nature des éléments du contenu d’un exercice, en ordre croissant de complexité :

  1. image-image,
  2. image-texte,
  3. texte-texte,
  4. son-image,
  5. son-texte.

Nous constatons que les exercices dominants sont de nature image-texte (IT), ces exercices représentant 59 % de l’intégralité des exercices. La catégorie d’exercice texte-texte (TT) arrive en deuxième position avec 14%. Quant aux exercices présentés dans les catégories son-image et son-texte, ils partagent quasiment la même proportion soit 12% et 9 %. La catégorie image-image, elle n’occupe que 6% de l’ensemble des exercices travaillés.

A priori, la domination de la catégorie image-texte (I-T) est un indicateur de la préférence des élèves autistes pour ce type d’exercice. Ceci peut être expliqué par la caractéristique de l’autisme, en tant que penseur en image. Par ailleurs, les enseignants déclarent que le paramètre principal du choix de tel ou tel logiciel renvoie à l’élève : « si l’élève rentre dedans ou pas ». Par ailleurs, cette échelle nous sert à décrire à posteriori la fréquence de l’interaction positive/négative de l’élève autiste avec le logiciel éducatif selon la complexité de chaque exercice.

4.3. Analyse quantitative des observables

Notre démarche nous a permis d’établir des indicateurs en rapport avec l’interaction agent-logiciel. Plus précisément, nous considérons que le logiciel possède, en soi, son système d’attente. Ce système est représenté en termes d’opérations à effectuer de la part de l’utilisateur. Selon cette logique, l’interaction agent-logiciel prend deux formes : positive ou négative. Nous considérons que l’agent effectue une interaction positive lorsqu’il réalise une (des) opération(s) attendue(s) par le logiciel (binaire ou unaire) sur la partie contenu.

Dans le cas contraire, l’acteur effectue une (des) opération(s) non attendues par le logiciel, telles que : opération essai binaire/unaire, opération hors zone, opération arrêt. L’interaction prend alors un sens négatif : interaction négative.

Dans la figure ci-dessous, nous avons illustré l’ensemble de nos observables selon les exercices communs, travaillés par quatre élèves autistes sur le même logiciel (PEPIT). Les exercices dans cette figure sont présentés en allant du moins complexe vers le plus complexe. D’ailleurs, l’ensemble des opérations négatives effectuées par chaque élève sont additionnées et représentées, dans cette figure, sous l’abréviation IN : interaction négative.

Depuis la figure ci-dessus nous constatons que :

  • l’interaction négative est plus élevée pour un des exercices les plus complexes, celui nommé jours de la semaine (-133 opérations pour Corentin) et l’exercice vocabulaire spatial (-42 opération pour Alex) ainsi que pour l’exercice alphabet S-I (-41 opérations pour Corentin) ;
  • les interventions verbales des enseignantes n’augmentent pas en relation avec les interactions négatives de l’élève lors d’un exercice. En effet, l’intervention la plus élevée d’un enseignant se trouve avec Corentin sur les exercices de vocabulaire spatial (109 fois) [4] et avec Maxime dans l’exercice d’Alphabet : 65 interactions verbales [5] ;
  • le mode d’interaction dominant chez l’ensemble des enseignants est l’intervention verbale (322 fois contre 100 gestes) ;
  • le mode d’interaction dominant chez les quatre élèves est l’interaction verbale (157 fois contre 63 gestes) ;
  • les élèves ont produit plus de mots que de sons [6].

En comparaison entre les deux catégories, Image-texte et Son-Image, l’interaction négative est plus présente dans la catégorie la moins complexe. Ce constat peut être illustré par le nombre d’éléments considérables (165), dans l’exercice jours de la semaine alors que l’exercice alphabet S-I ne comporte que 10 éléments.

5. Conclusion

Nous avons expliqué dans cet article notre démarche en vue d’élaborer une grille des transcriptions issue de plusieurs sources. En effet, grâce à cette grille, nous avons pu attribuer les mêmes codes pour tous nos enregistrements et faciliter, par la suite, le traitement de nos données. Plus précisément, nous avons pu décrire finement l’interaction entre nos agents : élève-logiciel, élève-enseignant et élève-enseignant-ordinateur.

L’utilisation de plusieurs outils de recueil de données nous a permis combler un manque relatif à nos données, celle de l’interaction gestuelle. Nous trouvons que le stylo numérique peut remplacer les logiciels d’annotation. Ceci permettrait au chercheur de gagner du temps pour transcrire et traiter ses données. Particulièrement, lorsque le traitement est purement quantitatif. Dans notre cas, le stylo numérique peut suppléer le tableur dans la mesure où il marque tous les éléments composants un exercice éducatif.

Ainsi, il peut économiser le temps de recueil et traitement de données à condition d’être très précis en ce qui concerne les données que le chercheur vise à recueillir. Ceci n’est pas toujours le cas, comme dans notre recherche où nous étions amenés à découvrir l’environnement d’apprentissage assisté par un logiciel éducatif pour les élèves autistes. Toutefois, nous sommes conscients que cette technologie a ses limites : la visualisation de données n’est pas possible comme dans le cas de certains logiciels de transcription. Quant à la synchronisation manuelle, nous trouvons qu’elle est chronophage. À long terme, un logiciel qui permet d’obtenir une synchronisation automatique entre le stylo numérique et d’autres logiciels de recueil de données, comme le logiciel de captation d’écran, pourrait économiser davantage de temps pour le chercheur.

6. Références bibliographiques

  • American Psychiatric Association. (2013). Diagnostic and Statistical Manual of Mental Disorders (DSM-5®). American Psychiatric Pub.
  • Barhoumi, Z. (2013). Etude de l’usage du stylo numérique en recherche en sciences de l’éducation : traitement et représentation des données temps issues de la trace d’écriture avec un stylo numérique. Ecole normale supérieure de Cachan-ENS Cachan. 186 pages.
  • Bosseler, A., & Massaro, D. W. (2003). Development and evaluation of a computer-animated tutor for vocabulary and language learning in children with autism. Journal of autism and developmental disorders, 33(6), 653-672.
  • Chen. M. C., Wu, T.F., Lin, Y.L., Tasi, Y.H., & Chen, H.C. (2009). The effect of different representations on reading digital text for students with cognitive disabilities. British Journal of Educational Technology, 40(4):764–770.
  • Couchard, F., Matalon, B., Huguet, M., Lambotte, M. C. (1995). La psychologie et ses méthodes. Le Livre de Poche.
  • Etche Ogeli, R, Pradel, G & Malen, J. P. (2011). Contribution to the study of assisted interactions between an autistic child and a therapist by the way of a mobile robot in a play situation. AAATE 2011, 29:497–507.
  • Etche Ogeli, R. (2015). Utilisation des TIC par des élèves autistes dans un cadre éducatif. Mise en place d’indicateurs et observation suivie instrumentée avec un stylo numérique. Ecole normale supérieure de Cachan-ENS Cachan. 254 pages.
  • Ferrari, P. (1999). L’autisme infantile. Hogrefe & Huber.
  • Frith, U. (1989). Autism Explaining the Enigma. Oxford : Basic Blackwell
  • Gattegno, M. P., Adrien, J. L., Blanc, R., & Ionescu, S. (1999). Apports théoriques de l’attention conjointe et de la theorie de l’esprit dans l’autisme. Devenir, 11(4), 81-106
  • Grandin, T. (2002). Teaching Tips for Children and Adults with Autism. http://www.iidc.indiana.edu/?pageId=601
  • Heimann, M., Nelson, K. E., Tjus, T., & Gillberg, C. (1995). Increasing reading and communication skills in children with autism through an interactive multimedia computer program. Journal of autism and developmental disorders, 25(5):459–480.
  • Leontiev, A. N. (1976). Le développement du psychisme : problèmes. Editions sociales.
  • Moore, M & Calvert, S. (2000). Brief report : Vocabulary acquisition for children with autism : Teacher or computer instruction. Journal of autism and developmental disorders, 30(4):359–362.
  • Pradel, G. (2011). RobAutisTIC, Programme Systèmes Interactifs et Robotique 2006.
  • Compte-rendu fin du projet. Projet ANR-06-ROBO-0010-01. Paris. 79 pages.
Article version PDF

[1entre autres, Heimann et al. (1995), Moor & Clavert (2000), Bosseler & Massaro (2003), Chen, et al. (2009)

[2La société Anoto a développé la grille Anoto qui est « une grille de points minuscules imprimés sur le papier. Par un algorithme spécifique, la trame permet au stylo la détection de sa position exacte sur le papier » (Barhoumi, 2013, p. 13)

[3Leontiev a défini l’opération en tant que « mode d’exécution d’une action, elle dépend des conditions dans lesquelles un but est donné. C’est donc la plus petite unité dans l’action » (Leontiev, 1976, pp. 295-296). L’opération dans notre recherche est présentée essentiellement sous deux formes : cliquer à l’aide de la souris ou taper sur le clavier.

[4alors que l’interaction négative de l’élève est faible : 19 opérations négatives, ON :

[5cet élève a effectué 18 opérations négatives seulement

[6157 LV contre 41 LNVO


 

Accueil | Abonnement | Contact | | Statistiques du site | Mentions légales | Accessibilité

ISSN : 2610-1920 - Site réalisé avec SPIP 4.2.2