Adjectif : analyses et recherches sur les TICE

Revue d'interface entre recherches et pratiques en éducation et formation 

Barre oblique

En quête d’un outil numérique destiné à l’observation

dimanche 9 février 2014 Diane Diaz

Pour citer cet article :

Diaz Diane (2014). En quête d’un outil numérique destiné à l’observation. Adjectif.net Mis en ligne dimanche 9 février 2014 [En ligne] http://www.adjectif.net/spip/spip.php?article274

Résumé :

Cette contribution a pour objectif d’effectuer un panorama des instruments numériques de recueil d’observations dans le cadre d’une enquête de terrain mobilisant les technologies de l’information et de la communication (TIC).

Mots clés :

Observation, Données, Activités, Traces, Doctorat, Instruments de recherche

par Diane Diaz
Université Lumière Lyon 2, Laboratoire ICAR

Introduction

Une pléthore d’articles abordent le codage, le traitement ou l’analyse des données mais peu livrent les diverses méthodes de collecte envisageables en sciences humaines et sociales. Pourtant cette étape liminaire reste fondamentale, d’autant qu’elle conditionne la constitution des informations utiles pour la recherche.

C’est sur elle que reposent la quantité et la qualité des données recueillies et par contrecoup, elle conditionne aussi la crédibilité et la validité, soit la scientificité d’une recherche. Aussi il nous semble important de partager notre questionnement et notre expérience sur ce point. Cette contribution se donne pour but de présenter les avantages mais aussi les limites de divers instruments à partir de notre expérience, de notre propre quête d’un outil efficient pour recueillir, conserver, puis restituer les données de terrain qu’elles soient qualitatives, quantitatives ou, comme dans notre recherche, mixtes.

Au début de nos travaux nous nous sommes interrogée sur les interactions produites entre étudiants regroupés dans le cadre d’un apprentissage de la statistique assistée par ordinateur. Dans le but d’analyser les caractéristiques propres à cette situation, nous nous sommes assignée le recueil des traces de l’activité synchrone entre pairs collaborant à l’accomplissement d’une tâche prescrite, médiée par les TIC. Cet objectif initial a engendré de nombreuses interrogations, telles que :

  • Comment peut-on enregistrer les traces d’activités synchrones produite sur ordinateur ?
  • Par quels moyens parvient-on à consigner aussi bien les activités numériques que les activités verbales ?
  • Quels sont les instruments envisageables dans le cadre de notre objet de recherche ?
    Il s’est donc agi de rechercher un outil d’enregistrement, de conservation et de restitution de données adapté à nos besoins. Nous avons rapidement cerné les limites des instruments de collecte traditionnels comme l’usage d’une grille d’observation prédéfinie ou l’enregistrement à l’aide d’un dictaphone. Le principal inconvénient de l’usage d’une grille d’observation réside dans la construction des variables a priori. Quant à l’usage d’un dictaphone, il ne permet d’obtenir que des activités verbales. Aussi nous avons tenté de trouver une alternative, suivant les recommandations de Royer et al. (2005) :

Face à un problème de recherche particulier, le chercheur utilisera, voire mettra au point, une procédure de recueil de données adaptée à l’objet étudié et aux données recherchées. De fait, le chercheur connaît la nature des données susceptibles de répondre à son questionnement et, bien qu’il fasse appel la plupart du temps à des instruments connus comme l’entretien et l’observation, il usera de créativité et d’inventivité pour développer ou adapter les meilleurs instruments de collecte de données.

La place de la collecte des données dans la recherche

La constitution du corpus peut prendre plusieurs formes et contenir une grande variété d’informations, voire être mixte et à caractère multimodal. Quels que soient ses attributs, il convient de rappeler que c’est en partie sur la qualité du corpus que reposent la crédibilité et la validité d’une recherche (Van der Maren, 1996). Pour cet auteur, il faut tenir compte des quatre critères fondamentaux suivants : l’accès aux sources, l’exhaustivité, l’actualité et l’authenticité. À cette liste nous ajoutons la quête de la cohérence du corpus avec le reste de l’étude dans le but d’engendrer un tout explicite et vraisemblable. En fonction des recherches, on distingue cinq principales méthodes de production de données : l’étude de documents, le questionnaire, l’entretien, l’expérimentation et l’observation. C’est de cette dernière dont il sera question dans ce texte.

L’observation est un processus qui consiste à prélever sur un terrain un ensemble de phénomènes identifiables pour en extraire un modèle explicatif voire prédicatif (De Ketelle, Roegiers, 2009, p.15). De sorte que les données recueillies proviennent d’un choix cognitif et réflexif puisqu’elles « ne sont pas des « morceaux de réel » cueillis et conservés tels quels par le chercheur (illusion positiviste), pas plus qu’elles ne sont de pures constructions de son esprit ou de sa sensibilité (illusion subjectiviste). Les données sont la transformation en traces objectivées de « morceaux de réels », de fragments du réel de référence tels qu’ils ont été sollicités, sélectionnés et perçus par le chercheur » (Olivier De Sardan, 2008, p. 50). Aussi pour dépasser les deux visions résolument antinomiques portées par « l’illusion positiviste » d’une part et « l’illusion subjectiviste » d’autre part, il est pertinent de percevoir les données de terrain comme l’amalgame d’un existant et d’un construit. En effet, l’observation n’est que l’extraction de la réalité « déjà-là », d’une situation quotidienne et authentique qui donne lieu à un travail d’objectivation producteur d’un objet construit par le chercheur.

Les moyens disponibles pour la collecte de données

Les matériels d’enregistrement choisis ne sont pas neutres puisqu’ils ont une incidence sur la quantité et la qualité des données. De par leur taille et leur positionnement, ils peuvent être plus ou moins visibles par les sujets étudiés. De par leur autonomie et leur performance, ils contribuent à augmenter ou diminuer l’espace entre le sujet observé et l’observateur.

Dans notre recherche, nous enregistrons des données directes captées dans une situation authentique, selon une démarche ethnographique. Cette dernière signifie littéralement « description des peuples » et elle préconise que le chercheur se place comme un explorateur étranger découvreur d’un nouveau monde afin de rendre visible et intelligible des événements de la vie quotidienne. L’ethnographie se caractérise par l’observation prolongée et rigoureuse de petits groupes.

Elle [L’ethnographie de l’éducation] est un outil très puissant pour la compréhension des intenses et complexes dialogues intersubjectifs que sont effectivement les pratiques pédagogiques, des dialogues intersubjectifs qui établissent les liens entre les acteurs qui meuvent dans le contexte scolaire (Fino et Sousa, 2010).

Partant de là, nos questionnements préliminaires ont provoqué de nombreuses interrogations sur les moyens d’obtenir les traces des activités quotidiennes des étudiants et de conserver les données pour pouvoir les analyser a posteriori.

Notre investigation portant sur les interactions entre étudiants impose l’observation naturelle. C’est donc in situ que nous choisissons de capter une situation quotidienne d’initiation collective à un logiciel de traitement de données. L’observation de sujets en train de manipuler le logiciel impose un certain nombre de précautions à prendre. Bien que nous soyons à découvert (Peretz, 2004), une de nos principales difficultés réside dans la quête d’un outil de recueil de données discret. Il est nécessaire qu’il soit conjointement le plus invisible possible pour être vite oublié par les étudiants, tout en restant suffisamment performant pour recueillir les données nécessaires à l’enquête. Il doit également présenter des dispositions intrinsèques pour la manipulation de la multitude d’informations engendrées lors de l’enregistrement. Sachant que nous souhaitons traquer puis décortiquer les comportements, les attitudes et les postures induits par l’utilisation à plusieurs d’un logiciel. Une telle précision ne peut s’obtenir avec les instruments traditionnels de recueil numériques de données tels que la vidéo.

Les limites de la vidéo

De plus en plus utilisée en classe, la vidéo paraît être l’instrument le plus pertinent pour recueillir des interactions et la multimodalité propres aux processus d’acquisition de connaissances (Dessus, 2007, Lattuati, Penninckx, Robert, 2012, Veillard, Tiberghien, 2012). Or, nous n’avons pas choisi de filmer les situations d’apprentissage médiées par les TIC, et cela, pour de nombreuses raisons. D’une part, il est difficile de filmer directement un écran d’ordinateur car la fréquence de rafraichissement (balayage) est supérieure à celle produite par un caméscope, c’est pourquoi des bandes horizontales apparaissent au visionnage. Ces perturbations visuelles peuvent cependant être gommées en utilisant certaines fonctions de type « clear scan ». Cette technologie améliore le visionnage en recréant des images supplémentaire. Mais cette fonctionnalité impose d’être équipé de matériels sophistiqués.

D’autre part, l’usage de la caméra demande une attention matérielle particulière et elle impose de nombreux choix a priori comme : l’angle de vue sélectionné, le nombre de caméras fixes ou mobiles ainsi que la détermination de leurs emplacements (Sautot et al, 2008). Par ailleurs, dans les enquêtes qui observent simultanément plusieurs groupes d’étudiants, il est nécessaire de démultiplier le nombre de caméscopes. Outre la surcharge matérielle, cela oblige de recruter plusieurs cadreurs pour diversifier les prises de vue. Enfin, il nous paraît difficile pour les sujets observés d’oublier la caméra ; sa présence pouvant les intimider (Martineau, 2005).

Si le film numérique offre une meilleure visibilité des détails, les écueils dus à l’emploi de la caméra restent nombreux. La vidéo permet de capturer des moments et accepte le visionnage ultérieur ainsi que le traitement des informations. Cependant ce médium fixe ce qui est dans un cadre restreint et paradoxalement démultiplie les données environnementales. La distanciation demeure alors difficile face à des images qui donnent l’illusion de retranscrire la réalité. De plus, la surproduction de données issues de la reproduction animée complexifie à outrance la transcription en parasitant la compréhension de la situation. Le chercheur peut alors se trouver face à une masse trop dense d’informations qu’il est, par la suite, laborieux de traiter. Se posent alors des questions dues à la réduction et au classement d’informations complexes. Comment extraire de la totalité des enregistrements les moments significatifs et comment les subdiviser en sous-ensembles pertinents ? Ce sont les interrogations les plus délicates à résoudre lors du traitement des films. Dans ces conditions, cette accumulation risque de parasiter la compréhension des activités réellement produites et subséquemment menace de dissimuler certaines données pertinentes. Devant ces écueils nous avons tenté de trouver une nouvelle alternative instrumentale.

Les apports du logiciel de capture d’écran

Un logiciel de capture vidéo de l’écran (ou screencast) s’utilise essentiellement pour créer des tutoriels animés et multimédias. Écarté de cet usage premier, nous le transformons en outil d’enregistrement adapté à nos contraintes afin de visionner toutes les actions effectuées et conjointement tous les échanges oraux engagés lors de l’exécution d’une tâche médiée par les TIC. Aussi nous procédons au détournement d’un logiciel initialement destiné à la saisie d’écran et au traitement des images. Cette usurpation nous permet de consigner les informations pertinentes, de visionner a posteriori et de disséquer les données. Les deux programmes les plus connus sont Camtasia (logiciel propriétaire : http://www.techsmith.fr/camtasia.html) ou Camstudio (logiciel libre : http://camstudio.org). Lorsque l’on installe ce type de logiciel, l’utilisateur note parfois un ralentissement des fonctions de base dû à l’utilisation de ressources système pour l’enregistrement. Sans cela, ce logiciel de capture d’écran reste très discret, facile à utiliser et surtout immatériel.

Sa fonction première consiste à capturer toutes les activités qui s’effectuent sur un écran d’ordinateur tout en consignant simultanément l’environnement sonore qui l’accompagne. Le logiciel consigne donc toutes les interventions des sujets observés et en parallèle il enregistre toutes les remarques orales : il combine donc la vidéo et le son. En conséquence, on obtient conjointement des informations sur les activités procédurales et verbales produites. Après la phase d’enregistrement, le logiciel offre également de nombreuses potentialités de montage vidéo. La transcription est hautement facilitée par un compteur qui permet à tout moment de quantifier la durée de chaque activité. S’il offre indéniablement de nombreux avantages, l’usage d’un logiciel de capture d’écran impose toutefois quelques contraintes. Premièrement, son usage exige son installation anticipée sur chaque poste informatique. Deuxièmement, il est nécessaire de l’ouvrir avant chaque prise de données, et cela, sur chaque ordinateur. Troisièmement, il faut rester vigilant à ce que les sujets ne quittent pas soudainement le logiciel durant les manipulations ou ne ferment pas inopinément leur session. Malgré ces quelques inconvénients, l’usage d’un logiciel de capture d’écran apparaît comme le moyen le plus efficace pour récolter et traiter ultérieurement les données de terrain numériques.

Le traitement des données vidéographiques

Les objectifs définis, les questions de départ établies et les hypothèses émises conditionnent le protocole de recherche et déterminent la construction d’une démarche épistémologique globale. Une fois ce cadre construit, le terrain arrêté, les moyens d’enregistrement choisis et la collecte terminée, il ne reste plus qu’à coder, transcrire, traiter et analyser les informations recueillies. Ce qui correspond à l’étape 6 (figure 1) suivant l’ordre séquentiel et successif idéal d’une démarche classique en sciences humaines et sociales.

Il existe deux grandes familles d’analyse provenant de recherches quantitatives et qualitatives. Pour distinguer les différents types de recherche il est communément admis que la nature des données prescrit leur traitement. Ainsi les données numériques, issues d’enquêtes, seront traitées suivant les méthodes quantitatives et les données textuelles ou vidéographiques provenant d’enregistrements seront explorées à l’aide d’approches qualitatives. Ces deux positions ne proviennent pas des mêmes questionnements, la première s’intéresse au « pourquoi » et suit une démarche hypothético-dédictive (figure 1) qui vérifie des hypothèses alors que la seconde s’attache au « comment » et adopte une démarche inductive génératrice d’hypothèses. Mais les sciences recouvrent des réalités souvent bien plus complexes qui combinent les deux angles de vue et sont donc dites mixtes. Les choix précédents déterminent la sélection du logiciel d’aide à l’analyse de données. Certains programmes s’appuient sur les concepts de statistique et sont alors destinés aux recherches quantitatives (Baron, 2013) alors que d’autres sont qualifiés de « Computer-Assisted Qualitative Data Analysis Software » et se fondent sur la catégorisation (Komis et al., 2013).

Quant aux données vidéographiques issues de l’enregistrement vidéo et de la capture d’écran d’ordinateur, elles peuvent subir de nombreux traitements dont certains sont identiques. Pour la vidéo il est couramment usité des outils d’annotation de vidéo tels que Transana (http://www.transana.org/) ou Videograph (http://www.ipn.uni-kiel.de/aktuell/videograph/enhtmStart.htm). Ces deux logiciels diffèrent sur bien des points et leur choix dépend des intentions épistémiques et/ou méthodologiques propres à chaque recherche. En effet, le premier programme admet une démarche qualitative inductive par codage thématique qui s’effectue au fur et à mesure du visionnage alors que le second impose une démarche quantitative hypothético-déductive (figure 1) qui exige un codage antérieur à l’indexation. Une fois l’indexation et la transcription terminées, il est possible de recourir à des logiciels d’analyses statistiques (Freund et al., 2012). Il peut également être envisagé une analyse sémantique de type Analyse Cognitivo Discursive (ACD) comme le fait Loup-Escande (2010) à partir de données récoltées avec un logiciel de capture d’écran. Ce sont donc les questions de départ, les choix épistémiques, méthodologiques et techniques qui déterminent les traitements que vont subir les informations provenant de données vidéographiques.

En guise de conclusion

Les technologies de l’information et de la communication (TIC) étant en perpétuelle évolution, elles offrent un champ disciplinaire en renouvellement constant. Ainsi le chercheur animé par un projet en lien avec les TIC doit continuellement s’interroger sur le sujet, sur l’objet de sa recherche comme sur les méthodes qui peuvent elles aussi muter. Les TIC sont désormais incontournables à tous les stades de la recherche. Si l’utilisation de logiciels est aujourd’hui admise pour l’analyse des corpus (Freund et al., 2012), il est cependant moins courant de mobiliser des outils numériques dès l’étape de production des données. À ce jour, encore très peu de recherches sollicitent un logiciel de capture d’écran et ce sont généralement de jeunes chercheurs comme Loup-Escande (2010), Février (2011) et Veyrier (2012) mais aussi des chercheurs plus chevronnés tels que Roussel et al. (2008) ou Régnier et Baraud (2012) qui choisissent cet instrument pour collecter leurs données.

Les logiciels de capture d’écran offrent cependant un dispositif unique pour obtenir, par exemple, des traces des activités synchrones ou asynchrones d’étudiants. Le détournement de logiciels de capture d’écran convient particulièrement quand il s’agit de consigner des activités numériques, mais bien d’autres usages peuvent être envisagés. C’est pourquoi ces programmes doivent venir enrichir la boîte à outils des instruments de collecte actuellement usités.

En effet, ils facilitent aussi bien l’enregistrement que la restitution des données. Discrets, ils se démarquent de la vidéo qui impose une charge matérielle et humaine importante. Aujourd’hui, chaque recherche doit donner lieu à au moins un questionnement sur la pertinence des outils adoptés pour le recueil de données. Elle peut également mettre au point des instruments novateurs adaptés à la quête spécifique d’informations. Dans la palette des outils existants et de ceux à inventer, il importe de maintenir une veille attentive aux alternatives et aux nouveautés, pour ne pas risquer d’entrer dans une routine instrumentale sclérosante.

Bibliographie et sitographie

Baribeau, C. (2005). L’instrumentation dans la collecte de données. Recherches Qualitatives. Hors-série (2), 98-114. L’enquête et ses méthodes : l’observation directe.

De Ketele, J.-M., Roegiers, X. (2009). Méthodologie du recueil d’informations : fondements des méthodes d’observation, de questionnaires, d’interviews et d’études de documents. De Boeck Supérieur.

Dessus, P. (2007). Systèmes d’observation de classes et prise en compte de la complexité des événements scolaires. Carrefours de l’éducation, (1), 103-117.

Février, F. (2011). Vers un modèle intégrateur « expérience-acceptation » : rôle des affects et de caractéristiques personnelles et contextuelles dans la détermination des intentions d’usage d’un environnement numérique de travail (Doctoral dissertation, Université Rennes 2).

Fino, C. N. et Sousa, J. M. (2010). L’innovation pédagogique vue de l’intérieur. REEE n° 6. Hommage à Georges Lapassade, pp. 189-194.

Freund, R., Beauné, A., Khaneboubi M., Baron, G.-L. Analyse de données et logiciels : quelques pistes de réflexion, mis en ligne le 10 août 2012, consulté le 04 novembre 2013, In : http://www.adjectif.net/spip/spip.php?article172

Groulx, L. H. (1997). Querelles autour des méthodes. Socio-anthropologie, (2), mis en ligne le 15 janvier 2003, consulté le 07 décembre 2013, In : http://socio-anthropologie.revues.org/30

Jones, R. A. (1999). Méthodes de recherche en sciences humaines. De Boeck Supérieur.

Komis, V., Depover, C., Karsenti T., L’usage des outils informatiques en analyse des données qualitatives, mis en ligne le 11 mars 2013, consulté le 13 novembre 2013, In http://www.adjectif.net/spip/spip.php?article216

Loup-Escande, E. (2010). Vers une conception centrée sur l’utilité : une analyse de la co-construction participative et continue des besoins dans le contexte des technologies émergentes (Doctoral dissertation, Université d’Angers).

Martineau, S. (2005). L’observation en situation : enjeux, possibilités et limites. Recherches qualitatives, Hors Série, (2), 5-17.

Olivier De Sardan, J.-P. (2008). La rigueur du qualitatif. Louvain-La-Neuve : Bruylant-Academia.

Peretz H., (2004). Les méthodes en sociologie. L’observation. Paris : La Découverte « Repères ».

Régnier, D. N. A., et Baraud, D. M. (2012). Usage des TIC dans la recherche en psychologie pour la réalisation d’un récit de vie en bande dessinée : développement de compétences chez le chercheur. Poiésis-Revista do Programa de Pós-Graduação em Educação, 5(9), p-199.

Robert A., Penninckx J., Lattuati M. (2012) Une caméra au fond de la classe, (se) former au métier d’enseignant de mathématiques du second degré à partir d’analyses de vidéos de séances de classe. Besançon : Presses universitaires de Franche-Comté.

Roussel, S., Rieussec, A., Nespoulous, J. L., & Tricot, A. (2008). Des baladeurs MP3 en classe d’allemand-L’effet de l’autorégulation matérielle de l’écoute sur la compréhension auditive en langue seconde. Alsic. Apprentissage des Langues et Systèmes d’Information et de Communication, 11(2).

Royer, C., Moreau, J., et Guillemette, F. (sous la direction de) (2005). L’instrumentation dans la collecte des données. Recherches Qualitatives - Hors Série, 2.

Sautot J.-P. et al. (2008). Le film de classe - Étude sémiotique et enjeux didactiques. Limoges, Lambert Lucas.

Tiberghien, A., & Veillard, L. (2012). Le cas de ViSA dans l’instrumentation en sciences humaines et sociales. In L. Veillard & A. Tiberghien (Eds.), Instrumentation de la recherche en Education. Le cas du développement d’une base de vidéos de situation d’enseignement et d’apprentissage ViSA.

Van der Maren, J.-M. (1996). Méthodes de recherche pour l’éducation. Bruxelles : De Boeck Supérieur.

Van der Maren, J-M. (1999). La recherche appliquée en pédagogie. Des modèles pour l’enseignement. Bruxelles : De Boeck.

Veyrier, C. A. (2012). Les cinq premières minutes : organisation des ouvertures en (web) conférence : analyse de pratiques interactionnelles en réunion professionnelle.

Article version PDF

 

Accueil | Abonnement | Contact | | Statistiques du site | Mentions légales | Accessibilité

ISSN : 2610-1920 - Site réalisé avec SPIP 4.2.2