Adjectif : analyses et recherches sur les TICE

Revue d'interface entre recherches et pratiques en éducation et formation 

Barre oblique

L’usage des outils informatiques en analyse des données qualitatives

Pour citer cet article :

Komis, Vassilis ; Depover, Christian et Karsenti, Thierry (2013). L’usage des outils informatiques en analyse des données qualitatives. Adjectif.net Mis en ligne lundi 11 mars 2013 [En ligne] http://www.adjectif.net/spip/spip.php?article216

Résumé :

La Recherche Qualitative constitue un type de recherche en pleine évolution et elle a été métamorphosée par les technologies informatiques.
Cet article présente une synthèse à caractère méthodologique sur la question.

Mots clés :

Instruments de recherche, Recherche d’informations

Vassilis Komis, Université de Patras

Christian Depover, Université de Mons

Thierry Karsenti, Université de Montréal

Introduction

La recherche qualitative constitue un type de recherche en pleine évolution et elle a été métamorphosée par les technologies informatiques. Cette approche de recherche est caractérisée par ses propres techniques de collecte de données qui se fait principalement dans des milieux naturels. Les données à traiter, dans le cadre de la recherche qualitative, revêtent des formes multiples (textes, sons, images et vidéos). Les méthodes d’analyse suivies sont traditionnellement exploratoires et interprétatives, et, dans ce sens, la recherche qualitative s’inscrit dans un courant épistémologique non positiviste.

Le terme d’analyse qualitative désigne tout processus technique ou intellectuel pour traiter, manipuler, explorer et interpréter des données issues d’une recherche qualitative dans le but d’identifier des séquences, de repérer des modèles, de comprendre des processus, de former des catégorisations ou des classes d’objets et d’émettre des hypothèses et des conjectures concernant les aspects (sujets, objets ou événements) du monde en question. L’analyse des données qualitatives est souvent plus intuitive et moins systématique que lorsqu’il s’agit de données quantitatives. Le problème de l’analyse des données qui proviennent de la recherche qualitative constitue un des plus cruciaux points de cette approche. À la différence de la recherche quantitative, la recherche qualitative ne suit pas l’approche scientifique basée sur la méthode hypothético-déductive.

Les TIC changent de manière essentielle le processus de la collecte et de la préparation des données et elles modifient aussi radicalement le processus d’analyse des données qualitatives en nous permettant d’y envisager des traitements nouveaux (par exemple, le recodage automatique des larges quantités de données) ou impraticables (par exemple, le codage direct sur des données sous forme de son et de vidéo) avant l’apparition des technologies informatiques.

L’analyse qualitative assistée par les TIC est issue des efforts réalisés pour le développement des méthodes et des techniques et la création des outils informatiques qui supportent la recherche en sciences sociales. Les outils relatifs à cette approche sont souvent désignés par le terme anglais CAQDAS (Computer Assisted Qualitative Data Analysis software) (Fielding & Lee, 1998), bien que ce terme désigne parfois également les techniques et les méthodes qui y sont associées. Les logiciels d’analyse qualitative sont des logiciels destinés à la lecture et à la codification (faites de manière intentionnée par le chercheur ou de manière semi-automatique) de passages de corpus textuels, iconiques, sonores et/ou vidéo. Ils offrent un ensemble de fonctionnalités de base qui peuvent servir de ressources pour collecter et analyser les données qualitatives. Les divers logiciels CAQDAS comportent des fonctionnalités très variées et ils s’inscrivent ainsi dans les différentes traditions de l’analyse qualitative : certains sont plutôt destinés à l’analyse textuelle, sonore ou vidéo, d’autres sont plus aptes à des recherches ethnographiques ou à l’analyse du contenu.

Le terme de données qualitatives fait référence à une collecte d’information qui prend plusieurs formes. Ces données sont des enregistrements d’observations ou d’interactions qui sont complexes et contextuelles et elles ne peuvent pas par conséquent être réduites (ou transformées) immédiatement en nombres (Richards, 2005). Dans ce sens, l’analyse des données qualitatives implique une sorte de transformation de celles-ci : nous commençons par une collection de données et, par la suite, nous les traitons à l’aide des procédures analytiques vers une analyse claire, compréhensible et, parfois, originale (Gibbs, 2007).

Pour certains chercheurs, ces procédures ne concernent que des aspects plutôt organisationnels pour trier, récupérer, indexer et manipuler les données qualitatives qui sont accompagnées par une discussion sur la manière dont ces procédures peuvent être utilisées pour générer des idées. Pour d’autres chercheurs, les procédures d’analyse s’associent à l’interprétation et à la narration. Il y a aussi des chercheurs qui combinent plutôt les deux approches précédentes en considérant l’analyse qualitative des données comme une manipulation et une interprétation des données. Les outils informatiques sont très utilisés dans le processus concernant la manipulation des données. En revanche, ces outils ne sont que peu utilisés dans un contexte d’interprétation des données.

Analyse qualitative et TIC

Le processus de l’analyse qualitative des données

L’analyse qualitative utilise trois approches de recherche :

a) les approches orientées par le langage (analyse du contenu, analyse du discours, ethnométhodologie),

b) les approches descriptives/interprétatives et

c) les approches dont le but est de construire une théorie.

Le processus de l’analyse qualitative comporte trois parties importantes :

a) Observer des choses et des événements ;

b) Collecter des choses et des événements ;

c) Penser au sujet des choses et des événements.

Ces parties ne suivent pas un cheminement linéaire, mais prennent une forme résolument progressive, itérative et récursive. Ce processus comporte une série d’étapes représentées dans la figure 1 qui inclut également les aspects itératifs et récursifs de ce genre d’analyse (Miles & Huberman, 2004).

Figure 1 : les étapes de l’analyse qualitative.

En principe, les données qualitatives ne sont pas numériques et peuvent provenir de plusieurs origines, comme d’observations, d’entretiens ou de documents. Les données qualitatives sont de plusieurs types  :

a) textes (interviews, narrations, réponses à des questions ouvertes, discours, notes de terrain, documents écrits, observations transcrites, courriels, etc.),

b) images (photos, schémas, etc.),

c) sons (discours non transcrits, chansons, etc.),

d) vidéos (situations ethnographiques, etc.) et

e) documents multimédias (cette forme n’est pas actuellement supportée par la plupart des logiciels d’analyse qualitative) : par exemple, un document de présentation, une page Web, une carte de Google Maps, etc.

Une donnée qualitative est, par sa nature, non numérique. La forme la plus commune de données en analyse qualitative est le texte, qui, en plus d’être une donnée primitive, est souvent aussi le produit d’une transcription plus ou moins exacte des formes primitives de données telles que le son ou la vidéo. Néanmoins, même si nous transcrivons les données sonores ou vidéo en texte pour des questions de manipulation ou de quantification dans le cadre d’une approche qualitative, il est très courant de garder également les formes primitives des données, car elles préservent certaines informations du contexte de l’étude, non appréhendées dans un texte transcrit.

La place des TIC dans les étapes de l’analyse qualitative des données

Les logiciels d’analyse qualitative interviennent, d’une manière ou d’une autre, dans toutes les étapes décrites de la figure 1. Plus spécialement, ces logiciels sont de plus en plus intégrés dans les principaux processus d’analyses qualitatives : lecture des données, définition des unités de sens et définition des catégories et codification des données (Seidel, 1998). Souvent, ils nous permettent aussi d’effectuer de simples traitements statistiques et de représenter de manière graphique la modélisation effectuée sur les résultats de l’analyse. En résumé, les logiciels d’analyse qualitative, dans l’étape de l’analyse proprement dite, sont utilisés pour codifier, sauvegarder, chercher et extraire, lier les données, constituer des mémos, analyser le contenu, etc. (cf. figure 2). À la fin de l’analyse, ils nous permettent, dans certains cas, de présenter les données, d’élaborer des résultats et les vérifier, de générer un modèle scientifique ou une théorie et de réaliser des représentations graphiques (Miles & Huberman, 2004).


Figure 2 : le processus d’analyse supporté par les TIC (adapté de Seider, 1998).

Lors de l’analyse qualitative appuyée par une utilisation des TIC, le chercheur travaille sur des documents primaires (textes, images, graphiques, sons, vidéo), qui se présentent sous une forme linéaire, dans le but de les archiver, de les catégoriser, de les structurer, de les décortiquer et de les analyser de manière conceptuelle (sous l’angle d’une théorie ou d’une approche herméneutique, etc.). Le produit de cette compilation est un autre « texte » (présenté habituellement sous la forme d’un document hypermédia) qui permet l’exploration des documents primaires sous l’angle des catégories créées par le chercheur.

On peut catégoriser les différents logiciels d’analyse qualitative de plusieurs manières.

  • Une première catégorisation pourrait refléter les différents axes méthodologiques utilisés dans ce genre de recherche (Phelps, Fisher & Ellis, 2007 ; Weitzman & Miles, 1995).
  • Une deuxième catégorisation pourrait être basée sur les deux principales approches épistémologiques de l’analyse qualitative : décrire et interpréter d’un côté et expliquer/construire une théorie de l’autre côté (Lewins & Silver, 2007).
  • Une troisième classification de logiciels pourrait être fondée sur la nature des données qualitatives (Karsenti, Komis, & Depover, 2009) :
    a) logiciels d’analyse du contenu (organisation et extraction des informations dans des documents simples ou multimédias) ;

b) logiciels d’analyse audio et vidéo (analyse des discours et réflexion sur des observations) ;

c) logiciels d’analyse textuelle (codage automatique ou semi-automatique).

Dans ce texte, nous suivrons cette dernière approche.

Il est clair que le type (ou les types) des données à collecter est lié de manière très étroite aux objectifs et aux questions de la recherche en cours. Étant donné les outils et les moyens actuels offerts par les TIC (caméscopes, appareils numériques, collecte des données en ligne, etc.), il est facile aujourd’hui de collecter des données qualitatives. Les types de données d’une recherche qualitative conditionnent inéluctablement les outils informatiques qui sont adéquats pour leur traitement. En d’autres termes, les origines des données et les types de données qualitatives nous amènent à nous servir des logiciels d’analyse dont les fonctionnalités permettent de traiter des données textuelles, des données sonores ou des données vidéo.

La codification ou le codage des données constitue probablement l’étape la plus cruciale dans le cadre d’une analyse qualitative et les TIC peuvent y jouer un rôle primordial. Il s’agit d’organiser le matériel en segments appelés unités de codage avant de donner du sens à ces unités en les rattachant à une catégorie particulière du système de codage. Le codage est un moyen pour indexer ou catégoriser des données en vue d’établir un cadre des idées thématiques qui concernent les données en question (Gibbs, 2007). Dans ce contexte, le codage concerne l’identification et l’enregistrement des segments de données en termes d’exemplification ou d’explication des mêmes données théoriques ou descriptives. Pour Lewins & Silver (2007), le codage qualitatif est un processus pendant lequel des segments de données sont identifiés comme étant un exemples de mais aussi une idée plus générale, une instance, un thème ou une catégorie.

Les logiciels d’analyse qualitative s’appuient sur un modèle général d’analyse des données : le codage. Ce codage se fait selon un ensemble de critères, définis avant le début de l’analyse ou, très souvent, pendant le processus de l’analyse (processus itératif). Le processus du codage et d’extraction (code and retrieve) des données constitue l’approche dominante de l’analyse des données. Tous les logiciels contemporains d’analyse qualitative comportent un système de codage et d’extraction des données et certains, parmi eux, permettent également de lier de manière hypertextuelle différents documents ou des parties d’un même document.

Analyses des données qualitatives à l’aide des TIC

Analyse de contenu et logiciels appropriés

La plupart des logiciels d’analyse qualitative des données sont fondés sur le principe de l’analyse de contenu (Miles & Huberman, 1994). L’analyse de contenu constitue une méthode de codification ou de classification de divers éléments des données analysées, permettant au chercheur de mieux connaître les caractéristiques et la signification de ceux-ci. L’analyse de contenu est donc une méthode de codification et de classification en diverses catégories d’éléments issus d’un document ou d’une collection de documents pour faire ressortir des caractéristiques importantes. L’analyse de contenu assistée par les TIC amène le chercheur à procéder en plusieurs étapes, telles qu’elles sont représentées dans la figure 1.

Les logiciels les plus couramment utilisés pour l’analyse de contenu sont

Il n’existe que peu de logiciels libres permettant ce type d’analyse qualitative tels que Weft QDA et TAMS Analyzer (uniquement pour Mac OS).

L’approche suivie est inspirée par un mode d’exploration de données textuelles « hiérarchique et catégoriel ». Elle consiste pour le chercheur à appliquer un codage sur des segments de texte, à associer éventuellement les codes avec des liens et puis à effectuer un traitement qualitatif et quantitatif des codes. Certains systèmes tels que NVivo, ATLAS. ti, QDA Miner et HyperResearch permettent également le codage sur des données non textuelles (images, sons et vidéos).

Le logiciel NVivo (figure 3) est la version plus récente du logiciel NUD*IST. NVivo 10 facilite le travail du chercheur pour l’analyse de données qualitatives, en particulier l’analyse de données textuelles (entrevues, courriels, etc.). NVivo facilite également la recherche des concepts clés et des relations entre les données. Un des principaux avantages de ce logiciel est la création de matrices pour visualiser les réponses fournies par chacun des groupes identifiés. Il est même possible d’importer un rapport (format .RTF) accompagné de la vidéo (ou de l’enregistrement audio) de l’entrevue. Ce logiciel facilite grandement l’observation des relations entre les données, la création de modèles (représentations graphiques), de même que les recherches dans les données, selon divers paramètres.


Figure 3 : l’interface principale du logiciel NVivo.

Analyse audio et vidéo et logiciels appropriés

Le besoin d’analyser des données audio ou vidéo devient souvent un impératif pour le chercheur en sciences de l’éducation qui utilise des méthodes qualitatives. Ces méthodes s’inscrivent dans deux courants habituellement distincts : l’analyse du discours et la réflexion sur les observations et les pratiques.

Dans ce contexte, la démarche habituelle est la suivante : on commence par un fichier vidéo ou un fichier audio codé dans un format approprié pour le logiciel utilisé (par exemple MPEG, AVI ou MOV) et l’on effectue dans un module du logiciel une transcription complète ou partielle de ce fichier. Par transcription, on peut également entendre une description non seulement du discours ou des dialogues, mais parfois des actions des participants. Puis, on y insère des codes de temps pour synchroniser la vidéo (ou l’audio) avec la transcription. Enfin, on conçoit des codes appropriés qui seront utilisés pendant l’analyse. Ces codes peuvent être appliqués sur les différentes sources de données qui font partie de l’analyse. En dehors des fonctionnalités mentionnées, supportées par la plupart des logiciels d’analyse vidéo, les divers systèmes comportent aussi des modules spécifiques qui les différencient les uns des autres.

Les logiciels les plus couramment utilisés pour l’analyse vidéo et audio sont :

Les logiciels ATLAS. ti, MaxQDA et NVivo sont des systèmes complets permettant, entre autres, le codage et l’analyse des fichiers audio et vidéo. Les logiciels HyperResearch (qui peut être complété pour la collecte et la transcription des fichiers par HyperTRANSCRIBE [http://www.researchware.com/]) et Transana sont plutôt orientés pour l’analyse audio et vidéo.

Le système AnnoTape ne permet que l’analyse audio et l’analyse des données textuelles provenant de la recherche ethnographique. Une caractéristique de ce logiciel concerne la fonctionnalité de l’enregistrement du son à partir du système lui-même. Dans ce cas, le système sert d’outil de collecte de données.

Le logiciel Observer XT est un système très sophistiqué, utilisé pour l’encodage et l’analyse des comportements humains et animaux. Il constitue un outil complet pour collecter, coder, quantifier et analyser des données dans plusieurs disciplines en sciences exactes et en sciences humaines et sociales.

Le processus général du codage et d’analyse audio ou vidéo peut être représenté sur l’interface du logiciel Transana (figure 4). Ce logiciel comporte les fonctionnalités principales des systèmes d’analyse vidéo décrites précédemment. Les deux fenêtres du haut contiennent la vidéo à analyser, une représentation synchronisée du son provenant de cette vidéo et les outils de gestion pour avancer, arrêter et copier les fichiers correspondants. Les deux fenêtres du bas contiennent les outils pour transcrire la vidéo (un simple traitement de texte) et les outils pour coder des séquences vidéo, les lier à la transcription effectuée, les organiser et les manipuler dans une base de données.

<imgw.qualitative-forschung.de/fqs-s...> <img200000060000B05E000084D472BE2751.wmf ; ; ;14.582 ; ; ;10.982 ; ; ;|center>


Figure 4 : l’interface du logiciel Transana.

Analyse textuelle et logiciels appropriés

Quand le type des données dans une analyse qualitative est purement textuel, que la masse de données est de très grandes quantité et que les questions de recherche visent plutôt à compter et à faire ressortir des structures sémantiques et grammaticales du corpus, on utilise la méthode de l’analyse textuelle. Comme nous l’avons vu dans les sections précédentes, dans certains cas, nous sommes intéressés par la structure interne d’un texte (quand il s’agit d’une narration par exemple) ; d’autres fois, nous mettons l’accent sur le contenu (quand il s’agit d’entrevues par exemple) ; dans d’autres cas, notre étude est focalisée sur l’interaction (quand il s’agit d’un focus groupe ou d’une analyse de conversation). Pour chaque cas, les questions de codage et de catégorisation sont très importantes et en même temps très variées. L’analyse textuelle constitue une approche spécifique axée plutôt sur des aspects quantitatifs que qualitatifs des données textuelles. Pour effectuer une analyse textuelle, on utilise des techniques statistiques spéciales, connues sous le terme de statistique textuelle.

La statistique textuelle est née de la rencontre entre plusieurs disciplines et domaines de recherche : la statistique, l’étude des textes, la linguistique, l’analyse du discours, l’informatique, le traitement des enquêtes, etc. Son objet est l’étude des textes sous l’angle du courant statistique moderne qui s’appelle statistique multidimensionnelle. La statistique multidimensionnelle a fait son apparition à la suite de la demande d’outils de traitement et d’analyse des larges corpus textuels qui proviennent des chercheurs et des praticiens de plusieurs disciplines. Elle est inscrite dans le courant contemporain de l’analyse des grandes quantités de données, plus connu sous le terme forage des données ou fouille des données (data mining) dont les applications touchent plusieurs domaines de l’activité scientifique et industrielle. L’analyse textuelle vise à rassembler toutes les techniques appropriées et à offrir des outils pour analyser (compter, classer, décrire, comparer, représenter, etc.) des textes recueillis lors d’enquêtes, d’entretiens, d’investigations littéraires, sur des sites Web, etc. (Lebart & Salem, 1994).

Les premières applications de statistique textuelle concernaient l’analyse exploratoire de réponses aux questions ouvertes des enquêtes. Les applications de statistique textuelle ont beaucoup évolué et permettent actuellement de coder, d’annoter, de manipuler et de présenter des données textuelles dans de larges documents (par exemple, des romans et des sites Web) et d’y effectuer plusieurs types d’analyses quantitatives.

Comme nous l’avons déjà indiqué, les logiciels d’analyse textuelle sont à la frontière de l’analyse qualitative et de l’analyse quantitative. Dans ce contexte, le chercheur n’a pas à catégoriser ses données, car la catégorisation se fait par le logiciel, à l’aide des techniques de fouille de textes (text mining). Cette approche utilise habituellement des méthodes statistiques d’analyse factorielle et de classification pour regrouper de larges quantités de textes.

Les logiciels les plus couramment utilisés pour la statistique textuelle sont :

Chaque logiciel utilise ses propres méthodes pour traiter les données textuelles. Par exemple, Alceste classe de façon statistique des « phrases » du corpus étudié en fonction de la distribution du vocabulaire à l’intérieur de ces « phrases ». Les mots et l’ordre des mots sont également analysés par le logiciel. Puis, de façon itérative, Alceste fait varier le nombre de formes par unité de sens, compare les classes obtenues et conserve les classes qui sont associées au plus grand nombre d’unités de sens. En fin de processus, on obtient un certain nombre de classes représentatives du texte analysé.


Figure 5 : l’interface graphique du logiciel Tropes.

Tropes, de son côté, est un logiciel libre d’analyse sémantique des textes basé sur des techniques de fouille des données. Il utilise une analyse morphosyntaxique, un lexique et un réseau sémantique pour catégoriser des textes à traiter. Les résultats sont présentés sous la forme de rapports ou de représentations graphiques hypertextuelles (figure 5).

Conclusion

L’analyse qualitative est un processus itératif et intuitif pendant lequel le chercheur raisonne de manière inductive, construit une réflexion au sujet des données et de leurs relations, et essaye de théoriser. Ce faisant, il est obligé de bien organiser ses données, de les stocker, de les raffiner et d’en extraire des morceaux par le biais de requêtes adéquates. De nos jours, tout ce processus peut être soutenu par les technologies informatiques.

En conclusion, l’usage des TIC dans l’analyse des données qualitatives offre des avantages certains. En effet, les logiciels de CAQDAS ne sont pas simplement des aides à la codification et à la récupération des données. Ils comportent de plus en plus de procédures nouvelles (Mangabeira, Lee, & Fielding, 2004). Si les étapes d’analyse qualitative restent globalement les mêmes, ces logiciels en facilitent les procédures du début jusqu’à la fin du processus d’analyse et couvrent par là même un fort potentiel cognitif pour accompagner le chercheur dans sa démarche d’analyse. En revanche, la diversité de logiciels disponibles et leur spécificité demandent au chercheur de connaître au préalable les forces et les faiblesses de chacun afin de choisir celui qui sera le plus adéquat pour sa recherche. Par ailleurs, il est important de garder en tête que les logiciels de CAQDAS ne remplacent pas la dimension interprétative propre à l’analyse qualitative. Tout au plus permettent-ils de la soutenir et de l’orienter efficacement s’ils sont utilisés de façon raisonnée.

Bibliographie

  • Bazeley, P. (2007). Qualitative Data Analysis with NVivo. London : Sage.
  • Creswell, J. (2007). Qualitative Inquiry & Research Design, Chosing Among Five Approaches (2e éd.). Thousand Oaks, CA : Sage.
  • Creswell, J. (2009). Research Design : Qualitative, Quantitative, and Mixed Methods Approaches (3e éd.). Thousand Oaks, CA : Sage.
  • Denzin, N., & Lincoln, Y. (2005). The SAGE Handbook of Qualitative Research. Thousand Oaks CA : Sage.
  • Erickson, F. (1986). Qualitative methods in research on teaching. Dans M. C. Wittrock (dir.), Handbook of research on teaching (3e éd., p. 119-161). New York : Macmillan.
  • Fielding, N., & Lee, R. (1998). Computer Analysis and Qualitative Research (New Technologies for Social Research series). Thousand Oaks, CA : Sage.
  • Fielding, N., Lee, R., & Blank, G. (2008). The Handbook of Online Research Methods. Thousand Oaks, CA : Sage.
  • Gibbs, G. (2007). Analyzing Qualitative Data (Qualitative Research Kit). London, USA : Sage.
  • Hahn, C. (2008). Doing Qualitative Research Using Your Computer. A Practical Guide. Thousand Oaks, CA : Sage.
  • Karsenti, T., Komis, V., & Depover, C. (2009). Les nouveaux outils et les nouvelles pratiques de recherche issues des technologies de l’information et de la communication. Dans C. Depover (dir.), La recherche en technologie éducative : un guide pour découvrir un domaine en émergence (p. 32-51). Paris : Agence universitaire de la Francophonie.
  • Lebart, L., & Salem, A. (1994). Statistique textuelle. Paris : Dunod.
  • Lee, R. (1995). Information Technology for the Social Scientist. London : UCL Press.
  • Lewins, A., & Silver, C. (2007). Using Software in Qualitative Research : A Step-by-Step Guide. Thousand Oaks CA : Sage.
  • Liu, L., Johnson, C. D., Maddux, C. (2000). Information Technology in Educational Research and Statistics (Computers in the Schools). New York : Haworth Press Inc.
  • Mangabeira, W. C., Lee, R. M. and Fielding, N. G. (2004). Computers and qualitative research : Adoption, use, and representation. Social Science Computer Review, 22 (2), 167-178.
  • Miles, M., & Huberman, M. (1994). Qualitative Data Analysis. Thousand Oaks, CA : Sage.
  • Phelps, R., Fisher, K., & Ellis, A. (2007). Organizing and Managing Your Research. A Practical Guide for Postgraduates. Thousand Oaks, CA : Sage.
  • Richards, L. (2005). Handling Qualitative Data : A Practical Guide. Thousand Oaks, CA : Sage.
  • Seidel, John V., (1998) Qualitative Data Analysis, www.qualisresearch.com (originally published as Qualitative Data Analysis, in The Ethnograph v5.0 : A Users Guide, Appendix E, 1998, Colorado Springs, Colorado : Qualis Research). [Accessed : March 11, 2013].
  • Silverman, D. (2005). Doing Qualitative Research. Thousand Oaks CA : Sage.
  • Tesch, R. (1990). Qualitative Research : Analysis types and software tools. London : Falmer.
  • Weitzman, E., & Miles, M. (1995). Computer Programs for Qualitative Data Analysis : A Software Source Book. Thousand Oaks, CA : Sage.
  • Willis, J. & Kim, S. (2006).
  • Using Computers in Educational And Psychological Research : Using Information Technologies to Support the Research Process (1re éd.). Springfield : Charles C. Thomas Publisher.
Article version PDF

 

Accueil | Abonnement | Contact | | Statistiques du site | Mentions légales | Accessibilité

ISSN : 2610-1920 - Site réalisé avec SPIP 4.2.2