Mesures discrètes

Les mesures discrètes sont des mesures qui n’exigent pas que le chercheur s’immisce dans le contexte de la recherche. L’observation directe et participative nécessite que le chercheur soit physiquement présent. Cela peut amener les répondants à modifier leur comportement afin de bien paraître aux yeux du chercheur. Un questionnaire est une interruption du flux naturel de comportement. Les répondants peuvent en avoir assez de remplir un sondage ou être mécontents des questions posées.

La mesure discrète réduit vraisemblablement les biais résultant de l’intrusion du chercheur ou de l’instrument de mesure. Cependant, des mesures discrètes réduisent le degré de contrôle du chercheur sur le type de données collectées. Pour certaines constructions, il peut tout simplement ne pas y avoir de mesures discrètes disponibles.

Trois types de mesures discrètes sont discutés ici.

Mesures indirectes

Une mesure indirecte est une mesure discrète qui se produit naturellement dans un contexte de recherche. Le chercheur est en mesure de collecter les données sans introduire de procédure de mesure formelle.

Les types de mesures indirectes qui peuvent être disponibles ne sont limités que par l’imagination et l’inventivité du chercheur. Par exemple, supposons que vous souhaitiez mesurer la popularité de diverses expositions dans un musée. Il peut être possible de mettre en place un type de système de mesure mécanique invisible pour les clients du musée. Dans une étude, le système était simple. Le musée a installé de nouveaux carreaux de sol devant chaque exposition sur laquelle il souhaitait une mesure et, après un certain temps, a mesuré l’usure des carreaux en tant que mesure indirecte du trafic et de l’intérêt des visiteurs. Nous pourrions améliorer considérablement cette approche en utilisant des mesures électroniques. Nous pourrions, par exemple, construire un appareil électrique qui détecte le mouvement devant une exposition. Ou nous pourrions placer des caméras cachées et coder l’intérêt des clients sur la base de preuves filmées.

Une de mes mesures indirectes préférées s’est produite dans une étude des préférences d’écoute des stations de radio. Plutôt que de mener une enquête ou une interview intrusive sur les stations de radio préférées, les chercheurs se sont rendus chez les concessionnaires automobiles et les garages locaux et ont vérifié toutes les voitures entretenues pour voir à quelle station la radio était actuellement à l’écoute. De la même manière, si vous voulez connaître les préférences des magazines, vous pouvez fouiller dans les déchets de votre échantillon ou même organiser un effort de recyclage de magazines de porte à porte.

Ces exemples illustrent l’un des points les plus importants concernant les mesures indirectes – il faut faire très attention à l’éthique de ce type de mesure. Dans une mesure indirecte, vous collectez, par définition, des informations à l’insu du répondant. Ce faisant, vous violez peut-être leur droit à la vie privée et vous n’utilisez certainement pas le consentement éclairé. Bien entendu, certains types d’informations peuvent être publics et ne pas impliquer une atteinte à la vie privée.

Il peut arriver qu’une mesure indirecte soit appropriée, facilement accessible et éthique. Comme pour toutes les mesures, cependant, vous devez vous assurer d’essayer d’estimer la fiabilité et la validité des mesures. Par exemple, la collecte des préférences des stations de radio à deux périodes différentes et la corrélation des résultats pourraient être utiles pour évaluer la fiabilité du test-test. Ou, vous pouvez inclure la mesure indirecte avec d’autres mesures directes de la même construction (peut-être dans une étude pilote) pour aider à établir la validité de la construction.

Analyse de contenu

L’analyse de contenu est l’analyse de documents texte. L’analyse peut être quantitative, qualitative ou les deux. En règle générale, l’objectif principal de l’analyse de contenu est d’identifier des modèles dans le texte. L’analyse de contenu est un domaine de recherche extrêmement vaste. Il comprend:

  • Analyse thématique du texte. L’identification de thèmes ou d’idées majeures dans un document ou un ensemble de documents. Les documents peuvent être n’importe quel type de texte, y compris des notes de terrain, des articles de journaux, des documents techniques ou des notes d’organisation.Indexation
  • . Il existe une grande variété de méthodes automatisées pour indexer rapidement des documents texte. Par exemple, l’analyse des mots clés en contexte (KWIC) est une analyse informatique de données textuelles. Un programme informatique analyse le texte et indexe tous les mots clés. Un mot clé est un terme du texte qui n’est pas inclus dans un dictionnaire d’exceptions. En règle générale, vous configurez un dictionnaire d’exceptions qui inclut tous les mots non essentiels tels que « est », « et » et « de ». Tous les mots clés sont alphabétisés et sont listés avec le texte qui le précède et le suit afin que le chercheur puisse voir le mot dans le contexte dans lequel il s’est produit dans le texte. Dans une analyse du texte de l’entrevue, par exemple, on pourrait facilement identifier toutes les utilisations du terme « abus » et le contexte dans lequel elles ont été utilisées.
  • Analyse descriptive quantitative. Ici, le but est de décrire quantitativement les caractéristiques du texte. Par exemple, vous voudrez peut-être savoir quels mots ou expressions ont été utilisés le plus fréquemment dans le texte. Encore une fois, ce type d’analyse se fait le plus souvent directement avec des programmes informatiques.

L’analyse de contenu présente plusieurs problèmes que vous devez garder à l’esprit. Tout d’abord, vous êtes limité aux types d’informations disponibles sous forme de texte. Si vous étudiez la façon dont une nouvelle est traitée par les médias d’information, vous auriez probablement une population prête à l’emploi de nouvelles à partir desquelles vous pourriez échantillonner. Cependant, si vous souhaitez étudier le point de vue des gens sur la peine capitale, vous avez moins de chances de trouver une archive de documents texte qui serait appropriée. Deuxièmement, vous devez être particulièrement prudent avec l’échantillonnage afin d’éviter les biais. Par exemple, une étude de la recherche actuelle sur les méthodes de traitement du cancer pourrait utiliser la littérature publiée comme population. Cela laisserait de côté à la fois les écrits sur le cancer qui n’ont pas été publiés pour une raison ou une autre ainsi que les travaux les plus récents qui n’ont pas encore été publiés. Enfin, vous devez faire attention à l’interprétation des résultats des analyses de contenu automatisées. Un programme informatique ne peut pas déterminer ce que quelqu’un voulait dire par un terme ou une phrase. Il est relativement facile dans une grande analyse de mal interpréter un résultat car vous n’avez pas pris en compte les subtilités du sens.

Cependant, l’analyse de contenu a l’avantage d’être discrète et, selon qu’il existe des méthodes automatisées, peut être une méthode relativement rapide pour analyser de grandes quantités de texte.

Analyse secondaire des données

L’analyse secondaire, comme l’analyse de contenu, utilise des sources de données déjà existantes. Cependant, l’analyse secondaire se réfère généralement à la réanalyse de données quantitatives plutôt qu’au texte.

Dans notre monde moderne, il existe une masse incroyable de données qui sont régulièrement collectées par les gouvernements, les entreprises, les écoles et d’autres organisations. Une grande partie de ces informations sont stockées dans des bases de données électroniques accessibles et analysables. De plus, de nombreux projets de recherche stockent leurs données brutes sous forme électronique dans des archives informatiques afin que d’autres puissent également analyser les données. Parmi les données disponibles pour l’analyse secondaire figurent:

  • données du bureau du recensement
  • dossiers criminels
  • données d’essais normalisées
  • données économiques
  • données sur les consommateurs

L’analyse secondaire consiste souvent à combiner des informations provenant de plusieurs bases de données pour examiner des questions de recherche. Par exemple, vous pouvez joindre des données sur la criminalité à des informations de recensement pour évaluer les tendances du comportement criminel par emplacement géographique et par groupe.

L’analyse secondaire présente plusieurs avantages. D’abord, c’est efficace. Il utilise des données qui ont déjà été collectées par quelqu’un d’autre. C’est l’équivalent de la recherche du recyclage. Deuxièmement, cela vous permet souvent d’étendre considérablement la portée de votre étude. Dans de nombreux petits projets de recherche, il est impossible d’envisager de prélever un échantillon national en raison des coûts impliqués. De nombreuses bases de données archivées ont déjà une portée nationale et, en les utilisant, vous pouvez tirer parti d’un budget relativement faible pour une étude beaucoup plus vaste que si vous collectiez les données vous-même.

Cependant, l’analyse secondaire n’est pas sans difficultés. Il n’est souvent pas anodin d’accéder et de lier des données provenant de grandes bases de données complexes. Souvent, le chercheur doit faire des hypothèses sur les données à combiner et les variables qui sont agrégées de manière appropriée en indices. Peut-être plus important encore, lorsque vous utilisez des données collectées par d’autres, vous ne savez souvent pas quels problèmes se sont produits lors de la collecte de données d’origine. Les grandes études nationales bien financées sont généralement documentées de manière assez approfondie, mais même une documentation détaillée des procédures ne remplace souvent pas une expérience directe de collecte de données.

L’un des objectifs les plus importants et les moins utilisés de l’analyse secondaire est de reproduire les résultats de recherche antérieurs. Dans toute analyse de données originale, il existe un risque d’erreurs. De plus, chaque analyste de données a tendance à aborder l’analyse de son propre point de vue à l’aide d’outils analytiques qu’il connaît bien. Dans la plupart des recherches, les données ne sont analysées qu’une seule fois par l’équipe de recherche d’origine. Cela semble un gâchis terrible. Les données qui auraient pu prendre des mois ou des années à recueillir ne sont examinées qu’une seule fois de manière relativement brève et du point de vue d’un analyste. Dans la recherche sociale, nous faisons généralement un travail terrible de documenter et d’archiver les données des études individuelles et de les rendre disponibles sous forme électronique pour que d’autres puissent les analyser à nouveau. Et, nous avons tendance à accorder peu de crédit professionnel aux études qui sont des réanalyses. Néanmoins, dans les sciences dures, la tradition de la reproductibilité des résultats est essentielle et nous, dans les sciences sociales appliquées, pourrions bénéficier en orientant davantage nos efforts vers l’analyse secondaire des données existantes.



+