Misure non invadenti

Le misure non invadenti sono misure che non richiedono al ricercatore di intromettersi nel contesto della ricerca. L’osservazione diretta e partecipante richiede che il ricercatore sia fisicamente presente. Questo può portare gli intervistati a modificare il loro comportamento al fine di guardare bene agli occhi del ricercatore. Un questionario è un’interruzione nel flusso naturale del comportamento. Gli intervistati possono stancarsi di compilare un sondaggio o risentito delle domande poste.

La misurazione non invadente riduce presumibilmente i pregiudizi derivanti dall’intrusione del ricercatore o dello strumento di misurazione. Tuttavia, le misure discrete riducono il grado in cui il ricercatore ha il controllo sul tipo di dati raccolti. Per alcuni costrutti potrebbero semplicemente non esserci misure discrete disponibili.

Tre tipi di misurazione non invadente sono discussi qui.

Misure indirette

Una misura indiretta è una misura non invadente che si verifica naturalmente in un contesto di ricerca. Il ricercatore è in grado di raccogliere i dati senza introdurre alcuna procedura di misurazione formale.

I tipi di misure indirette che possono essere disponibili sono limitati solo dall’immaginazione e dall’inventiva del ricercatore. Per esempio, diciamo che si desidera misurare la popolarità di varie mostre in un museo. Potrebbe essere possibile impostare un tipo di sistema di misurazione meccanico invisibile ai visitatori del museo. In uno studio, il sistema era semplice. Il museo ha installato nuove piastrelle di fronte a ogni mostra su cui volevano una misurazione e, dopo un periodo di tempo, ha misurato l’usura delle piastrelle come misura indiretta del traffico e dell’interesse dei visitatori. Potremmo essere in grado di migliorare notevolmente questo approccio utilizzando misure elettroniche. Potremmo, ad esempio, costruire un dispositivo elettrico che percepisce il movimento di fronte a una mostra. O potremmo piazzare telecamere nascoste e interessi del mecenate in base a prove registrate.

Una delle mie misure indirette preferite si è verificata in uno studio sulle preferenze di ascolto delle stazioni radio. Piuttosto che condurre un sondaggio o un’intervista invadente sulle stazioni radio preferite, i ricercatori sono andati ai concessionari di auto locali e ai garage e hanno controllato tutte le auto che venivano servite per vedere a quale stazione la radio era attualmente sintonizzata. In modo simile, se vuoi conoscere le preferenze della rivista, potresti rovistare nella spazzatura del tuo campione o persino mettere in scena uno sforzo di riciclaggio porta a porta della rivista.

Questi esempi illustrano uno dei punti più importanti sulle misure indirette: bisogna stare molto attenti all’etica di questo tipo di misura. In una misura indiretta, stai, per definizione, raccogliendo informazioni all’insaputa del rispondente. In tal modo, potresti violare il loro diritto alla privacy e certamente non stai usando il consenso informato. Naturalmente, alcuni tipi di informazioni possono essere pubbliche e quindi non comportano un’invasione della privacy.

Ci possono essere momenti in cui una misura indiretta è appropriata, prontamente disponibile ed etica. Proprio come con tutte le misure, tuttavia, si dovrebbe essere sicuri di tentare di stimare l’affidabilità e la validità delle misure. Ad esempio, raccogliere le preferenze delle stazioni radio in due diversi periodi di tempo e correlare i risultati potrebbe essere utile per valutare l’affidabilità del test-retest. Oppure, puoi includere la misura indiretta insieme ad altre misure dirette dello stesso costrutto (forse in uno studio pilota) per aiutare a stabilire la validità del costrutto.

Analisi dei contenuti

L’analisi dei contenuti è l’analisi dei documenti di testo. L’analisi può essere quantitativa, qualitativa o entrambe. In genere, lo scopo principale dell’analisi del contenuto è identificare i modelli nel testo. L’analisi dei contenuti è un’area di ricerca estremamente ampia. Esso comprende:

  • Analisi tematica del testo. L’identificazione di temi o idee principali in un documento o insieme di documenti. I documenti possono essere qualsiasi tipo di testo tra cui note sul campo, articoli di giornale, documenti tecnici o memo organizzativi.
  • Indicizzazione. Esistono un’ampia varietà di metodi automatizzati per indicizzare rapidamente i documenti di testo. Ad esempio, l’analisi Key Words in Context (KWIC) è un’analisi computerizzata dei dati di testo. Un programma per computer esegue la scansione del testo e indicizza tutte le parole chiave. Una parola chiave è qualsiasi termine nel testo che non è incluso in un dizionario di eccezione. In genere si imposta un dizionario di eccezioni che include tutte le parole non essenziali come “is”,” and “e”of”. Tutte le parole chiave sono alfabetizzate e sono elencate con il testo che lo precede e lo segue in modo che il ricercatore possa vedere la parola nel contesto in cui si è verificata nel testo. In un’analisi del testo dell’intervista, ad esempio, si potrebbe facilmente identificare tutti gli usi del termine “abuso” e il contesto in cui sono stati utilizzati.
  • Analisi descrittiva quantitativa. Qui lo scopo è quello di descrivere le caratteristiche del testo quantitativamente. Ad esempio, potresti voler scoprire quali parole o frasi sono state usate più frequentemente nel testo. Ancora una volta, questo tipo di analisi viene spesso eseguita direttamente con programmi per computer.

L’analisi dei contenuti presenta diversi problemi da tenere a mente. In primo luogo, si sono limitati ai tipi di informazioni disponibili in forma di testo. Se stai studiando il modo in cui una notizia viene gestita dai media, probabilmente avresti una popolazione pronta di notizie da cui potresti campionare. Tuttavia, se sei interessato a studiare le opinioni delle persone sulla pena capitale, hai meno probabilità di trovare un archivio di documenti di testo che sarebbe appropriato. In secondo luogo, devi essere particolarmente attento con il campionamento per evitare pregiudizi. Ad esempio, uno studio delle attuali ricerche sui metodi di trattamento per il cancro potrebbe utilizzare la letteratura pubblicata come popolazione. Ciò lascerebbe fuori sia la scrittura sul cancro che non è stata pubblicata per un motivo o per un altro, sia il lavoro più recente che non è stato ancora pubblicato. Infine, è necessario fare attenzione a interpretare i risultati delle analisi dei contenuti automatizzati. Un programma per computer non può determinare ciò che qualcuno intendeva con un termine o una frase. È relativamente facile in una grande analisi interpretare erroneamente un risultato perché non hai preso in considerazione le sottigliezze del significato.

Tuttavia, l’analisi dei contenuti ha il vantaggio di non essere invadente e, a seconda che esistano metodi automatizzati, può essere un metodo relativamente rapido per analizzare grandi quantità di testo.

Analisi secondaria dei dati

L’analisi secondaria, come l’analisi dei contenuti, fa uso di fonti di dati già esistenti. Tuttavia, l’analisi secondaria si riferisce tipicamente alla rianalisi dei dati quantitativi piuttosto che al testo.

Nel nostro mondo moderno c’è un’incredibile massa di dati che viene raccolta abitualmente da governi, aziende, scuole e altre organizzazioni. Molte di queste informazioni sono memorizzate in database elettronici a cui è possibile accedere e analizzare. Inoltre, molti progetti di ricerca memorizzano i loro dati grezzi in forma elettronica in archivi informatici in modo che altri possano anche analizzare i dati. Tra i dati disponibili per l’analisi secondaria è:

  • census bureau data
  • crime records
  • standardized testing data
  • economic data
  • consumer data

Secondary analysis often involve combining information from multiple databases to examine research questions. Ad esempio, è possibile unire i dati sulla criminalità con le informazioni del censimento per valutare i modelli di comportamento criminale in base alla posizione geografica e al gruppo.

L’analisi secondaria presenta diversi vantaggi. In primo luogo, è efficiente. Fa uso di dati che sono stati già raccolti da qualcun altro. È l’equivalente di ricerca del riciclaggio. In secondo luogo, spesso ti consente di estendere considerevolmente l’ambito del tuo studio. In molti piccoli progetti di ricerca è impossibile prendere in considerazione un campione nazionale a causa dei costi. Molti database archiviati sono già di portata nazionale e, utilizzandoli, è possibile sfruttare un budget relativamente piccolo in uno studio molto più ampio rispetto a quando si sono raccolti i dati da soli.

Tuttavia, l’analisi secondaria non è priva di difficoltà. Spesso non è banale accedere e collegare dati da database complessi di grandi dimensioni. Spesso il ricercatore deve fare ipotesi su quali dati combinare e quali variabili sono opportunamente aggregate in indici. Forse ancora più importante, quando si utilizzano i dati raccolti da altri spesso non si sa quali problemi si sono verificati nella raccolta dei dati originali. Gli studi nazionali di grandi dimensioni e ben finanziati sono generalmente documentati abbastanza accuratamente, ma anche una documentazione dettagliata delle procedure spesso non sostituisce l’esperienza diretta di raccolta dei dati.

Uno degli scopi più importanti e meno utilizzati dell’analisi secondaria è quello di replicare i risultati della ricerca precedente. In qualsiasi analisi dei dati originali c’è il potenziale di errori. Inoltre, ogni analista di dati tende ad affrontare l’analisi dal proprio punto di vista utilizzando strumenti analitici che hanno familiarità con. Nella maggior parte delle ricerche i dati vengono analizzati solo una volta dal team di ricerca originale. Sembra uno spreco terribile. I dati che potrebbero aver richiesto mesi o anni per la raccolta vengono esaminati solo una volta in modo relativamente breve e dal punto di vista di un analista. Nella ricerca sociale in genere facciamo un lavoro terribile di documentare e archiviare i dati provenienti da studi individuali e renderli disponibili in forma elettronica per gli altri a ri-analizzare. E, tendiamo a dare poco credito professionale agli studi che sono ri-analisi. Tuttavia, nelle scienze dure la tradizione della replicabilità dei risultati è critica e noi nelle scienze sociali applicate potremmo trarre beneficio indirizzando più dei nostri sforzi all’analisi secondaria dei dati esistenti.



+