Unauffällige Maßnahmen sind Maßnahmen, bei denen der Forscher nicht in den Forschungskontext eingreifen muss. Direkte und teilnehmende Beobachtung erfordern, dass der Forscher physisch anwesend ist. Dies kann dazu führen, dass die Befragten ihr Verhalten ändern, um in den Augen des Forschers gut auszusehen. Ein Fragebogen ist eine Unterbrechung des natürlichen Verhaltensstroms. Die Befragten können es leid sein, eine Umfrage auszufüllen oder sich über die gestellten Fragen zu ärgern.
Unauffällige Messung reduziert vermutlich die Verzerrungen, die sich aus dem Eindringen des Forschers oder Messinstruments ergeben. Unauffällige Maßnahmen verringern jedoch den Grad, in dem der Forscher die Kontrolle über die Art der gesammelten Daten hat. Für einige Konstrukte stehen möglicherweise keine unauffälligen Maßnahmen zur Verfügung.
Drei Arten der unauffälligen Messung werden hier diskutiert.
Indirekte Maßnahmen
Eine indirekte Maßnahme ist eine unauffällige Maßnahme, die in einem Forschungskontext natürlich vorkommt. Der Forscher ist in der Lage, die Daten zu sammeln, ohne ein formales Messverfahren einzuführen.
Die Arten indirekter Maßnahmen, die möglicherweise verfügbar sind, sind nur durch die Vorstellungskraft und den Erfindungsreichtum des Forschers begrenzt. Angenommen, Sie möchten die Beliebtheit verschiedener Exponate in einem Museum messen. Es kann möglich sein, eine Art mechanisches Messsystem einzurichten, das für die Museumspaten unsichtbar ist. In einer Studie war das System einfach. Das Museum installierte neue Bodenfliesen vor jedem Exponat, an dem gemessen werden sollte, und maß nach einiger Zeit den Verschleiß der Fliesen als indirektes Maß für den Besucherverkehr und das Interesse. Wir könnten diesen Ansatz durch elektronische Maßnahmen erheblich verbessern. Wir könnten zum Beispiel ein elektrisches Gerät konstruieren, das Bewegungen vor einem Exponat wahrnimmt. Oder wir könnten versteckte Kameras platzieren und das Interesse anhand von Videobeweisen codieren.
Eine meiner bevorzugten indirekten Maßnahmen fand in einer Studie über Hörpräferenzen von Radiosendern statt. Anstatt eine aufdringliche Umfrage oder ein Interview über Lieblingsradiosender durchzuführen, gingen die Forscher zu lokalen Autohändlern und Werkstätten und überprüften alle Autos, die gewartet wurden, um zu sehen, auf welchen Sender das Radio gerade eingestellt war. In ähnlicher Weise, wenn Sie Magazin Vorlieben wissen wollen, könnten Sie durch den Müll Ihrer Probe wühlen oder sogar eine Tür-zu-Tür-Magazin Recycling-Aufwand inszenieren.
Diese Beispiele veranschaulichen einen der wichtigsten Punkte bei indirekten Maßnahmen – Sie müssen sehr vorsichtig mit der Ethik dieser Art von Messung sein. In einer indirekten Maßnahme sammeln Sie per Definition Informationen ohne das Wissen des Befragten. Auf diese Weise verletzen Sie möglicherweise ihr Recht auf Privatsphäre und verwenden mit Sicherheit keine Einverständniserklärung. Natürlich können einige Arten von Informationen öffentlich sein und daher keinen Eingriff in die Privatsphäre darstellen.
Es kann Zeiten geben, in denen eine indirekte Maßnahme angemessen, leicht verfügbar und ethisch vertretbar ist. Wie bei allen Messungen sollten Sie jedoch unbedingt versuchen, die Zuverlässigkeit und Validität der Messungen abzuschätzen. Zum Beispiel könnte das Sammeln von Radiosenderpräferenzen zu zwei verschiedenen Zeiträumen und das Korrelieren der Ergebnisse nützlich sein, um die Zuverlässigkeit von Test-Retests zu bewerten. Oder Sie können die indirekte Kennzahl zusammen mit anderen direkten Kennzahlen desselben Konstrukts (möglicherweise in einer Pilotstudie) einbeziehen, um die Konstruktvalidität zu ermitteln.
Inhaltsanalyse
Inhaltsanalyse ist die Analyse von Textdokumenten. Die Analyse kann quantitativ, qualitativ oder beides sein. In der Regel besteht der Hauptzweck der Inhaltsanalyse darin, Muster im Text zu identifizieren. Inhaltsanalyse ist ein extrem breites Forschungsgebiet. Es beinhaltet:
- Thematische Analyse des Textes. Die Identifizierung von Themen oder Hauptideen in einem Dokument oder einer Reihe von Dokumenten. Die Dokumente können jede Art von Text sein, einschließlich Feldnotizen, Zeitungsartikel, technische Papiere oder organisatorische Notizen.
- Indizierung. Es gibt eine Vielzahl automatisierter Methoden zum schnellen Indizieren von Textdokumenten. Die Key Words in Context (KWIC)-Analyse ist eine Computeranalyse von Textdaten. Ein Computerprogramm scannt den Text und indiziert alle Schlüsselwörter. Ein Schlüsselwort ist ein beliebiger Begriff im Text, der nicht in einem Ausnahmewörterbuch enthalten ist. Normalerweise würden Sie ein Ausnahmewörterbuch einrichten, das alle nicht wesentlichen Wörter wie „ist“, „und“ und „von“ enthält. Alle Schlüsselwörter sind alphabetisch geordnet und werden mit dem vorangestellten und nachfolgenden Text aufgelistet, sodass der Forscher das Wort in dem Kontext sehen kann, in dem es im Text vorkommt. In einer Analyse des Interviewtextes konnte man beispielsweise leicht alle Verwendungen des Begriffs „Missbrauch“ und den Kontext, in dem sie verwendet wurden, identifizieren.
- Quantitative deskriptive Analyse. Hier geht es darum, Merkmale des Textes quantitativ zu beschreiben. Zum Beispiel möchten Sie vielleicht herausfinden, welche Wörter oder Phrasen am häufigsten im Text verwendet wurden. Auch diese Art der Analyse wird meistens direkt mit Computerprogrammen durchgeführt.
Die Inhaltsanalyse hat mehrere Probleme, die Sie beachten sollten. Erstens sind Sie auf die Arten von Informationen beschränkt, die in Textform verfügbar sind. Wenn Sie studieren, wie eine Nachricht von den Nachrichtenmedien behandelt wird, hätten Sie wahrscheinlich eine fertige Population von Nachrichten, aus denen Sie probieren könnten. Wenn Sie jedoch daran interessiert sind, die Ansichten der Menschen zur Todesstrafe zu studieren, finden Sie mit geringerer Wahrscheinlichkeit ein Archiv mit geeigneten Textdokumenten. Zweitens müssen Sie beim Sampling besonders vorsichtig sein, um Verzerrungen zu vermeiden. Zum Beispiel könnte eine Studie der aktuellen Forschung über Methoden der Behandlung von Krebs die veröffentlichte Literatur als die Bevölkerung verwenden. Dies würde sowohl das Schreiben über Krebs, das aus dem einen oder anderen Grund nicht veröffentlicht wurde, als auch das neueste Werk, das noch nicht veröffentlicht wurde, auslassen. Schließlich müssen Sie bei der Interpretation von Ergebnissen automatisierter Inhaltsanalysen vorsichtig sein. Ein Computerprogramm kann nicht bestimmen, was jemand mit einem Begriff oder einer Phrase meint. In einer großen Analyse ist es relativ einfach, ein Ergebnis falsch zu interpretieren, weil Sie die Feinheiten der Bedeutung nicht berücksichtigt haben.
Die Inhaltsanalyse hat jedoch den Vorteil, dass sie unauffällig ist und je nachdem, ob automatisierte Methoden existieren, eine relativ schnelle Methode zur Analyse großer Textmengen sein kann.
Sekundäranalyse von Daten
Die Sekundäranalyse nutzt wie die Inhaltsanalyse bereits vorhandene Datenquellen. Die Sekundäranalyse bezieht sich jedoch in der Regel auf die erneute Analyse quantitativer Daten anstelle von Text.
In unserer modernen Welt gibt es eine unglaubliche Masse an Daten, die routinemäßig von Regierungen, Unternehmen, Schulen und anderen Organisationen gesammelt werden. Ein Großteil dieser Informationen wird in elektronischen Datenbanken gespeichert, auf die zugegriffen und die analysiert werden können. Darüber hinaus speichern viele Forschungsprojekte ihre Rohdaten in elektronischer Form in Computerarchiven, damit auch andere die Daten analysieren können. Zu den für die Sekundäranalyse verfügbaren Daten gehören:
- census Bureau Daten
- crime records
- standardisierte Testdaten
- Wirtschaftsdaten
- Verbraucherdaten
Bei der Sekundäranalyse werden häufig Informationen aus mehreren Datenbanken kombiniert, um Forschungsfragen zu untersuchen. Sie können beispielsweise Kriminalitätsdaten mit Volkszählungsinformationen verknüpfen, um Muster im kriminellen Verhalten nach geografischem Standort und Gruppe zu bewerten.
Die Sekundäranalyse hat mehrere Vorteile. Erstens ist es effizient. Es nutzt Daten, die bereits von jemand anderem gesammelt wurden. Es ist das Forschungsäquivalent zum Recycling. Zweitens ermöglicht es Ihnen oft, den Umfang Ihrer Studie erheblich zu erweitern. In vielen kleinen Forschungsprojekten ist es aufgrund der damit verbundenen Kosten nicht möglich, eine nationale Stichprobe in Betracht zu ziehen. Viele archivierte Datenbanken haben bereits einen nationalen Umfang, und wenn Sie sie verwenden, können Sie ein relativ kleines Budget für eine viel breitere Studie verwenden, als wenn Sie die Daten selbst gesammelt hätten.
Die Sekundäranalyse ist jedoch nicht ohne Schwierigkeiten. Häufig ist es nicht trivial, auf Daten aus großen komplexen Datenbanken zuzugreifen und diese zu verknüpfen. Oft muss der Forscher Annahmen darüber treffen, welche Daten kombiniert werden sollen und welche Variablen angemessen zu Indizes aggregiert werden. Vielleicht noch wichtiger ist, wenn Sie Daten verwenden, die von anderen gesammelt wurden, wissen Sie oft nicht, welche Probleme bei der ursprünglichen Datenerfassung aufgetreten sind. Große, gut finanzierte nationale Studien werden in der Regel recht gründlich dokumentiert, aber selbst eine detaillierte Dokumentation der Verfahren ist oft kein Ersatz für direkte Erfahrungen mit der Datenerhebung.
Einer der wichtigsten und am wenigsten genutzten Zwecke der Sekundäranalyse ist die Replikation früherer Forschungsergebnisse. In jeder ursprünglichen Datenanalyse besteht das Potenzial für Fehler. Darüber hinaus neigt jeder Datenanalyst dazu, die Analyse aus seiner eigenen Perspektive mit Analysetools zu betrachten, mit denen er vertraut ist. In den meisten Untersuchungen werden die Daten nur einmal vom ursprünglichen Forschungsteam analysiert. Es scheint eine schreckliche Verschwendung zu sein. Daten, deren Erfassung Monate oder Jahre gedauert hat, werden nur einmal relativ kurz und aus der Sicht eines Analysten untersucht. In der Sozialforschung machen wir in der Regel einen schrecklichen Job, die Daten aus einzelnen Studien zu dokumentieren, zu archivieren und in elektronischer Form für andere zur Verfügung zu stellen, um sie erneut zu analysieren. Und wir neigen dazu, Studien, die Re-Analysen sind, wenig professionelle Anerkennung zu geben. Nichtsdestotrotz ist in den harten Wissenschaften die Tradition der Replizierbarkeit von Ergebnissen kritisch, und wir in den angewandten Sozialwissenschaften könnten davon profitieren, wenn wir mehr Anstrengungen auf die Sekundäranalyse vorhandener Daten richten.