Entdecken Sie Millionen von E-Books, Hörbüchern und vieles mehr mit einer kostenlosen Testversion

Nur $11.99/Monat nach der Testphase. Jederzeit kündbar.

Handbuch standardisierte Erhebungsverfahren in der Kommunikationswissenschaft
Handbuch standardisierte Erhebungsverfahren in der Kommunikationswissenschaft
Handbuch standardisierte Erhebungsverfahren in der Kommunikationswissenschaft
eBook662 Seiten7 Stunden

Handbuch standardisierte Erhebungsverfahren in der Kommunikationswissenschaft

Bewertung: 0 von 5 Sternen

()

Vorschau lesen

Über dieses E-Book

Dieses Handbuch bietet einen umfassenden Überblick über Methodologie, Forschungsdesigns sowie Erhebungsmethoden der standardisierten Kommunikationsforschung. Der erste Teil des Buches ist methodologischen Grundlagen gewidmet, die das Forschungsdesign und das generelle methodische Vorgehen betreffen. Die folgenden Teile nehmen jeweils eine der klassischen Erhebungsmethoden (Befragung, Inhaltsanalyse und Beobachtung) in den Fokus. In den einzelnen Beiträgen werden Grundprinzipien, kommunikationswissenschaftliche Anwendungsbereiche sowie aktuelle methodische und technische Varianten fundiert vorgestellt, diskutiert und evaluiert.
SpracheDeutsch
HerausgeberSpringer VS
Erscheinungsdatum15. Aug. 2013
ISBN9783531187761
Handbuch standardisierte Erhebungsverfahren in der Kommunikationswissenschaft

Ähnlich wie Handbuch standardisierte Erhebungsverfahren in der Kommunikationswissenschaft

Ähnliche E-Books

Sprachkunst & Disziplin für Sie

Mehr anzeigen

Ähnliche Artikel

Rezensionen für Handbuch standardisierte Erhebungsverfahren in der Kommunikationswissenschaft

Bewertung: 0 von 5 Sternen
0 Bewertungen

0 Bewertungen0 Rezensionen

Wie hat es Ihnen gefallen?

Zum Bewerten, tippen

Die Rezension muss mindestens 10 Wörter umfassen

    Buchvorschau

    Handbuch standardisierte Erhebungsverfahren in der Kommunikationswissenschaft - Springer VS

    Standardisierte Erhebungsverfahren in der Kommunikationswissenschaft: Einführung und forschungsethische Grundlagen

    © Springer Fachmedien Wiesbaden 2013

    Wiebke Möhring und Daniela Schlütz (Hrsg.)Handbuch standardisierte Erhebungsverfahren in der Kommunikationswissenschaft10.1007/978-3-531-18776-1_1

    Standardisierte Erhebungsverfahren in der Kommunikationswissenschaft: Einführung und forschungsethische Grundlagen

    Daniela Schlütz und Wiebke Möhring

    1 Ein Wort vorab: Ziel und Anliegen dieses Handbuchs

    Empirische Forschung in der Kommunikationswissenschaft blickt auf eine lange Tradition zurück. Viele Fragen, die in unserem Fach bearbeitet werden, können am besten mittels einer sinnvollen Kombination theoretischer Überlegungen und empirischer Untersuchungsanlagen beantwortet werden. Das vorliegende Handbuch widmet sich den standardisierten Methoden und Verfahren der empirischen Sozialforschung. Es ist angelegt als umfassendes Kompendium dieser Erhebungsverfahren, die im Rahmen kommunikationswissenschaftlicher Studien angewandt werden. Namhafte Autorinnen und Autoren diskutieren deren methodologische Grundlagen, unterschiedliche Studiendesigns und geben einen Überblick über die relevanten Methoden und deren Anwendung.

    Das Ziel des Buches besteht darin, die Möglichkeiten und Varianten quantitativ-empirischer Forschung umfassend und systematisch darzustellen und dabei die wichtigsten Methodenentwicklungen in der Kommunikationswissenschaft aufzuzeigen. Jeder Beitrag stellt kompakt einen spezifischen methodologischen Aspekt, ein Verfahren bzw. eine Methode dar, diskutiert Chancen und Herausforderungen und zeigt Anwendungsbereiche in der kommunikationswissenschaftlichen Forschung. Für eine ausführlichere Auseinandersetzung mit dem Thema verweisen die Autorinnen und Autoren auf weiterführende Literatur.

    Zielgruppe des Handbuches sind Wissenschaftlerinnen und Wissenschaftler, die sich einen ebenso breiten wie fundierten Überblick über kommunikationswissenschaftliche Erhebungsverfahren verschaffen oder sich über einzelne Methoden informieren wollen. Um dem Methodenspektrum der Kommunikationswissenschaft ausreichend Raum zu geben, beschränkt sich der vorliegende Band auf standardisierte Erhebungsverfahren. Ein weiteres Handbuch wird das qualitative Methodenspektrum behandeln. Diese Trennung bedeutet nicht, dass quantitative und qualitative Methoden nicht sinnvoll miteinander kombiniert werden können und auch in vielen Fällen kombiniert werden. Sie trägt vielmehr den Tatsachen Rechnung, dass sich erstens die methodologischen Grundlagen und Zugänge deutlich voneinander unterscheiden und zweitens, dass das jeweilige Instrumentarium inzwischen so breit geworden ist, dass es im Rahmen eines einzelnen Handbuches nicht mehr umfassend behandelt werden kann.

    2 Ethische Aspekte kommunikationswissenschaftlicher Forschung

    Ein Handbuch, welches sich mit empirischer Forschung befasst, muss auch Fragen berücksichtigen, die sich aus forschungsethischen Überlegungen ergeben. Dies ist insbesondere bei solchen kommunikationswissenschaftlichen Studien der Fall, die menschliches Verhalten, persönliche Einstellungen, Meinungen und Motive in den Mittelpunkt ihrer Datenerhebung stellen. In den einzelnen Beiträgen des Handbuchs nehmen die Autorinnen und Autoren je nach dargestellter Methode bereits Bezug auf hier relevante Aspekte. Um der Bedeutung forschungsethischer Überlegungen darüber hinaus Rechnung zu tragen, wollen wir vorab einige für alle Designs und Methoden geltenden Überlegungen in die Diskussion einbringen. Eine grundsätzliche Auseinandersetzung mit wissenschaftsethischen Standpunkten findet sich etwa bei Fuchs et al. (2010) oder Patry (2002). Wir werden uns in diesem Abschnitt vor allem auf die Aspekte beziehen, die in kommunikationswissenschaftlichen Studien zu bedenken sind. Im Vordergrund steht also weniger eine wissenschaftsethische oder moralphilosophische Auseinandersetzung mit der Wissenschaft als gesellschaftlichem Teilsystem oder den grundsätzlichen Regeln guter wissenschaftlicher Praxis (vgl. dazu Fuchs 2010), als vielmehr die Diskussion konkreter Handlungen (also einer Forschungsmoral) im Rahmen empirischer Studien. Wir nehmen dabei auch Bezug auf eingeführte Kodizes, da sie, einem Standesethos vergleichbar, die „moralisch verbindliche Üblichkeiten einer Gruppe" (Fuchs 2010: 43) verbalisieren.Eingedenk des Handbuch-Themas beziehen wir uns dabei vorwiegend auf den Prozess der Datenerhebung. Zusätzlich zu forschungsethischen Rahmenbedingungen sind in der empirischen Forschung auch eine ganze Reihe von rechtlichen Aspekten zu bedenken, die sich etwa aus dem Datenschutz, dem Verbraucherschutz oder dem Schutz Minderjähriger ergeben. Hier haben insbesondere kommerziell arbeitende Institute bzw. deren Verbände entsprechende Richtlinien entwickelt, die bei der konkreten Umsetzung hilfreich sein können (wie etwa die des Arbeitskreises deutscher Markt- und Sozialforschungsinstitute unter http://​www.​adm-ev.​de).

    Eine Auseinandersetzung mit moralischen Fragen in der Forschung findet bisher vorwiegend in den Wissenschaftsbereichen statt, die beobachtend, häufig auch experimentell Daten erheben. Dies ist etwa in den Naturwissenschaften der Fall, hier vor allem in der Medizin (z. B. Fuchs et al. 2010) aber auch - unserem Fach näher - in der Psychologie (z. B. Patry 2002). Die Kommunikationswissenschaft hat bislang kein eigenes umfassendes Werk zur Forschungsethik hervorgebracht; wenngleich einige Methodenbücher den Problembereich kurz anreißen (z. B. Bortz & Döring 2006: 41-45) und Schorr (2011) einen Vorschlag für ein Kompendium von Ethikregeln für Medienforschung und Medienpraxis macht. Darüber hinaus existieren konkrete Auseinandersetzungen mit guter wissenschaftlicher Praxis im Allgemeinen (z. B. DFG 1998).

    Heinrichs (2010: 65) formuliert drei konkrete Grundsätze für die Forschung mit Menschen: Selbstbestimmungsprinzip, Nichtschadenprinzip und Gerechtigkeitsprinzip (vgl. auch Patry 2002: 14). Sie alle basieren auf dem Prinzip der Würde des Menschen und dem daraus resultierenden Instrumentalisierungsverbot. Prämisse jeder Forschung ist also zunächst die zu respektierende Würde der Probandinnen und Probanden. Sie sind als Subjekte zu betrachten und nicht als Objekte mit rein instrumentellem Wert. So sind Befragungspersonen auch in einem standardisierten Interview keine reinen „Merkmalsträger", sondern Informandinnen bzw. Informanden (vgl. Kromrey 2009: 367). Das sollte sich auch in einer entsprechenden Wortwahl niederschlagen.

    Aus den drei genannten Grundsätzen lassen sich wiederum konkrete Handlungsprinzipien für die Forschung ableiten:

    (1) Informierte Einwilligung (Informed Consent; Heinrichs 2010: 67-72; Patry 2002: 44 -62): Das Prinzip der Selbstbestimmung impliziert das Recht auf freie, informierte und widerrufbare Zustimmung zur Teilnahme an wissenschaftlichen Studien - oder eben deren Ablehnung. Die Zustimmung von Probandinnen und Probanden zur Teilnahme muss freiwillig geschehen und auf umfassenden und verständlichen Informationen basieren. Dieses gilt z. B. auch für kommunikationswissenschaftliche Befragungsstudien, da hier das Recht auf informationelle Selbstbestimmung tangiert wird. Der Datenschutz muss also stets beachtet werden. Wenn dem so ist, kann im Falle einer anonymen Umfrage am ehesten auf eine förmliche Einwilligung verzichtet werden (vgl. Abschnitt C.III.6 der ethischen Richtlinien der Deutschen Gesellschaft für Psychologie (DGP) und des Berufsverbandes Deutscher Psychologinnen und Psychologen (BDP)1999). Trotzdem müssen die Teilnehmenden im Einladungsschreiben über den Zweck der Umfrage informiert werden und darüber, wie die Daten verwendet werden sollen. Wichtig ist darüber hinaus die Nennung einer Kontaktperson für weitere Fragen (vgl. auch Schorr 2011: 117-120).

    Besonders beachtenswert ist dieser Punkt bei besonderen Gruppen wie z. B. Minderjährigen. Deren Einwilligungsunfähigkeit bzw. eingeschränkte Zustimmungsfähigkeit kann bzw. muss durch andere Schutzvorschriften kompensiert werden wie etwa die stellvertretende Einwilligung der Eltern (Proxy Consent). Die Einwilligung sollte sowohl schriftlich als auch mündlich eingeholt werden, um individuelle Rückfragen zu ermöglichen. Im Groben sollte sie Informationen zu folgenden Bereichen enthalten: Freiwilligkeit und Widerrufbarkeit der Teilnahme, zu erwartende Entschädigung, Kontaktperson, Zweck und Dauer der Studie sowie deren Ablauf, mögliche Belastungen, Verwendung der Daten und Anonymitätszusicherung (Patry 2002: 54, vgl. auch Abschnitt C.III.3 der ethischen Richtlinien der DGP und des BDP 1999).

    Machen Fragestellung und/oder Versuchsanordnung eines spezifischen Forschungsvorhabens eine Täuschung der Teilnehmenden nötig (z. B. im Rahmen einer verdeckten Beobachtung oder eines Rezeptionsexperiments), so muss über diese so früh wie möglich, spätestens aber am Ende der Studie aufgeklärt werden (Debriefing). Die Aufklärung sollte der Richtigstellung der Täuschung dienen und eine Desensibilisierung durch die Studie entstandener Belastungen herbeiführen (Patry 2002: 96/97). Die Nicht-Information (auch einzelner Versuchsteilnehmender, z. B. der Kontrollgruppe) kann ebenfalls als Täuschung verstanden werden (vgl. Patry 2002: 89-97) und muss entsprechend behandelt werden.

    Zu jedem Zeitpunkt der Untersuchung ist die Ablehnung der Studienteilnahme (auch ohne Angabe von Gründen) gerechtfertigt, ohne dass daraus der ablehnenden Person negative Konsequenzen erwachsen. Dies ist insbesondere wichtig bei solchen Forschungsvorhaben, die mit studentischen Stichproben durchgeführt werden. Auch eine persönliche Beziehung zwischen Forschungsleitung und Probandinnen und Probanden darf nicht dazu führen, dass sich einzelne Personen gegen ihren Willen zur Teilnahme verpflichtet fühlen. Ähnliches gilt auch bei hochwertigen Incentives, die die Kooperationsbereitschaft erhöhen sollen. Sie schränken u. U. die Freiwilligkeit der Teilnahme ein und sollten daher vermieden werden.

    Bisher wenig diskutiert werden diese Aspekte im Rahmen der standardisierten Beobachtung. Insbesondere die verdeckte Beobachtung ist aber unter forschungsethischen Gesichtspunkten problematisch. Bisher wurde diese Methode im Rahmen quantitativ orientierter Projekte eher selten angewendet. Die fortschreitende Entwicklung onlinebasierter Beobachtungsmethoden lässt allerdings eine umfassende Auseinandersetzung damit drängender erscheinen (Fraas, Meier & Pentzold 2012: 188-193). Hier stehen z. B. Problemfelder wie die Definition und Abgrenzung von privater und öffentlicher Sphäre, die Deanonymisierung von Daten durch deren Aggregierung oder Rekombination bzw. Triangulation oder der Status der Identität von Pseudonymen oder Avataren im Fokus, die durch die vermeintliche Distanz zwischen forschenden und beforschten Personen noch verstärkt werden (vgl. Eynon, Schroeder & Fry 2009; Markham & Buchanan 2012).

    (2) Schaden-Nutzen-Abwägung (Heinrichs 2010: 72-75; Patry 2002: 65-78): Der Nutzen kommunikationswissenschaftlicher Forschung ist ganz allgemein der Erkenntnisgewinn. Für die Studienteilnehmenden kann ein Nutzen auch eine materielle oder immaterielle Entschädigung (zum Beispiel Kurs-Credits), der Spaß an der Teilnahme, die Befriedigung von Neugier oder die Erlangung von Selbsteinsicht sein. Diesem Nutzen steht gelegentlich, wenn kein Schaden (außer vielleicht einem Verlust an Zeit), so doch eine gewisse Belastung der Studienteilnehmenden gegenüber. Eine solche „subjektive Störung des Gesamtbefindens (Heinrichs 2010: 75) kann zum Beispiel auftreten, wenn eine Experimentalsituation generell Stress auslöst, Computerspiele im Rahmen einer Studie aggressiv oder Fernsehen traurig machen oder wenn eine Befragung unangenehme Themen berührt. Aber auch die häufig notwendige Irreführung von Probandinnen und Probanden im Rahmen experimenteller Forschung (Täuschung, s. o.) kann belastend wirken. So diese Störungen vorübergehend sind und sich auf die Dauer der Untersuchung oder der Befragung beschränken, sind sie hinnehmbar. Die entstandenen Belastungen können (und müssen) aber durch eine Aufklärung der Probandinnen und Probanden im Anschluss an die Studie gemindert werden. Wichtig für die Abwägung zwischen Schaden und Nutzen ist, dass nur „angemessene Belastungen billigend in Kauf genommen werden. Das sind in der Regel solche, die unvermeidbar sind. Eine Entscheidung darüber, ob eine Belastung tatsächlich unvermeidbar ist, kann nur im Einzelfall, häufig unter Einbeziehung einer Ethikkommission gefällt werden. Hier stellt sich beispielsweise die Frage, ob das Erkenntnisinteresse ausreichend groß ist oder ob die Studie verzichtbar wäre, da bereits vergleichbare Ergebnisse vorliegen oder auf andere methodische Art gewonnen werden könnten (etwa durch Sekundäranalysen).

    (3) Gerechte Auswahl der Probandinnen und Probanden (Heinrichs 2010: 76-79; Patry 2002: 79-87): Der dritte Punkt muss vor dem Hintergrund des eben diskutierten Aspektes betrachtet werden, denn aus der Auswahl der Versuchspersonen darf keine einseitige Verteilung von Nutzen und Lasten resultieren. Durch die Aufteilung in Gruppen im Rahmen von Experimentalstudien werden z. B. manche Versuchsteilnehmenden größeren Belastungen ausgesetzt als andere (etwa die Kontrollgruppe, vgl. Patry 2002: 23). Wichtig ist daher, die Einteilung unparteiisch, also z. B. zufallsgesteuert vorzunehmen. Eine solche Randomisierung wird aus methodischen Gründen vielfach ohnehin favorisiert. Die Kriterien zur Auswahl bzw. Gruppeneinteilung sollten sachlich und nachvollziehbar dokumentiert werden. Der systematische Ausschluss bestimmter Gruppen (z. B. solcher mit höherer Vulnerabilität) ist nicht gerecht, da diese dann u. U. von einem bestimmten Nutzen ausgeschlossen werden. Das gilt auch für Online-Forschung. Durch den beschränkten Zugang zum Internet werden manche Gruppen hier systematisch benachteiligt (Eynon, Schroeder & Fry 2009: 197) und werden daher nicht am Erkenntnisfortschritt beteiligt.

    Neben diesen inhaltlichen Kriterien haben sich spezifische prozedurale Bestimmungen etabliert, die gute wissenschaftliche Praxis unterstützen (Heinrichs 2010: 76-79). So dienen interdisziplinär zusammengesetzte Ethikkommissionen als Instrument wissenschaftlicher Selbstkontrolle. Ein Beispiel ist der Ethik-Ausschuss der Deutschen Gesellschaft für Publizistik und Kommunikationswissenschaft (DGPuK), der sich der Sicherung guter wissenschaftlicher Praxis auf der Basis der Empfehlungen der Deutschen Forschungsgemeinschaft (DFG 1998) verschrieben hat (vgl. www.​dgpuk.​de/​uber-diedgpuk/​ethikerklarung/​). In der deutschen Kommunikationswissenschaft ist es - anders als in den USA - bisher allerdings eher unüblich, einzelne Studien im Vorfeld von Ethikkommission bewilligen zu lassen. Im Rahmen von Begutachtungsprozessen bei der Drittmittelförderung ist das Verfahren eher etabliert. Desweiteren fördert das allgemeine Dokumentations- und Publikationsprinzip von empirischer Forschung die Transparenz und damit die gute wissenschaftliche Praxis. Dabei ist es allerdings wichtig, auch solche Studien öffentlich zugänglich zu machen, die keine signifikanten Ergebnisse erbracht haben. Das ist wichtig, um im Rahmen der Schaden-Nutzen-Abwägung beurteilen zu können, ob weitere Forschung überhaupt nötig ist. Entscheidend ist, dass dabei bestimmte Publikationsstandards (z. B. JARS Group 2008) beachtet werden, die Aufschluss über das Forschungsdesign geben, um dessen Informationswert beurteilen zu können. Schließlich liegen bereits Kodizes vor, die konkrete Handlungsanweisungen für die Forschungspraxis enthalten. Relevant für die Kommunikationswissenschaft sind z. B. die Empfehlung der DFG-Kommission ‚Selbstkontrolle der Wissenschaft‘ (DFG 1998), die zahlreiche Hinweise gibt etwa zur Institutionalisierung von Ombudsleuten und Kommissionen an einzelnen Hochschulen, aber auch konkrete Empfehlungen zur wissenschaftlichen Forschung enthält. Darüber hinaus gibt es ein Kompendium international gültiger Ethikregeln für Medienforschung und Medienpraxis (Schorr 2011: 123- 147). Aber auch die deutsche Gesellschaft für Psychologie und die Deutsche Gesellschaft für Soziologie sowie die entsprechende Berufsverbände (DGP & BDP 1999; DGS & BDS 1992) haben Richtlinien verabschiedet, die auf den entsprechenden Verbandswebsites veröffentlicht sind. Diese enthalten auch Grundsätze, die sich speziell auf die Forschung beziehen (wie etwa C.III. Grundsätze für Forschung und Publikation der ethischen Richtlinien der DGPs und des BDP 1999; vgl. auch APA 2010; zur Kritik an den Kodizes s. Patry 2002: 116-119).

    3 Zum Aufbau des Handbuches

    Das Handbuch ist in fünf Bereiche gegliedert. Teil A gibt einen Überblick über die methodologischen Grundlagen quantitativer Forschung. Teil B stellt besondere Untersuchungsdesigns vor. In den folgenden drei Teilen steht jeweils eine der Erhebungsmethoden Befragung, Inhaltsanalyse und Beobachtung im Fokus.

    Die quantitative Untersuchung sozialer Phänomene setzt voraus, dass die relevanten theoretischen Konzepte quantifiziert bzw. gemessen werden können. Der Beitrag von Rinaldo Kühne widmet sich daher den methodologischen Grundlagen wie dem Prozess der Verknüpfung von Theorie und Empirie. Er skizziert den idealtypischen Ablauf quantitativer Studien und erörtert, wie durch Konzeptspezifikation und Operationalisierung Indikatoren für theoretische Konzepte generiert werden. Darüber hinaus stellt Kühne Grundzüge der Messtheorie, verschiedene Verfahren zur Konstruktion von Messinstrumenten sowie zentrale Gütekriterien von Messungen dar.

    Tilo Hartmann und Leonard Reinecke schildern konkret die Skalenkonstruktion in der Kommunikationswissenschaft als Mittel zur Erstellung gültiger und verlässlicher Messinstrumente. Der Beitrag gibt einen Überblick über die typischen Schritte einer Skalenkonstruktion wie theoretische Vorarbeiten, Entwicklung eines Itempools, Ermittlung der Güte der Items, Überprüfung der Dimensionalität der Skala, Itemauswahl und finale Skalenbildung sowie das Testen der Validität der Skala.

    Olaf Jandura und Melanie Leidecker befassen sich mit Grundgesamtheit und Stichprobenbildung. Mit der Beschreibung verschiedener Sampling-Verfahren und deren Vor- und Nachteilen verdeutlichen sie die Relevanz der Auswahl von Untersuchungselementen für die Güte standardisierter Studien. Der Beitrag gibt darüber hinaus Beispiele, wie die Grundgesamtheit einer Studie unter Berücksichtigung der Problematik des Abdeckungsfehlers angemessen definiert werden kann.

    Armin Scholl schildert abschließend das Phänomen der Reaktivität als eine die Validität gefährdende Begleiterscheinung sozialwissenschaftlicher Erhebungsmethoden. Der Beitrag sensibilisiert für die Probleme beim Erkennen methodischer Artefakte und gibt Hinweise für den Umgang mit reaktiven Ergebnissen bzw. für deren Prävention, die von handwerklichen Korrekturen am Erhebungsinstrument bis zu methodologisch reflektierten Interpretationen der empirischen Ergebnisse reichen.

    Teil B umfasst Beiträge zu verschiedenen Forschungsdesigns, die besonderen kommunikationswissenschaftlichen Herausforderungen wie der Ermittlung von Kausalität oder dem Vergleich Rechnung tragen. In ihrem Beitrag ‚Messen im Zeitverlauf‘ beschreiben Helmut Scherer und Teresa K. Naab Längsschnittstudien als Möglichkeit, kausale Zusammenhänge zu messen. Sie unterscheiden Trend- und Panelstudien sowie Tagebucherhebungen, beschreiben die Vorgehensweise und diskutieren die spezifischen Vor- und Nachteile, die sich daraus für kommunikationswissenschaftliche Forschungsfragen ergeben.

    Christoph Klimmt und René Weber stellen in ihrem Beitrag eine weitere Möglichkeit zur Messung kausaler Zusammenhänge vor: das Experiment. Sie schildern die derzeit geläufigsten Formen experimenteller Designs in der Kommunikationswissenschaft und setzen sich mit zentralen Herausforderungen in der Durchführung experimenteller Studien auseinander wie z. B. mit Fragen der internen und externen Validität. Dabei berücksichtigen sie insbesondere Aspekte neuer (interaktiver, mobiler) Medien.

    Birgit Stark und Melanie Magin geben einen Überblick über theoretische Grundlagen und methodische Verfahrensweisen der Komparatistik. Spezifikum komparativer Studien ist der Vergleich als zentrale Erkenntnisstrategie im Sinne einer quasi-experimentellen Logik. So werden Kontextbedingungen auf der Makroebene herangezogen, um kommunikationswissenschaftlich relevante Phänomene auf der Mikroebene zu erklären. Der Beitrag schildert Herausforderungen und Chancen solcher vergleichenden Designs.

    Den Abschluss des zweiten Teils bildet der Beitrag über Mehrmethodendesigns von Anja Kalch und Helena Bildandzic. Die Autorinnen zeigen, dass die Kombination unterschiedlicher Erhebungsmethoden die Qualität empirischer Studien insgesamt verbessern kann, da Forschungsperspektiven inhaltlich ergänzt, methodische Defizite kompensiert und Messungen validiert werden. Der Beitrag betrachtet Anwendung und Grenzen von Mehrmethodendesigns und stellt forschungspraktische Kombinationsbeispiele, deren Potenziale und Schwierigkeiten vor.

    Die folgenden Teile des Handbuchs befassen sich mit je einer spezifischen Erhebungsmethode. Sie bündeln Grundlagentexte und spezifische Varianten der einzelnen Verfahren. Teil C beginnt mit der Befragung. Es umfasst einen grundlegenden Beitrag zur standardisierten Befragung, besondere Anwendungen wie die Online-Befragung, die Echtzeitmessung, die mobile Datensammlung sowie die implizite Messung schließen sich an.

    Wiebke Möhring und Daniela Schlütz schildern die Grundprinzipien, den Einsatz und die Anwendung standardisierter Befragungen innerhalb der Kommunikationswissenschaft und legen somit die Grundlagen für die folgenden spezifischen Aspekte. Der Beitrag befasst sich mit dem kognitiven Antwortprozess und den damit verbundenen Herausforderungen für die standardisierte Befragung und gibt konkrete Hinweise zur Lösung dieser Probleme.

    Monika Taddicken befasst sich in ihrem Beitrag mit den verschiedenen Formen der Online-Befragung. Der Beitrag bietet einen ausführlichen Vergleich mit den traditionellen Befragungsmethoden hinsichtlich Kosten, Zeit und möglichen Untersuchungszielen. Darüber hinaus erörtert die Autorin wichtige Aspekte der Datengüte von Online-Befragungsdaten.

    Der Beitrag von Marcus Maurer beschreibt ein Verfahren zur kontinuierlichen, rezeptionsbegleitenden Befragung in Echtzeit. Maurer gibt einen Überblick über die Anwendungsmöglichkeiten von Real-Time-Response (RTR)-Messungen in der Kommunikationswissenschaft, skizziert deren Ablauf sowie methodische Entscheidungen und diskutiert Gütekriterien wie Reliabilität und Validität.

    Veronika Karnowski stellt eine aktuelle methodische Variante der Befragung vor, die der rasanten Verbreitung der Mobilkommunikation in den vergangenen Jahrzehnten Rechnung trägt: Die Mobile Experience Sampling Method (MESM) erfasst in situ - also in der natürlichen Umgebung und ohne auf Erinnerungsleistungen oder Rekonstruktionen der Befragten angewiesen zu sein - Verhalten, Gedanken, Gefühle etc. Sie stellt damit eine technisch gestützte und daher weniger aufwändige Adaption der aus der Sozialpsychologie bekannten Experience Sampling Method dar. Der Beitrag schildert am Beispiel einer konkreten MESM-Studie Chancen und Herausforderungen der Technik.

    Dorothée Hefners Beitrag über implizite Messmethoden schließt den dritten Teil des Handbuches ab. Hefner schildert eine besondere Vorgehensweise im Rahmen von Befragungsstudien, die geeignet ist, spontane und automatische kognitive Strukturen zu erfassen. Implizite Methoden eignen sich besonders für die Erfassung sensibler Themen, bei denen sozial erwünschtes Antwortverhalten zu erwarten ist. Der Beitrag identifiziert kommunikationswissenschaftliche Fragestellungen, für die sich der Einsatz impliziter Methoden lohnen kann. Durch die Vorstellung beispielhafter Studien sowie die Diskussion praktischer wie theoretischer Fragen wird darüber hinaus eine Grundlage für den Einsatz impliziter Methoden für geeignete Forschungsfragen geschaffen.

    Teil D umfasst neben einer grundlegenden Einführung in die originär kommunikationswissenschaftliche Methode der Inhaltsanalyse Beiträge zu ihrer automatisierten Variante sowie zur besonderen Anwendungen der Methode auf Bilder. Die Basis bereiten Patrick Rössler und Stephanie Geise. Sie stellen in ihrem Beitrag die grundlegende Analyselogik der Inhaltsanalyse vor, thematisieren zentrale Aspekte ihrer praktischen Umsetzung und geben einen Überblick über die Auswahl des Untersuchungsmaterials, die Stichprobenziehung sowie die Definition von Analyseeinheiten und Gütekriterien. Darüber hinaus befasst sich der Beitrag mit den wesentlichen Evaluationskriterien, anhand derer die Leistungsfähigkeit der Methode, aber genauso die Herausforderungen und Grenzen in ihrer empirischen Umsetzung bestimmt werden können.

    Michael Scharkows Beitrag greift die automatisierte Variante der Inhaltsanalyse auf. Die automatische Inhaltsanalyse ist angesichts des Umfangs an leicht verfügbaren digitalen Dokumenten nicht nur sehr attraktiv, sondern nahezu alternativlos in der Kommunikationswissenschaft. Scharkow stellt traditionelle und neuere Ansätze automatischer Inhaltsanalysen vor und diskutiert deren Vor- und Nachteile gegenüber der manuellen Codierung. Der Beitrag zeigt darüber hinaus, dass sich in vielen Fällen manuelle und automatische Verfahren sinnvoll kombinieren lassen.

    Stephanie Geise und Patrick Rössler befassen sich im abschließenden Beitrag mit einer besonderen Variante der Methode, der standardisierten Bildinhaltsanalyse. Sie ist die zentrale Methode, um größere Mengen an Bildinhalten zu untersuchen und Fragen nach der Häufigkeit bestimmter Bildinhalte, nach allgemeinen Strukturen und Tendenzen der Bildberichterstattung und deren Stabilität zu beantworten oder Veränderungen im Zeitverlauf aufzudecken. Die methodischen Besonderheiten der Bildinhaltsanalyse werden in dem Beitrag aufgezeigt und insbesondere die Herausforderungen der theoretischen Dimensionierung des Bildes als Analyseobjekt, der Auswahl der bildspezifischen Analyse- und Codiereinheiten, der Entwicklung bildspezifischer Analysekategorien sowie die Berücksichtigung des Bildkontextes adressiert.

    Das Teil E des Handbuchs beinhaltet Beiträge zur Beobachtungsmethode, die sowohl klassische als auch apparative Vorgehensweisen diskutieren.

    Grundprinzip und kommunikationswissenschaftliche Anwendungen der quantitativen Beobachtung schildern Volker Gehrau und Anne Schulze. Sie systematisieren unterschiedliche Varianten der Beobachtung, geben Hinweise zu den typischen Arbeitsschritten und diskutieren Probleme von Validität und Reliabilität der Methode.

    Andreas Fahr und Matthias Hofer stellen in ihrem Beitrag apparative Beobachtungsvarianten vor. Diese psychophysiologischen Messmethoden erlauben eine zeitsensitive Erfassung emotionaler und kognitiver Prozesse während der Medienrezeption. In ihrem Beitrag stellen die Autoren Messverfahren vor, die zur Erhebung und Analyse von Medienwirkungen (insbesondere von Rezeptionsprozessen) herangezogen werden können. Der Schwerpunkt liegt dabei auf der Beobachtung peripherphysiologischer Indikatoren psychischen Geschehens. Neben physiologischen Grundlagen, Anwendung, Parametrisierung und der Bedeutung der hier vorgestellten Verfahren wird jeweils auch auf die Grenzen der Methoden sowie ihr Potenzial für die Beantwortung kommunikationswissenschaftlicher Fragestellungen eingegangen.

    Im abschließenden Beitrag schildert Christopher Blake eine apparative Messmethode für die Blickaufzeichnung. Das Eye-Tracking ist ein rezeptionsbegleitendes Verfahren, welches Aussagen darüber erlaubt, welche Medieninhalte Rezipientinnen und Rezipienten wie lange und in welcher Reihenfolge betrachten. Der Beitrag veranschaulicht die Funktionsweise des Verfahrens anhand relevanter physiologischer und technologischer Grundlagen und stellt unterschiedliche Systeme hinsichtlich ihrer Vor- und Nachteile für die Verwendung im Rahmen kommunikationswissenschaftlicher Studien dar. Darüber hinaus stellt der Beitrag grundlegende qualitative und quantitative Auswertungsmöglichkeiten von Blickaufzeichnungsdaten vor und setzt sich mit der Frage auseinander, unter welchen Bedingungen Blickaufzeichnungsdaten auch als Indikatoren kognitiver Prozesse sowie ausgewählter Stimulus- und Rezipierendeneigenschaften genutzt werden können.

    Das vorliegende Handbuch der standardisierten Erhebungsverfahren gibt somit einen Überblick über methodische Fragestellungen und Vorgehensweisen in der Kommunikationswissenschaft. Ziel ist, die bereits existierenden Darstellungen empirischer Verfahren systematisch zu ergänzen und die methodische Fortentwicklung originär kommunikationswissenschaftlicher Herangehensweisen zu unterstützen, um das Fach noch weiter zu professionalisieren. In diesem Zusammenhang ist auch eine forschungsethische Debatte nützlich, die speziell auf kommunikationswissenschaftliche Designs und Methoden zugeschnitten ist (also nicht allein beim Experiment verharrt) und die die Entwicklung im Online-Bereich und die damit verbundenen Fragestellungen berücksichtigt. Diese Debatte könnte in die Formulierung eines eigenen kommunikationswissenschaftlichen Forschungskodex münden, der alle relevanten Methoden berücksichtigt und praktische Handlungsanweisungen für die Planung und Durchführung empirischer Projekte enthält. Darüber hinaus könnten entsprechende Prozesse institutionalisiert werden wie z. B. die Einrichtung von Ethik-Kommissionen nach dem Vorbild US-amerikanischer Institutional Review Boards an allen kommunikationswissenschaftlichen Instituten und Fakultäten. Eine systematische Dokumentation und Evaluation kommunikationswissenschaftlicher Forschungsprojekte kann die methodische Professionalisierung des Faches ebenfalls weiter vorantreiben.

    Literaturtipps

    Fuchs, Michael et al. (2010). Forschungsethik: Eine Einführung. Stuttgart: J. B. Metzler.

    Patry, Philippe (2002). Experimente mit Menschen: Einführung in die Ethik der psychologischen Forschung. Bern: Hans Huber.

    Literatur

    American Psychological Association (APA) (2010). Ethical principles of psychologists and code of conduct (including 2010 amendments). Online verfügbar unter http://​www.​apa.​org/​ethics/​ code/​index.​aspx [04. 01. 2013]

    APA Publications and Communications Board Working Group on Journal Article Reporting Standards (JARS Group) (2008). Reporting standards for research in psychology: Why do we need them? What might they be? American Psychologist, 63(9), 839–851. DOI: 10.1037/0003- 066X.63.9.839

    Deutsche Forschungsgemeinschaft (DFG) (1998). Vorschläge zur Sicherung guter wissenschaftlicher Praxis: Empfehlungen der Kommission „Selbstkontrolle der Wissenschaft". Weinheim: Wiley-VCH.

    Deutsche Gesellschaft für Psychologie e. V. (DGP) und Berufsverband Deutscher Psychologinnen und Psychologen e. V. (BDP) (1999). Ethische Richtlinien. Online verfügbar unter http://​www.​dgps.​de/​dgps/​aufgaben/​003.​php [04. 01. 2013]

    Deutsche Gesellschaft für Soziologie (DGS ) und Berufsverband Deutscher Soziologinnen und Soziologen (BDS ) (1992). Ethik-Kodex. Online verfügbar unter http://​www.​soziologie.​de/​index.​php?​id=​19http://www.soziologie.de/index. php?id = 19 [04. 01. 2013]

    Eynon, Rebecca, Schroeder, Ralph, & Fry, Jenny (2009). New techniques in online research: Challenges for research ethics. Twenty-First Century Society: Journal of the Academy of Social Sciences, 4(2), 187–199. doi: 10.1080/17450140903000308

    Fraas, Claudia, Meier, Stefan, & Pentzold, Christian (2012). Online-Kommunikation: Grundlagen, Praxisfelder und Methoden. München: Oldenbourg.CrossRef

    Fuchs, Michael (2010). Gute wissenschaftliche Praxis. In Michael Fuchs et al., Forschungsethik: Eine Einführung (S. 41- 55). Stuttgart: J. B. Metzler.

    Fuchs, Michael et al. (2010). Forschungsethik: Eine Einführung. Stuttgart: J. B. Metzler.

    Heinemann, Thomas (2010). Forschung und Gesellschaft. In Michael Fuchs et al., Forschungsethik: Eine Einführung (S. 98- 119). Stuttgart: J. B. Metzler.

    Heinrichs, Bert (2010). Medizinische Forschung am Menschen. In Michael Fuchs et al., Forschungsethik: Eine Einführung (S. 56-81). Stuttgart: J. B. Metzler.

    Hübner, Dietmar (2010). Theorie der Ethik. In Michael Fuchs et al., Forschungsethik: Eine Einführung (S. 1 -9). Stuttgart: J. B. Metzler.

    Kromrey, Helmut (2009). Empirische Sozialforschung: Modelle und Methoden der standardisierten Datenerhebung und Datenauswertung (12. überarb. und erg. Aufl.). Stuttgart: Lucius & Lucius/UTB.

    Markham, Annette, & Buchanan, Elizabeth (2012). Ethical decision-making and Internet research 2.0: Recommendations from the AoIR ethics working committee. Online verfügbar unter http://​aoir.​org/​documents/​ethics-guide/​ [08. 01. 2012]

    Patry, Philippe (2002). Experimente mit Menschen: Einführung in die Ethik der psychologischen Forschung. Bern: Hans Huber.

    Schorr, Angela (2011). Auf Europastandard: Die jungen Medienforscher und ihre Perspektiven. Wiesbaden: VS. CrossRef

    Teil A

    Methodologie

    © Springer Fachmedien Wiesbaden 2013

    Wiebke Möhring und Daniela Schlütz (Hrsg.)Handbuch standardisierte Erhebungsverfahren in der Kommunikationswissenschaft10.1007/978-3-531-18776-1_2

    Konzeptspezifikation und Messung

    Rinaldo Kühne¹ 

    (1)

    Zürich, Schweiz

    Schlagwörter

    Quantitativer ForschungsprozessKonzeptspezifikationOperationalisierungMessenSkalierungsverfahrenSkalenniveauklassische TesttheorieReliabilitätValidität

    1 Der quantitative Forschungsprozess

    Die empirische Sozialforschung kennt mehrere typische Arbeitsschritte, die bei der Durchführung von Studien vollzogen werden. Übersichtswerke zu Methoden der empirischen Sozialforschung nennen in der Regel sechs Schritte: die Auswahl des Forschungsproblems, die Theoriearbeit, die Konzeptspezifikation und Operationalisierung, die Konzeption der Untersuchung, die Datenerfassung und -auswertung sowie die Ergebnisdarstellung und -interpretation (Atteslander 2000: 21-70; Diekmann 1999: 162-173; Friedrichs 1990: 50-59; Schnell, Hill & Esser 1999: 7-14). Analoge Ablaufmodelle finden sich in kommunikationswissenschaftlichen Methodenabhandlungen (Brosius, Koschel & Haas 2009: 42-46) - insbesondere auch in Übersichten zur Methode der Inhaltsanalyse (Früh 2007: 77-141; Merten 1995: 314-332; Rössler 2005: 34-49).

    Am Anfang des Forschungsprozesses stehen die Wahl eines Forschungsproblems bzw. Themas und die Formulierung einer Forschungsfrage, die beantwortet werden soll. Der Anlass für eine Studie kann ein gesellschaftliches Problem (z. B. eine Wissenskluft zwischen Personen unterschiedlicher sozioökonomischer Schichten) oder ein Problem der Theoriebildung sein (z. B. die mangelnde Erklärungskraft eines theoretischen Modells). Zudem kann eine Auftraggeberin oder ein Auftraggeber die Untersuchung eines Problems veranlassen (Atteslander 2000: 63-65; Friedrichs 1990: 50-52; Schnell et al. 1999: 7). Geklärt wird also zunächst, welches Problem erforscht werden soll und weshalb dieses Problem relevant ist. In einem zweiten Schritt findet die theoretische Auseinandersetzung mit dem Problem statt. In einer ausführlichen Litertaturrecherche werden empirische Befunde und theoretische Erklärungsansätze zusammengetragen. Die bestehenden Wissensbestände werden hinsichtlich ihrer Nützlichkeit für die Beantwortung der Forschungsfrage evaluiert. Man kann auf bereits ausgearbeitete Theorien zurückgreifen oder bei mangelnder Eignung bisheriger Ansätze neue Erklärungen erarbeiten (Brosius et al. 2009: 44; Schnell et al. 1999: 9-10). Aus der Theoriearbeit resultieren Hypothesen zur Forschungsfrage, die anhand von Daten überprüft werden sollen. An die Theoriearbeit schließt die Konzeptspezifikation und Operationalisierung an. Hier werden zunächst die zentralen Konzepte bzw. Variablen, über welche Hypothesen formuliert wurden, definiert. Anschließend wird auf Basis der Definitionen die Operationalisierung der theoretischen Konzepte vorgenommen. Bei der Operationalisierung werden theoretische Konzepte, die nicht direkt beobachtbar sind, „messbar" gemacht, indem ihnen beobachtbare Indikatoren zugewiesen werden (Bortz & Döring 2006: 62- 65; Kromrey 1998: 165-195; Weaver 2008). In einem engen Zusammenhang mit der Operationalisierung steht die weitere Konzeption der Untersuchung. Die Forscherin oder der Forscher müssen entscheiden, welche Methode (oder welche Methoden) für die Datenerhebung verwendet wird, wie die Datenerhebung im Detail ausgestaltet wird und welche Untersuchungseinheiten berücksichtigt werden (Brosius et al. 2009: 44-46; Diekmann 1999: 168-170). Anschließend werden die Daten erhoben und ausgewertet. Zuletzt werden die Ergebnisse dargestellt und zur Beurteilung der Hypothesen bzw. zur Beantwortung der Forschungsfrage herangezogen. An dieser Stelle kann der Forschungsprozess wieder auf der ersten Stufe beginnen: Anhand der Ergebnisse werden Rückschlüsse auf das soziale bzw. theoretische Problem gezogen, was neue Fragestellungen aufwerfen und weitere Forschung stimulieren kann.

    Sowohl qualitative als auch quantitative Studien können diesem idealtypischen Ablauf folgen. Allerdings bestehen auch bedeutende forschungspraktische Unterschiede zwischen den beiden Herangehensweisen, die aus unterschiedlichen Wissenschaftsverständnissen und Erkenntnisinteressen resultieren. Quantitative Ansätze streben nach der Erklärung von sozialen Phänomenen bzw. dem Erkennen von Mustern und Gesetzmäßigkeiten. Qualitative Ansätze versuchen hingegen soziale Probleme zu verstehen bzw. die subjektive Perspektive und die Beweggründe von Individuen nachzuvollziehen.¹ Der quantitative Ansatz zeichnet sich in der Forschungspraxis durch die Quantifizierung bzw. Messung von Realitätsausschnitten aus und resultiert in der statistischen Auswertung der aus diesem Vorgang resultierenden Daten (Bortz & Döring 2006: 296-302; Brosius et al. 2009: 19- 21). Entsprechend besitzen die Konzeptspezifikation und Operationalisierung vor der Datenerhebung einen besonderen Stellenwert: Eine präzise Definition und Operationalisierung der relevanten Konzepte ist Voraussetzung für deren Quantifizierung. Zudem spielt in quantitativen Ansätzen die ex ante Formulierung von Hypothesen eine wichtige Rolle, da meist die Erklärung eines Realitätsausschnitts angestrebt wird (Friedrichs 1990: 50, 62-73; Kromrey 1998: 33 -58; Opp 1999: 45- 101). Über die Formulierung von Hypothesen und deren quantitative Auswertung kann eruiert werden, ob bestimmte theoretische Erklärungen plausibel sind.

    Der qualitative Ansatz arbeitet mit Verbalisierungen von subjektiven Erfahrungen (also mit nichtnumerischem Material), die interpretativ ausgewertet werden, um das soziale Phänomen zu verstehen (Bortz & Döring 2006: 296- 302; Flick, von Kardorff & Steinke 2005; Scholl 2008). Von der ex ante Formulierung von Hypothesen und der abschließenden Operationalisierung von Konzepten wird häufig Abstand genommen. Vielmehr sollen Operationalisierungen im Forschungsprozess durch die Interaktion mit den Betroffenen angepasst werden. Ebenso werden Hypothesen nicht im Vorhinein festgeschrieben, um dem Forschungsproblem mit einer größtmöglichen Offenheit zu begegnen. Hypothesen können aber das Resultat eines interaktiven Forschungsprozesses sein (Flick et al. 2005; Meinefeld 2005; Scholl 2008). Der idealtypische quantitative Forschungsprozess fokussiert also die deduktive Überprüfung von Theorien, die mittels Quantifizierung der relevanten Variablen und Variablenzusammenhänge vollzogen wird. Idealtypische qualitative Studien basieren auf einem induktiven Vorgehen, in welchem mittels interpretativer Verfahren ein Verständnis eines sozialen Problems angestrebt wird. Dieser Beitrag fokussiert den quantitativen Forschungsprozess.

    2 Konzeptspezifikation und Operationalisierung

    Sozialwissenschaftliche Forschung operiert oft mit Begriffen und Konzepten, die Bestandteil des alltäglichen, nichtwissenschaftlichen Sprachgebrauchs sind. Diese alltagssprachlichen Begriffe sind oft unpräzise und es existiert kein einheitliches Begriffsverständnis (Friedrichs 1990: 73 -74; Weaver 2008). Zudem sind sozialwissenschaftliche Begriffe oft abstrakt und beziehen sich nicht auf unmittelbar in der Realität beobachtbare Objekte und Ereignisse (Kromrey 1998: 145). Um eine sinnvolle Quantifizierung bzw. Messung von Begriffen und Konzepten zu ermöglichen - und letzten Endes Hypothesen mit quantitativen Methoden zu testen - müssen diese Begriffe definiert werden, wobei die Definitionen bestimmten Anforderungen genügen müssen.

    Eine Definition kann ganz allgemein als „Festlegung des Sprachgebrauchs eines Begriffs" (Friedrichs 1990: 74) bezeichnet werden. Ein Begriff besteht aus einem Zeichen, Designata und semantischen Regeln (Friedrichs 1990: 74; Kromrey 1998: 145 -149; Opp 1999: 102-104). Ein Zeichen kann ein Wort sein wie Themenrelevanz‘ oder ‚Politikver- drossenheit‘. Designata bezeichnen reale Sachverhalte oder Wörter, deren Bedeutung bekannt ist. Über semantische Regeln werden Zeichen und Designata miteinander verbunden bzw. eine Bedeutungszuweisung vorgenommen. Die Definition eines Zeichens geschieht dann auf folgende Weise: Diejenigen Designata, die einem zu definierenden Zeichen zugeordnet werden, werden mit Zeichen beschrieben, deren Bedeutung als bekannt vorausgesetzt wird (Opp 1999: 102-104).

    Die Anforderungen an Begriffsdefinitionen sind Präzision, Eindeutigkeit und Adäquatheit (Clark & Watson 1995; Friedrichs 1990: 74; Opp 1999: 127- 132; Westermann 2000: 106-110). Bei unpräzisen Begriffsdefinitionen ist es nicht klar, ob der Begriff auf ein Objekt oder Ereignis angewendet werden kann. Das heißt, auf Basis eines unpräzisen Begriffs ist es nicht möglich zu entscheiden, ob ein bestimmtes Objekt oder Ereignis zur durch den Begriff designierten Menge von Objekten und Ereignissen gehört. Ist ein Begriff präzise, dann ist eine klare Zuordnung von Objekten und Ereignissen möglich. Ein Begriff ist eindeutig (oder auch konsistent; Friedrichs 1990: 74), wenn verschiedene Forscherinnen und Forscher den Begriff nicht in unterschiedlicher Bedeutung verwenden (Opp 1999: 129). Das heißt, auf Basis eines eindeutigen Begriffs gelangen alle Forscherinnen und Forscher zum gleichen Schluss, ob spezifische Ereignisse oder Objekte zur designierten Menge von Ereignissen oder Objekten gehören. Eine Definition sollte darüber hinaus adäquat sein, also nicht zu eng oder zu weit (Westermann 2000: 106). Bei einer zu engen Definition existieren kaum Fälle, die der durch den Begriff designierten Mengen zugeordnet werden können. Bei einer zu weiten Definition ist die designierte Menge hingegen zu groß. Eine adäquate Definition deckt hingegen gerade die relevanten Objekte und Ereignisse ab.

    Verschiedene Möglichkeiten bestehen, um Begriffe zu definieren. Eine Realdefinition ist die Beschreibung des Wesens oder der Natur eines Begriffs (Friedrichs 1990: 75-76; Opp 1999: 109-110). Das heißt, es werden Aussagen über die Eigenschaften eines Gegenstands gemacht, die bezüglich des Gegenstandes als wesentlich erachtet werden (Kromrey 1998: 160-163). Allerdings werden Realdefinitionen in der sozialwissenschaftlichen Forschung in der Regel mit der Begründung abgelehnt, dass Wesensbestimmungen nicht möglich sind (Brosius et al. 2009: 36; Kromrey 1998: 162; Opp 1999: 109- 110). Allenfalls können Realdefinitionen als Behauptungen über die Beschaffenheit eines Phänomens verstanden werden, wobei sie dann denselben Status wie Hypothesen haben und einer empirischen Überprüfung zugeführt werden müssen (Kromrey 1998: 161).

    In der Regel operieren die Sozialwissenschaften mit Nominaldefinitionen. Hier wird der zu definierende Begriff mit einem oder mehreren bereits definierten Begriffen gleichgesetzt. Eine Nominaldefinition hat also zwei Komponenten: einen oder mehrere Begriffe, deren Bedeutung vorausgesetzt wird (Definens), und den Begriff, der als synonym mit dem bekannten Begriff bzw. den bekannten Begriffen verstanden wird (Definiendum) (Bortz & Döring 2006: 60-61; Kromrey 1998: 149-160; Opp 1999: 104-107). Die Bedeutung des Definiendums ergibt sich also vollständig aus dem Definens. Wirth (1999: 55) schlägt zum Beispiel folgende Definition von Glaubwürdigkeit vor: „Glaubwürdigkeit kann als prinzipielle Bereitschaft verstanden werden, Botschaften eines bestimmten Objektes als zutreffend zu akzeptieren und bis zu einem gewissen Grad in das eigene Meinungs- und Einstellungsspektrum zu übernehmen." Die Bedeutung des Begriffs Glaubwürdigkeit ergibt sich hier vollständig aus der Kombination der einzelnen Bestandteile des Definens (Bereitschaft, Meinungs- und Einstellungsspektrum, etc.). Die Definition verdeutlicht auch, dass sozialwissenschaftliche Begriffe oft eine hohe Komplexität aufweisen. Einer Nominaldefinition muss daher eine ausführliche semantische Analyse² der relevanten Begriffe vorausgehen, um unterschiedliche Bedeutungsfacetten zu eruieren und definitorisch abzudecken (Kromrey 1998: 130-145). Zu beachten ist allerdings, dass Nominaldefinitionen lediglich Konventionen für die Verwendung von Begriffen sind, keinen empirischen Informationsgehalt haben und folglich nicht wahr oder falsch sein können (Friedrichs 1990: 76; Kromrey 1998: 149 -150). Nominaldefinitionen können verschiedene Fehler aufweisen (Opp 1999: 107-108; Westermann 2000: 106-108; Schnell et al. 1999: 48-51). Zu vermeiden sind definitorische Zirkel, in welchen zu definierende Ausdrücke zu ihrer eigenen Definition werden, unpräzise und mehrdeutige Ausdrücke im Definens sowie Definitionen durch Beispiele (da eine solche Definition nicht sagt, wie mit anderen Sachverhalten als den erwähnten zu verfahren ist).

    Nominal definierte Begriffe der Sozialwissenschaften weisen oft einen hohen Abstraktionsgrad auf. Um die Begriffe messbar zu machen, ist es deshalb notwendig, die Begriffe in beobachtbare Ereignisse zu übersetzen bzw. diese operational zu definieren. Die operationale Definition stellt demnach einen Arbeitsschritt dar, der an die nominale Begriffsdefinition anschließt.³ Hierbei werden einem Begriff präzise und beobachtbare Designate, die auch Indikatoren genannt werden, zugeordnet (Atteslander 2000: 50-53; Opp 1999: 118-127; Weaver 2008). Besozzi und Zehnpfennig sprechen in diesem Zusammenhang von der Notwendigkeit, „dass man latente (d. h., nicht direkt beobachtbare, theoretische) Begriffe mit Hilfe bestimmter Transformationsregeln auf die Beobachtungsebene abbildet." (1976: 14). Operationalisierungen sind somit nichts anderes als Anweisungen für die Messung von Begriffen und Konzepten, die sich auf direkt beobachtbare Sachverhalte bzw. Indikatoren beziehen (Schnell et al. 1999: 10). In Abhängigkeit von der spezifischen Datenerhebungsmethode (Befragung, Inhaltsanalyse oder Beobachtung) sind unterschiedliche Indikatoren denkbar. Die bedeutendsten Formen von Indikatoren in der Kommunikationswissenschaft sind Items in Fragebögen sowie inhaltsanalytische Kategorien in Codebüchern, wobei die klassische Beobachtung, physiologische Messungen und Blickaufzeichnungen (vgl. die Beiträge von Gehrau & Schulze, Fahr & Hofer sowie Blake im vorliegenden Band.) an Bedeutung gewinnen. Das zentrale Problem der Operationalisierung - auch Korrespondenzproblem genannt (Schnell et al. 1999: 71-78) - besteht nun darin, wie einem theoretischen Konzept überhaupt Indikatoren zugewiesen werden können (Opp 1999: 118 -127; Kromrey 1998: 88-91; Steyer & Eid 2001: 2).

    Besozzi und Zehnpfennig (1976) unterscheiden drei Vorgehensweisen, um dem Korrespondenzproblem zu begegnen, die jeweils mit spezifischen Vorstellungen über die Relation zwischen Konzept und Indikatoren einhergehen. Die operationalistische Lösung geht davon aus, dass Indikatoren Elemente der Definition eines Konzepts sind. Ein Konzept wird also erst durch die Messanweisung definiert. Die Problematik der Zuordnung von Indikatoren fällt folglich weg, da die Indikatoren erst das Konzept konstituieren. Die typologisch-induktive Lösung geht von Konzepten als Dispositionen von Indikatoren aus. Theoretische Konzepte sind demnach latente Variablen, welche die Kovariation der beobachtbaren Indikatoren erklären. Die Zuordnung von Indikatoren geschieht in einem mehrstufigen Verfahren, das deduktive und induktive Elemente aufweist. So wird anstelle einer präzisen Nominaldefinition eine vorläufige Definition verwendet, welche die Bestimmung von Subdimensionen des Konzepts erlaubt. Anschließend wird eine Menge von Indikatoren mittels strukturentdeckender Verfahren (Analyse latenter Klassen, explorative Faktorenanalyse) analysiert und Indikatoren für die einzelnen Dimensionen selektiert.

    Sowohl die operationalistische als auch die typologisch-induktive Lösung wurden verschiedentlich kritisiert. So ist die operationalistische Vorgehensweise zwar geeignet, wenn die Bedeutung eines Konzepts a priori gegeben ist, allerdings dürfte dies bei sozialwissenschaftlichen Konzepten selten der Fall sein. Zudem vernachlässigen beide Vorgehensweisen den Theoriebezug, was zur Spezifikation theoretisch irrelevanter Konzepte führen kann (Besozzi & Zehnpfennig 1976; Schnell et al. 1999: 125-127). Der verbreitetste Ansatz ist deshalb die kausal-analytische Lösung. Diese geht davon aus, dass Indikatoren als empirische Wirkungen von abstrakten Konzepten verstanden werden können (Besozzi & Zehnpfennig 1976), und folgt so einem vergleichbaren Verständnis wie der typologisch-induktive Ansatz. Allerdings betont der kausal-analytische Ansatz die Notwendigkeit, Indikatoren für ein Konzept deduktiv abzuleiten. Indikatoren sollen also theoriegeleitet formuliert werden, bevor empirische Analysen einsetzen.

    Die kausal-analytische Perspektive basiert auf der Annahme, dass für die Messung eines Konzepts ein Universum von Indikatoren vorliegt (Besozzi & Zehnpfennig 1976; Kromrey 1998: 180-181; Schnell et al. 1999: 125-130) und dass einzelne Indikatoren unterschiedliche Facetten des Konzepts abbilden. Aus der Annahme eines Indikatorenuni- versums folgt, dass mehrere Indikatoren für die Erfassung eines Konzepts verwendet werden sollen - da sich einzelne Indikatoren ja auf bestimmte Facetten des Konzepts beziehen -, um das Konzept breit abzubilden und indikatorspezifischen Messungen vorzubeugen (Besozzi & Zehnpfennig 1976; Friedrichs 1990: 165). Zudem können mit Messungen, die auf mehreren Indikatoren basieren, zufällige Messfehler ausgeglichen werden (Kromrey 1998: 173- 174; Schnell et al.1999: 129-130). Eine weitere Annahme ist, dass das Indikatorenuniversium homogen ist. Aus dieser Annahme folgt, dass die Teilmenge der Indikatoren, die für die Erfassung eines Konzepts verwendet wird, austauschbar ist (Besozzi & Zehnpfennig 1976; Schnell et al. 1999: 128).⁴ Das heißt, für jede homogene Dimension eines Konzepts sollten unendlich viele und austauschbare Indikatoren existieren.

    Die erörterten konzeptionellen Überlegungen, die der kausal-analytischen Lösung zugrunde liegen, stellen die Basis für die forschungspraktische Formulierung bzw. Selektion von Indikatoren dar. Verschiedene Empfehlungen wurden für diesen Schritt ausgesprochen (Clark & Watson 1995; Haynes, Richard & Kubany 1995; Opp 1999: 123-127). Zudem existieren Anleitungen für die Indikatorenbildung bei spezifischen Erhebungsmethoden wie der Inhaltsanalyse (Früh 2007; Rössler 2005) oder der Befragung (Holm 1982; vgl. auch den Beitrag von Hartmann & Reinecke im vorliegenden Band.). Grundsätzlich sollten Indikatoren so gewählt werden, dass sie alle Bedeutungsaspekte des Konzepts abdecken (Clark & Watson 1995). Für alle theoretisch identifizierten Dimensionen des Konzepts sollen mehrere Indikatoren selektiert werden. Zudem soll die Anzahl an Indikatoren pro Dimension ausreichend groß sein. Die genaue Anzahl Indikatoren pro Begriffsaspekt sollte sich an der Relevanz der jeweiligen Subdimension für das Gesamtkonzept orientieren (Haynes et al. 1995). Ob einzelne Indikatoren tatsächlich das zugrundeliegende Konzept abbilden, muss durch eine ausführliche Auseinandersetzung und Diskussion der Indikatoren vor dem Hintergrund der gewählten Nominaldefinition entschieden werden (Haynes et al. 1995; Opp 1999: 123-127; Pett, Lackey & Sullivan 2003: 13-50). Letztlich handelt es sich hierbei um Fragen der Validität von Messungen, für deren Überprüfung auch empirische Verfahren existieren, welche in Abschnitt 5 diskutiert werden (z. B. Moosbrugger & Kelava 2007).

    3 Grundlagen des Messens

    Aus der Konzeptspezifikation und Operationalisierung resultieren Indikatoren, welche die theoretischen Konzepte repräsentieren. Diese Indikatoren können unterschiedliche Ausprägungen annehmen und stellen somit (manifeste)

    Gefällt Ihnen die Vorschau?
    Seite 1 von 1