Chava Frankfort-Nachmias, David Nachmias Metody badawcze w naukach społecznych Przekład Elżbieta Hornowska Zysk i S-ka Wydawnictwo Tytuł oryginału Research Methods in the Social Sciences Copyright © 1996 by Scientific American/St. Martin's College Publishing Group, Inc. Published by arrangement with Scientific American/St. Martin's College Publishing Group, Incorporate in association with Zysk i S-ka Publishers Ali rights reserved Copyright © 2001 for the Polish translation by Zysk i S-ka Wydawnictwo s.c, Poznań Opracowanie graficzne i projekt okładki Dariusz Jasiczak Dodatek A przełożyła Marzenna Zakrzewska Literaturę dodatkową przygotował Jerzy Brzeziński Redaktor naukowy wydania polskiego prof. dr hab. Jerzy Brzeziński Uniwersytet im. Adama Mickiewicza w Poznaniu Redaktor Zofia Domańska Wydanie I ISBN 83-7150-702-X Zysk i S-ka Wydawnictwo s.c. ul. Wielka 10, 61-774 Poznań tel. (0-61) 853 27 51, 853 27 67, fax 852 63 26 Dział handlowy, ul. Zgoda 54, 60-122 Poznań tel. (0-61) 864 14 03, 864 14 04 e-mail: sklep@zysk.com.pl nasza strona: www.zysk.com.pl Skład dtp Marek Barłóg Druk i oprawa: Poznańskie Zakłady Graficzne SA Zarys treści Wprowadzenie...................................... 11 Część I — Podstawy badań empirycznych 1. Podejście naukowe................................ 16 2. Badanie — podstawowe pojęcia.......................... 41 3. Podstawowe elementy procesu badawczego..................... 66 4. Problemy etyczne badań w naukach społecznych...................88 Część II — Plany badawcze i struktura procesu badawczego 5. Plany badawcze: eksperymenty........................... 112 6. Plany badawcze: plany badań przekrojowych i plany quasi-eksperymentalne...... 141 7. Pomiar...................................... 168 8. Dobór próby i schematy doboru próby....................... 191 Część III — Zbieranie danych 9. Metody obserwacyjne............................... 220 10. Badania sondażowe................................ 240 11. Konstruowanie kwestionariusza........................... 266 12. Badania jakościowe................................ 297 13. Wtórna analiza danych............................... 320 Część IV — Przetwarzanie i analizowanie danych 14. Przygotowanie i analiza danych.......................... 350 15. Rozkład jednej zmiennej.............................. 369 16. Analiza dwuzmiennowa.............................. 404 17. Kontrola, poziom złożoności i analiza wielozmiennowa............... 439 18. Konstruowanie indeksu i metody skalowania.................... 469 19. Wnioskowanie statystyczne............................ 490 Dodatki A. Wstęp do SPSS.................................. 515 B. Zasady pisania raportu z badań........................... 568 C. Znak sumowania (X)................................ 579 D. Liczby losowe................................... 582 E. Powierzchnia pod krzywą normalną......................... 586 F. Rozkład t..................................... 587 G. Wartości krytyczne rozkładu F........................... 588 H. Wartości krytyczne statystyki U w teście Manna-Whitneya.............. 593 I. Rozkład z2.................................... 596 Słowniczek........................................ 599 Podziękowania...................................... 615 I Szczegółowy spis treści Wprowadzenie...................................... 11 Część I — Podstawy badań empirycznych 1 ¦ Podejście naukowe.................................. 16 Co to jest nauka? 17. Koncepcje wiedzy 18. Podstawowe założenia przyjmowane w nauce 20. Cele nauk społecznych 23. Rola metodologii 28. Rewolucja naukowa 32. Proces badawczy 36. Plan książki 37. Podsumowanie 39. Podstawowe terminy 39. Pytania sprawdzające 40. Literatura dodatkowa 40 2 ¦ Badanie — podstawowe pojęcia............................41 Pojęcia 42. Definicje 44. Teoria: jej funkcje i rodzaje 51. Modele 59. Teoria, modele i badania empiryczne 61. Podsumowanie 63. Podstawowe terminy 64. Pytania sprawdzające 65. Literatura dodatkowa 65 3 ¦ Podstawowe elementy procesu badawczego......................66 Problemy badawcze 67. Zmienne 70. Związki 74. Hipotezy 77. Problemy i hipotezy: wybrane przykłady 80. Źródła informacji o badaniach i hipotezach naukowych 81. Podsumowanie 86. Podstawowe terminy 87. Pytania sprawdzające 87. Literatura dodatkowa 87 4 ¦ Problemy etyczne badań w naukach społecznych....................88 Dlaczego etyka w badaniach naukowych? 90. Wyrównywanie kosztów i zysków 93. Wyrażanie zgody na podstawie posiadanych informacji 95. Prywatność 99. Anonimowość i poufność 102. Zawodowy kodeks postępowania etycznego 104. Podsumowanie 109. Podstawowe terminy 109. Pytania sprawdzające 110. Literatura dodatkowa 110 Część II — Plany badawcze i struktura procesu badawczego 5 ¦ Plany badawcze: eksperymenty............................112 Plan badawczy: przykład 114. Klasyczny plan eksperymentalny 116. Wyprowadzanie wniosków o charakterze przyczynowo-skutkowym 119. Podstawowe cechy planu badawczego 120. Rodzaje planów badawczych 131. Podsumowanie 139. Podstawowe terminy 140. Pytania sprawdzające 140. Literatura dodatkowa 140 6 ¦ Plany badawcze: plany badań przekrojowych i plany quasi-eksperymentalne.......141 Rodzaje zmiennych i plany badawcze 143. Plany przekrojowe 145. Plany quasi-eksperymentalne 147. Plany łączone 159. Plany preeksperymentalne 162. Porównanie planów badawczych 164. Podsumowanie 166. Podstawowe terminy 167. Pytania sprawdzające 167. Literatura dodatkowa 167 7 ¦ Pomiar.......................................168 Natura pomiaru 170. Poziomy pomiaru 173. Transformacja danych 178. Błąd pomiaru 179. Trafność 180. Rzetelność 185. Podsumowanie 189. Podstawowe terminy 190. Pytania sprawdzające 190. Literatura dodatkowa 190 8 ¦ Dobór próby i schematy doboru próby.........................191 Po co jest potrzebna próba? 193. Populacja 193. Schematy doboru próby 197. Wielkość próby 208. Błędy nielosowe 214. Podsumowanie 216. Podstawowe terminy 216. Pytania sprawdzające 217. Literatura dodatkowa 217 Część III — Zbieranie danych 9 ¦ Metody obserwacyjne................................220 Triangulacja 222. Rola obserwacji 223. Rodzaje zachowań 225. Określanie czasu obserwacji i rejestrowanie danych 227. Wnioskowanie 229. Rodzaje obserwacji 230. Obserwacja kontrolowana 230. Ekspe- rymenty laboratoryjne 230. Eksperyment terenowy 235. Podsumowanie 237. Podstawowe terminy 238. Pytania sprawdzające 238. Literatura dodatkowa 239 10 ¦ Badania sondażowe.................................240 Ankiety pocztowe 242. Wywiad osobisty 249. Wywiad osobisty a ankieta pocztowa 254. Zasady prowadzenia wywiadu 256. Wywiad telefoniczny 258. Porównanie trzech metod prowadzenia badań sondażowych 261. Wnioski 262. Podsumowanie 263. Podstawowe terminy 264. Pytania sprawdzające 264. Literatura dodatkowa 264 11 ¦ Konstruowanie kwestionariusza............................266 Pytania 267. Treść pytań 268. Rodzaje pytań 270. Format pytania 274. Porządek pytań 277. Ograniczanie stronniczości: błędy w konstrukcji kwestionariusza 280. List wprowadzający 284. Instrukcja 286. Konstruowanie kwestionariusza: analiza przypadku 287. Podsumowanie 294. Podstawowe terminy 295. Pytania sprawdzające 296. Literatura dodatkowa 296 12 ¦ Badania jakościowe.................................297 Badania terenowe 299. Obserwacja uczestnicząca 300. Praktyczne problemy badań terenowych 304. Podstawy teoretyczne badań terenowych 313. Społeczność robotników: przykład badań terenowych 315. Etyczne i polityczne aspekty badań terenowych 317. Podsumowanie 318. Podstawowe terminy 319. Pytania sprawdzające 319. Literatura dodatkowa 319 13 ¦ Wtórna analiza danych................................320 Dlaczego wtórna analiza danych? 322. Opinia publiczna i polityka społeczna: przykład 324. Ograniczenia wtórnej analizy danych 325. Spis ludności 326. Szukanie danych wtórnych 331. Pomiary nieinwazyjne 333. Dokumenty archiwalne 335. Analiza treści 341. Podsumowanie 346. Podstawowe terminy 348. Pytania sprawdzające 348. Literatura dodatkowa 348 Część IV — Przetwarzanie i analizowanie danych 14 ¦ Przygotowanie i analiza danych............................350 Schematy kodowania 352. Konstruowanie zeszytów kodowych 357. Wykorzystywanie komputerów w naukach społecznych 365. Podsumowanie 366. Podstawowe terminy 367. Pytania sprawdzające 367. Ćwiczenia komputerowe 367. Literatura dodatkowa 368 15 ¦ Rozkład jednej zmiennej...............................369 Rola statystyki 371. Rozkłady częstości 371. Graficzna prezentacja rozkładów 375. Miary tendencji centralnej 379. Podstawowe miary rozproszenia 386. Miary rozproszenia oparte na średniej 391. Rodzaje rozkładów częstości 396. Podsumowanie 400. Podstawowe terminy 401. Pytania sprawdzające 401. Ćwiczenia komputerowe 403. Literatura dodatkowa 403 16 ¦ Analiza dwuzmiennowa................................404 Pojęcie związku między dwiema zmiennymi 405. Miara związku 414. Miary związku dla danych nominalnych 417. Miary związku pomiędzy zmiennymi dla skali porządkowej 421. Miary siły związku dla danych interwałowych 428. Podsumowanie 436. Podstawowe terminy 436. Pytania sprawdzające 436. Ćwiczenia komputerowe 438. Literatura dodatkowa 438 17 ¦ Kontrola, poziom złożoności i analiza wielozmiennowa.................439 Kontrola 441. Metody kontroli 442. Poziom złożoności 449. Analiza wielozmiennowa: korelacje wielokrotne 459. Modele przyczynowe i analiza zmiennych 460. Podsumowanie 465. Podstawowe terminy 466. Pytania sprawdzające 466. Ćwiczenia komputerowe 468. Literatura dodatkowa 468 18 ¦ Konstruowanie indeksu i metody skalowania......................469 Konstruowanie indeksu 471. Metody skalowania 479. Podsumowanie 487. Podstawowe terminy 488. Pytania sprawdzające 488. Ćwiczenia komputerowe 489. Literatura dodatkowa 489 19 ¦ Wnioskowanie statystyczne..............................490 Strategia testowania hipotez 492. Hipoteza zerowa i hipoteza badawcza 493. Rozkład z próby 494. Poziom istotności i obszar odrzuceń 496. Parametryczne i nieparametryczne testy istotności 500. Podsumowanie 513. Podstawowe terminy 514. Pytania sprawdzające 514. Ćwiczenia komputerowe 514. Literatura dodatkowa 514 Dodatki A ¦ Wstęp do SPSS...................................515 Wersje dla komputera głównego i dla PC 517. SPSS dla Windows 546. Zakończenie 562. Literatura dodatkowa 567 B ¦ Zasady pisania raportu z badań............................568 Literatura dodatkowa 578 C ¦ Znak sumowania (L).................................579 D ¦ Liczby losowe....................................582 E ¦ Powierzchnia pod krzywą normalną..........................586 F ¦ Rozkład I......................................587 G ¦ Wartości krytyczne rozkładu F............................588 H ¦ Wartości krytyczne statystyki U w teście Manna-Whitneya...............593 I ¦ Rozkład x2......................................596 Słowniczek........................................599 Podziękowania 615 ¦ Wprowadzenie Celem piątego wydania Metod badawczych w naukach społecznych — podobnie jak poprzednich wydań — jest przedstawienie pełnego, usystematyzowanego przeglądu wiedzy na temat podejścia naukowego w obszarze nauk społecznych. Szczególny nacisk kładziemy na związki pomiędzy teorią, badaniami a praktyką, a także na włączenie działań badawczych w usystematyzowany obszar wiedzy po to, aby czytelnik mógł łatwiej zrozumieć naturę badań w naukach społecznych. Naszym zdaniem badania prowadzone w naukach społecznych to autokorekcyj-ny proces cykliczny składający się z siedmiu następujących etapów: definicji problemu badawczego, sformułowania hipotez, wybrania planu badawczego, pomiaru, zbierania danych, analizy danych i uogólniania. Każdy z tych etapów jest powiązany z teorią w tym sensie, że zarówno z niej wynika, jak i na nią wpływa. Książka ta prowadzi czytelnika kolejno przez owe etapy. Nowe wydanie Piąte wydanie zostało w dużym stopniu poprawione i zmienione: ¦ Rozdział 15 „Rozkład jednej zmiennej" rozszerzono o tekst dotyczący wykorzystania grafiki do przedstawiania rozkładów. Omawiamy wykresy kołowe, słupkowe oraz histogramy. ¦ W każdym wprowadzeniu do rozdziału przedstawiamy zarys prezentowanej tematyki jak również przykład ilustrujący omawiane zagadnienia w rzeczywistych sytuacjach życiowych. Wprowadzenia te mają zainteresować studentów danym problemem. ¦ W całej książce znajdują się ramki podsumowujące przedstawiony materiał i ułatwiające przegląd najważniejszych pojęć. ¦ Dodatek A „Wstęp do SPSS" został rozszerzony. Omawiamy w nim SPSS/PC+ oraz SPSS dla Windows. Dodatek A ma pomóc studentom w przygotowaniu i przeprowadzeniu komputerowej analizy danych za pomocą tego znanego i często stosowanego pakietu statystycznego. W rozdziałach 14-19 wprowadziliśmy nowe ćwiczenia komputerowe, aby umożliwić studentom wykorzystanie SPSS do analizy danych. ¦ Nowy dodatek B „Zasady pisania raportu z badań" dostarcza wskazówek co do pisania raportów zarówno dla początkujących studentów, jak i dla studentów zaawansowanych. W nowym wydaniu staramy się nadal łączyć szeroki zakres klasycznych badań podejmowanych w naukach społecznych z przykładami współczesnych problemów rozwiązywanych w tym obszarze. Wprowadzone zmiany odzwierciedlają rozwój, który dokonał się w tej dziedzinie od czasu poprzedniego wydania książki. Dzięki konstruktywnym uwagom krytycznym sformułowanym przez osoby prowadzące zajęcia z metod badawczych w różnych dyscyplinach na terenie całego kraju — zarówno korzystających, jak i nie korzystających z tego podręcznika — książka zyskała bardzo wiele. Idąc za ich radą, zmieniliśmy sposób pisania tak, aby książka była mniej formalna, a wprowadzenia do rozdziałów bardziej przystępne. 11 Plan ksigżki Książka została zorganizowana w sposób następujący: przechodzimy od bloków (cegiełek) o charakterze teoretycznym, wyjaśniających pojęcia i określających proces badawczy, do analizy danych i wykorzystania komputerów. Dzięki temu studenci otrzymują pełne i w sposób systematyczny budowane podstawy do rozumienia istoty i zakresu badań naukowych prowadzonych w naukach społecznych. Poszczególne rozdziały książki stanowią niezależne (choć jednocześnie powiązane ze sobą) całości, co ułatwia elastyczne organizowanie zajęć w zależności od indywidualnych potrzeb i zainteresowań prowadzącego. Monografię tę można wykorzystywać na dwóch rodzajach zajęć: wprowadzenia do metod badawczych oraz zajęć, na których na zmianę omawia się tematy dotyczące metod badawczych i statystyki. W rozdziale 1 przedstawiamy podstawy wiedzy, cele badań naukowych i podstawowe założenia podejścia naukowego. W rozdziale 2 i 3 omawiamy zasadnicze problemy badań empirycznych oraz związki pomiędzy teorią i badaniami. W rozdziałach tych poruszamy zagadnienia tworzenia pojęć, roli i typów teorii, modeli, zmiennych i różnych źródeł problemów i hipotez badawczych. Rozdział 4 koncentruje się na etycznych problemach badań w naukach społecznych i ukazuje sposoby zapobiegania łamaniu praw oraz sposoby ochrony dóbr osób badanych, łącznie z prawem do prywatności. W rozdziale 5 i 6 przedstawiamy etap wybierania planu badawczego. Plan badawczy to strategia obowiązująca badacza, to logiczny model pozwalający na wyprowadzanie wniosków o charakterze przyczynowo-skutkowym. Plany eksperymentalne zostały przedstawione i omówione w rozdziale 5, a quasi- i preekspery-mentalne w rozdziale 6. W rozdziale 7 koncentrujemy się na pomiarze i ilościowym ujmowaniu danych. Dokonaliśmy również przeglądu zagadnień trafności i rzetelności — nierozerwalnie związanych z teorią pomiaru. W rozdziale 8 przedstawiliśmy podstawy teorii doboru próby, najczęściej stosowane schematy doboru próby oraz metody określania niezbędnej wielkości próby. W rozdziałach od 9 do 13 omawiamy różne metody zbierania danych stosowane w naukach społecznych. Metody obserwacji, eksperymentu laboratoryjnego i naturalnego są tematem rozdziału 9. W rozdziale 10 natomiast przedstawiamy badania sondażowe — zwłaszcza ankietę pocztową, wywiad osobisty i wywiad telefoniczny. Rozdział 11 zawiera opis konstruowania metody kwestionariuszowej: omawiamy treść pytań, rodzaje pytań, format pytań i sekwencję pytań. Ukazując błędy popełniane przy konstruowaniu kwestionariusza, poruszamy problem stronniczości. Rozdział 12 został poświęcony teorii i praktyce badań jakościowych ze szczególnym naciskiem na obserwację uczestniczącą i badania terenowe. W rozdziale 13 omawiamy podstawowe zagadnienia wtórnej analizy danych — danych pochodzących z powszechnego spisu statystycznego, danych nieinwazyjnych takich jak dokumenty prywatne i oficjalne — oraz analizę treści. Kolejne rozdziały dotyczą przetwarzania i analizy danych. W rozdziale 14 przedstawiamy najnowsze techniki przygotowywania książki kodowej, schematy i narzędzia kodowania, sposoby przygotowywania danych do obróbki komputerowej, wykorzystanie komputerów w badaniach prowadzonych w naukach społecznych oraz sieci komputerowe. Rozdział 15 wprowadza czytelnika w problematykę rozkładów jednozmiennowych, miar tendencji centralnej i rozproszenia oraz różnych rodzajów rozkładów liczebności. Rozdział 16 przedstawia podstawowe poję- 12 cia analizy dwuzmiennowej, w tym miary związku dla danych nominalnych, porządkowych i interwałowych, które zostały omówione i porównane. Tematem rozdziału 17 jest analiza wielozmiennowa, statystyczne techniki kontroli i interpretacji, analiza przyczynowa oraz analiza ścieżek. W rozdziale 18 przedstawiamy podstawowe techniki wykorzystywane przy konstruowaniu indeksów i skal, a w rozdziale 19 strategie testowania hipotez, pojęcia poziomu istotności, obszaru odrzuceń oraz wybrane parametryczne i nieparametryczne testy istotności. Książka ta, wraz z dodatkowymi materiałami, pomoże czytelnikom prześledzić podstawowe etapy procesu badawczego. Podziękowania Mamy wiele długów wdzięczności. Od czasu pierwszego wydania książki w 1976 roku studenci, wykładowcy, recenzenci i nasi koledzy przekazali nam wiele pomysłów i uwag. Szczególną wdzięczność niech zechcą przyjąć: Michael Baer, Bruce S. Bowen, Jeffrey Brudney, Gary T. Henry i Allen Rubin. Dziękujemy również osobom zarządzającym spuścizną literacką Sir Ronalda A. Fishera, F.R.S. i dr. Franka Yatesa, F.R.S., tj. Longman Group Ltd. z Londynu za zgodę na przedruk dodatków z książki Statistical Tables for Biological, Agricultural, and Medical Research (wyd. 6, 1974) oraz recenzentom wydania piątego naszej książki: Lydii Andrade z San Jose State University, Claire L. Felbinger z Cleveland State University, Richardowi Na-gasawie z Arizona State University, Marcellinie Offoha z Ithaca College, Alfredowi Powellowi z University of Texas w San Antonio, Johnowi K. Price'owi z Louisiana Tech University, Julesowi J. Wandererowi z University of Colorado w Boulder oraz Davidowi G. Wegge'owi z St. Norbert College. Dziękujemy też Claire L. Felbinger z Levin College of Public Administration i jej asystentowi Stephenowi F. Schwelgienowi za przygotowanie dodatku o SPSS, Ninie Reshef, członkowi The Public Policy Program z Tel-Aviv University, która pomagała Davidowi Nachmiasowi i której pracę można dostrzec w całym tekście, a także Pat Pawasarat współpracującej z Chavą Frankfort-Nachmias przy poprawianiu tekstu. Na koniec chcielibyśmy wyrazić naszą wdzięczność zespołowi St. Martin's Press, a zwłaszcza Carli Samodulski, która w mistrzowski sposób opracowała piąte wydanie. Szczerze dziękujemy też Sabrze Scribner, sumiennej asystentce Elizabeth Bast oraz Douglasowi Bellowi za cierpliwość i wsparcie w trakcie pisania tej książki. Chava Frankfort-Nachmias David Nachmias CZĘŚĆ I PODSTAWY BADAŃ EMPIRYCZNYCH Rozdział 1 Podejście naukowe Co to jest nauka? 17 Koncepcje wiedzy 18 Model oparty na autorytecie 18 Model oparty na wierze 19 Model racjonalny 19 Podstawowe założenia przyjmowane w nauce 20 Cele nauk społecznych 23 Wyjaśnianie naukowe 23 Przewidywanie 25 Rozumienie 27 Rola metodologii 28 Metodologia dostarcza reguł komunikowania 29 Metodologia dostarcza reguł wnioskowania 30 Metodologia dostarcza reguł intersubiektywności 30 Rewolucja naukowa 32 Nauka normalna a nauka rewolucyjna 32 Nauka rewolucyjna 34 Logika odkrycia? 34 Proces badawczy 36 Plan książki 37 Podsumowanie 39 Podstawowe terminy 39 Pytania sprawdzające 40 Literatura dodatkowa 40 Czy skomplikowane problemy społeczne można rowiązywać, prowadząc szerokie i złożone badania? Niedawno* rozpoczęty projekt badawczy dotyczący rozwoju osób zamieszkałych w okręgu Chicago (Humań Development in Chicago Neighborhoods) może być przykładem takiego właśnie badania. Aby można było uzyskać szczegółowy obraz specyfiki dorastania w Chicago, a także określić, jakie sposoby wychowania prowadzą do popełniania przestępstw, a jakie do społecznie akceptowanych zachowań, badacze będą przez ponad osiem lat obserwować około 11 000 osób mieszkających w 75 okręgach leżących w okolicach Chicago. Badanie to będzie miało charakter interdyscyplinarny. Jego autorzy będą szukać przyczyn indywidualnych i rodzinnych (czynniki psychologiczne), a także wpływów środowiskowych i społecznych (czynniki socjologiczne). Wykorzystując otrzymane wyniki w celu udowodnienia wcześniej przyjętych hipotez, badacze będą przestrzegać reguł metodologii nauk1. Rozdział ten jest poświęcony nauce. Rozpoczynamy go od przedstawienia definicji nauki i porównania podejścia naukowego z trzema innymi koncepcjami wiedzy. Następnie omawiamy podstawowe założenia nauki, jej cele, a także rolę metodologii w badaniach naukowych. Definiujemy podejście naukowe najpierw z punktu widzenia tego, czym jest rzeczywistość i doświadczenie, a następnie z punktu widzenia metodologii, biorąc pod uwagę reguły komunikowania, wnioskowania i intersubiektywności. Dalej przedstawiamy ideę rewolucji naukowej, odkryć i postępu. Na koniec pokazujemy model procesu badawczego, którego etapy będziemy prezentować w kolejnych rozdziałach. Stawiamy też wiele pytań. Jakich korzyści na przykład dostarcza podejście naukowe osobom, które interesują się problemami społecznymi? W jaki sposób możemy zdobyć rzetelną wiedzę o takich ludzkich doświadczeniach, które opisujemy jako „społeczne", „polityczne", „ekonomiczne" czy „psychologczne"? A dokładniej, w jaki sposób podejście naukowe pomaga zrozumieć zjawiska takie, jak: inflacja, bezrobocie, demokracja, biurokracja, zbrodnie i przestępstwa czy samorealizacja? Innymi słowy, w jaki sposób i dlaczego nauki społeczne należą do rodziny nauk? Jednym ze sposobów odpowiedzi na te pytania jest najpierw zdefiniowanie, czym jest nauka, następnie bliższe przyjrzenie się podejściu naukowemu — jego założeniom, celom i właściwościom — a na koniec porównanie podejścia naukowego z innymi koncepcjami wiedzy. ¦ Co to jest nauka? Pojęcie nauki jest, niestety, często źle rozumiane. Laicy, dziennikarze, politycy, uczniowie i naukowcy stosują termin „nauka" w różny sposób i w różnych kontek- * Pierwsze wydanie tej książki ukazało się w 1976 roku — przyp. red. nauk. 1 Ellen K. Coughlin (1994), Pathways to Crime, „The Chronicie of Higher Education", April 27, s. A8-A9. 17 stach. Dla niektórych nauka oznacza prestiżowe przedsięwzięcie, dla drugich prawdziwą wiedzę, a jeszcze dla innych obiektywne badanie zjawisk empirycznych. „Nauka" to termin trudny do zdefiniowania głównie dlatego, że ludzie często mylą to, czym jest nauka, z jej metodologią. Chociaż sama nauka nie ma własnego przedmiotu badawczego, to nie każde badanie jakiegoś zjawiska traktujemy jako naukę. I tak na przykład astrologowie studiują położenie gwiazd oraz analizują zdarzenia w ludzkim życiu, starając się ustalić relacje między nimi po to, aby można było przewidywać przyszłe wydarzenia. Badania te nie pozwalają jednak zakwalifikować astrologii jako jednej z nauk. Jeśli nawet prestiżowy uniwersytet powołałby do życia instytut astrologii, zatrudnił pracowników, opracował program kształcenia w zakresie studiów magisterskich, to i tak astrologia nie stałaby się dyscypliną naukową. Powód, dla którego odrzucamy astrologię jako naukę, nie leży bowiem w jej przedmiocie badań, ale w metodologii stosowanej przez astrologów, która jest uważana za nienaukową. Odrzucenie przez naukowców jakiejś dziedziny wiedzy, traktowanej przez wielu ludzi jako wiedzy rzeczywistej, oparte jest zawsze na przesłankach metodologicznych. Co więcej, sama nauka także ciągle się zmienia — wiedza dzisiaj uznawana za naukową, jutro może się okazać nienaukowa.Ter-min „nauka" nie odnosi się zatem do jakiejś ogólnej lub konkretnej wiedzy, lecz do odmiennej metodologii. Z tych powodów będziemy w naszej książce używać terminu „nauka" na oznaczenie całokształtu wiedzy osiąganej za pomocą metodologii naukowej. ¦ Koncepcje wiedzy Słowo „nauka" (ang. science) pochodzi od łacińskiego słowa scire oznaczającego „wiedzieć". Historycznie rzecz biorąc, ludzie zdobywali wiedzę w różny sposób. Podejście naukowe jest z całą pewnością jedynym sposobem, dzięki któremu ludzie zrozumieli swoje otoczenie i siebie samych. Można jednak wskazać trzy inne sposoby zdobywania wiedzy: sposób odwołujący się do autorytetu, do wiary oraz sposób racjonalny. Podstawowej cechy różniącej te podejścia można upatrywać w sposobie, w jaki każde z nich uwiarygadnia źródła wiedzy lub osoby szerzące tę wiedzę (tj. „Kto to mówi?"), w procedurach za pomocą, których wiedza ta jest zdobywana (tj. „J ak się tego dowiedzieliśmy?") oraz w efektach tej wiedzy („Jakie widzimy różnic e?")2. Omówimy krótko owe trzy modelowe sposoby zdobywania wiedzy, aby na ich tle przedstawić odmienność podejścia naukowego. Model oparły na autorytecie W modelu opartym na autorytecie ludzie poszukują wiedzy, odwołując się do tych osób, które z powodów społecznych lub politycznych są uważane za jej źródło. Są nimi na przykład czarownicy w społeczeństwach plemiennych, dostojnicy kościelni w społeczeństwach teokratycznych (np. mułłowie we współczesnym Iranie), królowie w monarchiach i naukowcy w społeczeństwach technokratycznych. W każdym 2 Walter L. Wallace (1971), The Logic of Science in Sociology, Hawthorne, N.Y.: Aldine, s. 11; por. również Anthony 0'Hear (1989), An Introduction to the Philosophy of Science, New York: Oxford University Press. 18 społeczeństwie różne osoby obdarzone autorytetem mogą stanowić źródła wiedzy o odmiennych zjawiskach. Dla większości pobożnych katolików, na przykład, niepodważalny autorytet w sprawach religijnych tradycyjnie ma papież. Z kolei w czasach rewolucji kulturalnej w Chinach (począwszy od 1965 roku) taki sam autorytet we wszystkich sprawach miał przewodniczący Mao Tse-tung i jego żona. Mała czerwona książeczka zawierająca aforyzmy Mao służyła jako „biblia" i decydowała o tym, co można było uważać za poprawne myślenie i poprawne zachowanie. Muł-łowie we współczesnym Iranie to inny, aktualny, przykład. W modelu opartym na autorytecie zdolność generowania wiedzy przypisywana jest autorytetom społecznym, politycznym i religijnym. Sposób, w jaki ludzie zdobywają tę wiedzę (np. ceremoniał), wpływa na tryb jej przekazywania przez autorytety, nie wpływa zaś na zaufanie ludzi do samej wiedzy. Ci, którzy chcieliby zdyskredytować lub zdelegi-tymizować autorytet osoby uważanej za źródło wiedzy, muszą być przygotowani na szybkie odpieranie zarzutów pod swoim adresem oraz umieć wskazać alternatywne źródła tej wiedzy. Model oparły na wierze W modelu opartym na wierze osoby poszukujące prawdy znajdują wiedzę u autorytetów ponadnaturalnych takich, jak wróżbici, wyrocznie czy media. W tym aspekcie model oparty na wierze przypomina model oparty na autorytecie. Modele te różnią się jednak obecnością zdarzeń ponadnaturalnych i stanem psychologicznym osób szukających wiedzy charakterystycznej dla modelu drugiego. Model oparty na wierze zależy bowiem w dużym stopniu od wykorzystania ceremoniału i rytuału. Obrzęd związany z przepowiedniami astrologicznymi, na przykład, ma na celu przekonanie laików o ponadnaturalnej mocy astrologów. Co więcej, w sytuacjach depresji i bezradności istnieje duże zapotrzebowanie na wiedzę opartą na wierze. Zaufanie do wiedzy zdobywanej w ten sposób spada natomiast wraz ze wzrostem liczby osób, które ją odrzucają, ze wzrostem poziomu wykształcenia społeczeństwa oraz z poprawą kondycji psychologicznej jednostki. Model racjonalny Zgodnie z kierunkiem filozofii określanym jako racjonalizm istnieje możliwość zdobycia wiedzy poprzez proste odwołanie się do reguł i metod logiki. U podstaw racjonalizmu leżą następujące założenia: (1) istnieje możliwość poznania świata niezależnie od zjawisk dostępnych obserwacji, (2) wiedza jest niezależna od naszego osobistego doświadczenia. Innymi słowy, model racjonalny dotyczy wiedzy zasadniczo prawdziwej, logicznie możliwej i dopuszczalnej. Dla racjonalisty myśleć racjonalnie oznacza respektować zasady abstrakcyjnej logiki formalnej. Logika jest nauką normatywną, a jej reguły pozwalają na sformułowanie kryteriów odróżniania naukowych pytań od nienaukowego myślenia. Jeden z klasycznych racjonalistów, grecki filozof Arystoteles (384-322 p.n.e.) intensywnie studiował podstawy logiki, a co się z tym wiąże — strukturę wiedzy i prawdy. Niemiecki filozof Immanuel Kant (1724-1804) oświadczył: Od czasów Arystotelesa nie musiała ona [tj. logika] zrobić żadnego kroku wstecz, o ile do poprawek nie zechcemy zaliczyć np. usunięcia niektórych zbędnych subtelności lub wyraźniejszego określenia tego, co już zostało wyłożone, 19 należy to jednak raczej do elegancji niż do pewności nauki. Osobliwe jest jeszcze to, że nie mogła dotychczas zrobić także ani kroku naprzód i że przeto, wedle wszelkich danych, wydaje się zamknięta i wykończona3. Pogląd, że wiedza istnieje a priori i że jest niezależna od ludzkiego doświadczenia, utrzymał się po okresie klasycznego racjonalizmu. Najwyższym ucieleśnieniem racjonalizmu we współczesnej nauce jest matematyka. Czysta matematyka składa się z twierdzeń, które są uniwersalne, trafne, pewne i niezależne od świata empirycznego. Twierdzenia czystej geometrii, na przykład, są — z definicji — traktowane jako bezwzględne i prawdziwe. Czysta geometria nie mówi nic na temat rzeczywistości. Jej twierdzenia są tautologiami, tj. twierdzeniami, które są prawdziwe tylko na mocy ich formy logicznej. Chociaż czysta matematyka i logika formalna są podstawowe dla podejścia naukowego, to ich wartość dla nauk społecznych „istnieje o tyle, o ile służą one jako środki owocnego postępu tych nauk. Powinny być stosowane w taki sposób, w jaki stosuje się skomplikowane narzędzia: jedynie wtedy i tam, gdzie mogą pomóc i nie przeszkadzają postępowi"4. ¦ Podstawowe założenia przyjmowane w nauce Podejście naukowe opiera się na zbiorze założeń, które nie są dowiedzione i których się nie dowodzi. Te podstawowe przesłanki stanowią warunki wstępne konieczne do prowadzenia naukowej dyskusji. Epistemologia, badanie podstaw wiedzy, zajmuje się naturą tych przesłanek i rolą, jaką one odgrywają. Badając je, możemy lepiej zrozumieć istotę podejścia naukowego i przypisywaną mu przewagę nad innymi źródłami wiedzy. 1. Natura jest uporządkowana. Podstawowym założeniem przyjmowanym w nauce jest założenie o istnieniu rozpoznawalnej regularności i o porządku w świecie rzeczywistym — zdarzenia nie pojawiają się losowo. Naukowcy zakładają, że nawet w intensywnie zmieniającym się środowisku istnieje określony stopień uporządkowania i ustrukturowania. Każda zmiana ma własny schemat i może być zrozumiana. Racjonalna koncepcja rzeczywistości nie odnosi się do sił ponadnaturalnych czy wszechmocnych. W nauce rzeczywistość (natura) składa się z wszystkich empirycznie obserwowalnych obiektów, warunków i zdarzeń, które istnieją niezależnie od ludzkiej interwencji (włączając w to ludzi jako systemy biologiczne). Prawa natury raczej opisują, niż wyznaczają to, co rzeczywiście się wydarza. Uporządkowanie i regularność natury nie są jednak nieodłącznymi cechami zjawisk. Nie ma, na przykład, żadnej logicznie sprawczej przyczyny, dla której wiosna powinna następować po zimie, zima po jesieni, jesień po lecie, a lato po wiośnie. Ponieważ 3 Immanuel Kant (1881), Critiąue of Pure Reason, London: Macmillan, s. 688; wyd. polskie: Im-manuel Kant (1957), Krytyka czystego rozumu.Warszawa: PWN, tłum. Roman Ingarden, tom I, s. 21 (cytowany fragment pochodzi z „Przedmowy do drugiego wydania" napisanej przez Kanta. W wydaniu angielskim przedmowa ta zamyka książkę; w wydaniu polskim znajduje się na początku — przyp- tłum.). 4 Kurt Lewin (1975), Field Theory in Social Science, Westport, Conn.: Greenwood Press, s. 12. 20 jednak tak się dzieje, i to regularnie, więc zakładamy, że podobne regularności leżą u podstaw również innych zjawisk. 2. Natura jest poznawalna. Założenia, że można poznać naturę, nie możemy bardziej dowieść niż założenia o uporządkowaniu natury i istnieniu praw natury. Wyraża ono podstawowe przekonanie, że istoty ludzkie są na tyle częścią natury, na ile są nią inne obiekty, warunki i zdarzenia. Chociaż posiadamy jedyne w swoim rodzaju, odmienne cechy charakterystyczne, to jednak możemy wyjaśniać i rozumieć siebie, korzystając z tych samych metod, za pomocą których badamy inne naturalne zjawiska. Jednostki i zjawiska społeczne wykazują wystarczającą powtarzalność, uporządkowanie i dające się empirycznie udowodnić wzorce, aby zostały one poddane badaniu naukowemu. Ludzki umysł może zatem nie tylko poznawać naturę, lecz również poznawać siebie i umysły innych. 3. Wszystkie naturalne zjawiska mają naturalne przyczyny. Założenie, że wszystkie naturalne zjawiska mają naturalne przyczyny lub da się wskazać inne zjawiska je poprzedzające, jest najbardziej skrótowym opisem istoty rewolucji naukowej. W podejściu naukowym odrzucamy bowiem wiarę w to, że przyczynami zdarzeń mogą być inne siły niż odkryte w badaniach natury. Podejście naukowe w tym sensie znajduje się w opozycji zarówno w stosunku do religii fundamentalistycznych, jak i do spirytualizmu czy magii. Co więcej, tak długo, jak długo naukowcy potrafią wyjaśniać zjawiska w terminach natury, będą odrzucać argumenty o konieczności innych, ponadnaturalnych wyjaśnień. Założenie to sytuuje badania naukowe z dala od poszukiwania wszechobecnych sił ponadnaturalnych, a ustawia je w kierunku empirycznego poszukiwania regularności i porządku leżącego u podstaw zjawisk naturalnych. Regularności te, raz określone, mogą służyć jako dowód związków przyczynowo-skutkowych. 4. Nic nie jest dowiedzione samo w sobie. Wiedza naukowa nie jest prawdziwa sama w sobie. Jej prawdziwość musi zostać dowiedziona obiektywnie. Naukowcy nie mogą polegać jedynie na tradycyjnych, subiektywnych wierzeniach czy na zdrowym rozsądku, gdy weryfikują wiedzę naukową. Akceptują oni, że zawsze istnieją możliwości popełnienia błędu i że najprostsze wnioski wymagają obiektywnego dowodu. Myślenie naukowe jest więc i sceptyczne, i krytyczne. 5. Wiedza jest wyprowadzana z nabywanego doświadczenia. Jeżeli nauka ma nam pomóc w zrozumieniu rzeczywistego świata, to musi być empiryczna. Oznacza to, że musi się ona opierać na spostrzeżeniach, doświadczeniu i obserwacji. Spostrzeganie jest podstawową zasadą podejścia naukowego i zależy od naszych zmysłów: W nauce zakłada się, że komunikacyjny pomost pomiędzy człowiekiem i światem zewnętrznym jest możliwy dzięki jego własnym wrażeniom zmysłowym. Wiedza jest uważana za produkt naszego doświadczenia tak dalece, jak fizyczne, biologiczne i społeczne cechy naszego świata oddziaływują na nasze zmysły5. 5 Gideon Sjoberg, Roger Nett (1968), A Methodology for Social Research, New York: Harper & Row, s. 26. 21 Wiedza nie jest jednak zdobywana wyłącznie na drodze percepcji za pomocą pięciu zmysłów: dotyku, węchu, smaku, słuchu i wzroku. Wielu zdarzeń nie można bezpośrednio doświadczyć ani zaobserwować. Obserwowanie jako aktywność psychiczna nie jest „prawdziwe samo w sobie" ani całkowicie niezależne od terminów, pojęć czy teorii wykorzystywanych przez naukowców. Jak powiedział brytyjski filozof nauki Karl Popper (1902-1994): Naiwny empirysta [...] sądzi, że wspinanie się po drabinie nauki rozpoczynamy od gromadzenia i przetwarzania naszych doświadczeń [...] Ale gdybym otrzymał polecenie: „zdaj sprawę z tego, czego w tej chwili doświadczasz", nie bardzo wiedziałbym, w jaki sposób spełnić to niejasne żądanie. Czy mam zdać sprawę, że piszę, że słyszę dźwięk dzwonka, okrzyki gazeciarza, monotonny dźwięk głośnika, czy też mam zdać sprawę z tego, że dźwięki te mnie drażnią? [...] Nauka zakłada przyjęcie pewnego punktu widzenia i postawienie problemów teoretycznych6. Historycznie rzecz biorąc, założenie mówiące o tym, że wiedza naukowa powinna być oparta wyłącznie na empirycznych obserwacjach, było reakcją skierowaną przeciwko wierze, że wiedza jest ludziom dana i że do jej weryfikacji wystarczą jedynie „czyste przyczyny". 6. Wiedza przewyższa ignorację. Przekonanie o tym, że należy uprawiać naukę ze względu na jej wewnętrzny rozwój jak i ze względu na możliwość poprawienia kondycji ludzi, jest ściśle związane z założeniem o możliwości poznawania tak siebie samych, jak i natury. Teza, że wiedza przewyższa ignorancję, nie oznacza jednak, że wszystko, co dotyczy natury, może zostać poznane. Naukowcy zakładają raczej, że wszelka wiedza ma charakter względny i że się zmienia. To, czego nie poznaliśmy w przeszłości, znamy teraz, a wiedza aktualna może zostać zmodyfikowana w przyszłości. Prawda w nauce zawsze zależy od dowodów, metod i branych pod uwagę teorii. Zawsze dopuszcza modyfikacje. Przekonanie, że wiedza względna jest lepsza niż ignorancja, pozostaje w całkowitej opozycji do systemów wiedzy opartych na prawdzie absolutnej. Według Gideona Sjoberga i Rogera Netta: Idea, że ludzka godność jest tym większa, im bardziej człowiek jest niespokojny, poszukujący i rozumiejący, stoi na pewno w sprzeczności z wieloma systemami przekonań mającymi charakter zamkniętego systemu opartego na prawdzie absolutnej. Historia współczesnej nauki i jej ścierania się z takimi systemami jest dowodem na to twierdzenie7. Osoby przekonane, że znają prawdę, „wiedzą" wszystko, co jest do poznania. Wiedza naukowa zagraża ich utartym sposobom postępowania oraz ich spokojowi, 6 Karl R. Popper (1961), The Logic of Scientific Discovery, New York: Science Editions, s. 106; wyd. polskie: Karl R. Popper (1977), Logika odkrycia naukowego. Warszawa: PWN, tłum. Urszula Niklas, s. 254. 7 Sjoberg, Nett, A Methodology for Social Research, s. 25. 22 trwałości i status quo. Podejście naukowe oferuje im w zamian jedynie przypuszczalną prawdę, uwzględniającą istniejący stan wiedzy. Siła i słabość podejścia naukowego leży w naturze prawdy, która nie jest pewna i ma charakter względny. Jest siłą w tym sensie, że człowiek racjonalny, w długiej perspektywie, zachowuje się tak, aby poprawić popełniane przez siebie błędy. Jest słabością, ponieważ naukowcy, w odróżnieniu od opinii publicznej, nie mają tak dużego zaufania do trafności własnych twierdzeń. Toteż często, w momentach kryzysu groźnego dla bezpieczeństwa publicznego, mogą zostać zakrzyczani przez absolu-tystów. Nauka często jest czasowo bezradna, zwłaszcza wtedy, gdy jej bastiony są szturmowane przez nadgorliwych propagatorów absolutnych systemów przekonań8. ¦ Cele nauk społecznych Po przedstawieniu założeń przyjmowanych w nauce możemy teraz ponownie zadać pytanie, które pojawiło się już na początku: Co nauka ma do zaoferowania ludziom, którzy interesują się problemami społecznymi? Podstawowym celem nauki, w tym nauk społecznych, jest dostarczanie — dającej się zweryfikować — wiedzy. Wiedza pomaga nam wyjaśnić, przewidzieć i zrozumieć interesujące nas zjawiska empiryczne. Co więcej, całokształt wiedzy może zostać wykorzystany do poprawy kondycji ludzi. Czym jest zatem wyjaśnianie naukowe? Kiedy możemy przewidywać? Kiedy mamo prawo twierdzić, że rozumiemy zjawiska empiryczne? Wyjaśnianie naukowe Dlaczego wydatki rządowe w Szwecji są — per capita — wyższe niż w Stanach Zjednoczonych? „Ponieważ — może ktoś odpowiedzieć — Szwedzi chcą, aby ich rząd wydawał więcej". Takie wyjaśnienie może usatysfakcjonować laika, lecz nie będzie wystarczające dla przedstawicieli nauk społecznych, jeżeli nie będą mogli oni zastosować takiego samego sposobu myślenia, aby wyjaśnić wydatki rządowe per capita w innych systemach politycznych. I tak na przykład całkowite wydatki rządowe w Wielkiej Brytanii spadły od czasu wygrania wyborów powszechnych przez Partię Konserwatywną, chociaż z badań wynika, że większość Brytyjczyków chce, aby rząd wydawał więcej. Celem specjalistów w dziedzinie nauk społecznych jest znalezienie ogólnego wyjaśnienia, dlaczego określone zdarzenie lub zachowanie następuje. W sposób systematyczny i empiryczny analizują oni wcześniejsze czynniki, które spowodowały to zdarzenie lub zachowanie. Od czasów, gdy szkocki filozof Dawid Hume (1711-1776) przedstawił swoją teorię myślenia naukowego, termin wyjaśnianie opisuje sytuację, w której jedno zjawisko jest wyjaśniane za pomocą innego zjawiska poprzez odwołanie się do praw ogólnych. Prawa ogólne tworzą podstawy wyjaśniania konkretnych zjawisk. Według Richarda Braithwaite'a: 8 Ibidem, s. 26. 23 Funkcją nauki [...] jest ustalanie praw ogólnych dotyczących zdarzeń empirycznych lub zachowań obiektów, którymi zajmuje się dana dyscyplina wiedzy. W ten sposób możemy powiązać naszą wiedzę o oddzielnych zdarzeniach i rzetelnie przewidzieć te zdarzenia, o których dzisiaj jeszcze nic nie wiemy [...] Jeżeli nauka znajduje się na wysokim poziomie rozwoju [...] to ustalone prawa będą tworzyć hierarchię, w której wiele praw szczegółowych będzie logicznymi konsekwencjami niewielkiej liczby praw bardzo ogólnych [...] Jeżeli nauka znajduje się na wczesnym etapie rozwoju [...] to budowane prawa mogą być jedynie generalizacjami wynikającymi z przyporządkowywania obiektów różnym klasom9. Wraz z rozwojem danej dyscypliny naukowej zmieniają się stosowane przez nią formy wyjaśniania. Carl Hempel wprowadził dwa rodzaje wyjaśniania naukowego: wyjaśnianie dedukcyjne i probabilistyczne. Podział ten wynika ze sposobów generalizowania wniosków w ramach danego sposobu wyjaśniania10. Wyjaśnianie dedukcyjne. Wyjaśnianie dedukcyjne wymaga: (a) uniwersalnych generalizacji, (b) ustalenia warunków, w jakich te generalizacje są prawdziwe; (c) zdarzenia, które ma zostać wyjaśnione; (d) reguł logiki formalnej. W wyjaśnianiu dedukcyjnym dane zjawisko wyjaśniamy, pokazując, że może zostać ono wyprowadzone z ustalonego prawa ogólnego. I tak na przykład wyjaśnienie zjawiska powrotu obiektu rzuconego w powietrze na ziemię będzie oparte na prawie grawitacji. Naukowiec może stwierdzić, że jeżeli wzajemne przyciąganie dotyczy wszystkich obiektów, to możemy oczekiwać, że każdy konkretny obiekt będzie się zachowywał tak samo w stosunku do Ziemi. Niezbędnym warunkiem prawa ogólnego jest zatem to, że musi ono dotyczyć wszystkich możliwych przypadków. W myśleniu dedukcyjnym przesłanki prowadzą w sposób konieczny do wniosków. Oznacza to, że wtedy i tylko wtedy, gdy przesłanki są prawdziwe, prawdziwe też będą wnioski. Jeżeli jednak przesłanki nie są prawdziwe, to i wnioski są nieprawdziwe. Przypuśćmy, że urzędnicy państwowi wybrani spośród demokratów powinni zostać ponownie przegłosowani (przesłanka nieprawdziwa). Jeżeli John Brown jest urzędnikiem państwowym i został wybrany spośród demokratów, to jego kandydatura wymaga zatem ponownego głosowania (wniosek nieprawdziwy). Wyjaśnianie dedukcyjne jest najmocniejszym rodzajem wyjaśniania, ponieważ wnioski dzięki niemu wyprowadzane są zawsze prawdziwe, jeżeli prawdziwe są przesłanki, i ponieważ zdarzenia jednostkowe są tu równie dobrze wyjaśniane jak powszechne zachowania. Wyjaśnianie probabilistyczne. Nie każde wyjaśnienie naukowe jest oparte na prawdzie uniwersalnej (ogólnej). Dzieje się tak szczególnie w naukach społecznych, gdyż w ich ramach istnieje niewiele istotnych uniwersalnych generalizacji. Przedstawiciel nauk politycznych może, na przykład, wyjaśniać konkretny wzrost wydat- 9 Richard B. Braithwaite (1960), Scientific Explanation, New York: Harper & Row, s. 1. 10 Carl G. Hempel (1966), Philosophy of Natural Science, Englewood Cliffs, N.J.: Prentice Hall, rozdz. 5; wyd. polskie: Carl Hempel (1968), Podstawy nauk przyrodniczych, Warszawa: WNT, tłum. Barbara Stanosz. 24 ków rządowych w Stanach Zjednoczonych, twierdząc, że wzrost ten był wynikiem niekorzystnych warunków ekonomicznych. Jego wniosek wynika stąd, że w przeszłości wzrost wydatków rządowych następował po okresie ciężkich warunków ekonomicznych. W wyjaśnieniu tym zjawisko, które ma zostać wyjaśnione, zostało powiązane z jego wcześniejszymi przejawami — warunkami ekonomicznymi państwa. Naukowcy zaproponowali takie wyjaśnienie, ponieważ okazało się, że istnieje związek pomiędzy warunkami ekonomicznymi i wydatkami państwa. Związek ten nie może jednak zostać opisany w postaci prawa ogólnego, ponieważ nie każdy przypadek nie sprzyjających warunków ekonomicznych prowadzi do wzrostu wydatków rządowych. Naukowcy mogą jedynie przypuszczać, że istnieje wysokie prawdopodobieństwo, iż trudne warunki ekonomiczne będą powodowały wzrost wydatków rządowych, lub pokazać, że w dużej liczbie badanych wypadków ciężkie warunki ekonomiczne prowadziły do wzrostu wydatków rządowych. Wyjaśnienia tego typu są określane jako wyjaśnienia probabilistyczne lub indukcyjne i wynikają one z uogólnień probabilistycznych. Innymi słowy, wyjaśnianie probabilistyczne odwołuje się do uogólnień wyrażających albo arytmetyczny stosunek jednego zjawiska do drugiego (n procent z X - Y), albo jest uogólnieniem wyrażającym określone tendencje/skłonności: (X ma skłonność do wywoływania Y). Głównym ograniczeniem generalizacji probabilistycznych czy indukcyjnych jest, w porównaniu z prawami ogólnymi, to, że wnioski dotyczące konkretnych wypadków nie mogą zostać wyprowadzone z całkowitą pewnością. Jeżeli na przykład wiadomo, że 70% członków danej grupy etnicznej głosowało na Partię Demokratyczną przez ostatnie dwadzieścia lat, to nadal nie można wnioskować z całkowitą pewnością, że prawdopodobieństwo, iż konkretny członek tej grupy etnicznej będzie głosował na demokratów, wynosi 7/10. Na zachowanie pojedynczej osoby mogły bowiem wpłynąć inne, oprócz przynależności do grupy etnicznej, czynniki. Osoba ta może należeć również do organizacji społecznej o długich tradycjach republikańskich i to może przewyższyć wpływ przynależności etnicznej. Do problemu wnioskowania wrócimy jeszcze w rozdziale 10. Przewidywanie Wyjaśnianie dedukcyjne i probabilistyczne tworzą jeden z ważnych składników wiedzy naukowej. Innym jest przewidywanie. Umiejętność właściwego przewidywania jest uważana za podstawową cechę myślenia naukowego. Jeżeli wiedza jest niedostateczna, to przewidywanie nie jest możliwe. Jeżeli wiadomo, że 2 x 6 = 12, to możemy przewidzieć, jaki będzie wynik zliczenia obiektów należących do dwóch grup, jeżeli do każdej należy po sześć obiektów. Jeżeli wiadomo, że temperatura zamarzania wody wynosi 32°F lub 0°C, to można przewidzieć, co się stanie, jeżeli w zimie nie dodamy przeciwzamrażacza do wody wlewanej do chłodnicy samochodu. Jeżeli wiadomo, że rząd zwiększa swoje wydatki w czasie ekonomicznej recesji, to można przewidywać, że przyszłe recesje będą przynosić wzrost wydatków rządowych. Jeżeli wiadomo, że program poszukiwania pracy przyczynia się do rozwiązania problemu bezrobocia, to można przewidywać, że stopa bezrobocia będzie spadała wraz z uruchamianiem takich programów. Oczekiwanie, że wiedza naukowa powinna prowadzić do dokładnych przewidywań, jest oparte na tezie, że jeżeli X powoduje Y i zaszło X, to można przewidywać, że zajdzie Y. U źródeł tej tezy leży założenie, że zarówno prawa ogólne, jak 25 i generalizacje probabilistyczne są rozpoznawalne i prawdziwe — zostały spełnione przyczyny warunkujące pojawienie się skutku. Przewidywanie może się okazać nietrafne, gdy (1) prawo lub generalizacja nie są prawdziwe lub (2) przyczyny (warunki poprzedzające) zostały źle zinterpretowane. Powiedzmy zatem, że jeżeli problem bezrobocia nie został rozwiązany, to stało się tak dlatego, że programy poszukiwania pracy nie rozwiązują problemu bezrobocia (nieprawdziwa generalizacja) lub że program poszukiwania pracy został mylnie potraktowany jako działanie sprzyjające rozwiązaniu problemu bezrobocia. Odwołując się do dedukcyjnego modelu wyjaśniania, możemy pokazać, że proces przewidywania jest — logicznie rzecz biorąc — odwrotnością procesu wyjaśniania. W procesie przewidywania wcześniejsze obserwacje wskazywały jedynie na to, że wystąpiły warunki wyjściowe. Prawa uniwersalne czy generalizacje probabilistyczne są wykorzystywane do uzasadniania przewidywania —jeżeli zaszły określone warunki wstępne, to po nich będą następować określone konsekwencje. Możemy teraz pokazać, jaka jest logiczna struktura wyjaśniania naukowego". Struktura ta składa się z trzech następujących części: 1. Twierdzenia E opisującego konkretne zjawisko lub zdarzenie, które ma być wyjaśnione. 2. Zbioru twierdzeń Ax do An opisujących specyficzne warunki, które poprzedzają zjawisko E lub są przyczynowo z nim powiązane. 3. Zbioru praw ogólnych lub generalizacji probabilistycznych L, do L„ mówiących, że: „Jeżeli zajdzie jakiekolwiek zdarzenie z rodzaju opisanych przez A{ do An, to zajdzie zdarzenie opisane przez E". Aby te trzy części umożliwiały wyjaśnienie jakiegoś zjawiska czy zdarzenia, muszą zostać spełnione przynajmniej dwa warunki: 1. Twierdzenie E musi być dedukcyjnie wyprowadzane z twierdzeń A i L łącznie, a nie z każdego z tych zbiorów oddzielnie. 2. Twierdzenia A i L muszą być prawdziwe. Poniżej przedstawiamy symboliczny zapis struktury logicznej wyjaśniania i przewidywania naukowego: Lj, . . ., L„ A\, . . ., A„ wynika stąd, że E Struktura logiczna wyjaśniania jest identyczna jak struktura przewidywania. Różnica tkwi w perspektywie przyjmowanej przez naukowców. W wypadku wyjaśniania zdarzenie L jest zdarzeniem należącym do przeszłości i wynika z aktualnego stanu wiedzy. Naukowcy poszukują właściwych twierdzeń typu A lub praw typu " Przedstawiony tu przykład został zaczerpnięty z książki Richarda S. Rudnera (1966), Philosophy of Social Science, Englewood Cliffs, N.J.: Prentice Hall, s. 60. 26 L będących podstawą wyjaśnienia zdarzenia E. W wypadku przewidywania natomiast twierdzenia typu A lub prawa typu L są już znane, a naukowcy poszukują przyszłych zdarzeń z nich wynikających. Rozumienie Trzecią cechą wiedzy naukowej jest rozumienie. Termin „rozumienie" jest stosowany na dwa różne sposoby —jako Verstehen (albo rozumienie oparte na empatii) lub jako rozumienie predyktywne. Przyczyną dwóch sposobów wykorzystywania tego terminu jest to, że z jednej strony przedmiotem badania nauk społecznych jest człowiek, a z drugiej — przedstawiciele nauk społecznych są zarówno obserwatorami, jak i częścią przedmiotu badawczego swojej dyscypliny. Zgodnie z Hansem Zetterbergiem: Symbole są materią, z której zostały utkane kultury i społeczeństwa [...] Na przykład sekwencja pojęć: narodziny, karmienie i odłączenie od piersi odzwierciedla biologiczną treść rodzicielstwa. Analizując psychologiczny wymiar rodzicielstwa, okazuje się, że oprócz rzeczywistości biologicznej możemy wskazać na zespół symboli (np. wartości, normy), które dotyczą chęci posiadania dzieci, odpowiedzialności za opiekę nad nimi i nad ich wykształceniem, prawa do podejmowania niektórych decyzji w ich imieniu, umożliwiania im udziału w niektórych społecznych rytuałach [...] Język nasz zawiera zatem kodyfikację tego, kim są rodzice, co powinni oni robić i jakie powinności obowiązują nas w stosunku do nich. Te wszystkie zdania w naszym języku reprezentują społeczny wymiar rodzicielstwa. Rzeczywistość społeczna składa się, tak w tym, jak i w innych przykładach, z symboli12. Czy w takim razie symbole, a co za tym idzie, również zachowanie ludzi, mogą być badane przy wykorzystaniu tej samej metodologii, którą stosuje się w naukach przyrodniczych? Czy przedmiot badania nauk społecznych nie jest tak złożony i odmienny, że powinno się dla niego wypracować specyficzną metodologię? Czy przedstawiciele nauk społecznych, -w przeciwieństwie do przedstawicieli nauk przyrodniczych, nie powinni patrzeć „z głębi" własnego przedmiotu badawczego, aby lepiej go zrozumieć? Tradycja Verstehen. Zgodnie z tradycyjnym rozumieniem słowa Verstehen (niemieckie określenie terminu „empatia")* nauki przyrodnicze i nauki społeczne tworzą dwie odmienne dziedziny wiedzy. Powodem tej odmienności jest natura właściwego im przedmiotu badawczego. Zwolennicy tej tradycji utrzymują, że nauki przyrodnicze i nauki społeczne mu- * Według S. Blackburne'a (Oksfordzki słownik filozoficzny, Warszawa 1997, KiW, s. 421-422) termin verstehen oznacza: „nasze rozumienie czynności ludzkich. W ramach tradycji verstehen czynności te rozumiane są od wewnątrz dzięki zupełnie innym środkom niż te, które umożliwiają poznanie przedmiotu przez obiektywną obserwację lub przez określenie jego miejsca w sieci regularności naukowych". Werstehen — z niem. „rozumieć" (przyp. red. nauk.). 12 Hans L. Zetterberg (1965), On Theory and Verification in Sociology, wyd. 3, N.J.: Bedminster Press, s. 1-2; por. również Kenneth J. Gergen (1982), Toward Transformation ofSocial Knowledge, New York: Springer-Yerlag. 27 szą stosować różne metody badawcze. Przedstawiciele nauk społecznych powinni, na przykład, rozumieć zarówno historyczny wymiar ludzkiego zachowania, jak i subiektywny aspekt ludzkiego doświadczenia. Max Weber (1864-1930), socjolog niemiecki, uważał że jeżeli w naukach społecznych mamy zrozumieć zachowanie jednostek i grup, to musimy się nauczyć „stawać na miejscu badanych". Musimy zrozumieć cudzy punkt widzenia rzeczywistości, rozumieć cudze symbole, wartości i postawy13. Już współcześnie podejście rozumiejące pojawiło się jako wytwór tradycji Ver-stehen. Kenneth Gergen, wybitny przedstawiciel tego podejścia, uważał, że: Istnieje podstawowa różnica pomiędzy większością zjawisk, którymi zajmują się nauki przyrodnicze, i tymi, którymi zajmują się socjobehawioryści. Istnieje wiele przyczyn pozwalających wierzyć, że — w wypadku tych ostatnich — zjawiska, które są traktowane przez nich jako podstawowe, są mniej stabilne (trwałe, pewne czy powtarzalne) w porównaniu z naukami przyrodniczymi [...] Chcąc rzecz ująć uczciwie, należy śmiało stwierdzić, że przy całym wysiłku, aby rywalizować z metodami nauk przyrodniczych, ostatni wiek badań i teorii socjobehawioralnych nie przyniósł tak rzetelnego prawa jak prawo hydrostatyki Archimedesa czy ruchu jednostajnie przyśpieszonego Galileusza14. Metodologia podejścia opartego na pojęciu Verstehen zostanie przedstawiona w rozdziale 12. Rozumienie predyktywne. W przeciwieństwie do nurtu Verstehen przedstawiciele tzw. empiryzmu logicznego wychodzili z założenia, że można uzyskać wiedzę obiektywną w naukach społecznych, badając zarówno świat społeczny, jak i świat przyrodniczy. Uważali oni, że można studiować tak nauki społeczne, jak i nauki przyrodnicze, odwołując się do tych samych reguł metodologicznych. Co więcej, według empirystów logicznych rozumienie oparte na empatii może prowadzić do odkryć naukowych. Jeżeli jednak odkrycia te mają zostać włączone do całokształtu wiedzy, to muszą zostać zweryfikowane obserwacjami empirycznymi (pojęcie odkrycia naukowego w odróżnieniu od pojęcia weryfikacji zostanie bardziej szczegółowo omówione dalej w tym rozdziale). ¦ Rola metodologii Naukowców łączy stosowana metodologia, a nie przedmiot ich badań. Założenia metodologii nauk sprawiają, że podejście naukowe jest zdecydowanie odmienne od innych sposobów zdobywania wiedzy. Metodologia nauk to system jasno określonych reguł i procedur, do których odwołują się badania będące podstawą ewaluacji wiedzy. System ten nie jest ani niezmienny, ani niezawodny — jest ciągle ulepszany. Naukowcy szukają nowych metod obserwacji, analizy, logicznego wnioskowania i generahzacji. Ich powstanie 13 Max Weber (1964), The Theory of Social and Economic Organization, New York: Free Press. 14 Gergen, Toward Transformation of Social Knowledge, s. 12. 28 oraz wykazanie, że spełniają one założenia właściwe dla podejścia naukowego, jest warunkiem włączenia ich do systemu reguł rządzących metodologią naukową. Dlatego też naukowa metodologia to system przede wszystkim samokorygujący: Nauka nie wymaga potwierdzania jej twierdzeń za wszelką cenę. Twierdzenie musi zostać poparte dającym się zaakceptować, logicznym dowodem. Dowód musi być starannie przemyślany oraz sprawdzony za pomocą dobrze znanych kanonów wnioskowania. Oznacza to, że metody nauki są bardziej niezmienne i ważniejsze dla naukowców niż jakikolwiek rezultat szczegółowy uzyskany za pomocą jej środków. Dzięki nim realizacja zadań naukowych jest procesem samokorygującym. Nie odwołuje się on do jakichś specjalnych objawień czy niepodważalnych autorytetów. Nie oczekuje się od niego nieomylności, lecz uwzględnienia metod budowania i testowania hipotez. Analizowanie realizowanych zadań prowadzi z kolei do odkrywania kanonów prowadzenia badań, które w czasie trwania badań mogą być modyfikowane15. Metodologia nauk społecznych rozwijała się wolno. Następowała ciągła wymiana idei, informacji i uwag krytycznych, co umożliwiło mocne osadzenie, a także pozwoliło na zinstytucjonalizowanie powszechnie akceptowanych reguł i procedur oraz stworzenie właściwych metod i technik. Ten system reguł i procedur jest normatywnym składnikiem metodologii naukowej. Ponieważ to one definiują „reguły gry", więc normy naukowe tworzą standardy powielane w badaniach i analizach naukowych. Reguły z kolei umożliwiają komunikację, konstruktywną krytykę i naukowy postęp. Metodologia dostarcza reguł komunikowania Anatol Rapoport zilustrował ogólny problem komunikowania się dwóch osób, których nie łączy wspólne doświadczenie, za pomocą następującej anegdoty. Ślepiec poprosił, aby wyjaśniono mu, co oznacza „biały". — Biały to jeden z kolorów — powiedziano mu. — Na przykład jak biały śnieg. — Rozumiem — odrzekł ślepiec. — To jest zimny i mokry kolor. — Nie, nie musi on być zimny i mokry. Zapomnij o śniegu. Papier, na przykład, też jest biały. — Ach, więc on szeleści? — zapytał ślepiec. — Nie musi szeleścić. Przypomina też futro królika albinosa. —Miękki, puszysty kolor? — dopytywał się ślepiec. — Nie musi wcale być miękki. Porcelana też jest biała. — Może w takim razie ten kolor jest kruchy? — zapytał ślepiec16. Podstawową funkcją metodologii jest pomaganie ślepcowi w „patrzeniu", ułatwianie komunikowania się badaczy, których łączy lub którzy chcą, aby ich łączyło 15 Morris R. Cohen, Ernest Nagel (1962), An Introduction to Logic and Scientific Method, Orlando, Fla.: Harcourt Brace Jovanovich, s. 395-396. 16 Anatol Rapoport (1969), Operational Philosophy, New York: Wiley, s. 12. 29 wspólne doświadczenie. Co więcej, dzięki ujawnianiu reguł metodologii, sprawianiu, że jest ona publiczna i dostępna, tworzy się podstawa do powtarzania badań i ich konstruktywnej krytyki. Replikacja — czyli powtarzanie badań dokładnie w taki sposób, w jaki przeprowadzili je badacze i naukowcy — ma chronić przed niezamierzonymi błędami i oszustwami. Mówiąc o konstruktywnej krytyce, przyjmujemy, że gdy tylko zostaną sformułowane twierdzenia nauki, mamy prawo zadawać następujące pytania: Czy wyjaśnianie (przewidywanie) logicznie wynika z założeń?, Czy obserwacje są dokładne?, Jakie zastosowano metody obserwacji?, Czy procedura testowania była trafna?, Czy jakieś inne wyniki wpłynęły na wyprowadzone wnioski?, Czy otrzymane wyniki mogą zostać wykorzystane w procesie dowodzenia poprawności innego wnioskowania? itd. W czasie lektury tej książki przekonamy się, że powyższe pytania składają się na kryteria ewaluacji wiedzy naukowej — tak starej, jak i nowej. Metodologia dostarcza reguł wnioskowania Chociaż obserwacje empiryczne są podstawowe w podejściu naukowym, to nie „mówią one same za siebie". Obserwacje lub fakty empiryczne muszą być uporządkowane i powiązane w logiczną, systematyczną strukturę. Głównym narzędziem podejścia naukowego (też rejestrowania faktów) jest logika — system reguł wnioskowania pozwalających na wyprowadzanie rzetelnych wniosków z zaobserwowanych faktów. Procedury logiczne mają formę ściśle powiązanych ze sobą twierdzeń, wzajemnie się wspomagających. Stosując logikę jako podstawę naukowego myślenia, metodologia nauki powiększa wewnętrzną spójność twierdzeń formułowanych przez naukę. Fundamentalna dla podejścia naukowego logika — tj. badanie podstaw i zasad wnioskowania — jest obecna w korzeniach nazw wielu dziedzin badań, np. biologia, antropologia, socjologia, kryminologia czy geologia. Metodologia (czy metodologie) wymaga zatem kompetencji w logicznym wnioskowaniu oraz analizowaniu. W kolejnych rozdziałach omówimy elementy logiki, tj. reguły budowania definicji, klasyfikacji oraz formy wnioskowania dedukcyjnego i probabilistycznego (indukcyjnego), teorię prawdopodobieństwa, procedury losowania, systemy rachunkowe oraz reguły pomiaru tworzące metodologiczny warsztat naukowca prowadzącego badania w dziedzinie nauk społecznych. Podkreślmy, że korzystając z logiki, nauka systematycznie — a niekiedy w sposób rewolucyjny — czyni postępy. Metodologia dostarcza reguł intersubiektywności Metodologia wyjaśnia akceptowane kryteria empirycznej obiektywności (prawdy) oraz metody i techniki jej weryfikacji. Obiektywność i trafność są w dużym stopniu zależne. Obiektywność zależy od weryfikacji tak dalece, że naukowcy nie mogą mówić o obiektywności, aż inni naukowcy nie zweryfikują ich wyników. Intersubiektywność, która jest wymianą informacji wśród naukowców, informacji dotyczących wyników obserwacji i faktów, jest niezbędna, ponieważ samo myślenie logiczne nie gwarantuje jeszcze emipirycznej obiektywności. Wspomnieliśmy wyżej, że logika zajmuje się trafnym wnioskowaniem, a nie prawdą empiryczną czy potwierdzonymi faktami. Fakt jest albo na pewno prawdziwy, albo prawdziwy z określonym prawdopodobieństwem wtedy, gdy istnieje obie- 30 ktywny dowód, który go potwierdza. Twierdzenia nauki są trafne, gdy zostały logicznie wyprowadzone czy wyciągnięte z przyjętych a priori założeń. Naukowcy mogą zatem stawiać błędne wnioski z potwierdzonych faktów (prawdziwe twierdzenia), jeżeli proces wnioskowania nie był poprawny. Mogą oni również wyciągać wnioski niepoprawne, jeżeli wnioskowanie było właściwe (wnioskowanie logicznie trafne), ale nie odwołali się do potwierdzonych faktów. Prawdziwość twierdzenia wynika z doświadczenia; trafność twierdzenia wynika zaś z jego wewnętrznej zgodności lub zgodności tego twierdzenia z innymi twierdzeniami17. Rodzaje wyjaśniania dedukcyjnego i probabilistycznego (przewidywanie), omawiane wcześniej, są zatem powiązane jedynie z wnioskowaniem trafnym logicznie. Innymi słowy, trafność wniosków wynika z przyjętych wcześniej założeń. Jednakże ich prawdziwość nie może zostać ustalona czy potwierdzona jedynie na drodze logicznej. Aby zweryfikować prawdziwość twierdzenia, trzeba się odwołać do dowodów empirycznych. Jak pokazuje poniższy przykład, ścisłe odwoływanie się do wnioskowania logicznego bez badania faktów empirycznych może prowadzić do absurdalnych wniosków: Wszyscy ludzie są istotami motywowanymi chęcią posiadania władzy. Wszystkie istoty motywowane chęcią posiadania władzy są destrukcyjne. Wszyscy ludzie są destrukcyjni. Wiedząc, że kryteria obiektywności empirycznej i metody weryfikacji są wytworami ludzkiego umysłu (w przeciwieństwie do przekonania, że prawda jest dana w sposób absolutny), termin „intersubiektywność" jest bardziej właściwy niż termin „obiektywność", aby opisać ten proces. Być intersubiektywnym oznacza, że wiedza (ogólnie) i metodologia nauk (szczególnie) muszą być komunikowalne*. Zatem, jeżeli jeden naukowiec prowadzi badanie, to inny może je powtórzyć i porównać ze sobą dwa zbiory wyników. Jeżeli zastosowano prawidłową metodologię i (co zakładamy) warunki, w jakich przeprowadzono badanie, czy zdarzenia, jakie nastąpiły, nie uległy zmianie, to mamy prawo oczekiwać podobnych wyników. Warunki mogą się zmienić i wtedy pojawią się nowe okoliczności. Istotność intersu-biektywności tkwi jednak w zdolności naukowców do rozumienia i oceniania metod innych oraz do prowadzenia podobnych obserwacji w celu potwierdzenia faktów i wniosków empirycznych. Zacytujmy Abrahama Kapłana: *Mówiąc ściślej, rozróżniamy: (1) intersubiektywne komunikowanie (wiedza naukowa powinna być zrozumiana przez każdego badacza posiadającego odpowiednie kwalifikacje, a zatem socjolog powinien zrozumieć to, co przekazuje mu inny socjolog oraz (2) intersubiek-tywną sprawdzalność (wiedza naukowa poddaje się kontroli, tzn. twierdzenie socjologiczne sformułowane przez jednego socjologa powinno poddawać się tej samej procedurze sprawdzenia zastosowanej przez innego socjologa. Zasada intersubiektywności zwana jest też stabą zasadą racjonalności. Posługując się słabą zasadą racjonalności, można oddzielić wiedzę racjonalną od wiedzy irracjonalnej. Por. J. Such, M. Szczęśniak (1999), Filozofia nauki, Poznań: Wyd. Nauk. UAM (przyp. red. nauk.). "Ibidem, s. 18. 31 Pytanie o charakterze metodologicznym jest zawsze ograniczone do pytania, czy otrzymane wyniki obserwacji mogą być wykorzystane w kolejnych badaniach, nawet gdy konkretny obserwator przestał być dalej częścią kontekstu18. ¦ Rewolucja naukowa Jak się przekonaliśmy w dotychczasowych rozważaniach tego rozdziału, wiedza naukowa jest wiedzą dającą się sprawdzić zarówno za pomocą wnioskowania, jak i doświadczenia zmysłowego. Ważność metodologii nauk wypływa przede wszystkim stąd, że dostarcza ona reguł komunikacji, reguł wnioskowania oraz procedur i metod obserwacji i weryfikacji. W tym sensie metodologia jest normatywna — żąda zgodności z jej zasadami: naukowcy odrzucają twierdzenia nauki, które sformułowano, nie respektując reguł i procedur podawanych przez metodologię. Czy zatem wymóg poprawności metodologicznej nie przeszkadza w dokonywaniu nowych odkryć — i co za tym idzie — w postępie naukowym? Co więcej, ponieważ naukowcy są członkami społeczności naukowców, rządzącymi się konwencjami, normami, rytuałami oraz uwikłanymi w związki oparte na władzy, które nie muszą pozostawać w zgodzie z obiektywnymi celami wiedzy, to czy mogą oni powstrzymać postęp? Filozofowie nauki i teoretycy nauk społecznych od dawna dostrzegali niebezpieczeństwo wynikające z dopasowania się do zasad i z dogmatyzmu w nauce. Jak powiedział Scott Greer: „Jeżeli mamy szczęście i nasza wiedza naukowa się aku-muluje, to może się ona wspinać spiralnie do góry; może również krążyć w kółko na tym samym poziomie lub może spadać w dół — od teorii do doktryny dogmatyzmu"19. Wśród wielu podejść opisujących naukowe rewolucje z perspektywy so-cjopolitycznej, teoria Thomasa Kuhna dotycząca społeczności naukowców jest szczególnie prowokująca i warta bardziej szczegółowego przedstawienia. Nauka normalna a nauka rewolucyjna Teoria Kuhna wprowadza rozróżnienie pomiędzy nauką normalną a nauką rewolucyjną. Nauka normalna to rutynowa weryfikacja teorii (czy paradygmatu) dominującej w danym momencie historycznym. Dla tego typu nauki weryfikacja i testowanie są fragmentem działalności będącej rodzajem rowiązywania łamigłówek. Jak powiedział sam Kuhn: Terminu „nauka instytucjonalna"* używam dla oznaczenia badań wyrastających z jednego lub wielu takich osiągnięć naukowych przeszłości, które dana społeczność uczonych aktualnie akceptuje i traktuje jako fundament swej dal- * W polskim tłumaczeniu Struktury rewolucji naukowych T.S. Kuhna termin normal science został oddany przez red. nauk. tłumaczenia, S. Amsterdamskiego, jako „nauka zinstytucjonalizowana". Później Amsterdamski w pracy Między doświadczeniem a metafizyką (Warszawa 1973, KiW, s. 166) pisze, że skłania się do tłumaczenia tego terminu jako „nauka normalna". Taką też wersję przyjęto w tym tłumaczeniu (przyp. tłum.) [Polskie tłumaczenie odnosi się do wydania pierwszego pracy Khuna z 1962 roku — przyp. red. nauk.]. 18 Abraham Kapłan (1968), The Conduct of Inąuiry, New York: Harper & Row, s. 128. 19 Scott Greer (1989), The Logic ofSocial Inąuiry, New Brunswick, N.J.: Transaction Books, s. 3-4. 32 szej praktyki. Z tych podstawowych osiągnięć — wprawdzie rzadko w ich formie oryginalnej — zdają dzisiaj sprawę podręczniki, zarówno elementarne, jak i akademickie. Przedstawiają one zespół uznawanych teorii, omawiają wiele lub wszystkie ich udane zastosowania, konfrontując je z przykładowymi obserwacjami i eksperymentami20. Tego typu teksty naukowe łączą studentów i praktyków w społeczności naukowe. Określają one rodzaj problemów badawczych, rodzaj stosowanych założeń i pojęć, a także rodzaj wykorzystywanych metod badawczych. Historycznie takie teksty i badania: Nadawały się do takiego celu, gdyż miały dwie wspólne cechy zasadnicze. Reprezentowany w nich dorobek był dostatecznie oryginalny i atrakcyjny, aby na tej podstawie powstać mogła konkurencyjna wobec dotychczasowych metod szkoła. Jednocześnie dorobek ten był na tyle otwarty, że pozostawiał nowej szkole najrozmaitsze problemy do rozwiązania21. Kuhn nazywa osiągnięcia mające te dwie cechy paradygmatami. Według niego paradygmaty są ściśle powiązane z koncepcją nauki normalnej. Posługując się [terminem „paradygmat"], chcę w ten sposób wyrazić, że pewne akceptowane wzory współczesnej praktyki naukowej — wzory obejmujące równocześnie prawa, teorie, zastosowania i wyposażenie techniczne — tworzą model, z którego wyłania się jakaś szczególna, zwarta tradycja badań naukowych [...] Właśnie studiowanie paradygmatów [...] przygotowuje studenta do przyszłego uczestnictwa w pracach jakiejś naukowej wspólnoty22. Przykładem paradygmatu może być materializm Marksa oraz teoria seksualnych podstaw osobowości Freuda. Naukowcy stają się członkami zbiorowości profesjonalistów. Liderzy tych zbiorowości otrzymują te same i pochodzące z tego samego źródła podstawy własnej dyscypliny (metodologiczne i pojęciowe), zatem ich kolejne badania będą rzadko wywoływały niezgodę lub krytykę co do ich podstaw. Naukowcy, których badania wywodzą się z powielanego paradygmatu, są psychologicznie podporządkowani tym samym regułom, normom i standardom praktyki naukowej. „Takie współuczestnictwo i wynikająca z niego jednomyślność są niezbędnymi warunkami nauki normalnej, tzn. ukształtowania się i trwania określonej tradycji badawczej"23. W przeciwieństwie do niezaangażowanych normalne społeczności naukowców to grupy partyzantów podtrzymujących i broniących ustanowionego paradygmatu. Przystawalność do paradygmatu nie musi jednak oznaczać, w sposób konieczny, 20 Thomas S. Kuhn (1970), The Structure ofScientifw Revolutions, wyd. 2, Chicago: University of Chicago Press, s. 10; wyd. polskie: Thomas S. Kuhn (1968), Struktura rewolucji naukowych. Warszawa: PWN, ttum. Helena Ostromęcka, s. 26. 21 Ibidem (wyd. polskie, s. 26). 22 Ibidem (wyd. polskie, s. 27). 23 Ibidem, s. 10-11 (wyd. polskie, s. 27). 33 wstrzymywania postępu naukowego. Paradygmaty jako zasada organizująca są niewątpliwie konieczne. Bez nich badania naukowe jako działania zespołowe nie mogłyby być realizowane. „Ustanowienie paradygmatu i prowadzenie badań dla bardziej wtajemniczonych, a dopuszczanych przez ten paradygmat, jest oznaką dojrzałości w rozwoju każdej dyscypliny naukowej"24. Nauka normalna jednakże uwiecznia siebie samą i dlatego ogranicza zmiany i innowacje. Nauka rewolucyjna W przeciwieństwie do nauki normalnej Kuhn spostrzegał naukę rewolucyjną jako nagły rozwój konkurencyjnego paradygmatu. Zmiana paradygmatu oznacza rewolucję w nauce i może zostać zaakceptowana przez społeczność naukowców, lecz jedynie stopniowo. I tak paradygmat, że ludzka inteligencja jest wytworem zarówno środowiska socjokulturowego, jak i procesów genetycznych, zmienił wcześniejszy paradygmat, zgodnie z którym inteligencja jest determinowana tylko przez czynniki genetyczne. Nowy paradygmat zrewolucjonizował badania dotyczące osobowości i ludzkiego zachowania i stał się kamieniem węgielnym wielu działań o charakterze społecznym, edukacyjnym i ekonomicznym. Proces odrzucenia dominującego paradygmatu rozpoczyna się, według Kuhna, od próby weryfikacji paradygmatu. Podczas gdy naukowcy testują empirycznie różne wymiary i konsekwencje dominującego paradygmatu, jego zgodność z wynikami badań empirycznych jest coraz mniejsza. Kuhn określa taki brak zgodności mianem anomalii i twierdzi, że anomalie stają się bardziej zauważalne w trakcie trwającego procesu weryfikacji czy procesu rozwiązywania problemów. W pewnym momencie tworzy się paradygmat konkurencyjny. W ten sposób powstaje konflikt pomiędzy zwolennikami starego i nowego paradygmatu. Ostatecznie społeczność naukowców akceptuje nowy paradygmat i wraca do działań typowych dla nauki normalnej. Okres przechodzenia od starego do nowego paradygmatu jest źródłem niepewności i rozłamów w społecznościach naukowców. Okres ten, który może trwać dziesiątki lat, charakteryzuje się prowadzeniem losowych badań, bezcelowych weryfikacji i powstawaniem przypadkowych odkryć, dzięki którym w pewnym momencie i w jakiś sposób paradygmat rewolucyjny zostaje osadzony na tronie. Rewolucje naukowe zdarzają się jednak rzadko. Naukowcy na ogół koncentrują się na nauce normalnej. Nie próbują obalać dominującego paradygmatu i od razu nie zauważają anomalii. Ich spostrzeżenia są gromadzone w postaci kategorii umysłowych ustalanych na długo przed tym, nim rozpoczną się procedury weryfikacyjne. Naukowcy, podobnie jak i inni profesjonaliści, widzą to, co spodziewają się zobaczyć. Z tej przyczyny dominujący paradygmat ma tendencję do pozostawania paradygmatem akceptowanym jeszcze długo po tym, jak okazał się niezgodny z obserwacjami empirycznymi. Logika odkrycia? Według Kuhna być może nie ma logiki odkrycia, lecz istnieje jedynie jego kontekst socjopsychologiczny. Nauka jest zawsze bogata w anomalie i wiele w niej niezgodności, jednak dominujący paradygmat umożliwia rozwiązywanie łamigłówek do momentu, aż nie zostanie on zniesiony przez kryzys. Czy można wskazać na racjonalne Ibidem, s. 11 (wyd. polskie, s. 28). 34 przyczyny pojawiania się kryzysów w nauce? W jaki sposób tworzy się konkurencyjny paradygmat? Pytania te nie pojawiają się w pracy Kuhna. Dla niego nie ma logiki odkrycia; jest raczej ścieranie się grup wewnątrz społeczności naukowców. Skrajnie odmienna od opisowego poglądu na naukę reprezentowanego przez Kuhna jest wizja nauki normatywnej w ujęciu Karla Poppera. Według Poppera społeczności naukowców powinny być — i tak w znacznym stopniu jest rzeczywiście — „społeczeństwami otwartymi", w których nigdy nie dochodzi do uświęcenia jakiegoś dominującego paradygmatu. Twierdzi on, że nauka powinna się znajdować w stanie ciągłej rewolucji, a krytyka winna być istotą działań naukowych. Zaprzeczanie twierdzeniom nauki tworzy rewolucję — twierdzi Popper. Moim zdaniem „normalni" naukowcy, których opisuje Kuhn, to osoby, którym należy współczuć [...] „Normalny" naukowiec [...] był wyjątkowo źle kształcony [...] Był kształcony w duchu dogmatyzmu: jest ofiarą doktrynacji. Nauczył się techniki, którą można stosować bez pytania dlaczego25. Popper przyznaje, że w danym momencie uczeni stają się „więźniami" złapanymi we własne paradygmaty, oczekiwania, przeszłe doświadczenia i język, jednak z jednym, ważnym zastrzeżeniem: Jesteśmy więźniami tak jak Pickwick: jeżeli spróbujemy, to w każdej chwili możemy uwolnić się zza krat. Co prawda możemy znowu znaleźć się za kratami, ale będzie to lepsze i przestronniejsze miejsce; i zawsze, w każdym momencie możemy się znowu z nich uwolnić26. Powinniśmy teraz rozróżnić dwa konteksty działalności naukowej*: kontekst uzasadniania i kontekst odkrycia27. Kontekst uzasadniania odnosi się do działań badaczy podejmowanych wtedy, gdy próbują oni zweryfikować — w sposób logiczny i empiryczny — twierdzenia nauki. Metody nauki określają logikę uzasadniania, i to niezależnie od sposobu, w jaki naukowcy dochodzą do swoich intuicji. Działania badaczy w ramach kontekstu odkrycia nie są natomiast ograniczone przez metodologię. Metody nauki mogą ułatwiać działania prowadzące do odkrycia, ale na początkowych etapach poszukiwań ani sformalizowane reguły, ani logika nie powinny być traktowane jako przewodniki. Twórczość, intuicja, wyobraźnia czy inspiracja to ogromnie ważne czynniki w nauce. I chociaż można je w sobie wykształcić, nie sposób sprowadzić ich do reguł. Według Johna Stuarta Milla (1806-1873): „Nie istnieje taka nauka, która pozwoliłaby człowiekowi uzmysławiać sobie, jak realizować swoje zamierzenia"28. * To rozróżnienie pochodzi od Hansa Reichenbacha z jego książki Experience and prediction (1938), a ściślej z rozdziału, którego polski przekład pt. Trzy zadania epistemologii opublikowały „Studia Filozoficzne", 1989, nr 7-8, s. 205-212 (przyp. red. nauk.). 25 Karl R. Popper (1970), Normal Science andlts Danger, w: Imre Lakatos, Allan Musgrave (red.), Critkism and the Growth of Knowledge, New York: Cambridge University Press, s. 53. 26 Ibidem, s. 56. 27 Kapłan, The Conduct of Inąuiry, s. 12-18. 28 Ibidem, s. 16. 35 ¦ Proces badawczy Wiedza naukowa jest wiedzą opartą zarówno na wnioskowaniu, jak i na doświadczeniu (obserwacji). Naukowcy stosują i kryteria logiczne, i empiryczne po to, aby zweryfikować twierdzenia nauki. Kryteria te znajdują swoje odzwierciedlenie w działaniach badawczych podejmowanych przez naukowców w czasie procesu badawczego. Proces badawczy to całościowy schemat działań, które naukowcy podejmują w celu wytworzenia wiedzy; to paradygmat naukowych dociekań. ¦ Jak przedstawiono to na rycinie 1.1, na proces badawczy składa się siedem podstawowych etapów: problem, hipotezy, plan badawczy, pomiar, zbieranie danych, analiza danych i uogólnianie (generalizowanie). Każdy etap wpływa na teorię, a teoria wpływa z kolei na wszystkie etapy. W książce tej omówimy szeroko każdy z etapów, a także przedyskutujemy przejście z jednego etapu na drugi. Teraz natomiast zatrzymamy się na ogólnej charakterystyce procesu badawczego. problem analiza danych plan badawczy zbieranie danych pomiar Ryc. 1.1. Podstawowe etapy procesu badawczego Najbardziej istotną cechą procesu badawczego jest jego cykliczna natura. Zazwyczaj rozpoczyna się on od postawienia problemu, a kończy wstępnymi wnioskami (uogólnieniami). Wnioski sformułowane w ramach jednego cyklu są początkiem cyklu następnego. Ten cykliczny proces trwa nieskończenie, odzwierciedlając w ten sposób postęp dyscypliny naukowej. 36 Proces badawczy jest również procesem samokorygującym. Badacze testują w sposób logiczny i empiryczny wstępne wnioski czy hipotezy dotyczące problemu badawczego. Jeżeli wnioski te zostaną odrzucone, to zamiast nich zostaną sformułowane nowe. W procesie formułowania wniosków badacze na nowo oceniają wszystkie operacje badawcze. Jest tak dlatego, ponieważ wstępne wnioski mogły zostać odrzucone nie dlatego, że były nietrafne, ale z powodu błędów w przeprowadzonych operacjach badawczych. Badacz może, na przykład, odrzucić wniosek, że kryzys ekonomiczny prowadzi do wzrostu wydatków rządowych, jeżeli nie można potwierdzić jego trafności i nie można go empirycznie zweryfikować. Wnioski jednak mogą zostać odrzucone nawet wtedy, gdy są prawdziwe, jeżeli procedury sprawdzania trafności i weryfikacji (np. plan badawczy, pomiar czy analiza danych) są niekompletne. Aby zminimalizować ryzyko odrzucenia prawdziwych wniosków, badacze przed sformułowaniem nowych wniosków ponownie analizują każdy etap procesu badawczego. To właśnie dlatego mówimy, że metodologia nauk jest samo-korygująca. Idee i teorie nie mają tej cechy, gdyż ich celem jest dostarczanie raczej wyjaśnień niż dyrektyw ponownego analizowania ich podstawowych twierdzeń. Na koniec należy zaznaczyć, że przedstawiony tutaj proces badawczy jest raczej wyidealizowany, tzn. jest racjonalną rekonstrukcją praktyki badawczej: Rekonstrukcja idealizuje logikę nauki w tym sensie, że pokazuje nam, co byłoby, gdyby została ona wyekstrahowana i w najwyższym stopniu oczyszczona [...] [Ale] nawet wtedy większość naukowców nie działałaby całkowicie i doskonale logicznie; nawet najlepsze badania nie są wolne od tak bardzo ludzkiego odbiegania od tematu29. W praktyce proces badawczy przebiega (1) czasami szybko, czasami wolno; (2) czasem na wysokim stopniu sformalizowania, czasem zupełnie nieformalnie, bez samoświadomości i intuicyjnie; (3) nieraz dzięki interakcji kilku odgrywającyh różne role naukowców (powiedzmy: teoretyka, kierującego badaniami, ankietera, metodologa, eksperta w zakresie doboru próby, statystyka itd.), nieraz dzięki wysiłkowi jednego badacza; (4) czasami jedynie w wyobraźni naukowca, czasami trwa rzeczywiście30. Jak widać, nasza wyidealizowana rekonstrukcja procesu badawczego nie może być traktowana jako sztywna. Jej celem jest zwrócenie uwagi na podstawowe problemy prowadzenia badań w naukach społecznych. ¦ Plan ksigżki Książka ta została zorganizowana wokół etapów procesu badawczego. Rozdział 2 i 3 są poświęcone podstawowym pojęciom dookreślającym proces badawczy, a także związkom teorii z doświadczeniem. W rozdziałach tych koncentrujemy się Ibidem, s. 10-11. Wallace, The Logic of Science in Socjology, s. 19. 37 na istocie pojęć, definicji, omawiamy funkcje i strukturę teorii, modeli, związków, zmiennych oraz tworzenie hipotez badawczych. Rozdział 4 poświęcono zagadnieniom etycznym i moralnym, które dotyczą badaczy w dziedzinie nauk społecznych. W rozdziale tym zajmujemy się prawami, jakie mają uczestnicy badań, powinnościami badaczy, interakcjami pomiędzy osobami badanymi a badaczami, a także zawodowym kodeksem etycznym, który odgrywa coraz ważniejszą rolę w planowaniu badań naukowych. W rozdziale 5 i 6 koncentrujemy się na etapie wyboru planu badawczego. Plan badawczy to strategia, która prowadzi badacza przez cały proces badawczy. To logiczny model dowodzenia pozwalający badaczowi na wyciąganie wniosków dotyczących związków przyczynowych pomiędzy badanymi zjawiskami. Jak się dalej przekonamy, istnieje wiele rodzajów planów badawczych, w których zostały sformułowane warunki przyjęcia lub odrzucenia hipotezy badawczej. Rozdział 7 poświęciliśmy zagadnieniom pomiaru. W czasie pomiaru badacz w sposób systematyczny przypisuje symbole (zwłaszcza liczby) obserwacjom empirycznym. Symbole są z kolei poddawane analizie ilościowej, która umożliwia odkrycie informacji i relacji niedostępnych w inny sposób. Liczby można dodawać, odejmować, obliczać na ich podstawie procenty, korelacje i wykorzystywać je do opisywania, wyjaśniania i przewidywania zjawisk. Wnioski naukowe zazwyczaj nie są wyprowadzane z wszystkich możliwych do uzyskania obserwacji, lecz z pewnej, niewielkiej ich liczby — próby. W rozdziale 8 przedstawimy podstawowe zagadnienia dotyczące doboru próby — teorię, metody doboru próby reprezentatywnej, problem wielkości próby i schematy doboru próby. Pięć kolejnych rozdziałów dotyczy etapu zbierania danych. Na tym etapie badacze przeprowadzają i zapisują wyniki obserwacji empirycznych. Dane (obserwacje) można zbierać za pomocą różnorodnych metod, włączając w to obserwację standaryzowaną i niestandaryzowaną, wywiady osobiste, badania ankietowe, badania opinii publicznej i opinii indywidualnych. Żadna z metod zbierania danych nie jest doskonała, tak jak żadna z metod nie jest właściwa dla wszystkich problemów badawczych. Różne problemy wymagają różnych metod badawczych, a każda metoda ma swoje zalety i ograniczenia. Rozdział 14 obejmuje podstawowe zagadnienia związane z przetwarzaniem danych, które jest etapem łączącym zbieranie z analizą danych. Na etapie przetwarzania danych zebrane przez badacza obserwacje są przekształcane w system kategorii pojęciowych. Kategorie te są następnie kodowane, a dane kodowane również można poddać analizie ilościowej. Dane zakodowane zostają zapisane i przetworzone przez programy komputerowe. W rozdziale tym omówimy również podstawowe zagadnienia związane z kodowaniem i automatycznym przetwarzaniem danych. Następny etap procesu badawczego to ilościowa, statystyczna analiza danych. Statystyki to wartości liczbowe, które można wykorzystać do podsumowania, przeanalizowania czy oceny otrzymanego zbioru informacji. Warto pamiętać o rozróżnieniu pomiędzy dwoma, pełniącymi odmienne funkcje, działami statystyki — statystyką opisową i statystyką indukcyjną. Statystyka opisowa jest zazwyczaj wykorzystywana do prezentowania, opisywania i podsumowywania danych. W rozdziale 15 przedstawimy problematykę rozkładów jednej zmiennej, w rozdziale 16 — dwuzmiennowych, a w rozdziale 17 — techniki wielozmienno-wej analizy danych. Rozdział 18 poświęciliśmy metodom konstrukcji indeksów 38 i skalowaniu. Drugi dział statystyki — statystyka indukcyjna — pozwala badaczom na uogólnianie ich bezpośrednich wniosków, ocenę wielkości różnic pomiędzy grupami i szacowanie nieznanych wartości. Metody te, omówione w rozdziale 19, ułatwiają prowadzenie systematycznych badań naukowych. ¦ Podsumowanie 1. Czynnikiem jednoczącym naukę jest jej metodologia, a nie jej przedmiot badania. To założenia, na których opiera się metodologia, odróżniają podejście naukowe od innych sposobów zdobywania wiedzy. 2. W podejściu naukowym przyjmuje się następujące założenia: natura jest uporządkowana, natura jest poznawalna, zjawiska naturalne mają naturalne przyczyny, nic nie jest oczywiste samo w sobie, wiedza jest wyprowadzana z nabytego doświadczenia, wiedza nie jest pewna, a jednak przewyższa ignorancję. 3. Metodologia podejścia naukowego służy trzem podstawowym celom: dostarcza reguł komunikacji, reguł wiarygodnego wnioskowania oraz reguł intersubiek-tywności (możliwości dzielenia się wiedzą). Te trzy systemy reguł pozwalają nam zrozumieć, wyjaśnić i przewidzieć własne zachowania i własne środowisko w sposób, w jaki inne sposoby gromadzenia informacji (oparty na autorytecie, wierze i rozumie) nie są w stanie tego uczynić. 4. Podejście naukowe dostarcza wiedzy, która może zostać zweryfikowana zarówno na drodze wnioskowania, jak i poprzez odwołanie się do dowodów dostarczanych przez zmysły. Metoda naukowa wymaga ścisłego respektowania zasad logiki i obserwacji. Owo respektowanie jest wrogiem myślenia dogmatycznego, ponieważ proces badawczy jest cykliczny i samokorygujący. Racjonalna krytyka powinna się stać sercem przedsięwzięć naukowych, a nauka powinna się znajdować w stanie ciągłej rewolucji. Społeczności naukowców, podobnie jak inne grupy profesjonalistów, są zaangażowane w wewnętrzną walkę o władzę, która nie zawsze sprzyja postępowi nauki. Walka o władzę jest nieunikniona. Twierdzenia nauki są ostatecznie akceptowane, jednak w takim zakresie, w jakim spełniają postulaty metodologii nauki. ¦ Podstawowe terminy empiryczny 21 empiryzm logiczny 28 epistemologia 20 intersubiektywność 30 kontekst odkrycia 35 kontekst uzasadniania 35 logika 30 metodologia 28 nauka 17 nauka normalna 32 nauka rewolucyjna 34 39 paradygmat 33 podejście rozumiejące 28 proces badawczy 36 przewidywanie 25 racjonalizm 19 replikacja 30 tautologia 20 Verstehen 27 wyjaśnianie 23 wyjaśnianie dedukcyjne 24 wyjaśnianie probabilistyczne 24 ¦ Pytania sprawdzajgce 1. Porównaj i opisz różnice pomiędzy podejściem naukowym a sposobami zdobywania wiedzy opartymi na autorytecie, wierze i odwołującymi się do racjonalnego myślenia. 2. Przedyskutuj założenia leżące u podstaw podejścia naukowego. 3. Jakie są cele nauki jako systemu produkującego wiedzę? 4. Opisz proces badawczy i jego etapy. 5. Jak przebiega rzeczywisty proces uprawiania nauki —jako cyklicznego procesu wnioskowania i obserwowania i jako instytucji społecznej? ¦ Literatura dodatkowa Ajdukiewicz K. (1965), Logika pragmatyczna, Warszawa: PWN. Brzeziński J. (1976), Struktura procesu badawczego w naukach behawioralnych, Warszawa-Poznań: PWN. Brzeziński J. (1997), Metodologia badań psychologicznych, wyd. 2, Warszawa: Wyd. Nauk. PWN. Hempel CG. (1968), Podstawy nauk przyrodniczych, Warszawa: WNT. Krajewski W. (1998), Prawa nauki. Przegląd zagadnień metodologicznych i filozoficznych, wyd. 2, Warszawa: Książka i Wiedza. Kuhn T.S. (1968), Struktura rewolucji naukowych, Warszawa: PWN. Lutyński J. (1994), Metody badań społecznych. Wybrane zagadnienia (red., wstęp, opracowanie K. Lu-tyńska), Łódź: ŁTN. Nagel E. (1970), Struktura nauki, Warszawa: PWN. Nowak S. (1985), Metodologia badań społecznych, Warszawa: PWN. Popper K.R. (1977), Logika odkrycia naukowego, Warszawa: PWN. Such J., Szczęśniak M. (1999), Filozofia nauki, Poznań: Wyd. Nauk. UAM. Rozdział 2 Badanie — podstawowe pojęcia Pojęcia 42 Funkcje pojęć 43 Definicje 44 Definicje pojęciowe 45 Definicje operacyjne 46 Przykład: definicja alienacji 48 Problem odpowiedniości (zgodności) 50 Znaczenie teoretyczne 50 Teoria: jej funkcje i rodzaje 51 Czym teorie nie są 52 Rodzaje teorii 53 Teorie aksjomatyczne 57 Modele 59 Przykład: model wdrażania polityki 60 Teoria, modele i badania empiryczne 61 Teoria przed badaniami 62 Badania przed teorią 62 Podsumowanie 63 Podstawowe terminy 64 Pytania sprawdzające 65 Literatura dodatkowa 65 Czy odkrycie starorzymskiego młyna wodnego w południowej Francji przyczyniło się do opracowania koncepcji, a następnie do sposobu prowadzenia badań stopnia rozwoju cywilizacji? A. Trevor Hodge, filolog klasyczny i archeolog, wierzy, że tak. Archeolodzy i historycy tradycyjnie traktowali niewolnictwo jako przyczynę technologicznego schyłku Cesarstwa Rzymskiego. Hodge twierdzi jednak, że wielkość młyna i wyrafinowany sposób zastosowania siły wody świadczą o czymś zupełnie przeciwnym. Aby wyjaśnić nadmierne korzystanie z sił przyrody w gospodarce starożytnego Rzymu, położyłby większy nacisk na czynniki czysto technologiczne — w tym wypadku: brak podków końskich i niewłaściwą uprząż — niż na niewolnictwo1. W tym rozdziale rozpoczniemy od omówienia procedury tworzenia pojęć oraz procesu budowania systemów teoretycznych. Następnie wyróżnimy cztery stopnie zaawansowania teorii i opiszemy modele odzwierciedlające świat rzeczywisty. Na koniec zajmiemy się powiązaniami między teorią i badaniami. Jak się przekonaliśmy w rozdziale poprzednim, wiedza naukowa jest weryfikowana zarówno za pomocą rozumu, jak i doświadczenia. To właśnie sprawia, że badacze w naukach społecznych poruszają się na dwóch różnych, choć powiązanych ze sobą, poziomach: konceptualno-teoretycznym i obserwacyjno-empirycznym. Badania w naukach społecznych są zatem wynikiem interakcji tych dwóch poziomów. Poniżej przedyskutujemy podstawy myślenia konceptualno-teoretycznego oraz związki pomiędzy teoriami, modelami i badaniami empirycznymi. ¦ Pojęcia Myślenie wymaga użycia języka. Sam język jest systemem komunikacji składającym się z symboli oraz zbioru reguł pozwalających na tworzenie różnych kombinacji tych symboli. Jednym z najbardziej istotnych symboli języka, zwłaszcza ze względu na jego związek z badaniami, są pojęcia. Pojęcie jest abstrakcją — symbolem — reprezentacją obiektu, jednej z jego właściwości lub zjawiska behawioralnego. Badacze rozpoczynają swoje badania od utworzenia pojęć jako rodzaju „stenogramu" opisującego świat empiryczny. Na przykład: „status społeczny", „rola", „władza", „biurokracja", „względna deprywacja" czy „kohorta" są pojęciami powszechnie stosowanymi w naukach politycznych i w socjologii. Pojęcia takie, jak: „inteligencja", „percepcja", „uczenie się" są z kolei pojęciami powszechnymi wśród psychologów. Każda dyscyplina naukowa tworzy własny, unikatowy zbiór pojęć. Dla naukowca pojęcia i symbole tworzą język profesjonalny. Na przykład, gdy specjalista z zakresu nauk społecznych używa słowa „kohorta", to inni specjaliści z tej dziedziny od razu wiedzą, że termin ten oznacza grupę ludzi, których łączą takie charakterystyki demograficzne jak wiek. Osoby bez treningu w naukach społecznych najprawdopodobniej potraktowałyby termin „kohorta" jako żargon. ' A. Trevor Hodge (1990), A Roman Factory, „Scientific American", 263 (5), s. 106-111. 42 Funkcje pojęć Pojęcia pełnią wiele ważnych funkcji w badaniach naukowych. Po pierwsze, i to jest najważniejsze, są podstawą komunikowania się. Gdyby nie istniał zaakceptowany zbiór pojęć, badacze nie mogliby przedstawiać własnych rezultatów ani wzajemnie powtarzać swoich badań. Komunikacja oparta na intersubiektywności i wzajemnym zrozumieniu byłaby niemożliwa. Warto zapamiętać, że pojęcia są wyabstrahowane ze spostrzeżeń i są wykorzystywane do przenoszenia i przekazywania informacji. Pojęcia nie istnieją w rzeczywistości jako zjawiska empiryczne — są s y m b o 1 a-m i tych zjawisk, a nie samymi zjawiskami. Traktowanie pojęć jak zjawisk rzeczywistych prowadzi do fałszywej konkretyzacji, czyli błędu polegającego na traktowaniu abstrakcji jako rzeczywistości zamiast jako wytworu myślenia. Przypisywanie, na przykład, takiemu pojęciu, jak „władza", popędów, potrzeb lub instynktów jako rzeczywistych stanów rzeczy niezależnie od tego, co niektórzy ludzie mówią czy piszą, jest błędem. Po drugie, pojęcia wprowadzają perspektywę — sposób patrzenia na zjawiska empiryczne: „Dzięki naukowej konceptualizacji spostrzegany świat staje się uporządkowany i zwarty, co nie byłoby dostrzegane przed konceptualizacją"2. Pojęcie umożliwia naukowcom odwoływanie się do wybranego aspektu rzeczywistości i identyfikowanie go jako wspólnej jakości w różnych przykładach zjawisk świata rzeczywistego: Pozwala badaczowi, w ramach społeczności naukowców, podnosić własne, idiosynkratyczne doświadczenia do poziomu wspólnego myślenia [tj. intersubiektywności]. Pozwala również pozostawać w interakcji z własnym środowiskiem; [badacz] określa, co znaczy pojęcie, i zachowuje się zgodnie z desygna-tem tego znaczenia. Pojęcie zatem działa jak wywoływacz doświadczenia i spostrzeżeń, otwiera nowe sfery obserwacji, zamykając inne3. Po trzecie, pojęcia umożliwiają naukowcom klasyfikowanie i generalizowanie. Innymi słowy, naukowcy strukturalizują, kategoryzują, porządkują swoje doświadczenia i obserwacje w terminach pojęć. Według Johna McKinneya: Wszystkie zjawiska, występując w rzeczywistości, są jedyne w swoim rodzaju; dlatego też żadne zjawisko nie pojawia się ponownie dokładnie w taki sam sposób. Identyczność oznacza zawsze „identyczność ze względu na aktualny cel". Aby określić porządek z jego wszystkimi naukowymi implikacjami, łącznie z przewidywaniem, naukowiec w sposób konieczny pomija to, co unikatowe, obce i nie powtarzające się, i w ten sposób odchodzi od doświadczenia spostrzeżeniowego. To odejście jest konieczną ceną, jaką musi on zapłacić, aby osiągnąć abstrakcyjne uogólnienie. Konceptualizować oznacza do pewnego stopnia uogólniać. Uogólniać oznacza redukować liczbę obiektów przez potraktowanie niektórych z nich jako identycznych4. 2 Norman K. Denzin (1989), The Research Act, wyd. 3, Englewood Cliffs, N.J.: Prentice-Hall, s. 38. 3 Ibidem. 4 John C. McKinney (1966), Constructive Typology and Social Theory, Norwalk, Conn.: Appleton & Lang, s. 9. 43 Na przykład możemy nie zauważyć, czym sosna, dąb, jodła, świerk, palma i jabłoń różnią się od siebie, i ująć ich rodzajowe podobieństwo w pojęciu „drzewo". „Drzewo" jest pojęciem ogólnym, pozwalającym nam na ujmowanie dużej liczby takich unikatowych cech jak kolor, wysokość czy wiek i ustawianie ich w określonym porządku. „Drzewo" jest również pojęciem abstrakcyjnym w tym sensie, że unikatowe cechy sosny, dębu, jodły, świerka, palmy i jabłoni giną w procesie kon-ceptualizacji. Ten proces abstrahowania i uogólniania pomaga naukowcom określić podstawowe cechy różnych typów zjawisk empirycznych. Gdy pojęcie zostanie już utworzone, nie jest ono jednak doskonałym symbolem opisującym wszystko to, co reprezentuje — jego treść jest w sposób nieunikniony ograniczona do cech, które naukow/cy uważają za podstawowe. Cztery funkcje pojęć ¦ Dostarczają wspólnego języka pozwalającego naukowcom komunikować się między sobą. ¦ Dają naukowcom perspektywę — sposób patrzenia na zjawiska. ¦ Pozwalają naukowcom klasyfikować własne doświadczenia i je uogólniać. ¦ Są składnikami teorii — definiują treść i własność teorii. Po czwarte, pojęcia są składnikami teorii i dlatego również składnikami wyjaśnień i przewidywań. Pojęcia są najbardziej istotnym elementem każdej teorii, ponieważ definiują jej treść i własności. Na przykład pojęcia: „władza" i „legitimiza-cja" definiują istotę teorii rządzenia. Pojęcia: „indywidualizm" i „protestantyzm" definiują i wyznaczają teorię samobójstw Durkheima. W teorii tej odsetek samobójstw w wielu krajach zachodnich zależy od związku pomiędzy indywidualizmem a religią. Pojęcie „względna deprywacja" jest z kolei istotne dla teorii przemocy, a pojęcia: „podaż" i „popyt" są filarami teorii ekonomicznej. Pojęcia, powiązane w sposób racjonalny i logiczny, prowadzą do teorii; tworzenie pojęć i konstrukcja teorii są zatem ściśle ze sobą związane. ¦ Definicje Jeżeli pojęcia mają spełniać funkcję komunikacyjną, mają uwrażliwiać jak też organizować doświadczenie, uogólnianianie i konstruowanie teorii, to muszą być wyraźne, precyzyjne i powszechnie zaakceptowane. Pojęcia takie jak „władza", „biurokracja" czy „satysfakcja" oznaczają różne rzeczy dla różnych ludzi i są stosowane w różnych kontekstach. Na ogół nie stanowi to przyczyny podstawowych kłopotów w komunikowaniu się. Nauka nie może się jednak rozwijać, odwołując się do niejasnego i nieprecyzyjnego języka. Ze względu na potrzebę precyzji każda dyscyplina naukowa zajmuje się, z konieczności, własnym słownictwem. Specjaliści w dziedzinie nauk społecznych starali się stworzyć wyraźne i precyzyjne podstawy pojęciowe (abstrakcje) charakte- 44 ryzujące ich przedmiot badawczy. I chociaż stworzono, zastosowano, sprecyzowano i odrzucono sporo pojęć, wiele z nich jest nadal pojęciami niejasnymi i o zmiennym znaczeniu. Nie powinno to zbyt dziwić. W naukach społecznych badacze muszą się zmagać z trudnym problemem odróżnienia stosowanych przez siebie pojęć od pojęć powszechnie używanych przez te osoby, które stają się osobami badanymi. Wraz z postępem nauk społecznych rozwija się jednak także i ich słownictwo. Aby osiągnąć jasność i precyzję w stosowaniu pojęć w trakcie badań, naukowcy stosują dwa rodzaje definicji: definicje pojęciowe i definicje operacyjne*. Definicje pojęciowe Definicje, które opisują pojęcia poprzez odwołanie się do innych pojęć, nazywamy definicjami pojęciowymi. Na przykład „władza" jest pojęciowo definiowana jako zdolność aktora (np. jednostki, grupy czy stanu) do kierowania innym aktorem, który bez tego nie wykonałby pewnych działań. Definicja pojęciowa „względnej de-prywacji" natomiast odwołuje się do spostrzeganej przez aktora rozbieżności pomiędzy „wartościami oczekiwanymi" a „wartościami dostępnymi"5. W tych dwóch przykładach po to, aby zdefiniować jedno pojęcie, posłużono się wieloma innymi. „Wartości oczekiwane" i „wartości dostępne" to również pojęcia. Proces definiowania nie może się oczywiście zatrzymać w tym miejscu. W wypadku „względnej deprywacji" osoba nie znająca teorii może spytać: „A co to są »war-tości«, »możliwości«, »oczekiwania,« i »spostrzeganie«?" Pojęcia te wymagają dalszej dalszego definiowania. „Oczekiwania" na przykład zostały zdefiniowane jako przejawianie się dominujących norm wyznaczanych przez bezpośrednie środowisko ekonomiczne, społeczne, kulturalne i polityczne. Ale z kolei, co oznaczają: „normy", „bezpośrednie", „społeczne", „kulturowe", „ekonomiczne" i „polityczne"? Pojęcia te można zdefiniować za pomocą innych pojęć i tak dalej. W pewnym momencie tego procesu naukowiec dociera do pojęć, których już nie można dalej zdefiniować, wykorzystując inne pojęcia. Te ostatnie nazywane są terminami pierwotnymi. Na przykład kolor, dźwięk, zapach, smak to terminy pierwotne. Terminy pierwotne są określone i jasne. Naukowcy i laicy zgadzają się co do ich znaczenia, które zazwyczaj jest uzmysławiane dzięki wyraźnym przykładom empirycznym. Na przykład naukowiec może opisać pewne rzeczywiste zachowanie i określić je jako „gniew". Technicznie takie zademonstrowanie terminu „gniew" stanowi definicję ostensywną, tj. „gniew" reprezentuje zbiór łatwo obserwowal-nych zachowań. Jako taki „gniew" może zostać wykorzystany jako termin pierwotny zarówno w procesie budowania teorii, jak i w badaniach. Definicje pojęciowe zawierają terminy pierwotne i terminy pochodne. Terminy pochodne to takie terminy, które można zdefiniować za pomocą terminów pierwotnych. Zatem jeżeli istnieje zgoda co do terminów pierwotnych takich, jak: „jednostka", „interakcja" i „systematycznie", to możemy zdefiniować pojęcie grupy (termin pochodny) jako dwie lub więcej jednostek, które systematycznie wchodzą ze sobą w interakcję. Terminy pochodne są wygodniejsze w stosowaniu w porównaniu *Z różnymi podziałami definicji czytelnik może się zapoznać, sięgając po Matą encyklopedię logiki, pod red. W. Marciszewskiego (Wrocław: Ossolineum, 1988, wyd. 2); także: T. Pawłowski, Tworzenie pojąc i definiowanie w naukach humanistycznych, Warszawa: PWN, 1986 (przyp. red. nauk.). 5 Ted R. Gurr (1970), Why Men Rebel, Princeton, N.J.: Princeton University Press, s. 24. 45 z terminami pierwotnymi; łatwiej powiedzieć słowo „grupa", niż stale powtarzać terminy pierwotne składające się na pojęcie „grupy"6. Warto podkreślić, że definicje pojęciowe nie są ani prawdziwe, ani fałszywe. Jak wskazano wcześniej, pojęcia są symbolami umożliwiającymi komunikację. Definicje pojęciowe mogą być użyteczne lub nieużyteczne z punktu widzenia komunikowania się i badań. Możemy podważać zrozumiałość definicji lub pytać o to, czy jest ona stosowana w sposób jednoznaczny, natomiast nie ma żadnego powodu, aby dyskutować o prawdziwości definicji pojęciowych. Definicją jest to, co stwierdza definiujący. Podsumowując, definicje pojęciowe zwiększające komunikację mają następujące podstawowe własności: ¦ Definicja musi wskazywać na unikatowe własności lub jakości dotyczące tego, co jest definiowane. Musi włączać wszystkie przypadki, których dotyczy, i wyłączać wszystkie przypadki, których nie dotyczy. ¦ Definicja nie powinna mieć kołowego charakteru, tzn. nie powinna zawierać żadnego elementu definiowanego zjawiska lub obiektu. Definiując „biurokrację" jako organizację, która ma cechy biurokratyczne, a „władzę" jako dobro posiadane przez ludzi władczych, nie ułatwiamy procesu komunikacji. ¦ Definicja powinna być formułowana w sposób twierdzący. Definiując „inteligencję" jako własność nie posiadającą takich cech jak kolor, waga czy charakter, nie ułatwiamy oczywiście procesu komunikacji, ponieważ istnieje również wiele innych właściwości nie posiadających koloru, wagi czy charakteru. Definicje jako zdania twierdzące wskazują na cechy unikatowe definiowanego pojęcia. ¦ Definicja powinna zawierać wyraźne terminy, co do znaczenia których wszyscy się zgadzamy. Termin „konserwatywny", na przykład, oznacza różne treści dla różnych ludzi i dlatego nie powinien być elementem definicji. Definicje operacyjne* Właściwości czy zdarzenia empiryczne reprezentowane przez pojęcie często nie mogą być bezpośrednio obserwowalne. Przykładem są pojęcia: „władza", „względna deprywacja", „inteligencja" czy „satysfakcja" i — generalnie rzecz biorąc — pozabehawioralne własności takie, jak: spostrzeżenia, wartości i postawy. W tych wypadkach badacze muszą wyprowadzać empiryczne przejawy pojęcia. Wyprowadzają oni wnioski tego rodzaju, tworząc definicje operacyjne, tj. definicje, które wyposażają pojęcia w odniesienia empiryczne. Definicje operacyjne łączą poziom pojęciowo-teoretyczny z poziomem empi-ryczno-obserwacyjnym. Definicje operacyjne składają się ze zbioru procedur opisujących działania, jakie musi podjąć badacz, aby ustalić istnienie lub stopień istnienia zjawiska opisywanego przez pojęcie. Innymi słowy, definiują one, co robić i co obserwować, aby badane zjawisko stało się częścią doświadczenia badacza i mogło zostać przez niego zrozumiane. Definicje tego rodzaju wprowa- * Szerzej patrz: M. Przełęcki, Pojęcia teoretyczne a doświadczenie, w: T. Pawłowski (red.). Logiczna teoria nauki, Warszawa: PWN, 1966, s. 449-504 (przyp. red. nauk.). 6 Paul D. Reynolds (1971), A Primer in Theory Construction, New York: Macmillan, s. 45-48. 46 i^bm^^~ h^b^h dzają konkretny sposób rozumienia pojęcia poprzez zaprojektowanie procedur pomiarowych, dostarczających empirycznych kryteriów stosowania danego pojęcia w sposób naukowy. Definicje operacyjne zatem pozwalają na potwierdzenie istnienia pojęcia, które nia ma bezpośrednich cech obserwacyjnych. Idea definicji operacyjnych została sformułowana przez operacjonistyczną szkołę myślenia, której przykładem są prace fizyka P.W. Bridgmana. Według idei Bridgmana znaczenie każdego pojęcia naukowego powinno być dostępne obserwacji za pomocą operacji sprawdzających określone kryteria stosowania tego pojęcia. Znaczenie pojęcia jest w całości i wyłącznie określane za pomocą jego definicji operacyjnych. Bridgman wyjaśniał tę zasadę następująco: Pojęcie długości zostaje zatem ustalone wtedy, kiedy zostaną określone operacje, za pomocą których będziemy mierzyć długość, tj. pojęcie długości oznacza tylko tyle i nic więcej, ile zbiór operacji, za pomocą których długość jest ustalana. Ogólnie, przez dane pojęcie nie rozumiemy nic więcej jak tylko zbiór operacji; pojęcie jest tożsame z odpowiadającym mu zbiorem operacji7. Operacyjnie definicja długości będzie zatem określała procedurę polegającą na zastosowaniu linijki w celu zmierzenia odległości pomiędzy dwoma punktami. Podobnie, termin „twardszy" w zastosowaniu do minerałów może zostać operacyjnie zdefiniowany następująco: „Aby ustalić, czy minerał mĄ jest twardszy niż minerał m5, poprowadź z naciskiem ostry koniec kawałka mA po powierzchni kawałka m5 (operacja testowa); m4 jest twardszy niż m5 wówczas, gdy na powierzchni m5 powstaje rysa (specyficzny wynik testów)"8. Operacyjna definicja inteligencji odwołuje się z kolei do testu, jaki należy w określony sposób zastosować w celu pomiaru zdolności rozumowania; wynikami testowymi są poszczególne odpowiedzi badanych osób lub ilościowe zestawienie ich odpowiedzi. Struktura definicji operacyjnych jest prosta. Jeżeli dany bodziec (S) wywołuje reakcję (R) w stały sposób dla określonego obiektu, to obiekt ten ma określoną, dającą się wywnioskować, własność (P). W ostatnim przykładzie test inteligencji (bodziec) został zastosowany po to, aby uzyskać wyniki testowe (reakcja); inteligencja (P) jest wyprowadzana (definiowana) z wyników testowych. Ponieważ fizyczne manipulowanie osobami lub zdarzeniami jest raczej niewykonalne lub nieetyczne, wiele pojęć stosowanych w naukach społecznych to pojęcia definiowane operacyjnie, jedynie w kategoriach siły reakcji na określone bodźce, warunki czy sytuacje. Jeżeli nawet moglibyśmy manipulować osobami za pomocą określonych operacji — powiedzmy wywoływać duży lęk w sytuacjach laboratoryjnych — to działania takie wywoływałyby istotne wątpliwości etyczne, łącznie z pytaniami o prawa naukowców do takich działań oraz pytaniami o prawa osób badanych. (Problemy etyczne związane z prowadzeniem badań w naukach społecznych zostaną omówione w rozdziale 4). W tych wypadkach pojęcia są operacyjnie definiowane zarówno w kategoriach reakcji osób badanych na bodźce takie jak tes- 7 Percy W. Bridgman (1980), The Logic of Modern Physics, New York: Ayer, s. 5. 8 Carl G. Hempel (1966), Philosophy of Natura! Science, Englewood Cliffs. N.J.: Prentice Hall, s. 89; wyd. polskie: Carl Hempel (1968), Podstawy nauk przyrodniczych, Warszawa: PWN; tłum. Barbara Stanosz, s. 130-131. 47 ty i kwestionariusze, jak i w kategoriach zagregowanych wskaźników, które omówimy w następnym rozdziale. Definicje pojęciowe i operacyjne ¦ Definicje pojęciowe. Definicje opisujące pojęcia za pomocą innych pojęć. Badacze posługują się również terminami pierwotnymi, które są konkretne i nie mogą być definiowane za pomocą innych pojęć, a także terminami pochodnymi, które — w definicjach pojęciowych — są konstruowane za pomocą terminów pierwotnych. ¦ Definicje operacyjne. Opisują zbiór procedur, które powinien przeprowadzić badacz w celu ustalenia przejawów zjawiska opisywanego przez dane pojęcie. Naukowcy wymagają wykorzystania definicji operacyjnych wówczas, gdy zjawiska nie można bezpośrednio obserwować. Należy podkreślić, że pojęcia zawierają elementy zarówno konceptualne, jak i operacyjne*. Zadanie badaczy polega na zintegrowaniu tych dwóch poziomów. Mogą oni rozpocząć albo od poziomu konceptualnego, albo operacyjnego. Aby jednak mogli prowadzić badania i tworzyć teorię, oba te aspekty muszą się wzajemnie uzupełniać. Dokładniej przedstawimy to w paragrafie poświęconym problemowi zgodności. Przykład: definicja alienacji Zobaczmy, w jaki sposób złożone i wysoce abstrakcyjne pojęcie, takie jak „alienacja", może zostać wykorzystane w badaniach. Melvin Seeman w swoich pionierskich pracach twierdził, że alienacja została opisana w literaturze jako „rozerwanie na kawałki tego, co kiedyś było połączone, pęknięcie litej formy, w której wartości, zachowania i oczekiwania zostały kiedyś odlane w jednolitej postaci"9. Ten sposób konceptualizacji, zdaniem autora, pozwala na wyróżnienie pięciu cech pojęcia alienacji, i co za tym idzie, pięciu definicji pojęciowych: 1. Bezsilność — przekonanie jednostki o tym, że jej zachowanie nie może przynieść oczekiwanych wyników lub że nie ma ona wpływu na te wyniki. 2. Bezsensowność — dostrzeganie przez jednostkę braku własnych zdolności do rozumienia decyzji innych ludzi lub zdarzeń, które się wokół niej dzieją. 3. Brak norm — przekonanie, że zachowania społecznie nie akceptowane (np. oszukiwanie) są niezbędne, aby można było osiągnąć określony cel. 4. Izolacja— uczucie osamotnienia wynikające z odrzucenia aprobowanych społecznie wartości i celów. 5. Samoodrzucenie — odrzucenie obrazu „ja", definiowanego przez grupę odniesienia lub — ogólnie — przez społeczeństwo. * Ten wymóg spełnia koncepcja E. Hornowskiej: Operacjonalizacja wielkości psychologicznych. Założenia — struktura — konsekwencje, Wrocław: Ossolineum, 1989 (przyp. red. nauk.). " Melvin Seeman (1972), On the Meaning of Alienation, w: Paul Lazarsfeld, Ann Pasanella, Morris Rosenberg (red.), Continuities in the Language of Social Research, New York: Free Press, s. 25-34. 48 W późniejszych badaniach Seeman i inni badacze zdefiniowali operacyjnie owe pięć cech poprzez skonstruowanie kwestionariusza dla każdej własności czy każdego wymiaru ujętego w pojęciu. Odpowiedzi jednostki na pozycje kwestionariusza definiowały empiryczne znaczenie każdej cechy. Na przykład badacze zastosowali następujące pytanie jako sposób zoperacjonalizowania pojęcia „bezsilność": „Przypuśćmy, że w twoim mieście rozważa się możliwość wprowadzenia przepisu, który ty uznajesz za niesprawiedliwy i szkodliwy. Co mógł(a)byś zrobić?" Osoby, które odpowiedziały, że nic nie mogą zrobić, zostały zaklasyfikowane jako „bezsilne". Inne pytania definiujące operacyjnie „bezsilność" to: (1) Jeżeli podj(ęła)ąłbyś wysiłek, aby zmienić ten przepis, to na ile prawdopodobny jest twój sukces? (2) Jeżeli zaistniałaby taka sytuacja, to jakie jest prawdopodobieństwo, że coś byś z tym zro-bił(a)? (3) Czy kiedykolwiek próbował(a)eś wpływać na decyzje władz lokalnych? (4) Przypuśćmy, że kongres ustanowił prawo, które twoim zdaniem jest niesprawiedliwe i szkodliwe. Co mógł(a)byś zrobić? (5) Czy kiedykolwiek próbował(a)eś wpływać na działania kongresu?10 poziom I poję skład cia __ owe bezs Iność bezsen sowność braf norm 1- acja 1 Isamooc rzucenie 1 ¦ przeko nanie. spostr ^egany przekc nanie, ucz ucie odra. cenie że zachowanie brak zdolności ze nie separacji społecznie rififinirjp «_ nie wpływa do rozumienia akceptowane wynikające z odrzucenia aprobowanych definiowanego pojęciowe na wyniki decyzji lub zdarzeń zachowanie jest obrazu „ja" niezbędne społecznie celów 1 1 zbiór zbiór zbiór zbiór zbiór definicje ____ pozycji pozycji pozycji pozycji pozycji operacyjne 1 kwestion anusza kwestior anusza kwestior anusza kwestion anusza kwestior anusza i poziom odpow iedzi odpow iedzi odpow edzi odpow iedzi odpow /iedzi w w w w w wacji kwestionariuszu kwestionariuszu kwestionariuszu kwestionariuszu kwestionariuszu Ryc. 2.1. Przejście od poziomu pojęciowego do poziomu obserwacji; przypadek alienacji Na rycinie 2.1 przedstawiono sposób, w jaki badacze przeszli od poziomu pojęciowego do poziomu operacyjnego dla pojęcia alienacji. Chociaż alienacja nie jest bezpośrednio obserwowana, jej empiryczne istnienie można pośrednio wyprowadzić. Aby określić sens empiryczny pojęcia „alienacja", badacze zdefiniowali 10 David Nachmias (1976), Modes and Types of Political Alienation, 24, s. 478-493. ,British Journal of Sociology" 49 najpierw składowe czy cechy pojęcia, w taki sposób, jak pokazaliśmy to wyżej. Owe definicje pojęciowe wiążą różne cechy alienacji z różnymi zjawiskami empirycznymi. Na przykład wymiar określony jako bezsilność czy brak norm dotyczy oczekiwanych zachowań jednostki, podczas gdy izolacja jest związana z postawami wobec celów społecznych i oczekiwań. Badacze budują następnie definicje operacyjne. W naszym przykładzie pozycje kwestionariusza są traktowane właśnie jako definicje operacyjne. Pozycje kwestionariusza zatem przekształcają definicje pojęciowe na klasę zachowań, które można poddać obserwacji empirycznej. Kolejnym krokiem jest przeprowadzenie badań za pomocą kwestionariusza (zastosowanie definicji operacyjnych). I wreszcie na podstawie odpowiedzi na pozycje kwestionariusza badacze wyprowadzają wnioski o tym, w jakim zakresie pięć cech alienacji znajduje swoje rzeczywiste odbicie na poziomie empirycznym. Problem odpowiedniości (zgodności) Kiedy badacze przechodzą z poziomu pojęciowego na poziom empiryczno-obser-wacyjny (lub odwrotnie), pojawiają się dwa ważne problemy. Pierwszy dotyczy stopnia odpowiedniości czy zgodności pomiędzy definicjami pojęciowymi i definicjami operacyjnymi. Jeżeli termin „inteligencja" zostanie zdefiniowany pojęciowo jako „zdolność do abstrakcyjnego myślenia", a operacyjnie za pomocą testu inteligencji, to powstaje pytanie o to, jaka jest zgodność między tymi definicjami. Czy wynik osiągnięty przez określoną osobę w teście inteligencji odzwierciedla wszystko to, co zawiera pojęciowa definicja inteligencji? Aby ocenić stopień zgodności pomiędzy definicjami pojęciowymi a definicjami operacyjnymi, naukowcy posługują się testami trafności (przedstawiono je w rozdziale 7). W tym miejscu chcielibyśmy jednakże zwrócić uwagę na to, że nie ma doskonałego kryterium pozwalającego potwierdzić zgodność i że mogą się zdarzyć sytuacje, w których definicje operacyjne nie będą uwzględniać wszystkich elementów definicji pojęciowych. Dlatego ważnym wyzwaniem dla badaczy w naukach społecznych jest doskonalenie definicji operacyjnych i powiększanie stopnia zgodności między nimi i definicjami pojęciowymi. Znaczenie teoretyczne Kolejne ważne zagadnienie związane z przechodzeniem z poziomu pojęciowego do poziomu obserwacyjnego pojawia się wtedy, kiedy nie można zdefiniować pojęć operacyjnie, tzn. nie można ich obserwować ani bezpośrednio, ani pośrednio. I tak: „ego", „kompleks Edypa", „materializm dialektyczny", „podświadomość", „wartość dodatkowa" czy „interes publiczny" są pojęciami, dla których nie skonstruowano do tej pory satysfakcjonujących definicji operacyjnych. Zgodnie ze skrajnie rozumianym podejściem operacyjnym pojęcie, które nie może zostać operacyjnie zdefiniowane, nie powinno być stosowane w badaniach naukowych, gdyż nie poddaje się ono weryfikacji intersubiektywnej. Innymi słowy, definicje operacyjne są niezbędne, aby umożliwić naukowcom wzajemne powtarzanie własnych badań. Bez nich badacz nie jest pewien, czy obserwuje to samo zjawisko. Ten brak pewności może prowadzić do uzyskiwania niezgodnych wyników badań. Naukowe znaczenie pojęcia może być zatem ustalone jedynie poprzez skonstruowanie zbioru operacji (narzędzi obserwacji). Poznanie tych operacji to zrozu- 50 ^¦^B mienie znaczenia pojęcia i możliwość empirycznego badania zjawiska, które pojęcie to reprezentuje. Takie skrajne podejście odegrało historycznie ważną rolę, oddzielając naukę od metafizyki. Sprowadzane do wersji ortodoksyjnej podejście empiryczne staje się jednak problematyczne. Naukowcy powinni oceniać pojęcia naukowe nie tylko w terminach ich obserwowalności, ale również w terminach ich znaczenia teoretycznego. Niektóre pojęcia nabywają bowiem znaczenia jedynie w kontekście teorii, w której się pojawiły. I tak pojęcie „anomia" staje się znaczące w kontekście teorii samobójstw Durkhei-ma, pojęcie „ego" nabiera znaczenia w kontekście teorii psychoanalitycznej, a pojęcie „interes publiczny" nie jest zrozumiałe poza teorią demokracji. Wprowadzona przez Carla Hempla idea „systematyzacji" wpłynęła na współczesną praktykę: Systematyzacja naukowa wymaga ustalania — w postaci praw lub zasad teoretycznych — rozmaitych związków zachodzących między różnymi aspektami świata empirycznego, które charakteryzujemy za pomocą pojęć naukowych. Pojęcia nauki są więc węzłami w sieci systematycznych, wzajemnych relacji, której nićmi są prawa i zasady teoretyczne. [...] Tak więc, znaczenie empiryczne, którego odbiciem są kryteria stosowania i na które operacjonizm słusznie kładzie tak wielki nacisk, nie jest jedynym koniecznym walorem pojęć naukowych: drugim, równie istotnym, jest ich znaczenie systematyczne; gra ono tak poważną rolę, że dla podniesienia walorów systematycznych teorii zmienia się niekiedy empiryczną interpretację pojęć teoretycznych. W badaniu naukowym tworzenie pojęć i tworzenie teorii muszą iść ręka w rękę". Pojęcia naukowe winny być zatem oceniane nie tylko ze względu na stopień ich obserwowalności, ale również ze względu na ich znaczenie teoretyczne. Innymi słowy, pojęcia uzyskują znaczenie empiryczne w ramach teorii, w której są stosowane. Teoria —jak pokazano na rycinie 1.1 — odgrywa główną rolę w procesie badawczym. Jest ona nie tylko ważnym źródłem tworzenia problemów i hipotez, o czym powiemy w rozdziale 3, lecz równie ważny jest fakt, że w ramach danej teorii można nadawać znaczenie i określać istotność podstawowych pojęć. ¦ Teoria: jej funkcje i rodzaje Po omówieniu problematyki pojęć, definicji pojęciowych i operacyjnych oraz idei znaczenia teoretycznego zatrzymajmy się teraz na problemie miejsca teorii w badaniach empirycznych. Chociaż badacze w naukach społecznych są zgodni, że jedną z najważniejszych funkcji badań empirycznych jest ich wkład w rozwój i precyzowanie teorii naukowych oraz że teoria zwiększa cele nauki, to istnieje wiele kontrowersji wokół tego, czym jest teoria. George Homans tak opisywał stan teorii w socjologii: " Carl G. Hempel (1966), Philosophy of Natural Science, Englewood Cliffs, N.J.: Prentice Hall, s. 94, 96-97; wyd. polskie: Carl Hempel (1968), Podstawy nauk przyrodniczych. Warszawa: PWN, tłum. Barbara Stanosz, s. 130, 141. 51 Współcześni socjologowie są zaabsorbowani „teoriami", jednak rzadko próbują określić, czym jest teoria [•••] My, socjologowie, nie zgadzamy się ze sobą w sprawie natury teorii, i to zarówno w tym, co ogólnie mówimy o teorii, jak i w tym, jakiego rodzaju teorie obecnie tworzymy12. Podobne stanowisko formułowano również w innych dyscyplinach nauk społecznych. Teoria oznacza różne rzeczy dla różnych ludzi. Niektórzy badacze utożsamiają teorie z każdym rodzajem konceptualizacji. Takie pojęcia, jak: „władza", „status społeczny", „demokracja", „biurokracja" i „dewiacja", które zostały zdefiniowane i wykorzystane do interpretowania zjawisk empirycznych, są niekiedy traktowane jak teorie. Tak szeroko rozumiana każda konceptualizacja przeciwstawiona obserwacji jest teorią. Inni naukowcy utożsamiają teorie z „historią idei". Jeszcze inni rozumieją teorię wąsko — jako system logiczno-dedukcyjny składający się ze zbioru powiązanych ze sobą pojęć, z których dedukcyjnie można wyprowadzać dające się sprawdzić twierdzenia. Zanim jednak omówimy, czym są teorie i jakie rodzaje teorii są powszechne w naukach społecznych, warto wskazać na niektóre błędne przekonania dotyczące teorii. Czym teorie nie sq Laicy zwykle przeciwstawiają teorię praktyce. Twierdzenie, że „coś jest dobre w teorii, ale nie działa w praktyce" zawiera przesłanie, że teoria jest niepraktyczna. Według Arnolda Brechta „relacja pomiędzy praktyką a teorią została dobrze opisana w popularnym powiedzeniu, że najlepiej uczymy się »metodą prób i błędów«. Próby są praktyką, a błędy odnoszą się do teorii. Kiedy teoria nie sprawdzi się w praktycznych działaniach, należy ją poprawić"13. Zasadniczo nie ma różnicy pomiędzy teorią i praktyką. Teoria odnosi się do praktyki, tzn. naukowcy akceptują teorię (i jej praktyczne zastosowania) jedynie wtedy, gdy jej metodologia została jasno i logicznie wyłożona. Wiarygodna teoria jest pojęciową podstawą rzetelnej wiedzy. Teorie pomagają wyjaśniać i przewidywać interesujące nas zjawiska i w konsekwencji podejmować właściwe decyzje praktyczne. Inne nieporozumienie dotyczące teorii to wymienne stosowanie teminu „teoria" i „filozofia". Prace klasycznych myślicieli takich, jak: Platon, Arystoteles, Locke, Marks czy Pareto są często uważane za „teorie". Tymczasem teorie formułowane przed drugą wojną światową w naukach społecznych to przede wszystkim filozofia w jej różnych formach, ze szczególnym uzwględnieniem filozofii moralności, a więc problematyki dotyczącej tego, jakie rzeczy być powinny. Dobrym przykładem jest tu koncepcja Platona dotycząca idealnej, sprawiedliwej polityki, w której wiedza absolutna filozofa-króla jest wskazówką dla zachowań politycznych i społecznych. Filozofia moralności formułowała sądy wartościujące. Nie są one ani prawdziwe, ani fałszywe, ponieważ nie są empirycznie weryfikowalne. Jeżeli jesteśmy głęboko przekonani, że socjalizm jest najlepszym systemem ekonomicznym, to nie ma takich dowodów empirycznych, które mogłyby potwierdzić lub zmienić to prze- 12 George C. Homans (1964), Contemporary Theory in Sociology, w: R.E.L. Faris (red.), Handbook ojModern Sociology, Chicago: Rand McNally, s. 951. 13 Arnold Brecht (1959), Political Theory, Princeton: Princeton University Press, s. 19. 52 konanie. Teorie naukowe, w przeciwieństwie do prac filozofów, są abstrakcjami odzwierciedlającymi określone aspekty świata empirycznego; mówią one, jak i dlaczego zaszło dane zjawisko empiryczne, a nie, co być powinno. Rodzaje teorii Nie istnieje jedna prosta definicja teorii, którą zaakceptowaliby wszyscy przedstawiciele nauk społecznych. Rodzajów teorii jest wiele i każdy rodzaj spełnia inne cele. I tak, zdaniem Davida Eastona, teorie można poklasyfikować ze względu na zakres — na makro- i mikroteorie; ze względu na funkcję — na teorie dotyczące zjawisk dynamicznych i statycznych, struktur i procesów; ze względu na strukturę — na teorie będące logicznymi systemami myśli silnie ze sobą powiązanych i teorie będące luźniej zdefiniowanymi zbiorami twierdzeń; ze względu na poziom, tj. biorąc pod uwagę „systemy zachowań, których dotyczą, a które — po ich uporządkowaniu — można przedstawić na pewnej skali hierarchicznej"14. Tu jednak przyjmiemy klasyfikację opartą na rozróżnieniu czterech poziomów teorii autorstwa Parsonsa i Shilsa. Są to: systemy klasyfikacyjne ad hoc, taksonomie, struktury pojęciowe i systemy teoretyczne15. Systemy klasyfikacyjne ad hoc. Najniższy poziom myślenia teoretycznego stanowią systemy klasyfikacyjne ad hoc. Składają się one z arbitralnych kategorii skonstruowanych po to, aby uporządkować i zebrać obserwacje empiryczne. Badacz może, na przykład, podzielić odpowiedzi w ramach pozycji kwestionariusza: „W naszym kraju wszystkie grupy społeczne mogą żyć w harmonii bez jakiejkolwiek zmiany systemu" na cztery kategorie: „całkowicie się zgadzam", „zgadzam się", „całkowicie się nie zgadzam" i „nie zgadzam się" . Kategorie te tworzą system klasyfikacyjny ad hoc, ponieważ nie został on wyprowadzony z ogólniejszej teorii porządku społecznego. Taksonomie. Drugi poziom teorii stanowią systemy kategorii czy inaczej taksonomie. Taksonomia składa się z systemu kategorii skonstruowanych odpowiednio do obserwacji empirycznych w taki sposób, że można opisać związki pomiędzy kategoriami. Kategorie mogą być wewnętrznie powiązane. Oznacza to, że kategorie taksonomiczne odzwierciedlają opisywaną rzeczywistość. Stworzony przez Talcotta Parsonsa zespół kategorii opisujących działanie społeczne jest dobrym przykładem tak rozumianej teorii. Jego zdaniem zachowanie ma cztery cechy charakterystyczne: jest zorientowane na cel, zdarza się w sytuacjach grupowych, jest regulowane normami oraz jest związane z wydatkowaniem energii. Zachowanie mające wszystkie te cechy tworzy system społeczny. Co więcej, systemy społeczne pojawiają się w trzech formach: systemów osobowości, systemów kulturowych oraz struktur społecznych16. Parsons dokładnie definiuje owe siedem kategorii i wyjaśnia ich wzajemne powiązania. Obserwacje empiryczne odpowiadają taksonomii sformułowanej przez Parsonsa. Taksonomie pełnią dwie podstawowe funkcje w badaniach społecznych. Precy- 14 David Easton (1966), Alternative Strategies in Theoretical Research, w: David Easton (red.), Va-rieties of Political Theory, Englewood Cliffs, N.J.: Prentice-Hall, s. 1-13. 15 Talcott Parsons, Edward A. Shils (1962), Towarda General Theory ofAction, New York: Harper &Row, s. 50-51. 16 Ibidem, s. 247-275. 53 zyjne zdefiniowanie taksonomii pozwala określić jednostkę rzeczywistości empirycznej, która ma być analizowana, a także wskazuje, w jaki sposób ta jednostka może zostać opisana (w wypadku taksonomii Prasonsa był to system społeczny). Celem taksonomii jest dostarczenie: uporządkowanego schematu pozwalającego klasyfikować i obserwować [...] Jeżeli będziemy się posługiwać taksonomią jako rodzajem »listy zakupów«, to spotykając się twarzą w twarz z przedmiotem badań, możemy natychmiast zidentyfikować jego istotne aspekty czy zmienne. Aby »przetestować« własną taksonomię, badacz ponownie obserwuje obiekt X i wykazuje, że terminy ogólne określające zdefiniowane przez niego wymiary, mają identyfikowalne odpowiedniki w X'7. Drugą funkcją taksonomii jest „uporządkowywanie i inspirowanie badań de-skryptywnych"18, takich jak badanie rozkładów empirycznych jednej lub większej liczby kategorii danej taksonomii. Taksonomie nie dostarczają jednak wyjaśnień. Opisują jedynie zjawisko empiryczne poprzez dopasowanie do niego zbioru kategorii. Zdefiniowanie pojęć odzwierciedlających zjawiska (np. wydatki rządowe) i poznanie ich rozkładów (np. ile się wydaje na różne programy) nie jest tożsame z wyjaśnianiem czy przewidywaniem tych zjawisk (np. dlaczego rząd wydaje więcej na obronę niż na edukację). Struktury pojęciowe. Trzecim poziomem zaawansowania teorii są struktury pojęciowe. W strukturze pojęciowej kategorie deskryptywne są racjonalnie wbudowywane w szeroką strukturę formułowanych explicite twierdzeń. Twierdzenia te dotyczą związków pomiędzy dwiema lub więcej właściwościami empirycznymi i mogą zostać przyjęte lub odrzucone. Dobrym przykładem struktury pojęciowej jest koncepcja systemu politycznego sformułowana przez Eastona. Easton określa system polityczny jako „formułowanie i realizowanie w społeczeństwie decyzji władzy zwierzchniej"19. We wszystkich systemach politycznych, bez względu na formę rządów (zarówno w demokracjach, jak i w dyktaturach) decyzje polityczne podejmowane są przez władzę zwierzchnią. Opisując i wyjaśniając obserwacje empiryczne, Easton posłużył się pojęciami takimi, jak: „wkłady", „wytwory", „środowisko" oraz „sprzężenie zwrotne" (por. ryc. 2.2). Pojęcie sprzężenia zwrotnego, powiązane z innymi pojęciami koncepcji, zostało wprowadzone po to, aby można było opisać zarówno ciągłość, jak i zmianę systemu. Easton formułuje również wiele twierdzeń wyjaśniających, w jaki sposób generowane są „wkłady" (z rozbiciem na „żądania" i „poparcie"), w jaki sposób reagują na „wkłady" osoby podejmujące decyzje polityczne, w jaki sposób „środowisko" oddziałuje na „wkłady" i na osoby podejmujące decyzje oraz w jaki sposób, za pomocą mechanizmu „sprzężenia zwrotnego", „wytwory" (podzielone na „decyzje" i „posunięcia") zmieniają lub utrzymują naturę „wkładów". 17 Hans L. Zetterberg (1965), On Theory and Verification in Sociology, wyd. 3, N.J.: Bedminster Press, s. 26. 18 Ibidem. 19 David Easton (1979), A System Analysis of Politicał Life, Chicago: University of Chicago Press, s. 21-32; por. także David Easton (1979), A Framework for Politicał Analysis, Chicago: University of Chicago Press. 54 żądania system polityczny decyzje i posunięcia poparcie I Ryc. 2.2. System polityczny — schemat pojęciowy Na podstawie: David Easton, A System Anafysisys of Polilical Life (Chicago: University of Chicago Press, 1979). Struktury pojęciowe znajdują się na wyższym poziomie niż taksonomie, ponieważ twierdzenia formułowane w ich ramach równie dobrze opisują zachowania, jak też pozwalają wyjaśniać i przewidywać szerokie klasy obserwacji empirycznych. To, co dzisiaj uważamy za teorie, to w większości struktury pojęciowe, które można wykorzystywać do prowadzenia systematycznych obserwacji. Twierdzenia wyprowadzane z systemów pojęciowych nie są jednak ustalane dedukcyjnie. Ta zależność twierdzeń od obserwacji empirycznych na wczesnych etapach teoretyzowania i prowadzenia badań ogranicza ich rolę w wyjaśnianiu i przewidywaniu, a także zmniejsza ich użyteczność dla przyszłych badań. Systemy teoretyczne. Systemy teoretyczne łączą taksonomie oraz struktury pojęciowe, dostarczając w sposób systematyczny opisów, wyjaśnień i predykcji. Jest to najwyższy poziom teorii wymagający najbardziej rygorystycznych definicji. System teoretyczny składa się z twierdzeń powiązanych ze sobą w sposób, który umożliwia wyprowadzanie jednych twierdzeń z innych. Kiedy tak rozumiany system teoretyczny zostanie stworzony, badacze społeczni mają prawo twierdzić, że wyjaśnili i potrafią przewidywać interesujące ich zjawiska. System teoretyczny, jak np. ten sformułowany przez Durkheima, dostarcza struktur wyjaśniających zjawiska empiryczne. Jego zakres nie jest ograniczony do jednego aspektu wyjaśnianych zdarzeń. Składa się on ze zbioru pojęć, w tym abstrakcyjnych, opisujących to, czego dana teoria dotyczy (np. samobójstwo), jak też pojęć mających empirycznie mierzalne właściwości (np. odsetek samobójstw). Te właściwości empiryczne nazywamy zmiennymi. (Szczegółowe omówienie zmiennych i ich rodzajów czytelnik znajdzie w rozdziale 3). System teoretyczny składa się również ze zbioru twierdzeń. W przeciwieństwie jednakże do ich statusu w ramach struktur pojęciowych tutaj twierdzenia tworzą system dedukcyjny. Innymi słowy, zbiór twierdzeń tworzy rachunek (tj. metodę analizy lub rachowania za pomocą specjalnych określeń symbolicznych). I tak, odwołując się do reguł operowania nimi, naukowcy mogą dedukcyjnie 55 wyprowadzać jedne twierdzenia z innych. Formułowane w ten sposób twierdzenia mają zarówno wartość wyjaśniającą, jak i predykcyjną. Teoria samobójstw Durkheima, przedstawiona przez George'a Homansa, to klasyczny przykład systemu teoretycznego20: 1. W każdej grupie społecznej odsetek samobójstw zależy wprost od stopnia indywidualizmu. 2. Stopień indywidualizmu zależy od zasięgu wpływu protestantyzmu. 3. Zatem odsetek samobójstw zależy od zasięgu wpływu protestantyzmu. 4. Zasięg wpływu protestantyzmu w Hiszpanii jest mały. 5. Stąd, odsetek samobójstw w Hiszpanii jest niski. W powyższym przykładzie twierdzenie 3 jest wyprowadzane z twierdzenia 1 i 2, a twierdzenie 5 z twierdzenia 3 i 4. Wobec tego, jeżeli np. nie znamy odsetka samobójstw w Bułgarii, ale wiemy, że zasięg wpływu protestantyzmu jest tam mały, to informacja ta oraz twierdzenie 3 pozwolą nam na przewidywanie niskiego odsetka samobójstw w Bułgarii. System teoretyczny zatem zarówno dostarcza wyjaśnień, jak i umożliwia przewidywanie współczynnika samobójstw. Niektóre z twierdzeń systemu teoretycznego są względne i zależą od rzeczywistości empirycznej, w tym sensie, że „doświadczenie ma znaczenie dla ich prawdziwości czy fałszywości, a także dla twierdzeń z nich wyprowadzanych"21. Akceptacja systemu teoretycznego zależy zatem ostatecznie od tego, czy naukowcy są w stanie empirycznie zweryfikować formułowane przez siebie twierdzenia. Cztery poziomy teorii ¦ Systemy klasyfikacyjne ad hoc. Arbitralne kategorie skonstruowane po to, aby uporządkować i zebrać obserwacje empiryczne. ¦ Taksonomie. System kategorii skonstruowanych odpowiednio do obserwacji empirycznych. Taksonomie pozwalają badaczom opisywać związki pomiędzy kategoriami. ¦ Struktury pojęciowe. Kategorie deskryptywne racjonalnie wbudowane w strukturę formułowanych explicite twierdzeń. Twierdzenia włączone do struktury pojęciowej opisują zachowania oraz pozwalają wyjaśniać i przewidywać obserwacje empiryczne. Nie są jednak ustalane dedukcyjnie. ¦ Systemy teoretyczne. Łączą taksonomie oraz struktury pojęciowe, wiążąc w sposób racjonalny opisy, wyjaśnienia i predykcje. Twierdzenia formułowane w ramach systemu teoretycznego są ze sobą powiązane w taki sposób, że jedne twierdzenia mogą być wyprowadzone z innych. 20 Homas, Contemporary Theory in Sociology, s. 959. 21 Ibidem. 56 Teorie aksjomatyczne Jednym z systemów teoretycznych zasługujących na specjalną uwagę jest teoria aks-jomatyczna czy inaczej formalna. Aksjomaty to nietestowalne twierdzenia czy założenia dotyczące badanego zjawiska, o których zakłada się, że są prawdziwe. Aksjomaty opisują bezpośrednie zależności przyczynowe pomiędzy dwoma pojęciami. Zależności te mają tak podstawowy charakter, że nie wymagają dalszych dowodów empirycznych. Bez takich podstawowych założeń proces tworzenia, formułowania i testowania hipotez staje się niemożliwy. Teoria aksjomatyczna składa się zatem ze: 1. Zbioru pojęć i definicji zarówno pojęciowych, jak i operacyjnych. 2. Zbioru stwierdzeń opisujących sytuacje, do których odnosi się dana teoria. 3. Zbioru powiązanych ze sobą stwierdzeń, podzielonych na: a) aksjomaty — nietestowalne stwierdzenia czy założenia dotyczące badanego zjawiska, o których zakłada się, że są prawdziwe. Na przykład zakłada się, że aksjomaty przyjmowane w geometrii są prawdziwe bez względu na to, czy się odnoszą czy nie do świata empirycznego; b) twierdzenia — wyrażenia wyprowadzone dedukcyjnie z aksjomatów i podlegające weryfikacji empirycznej. 4. Systemu reguł logicznych zastosowanych do: a) powiązania wszystkich pojęć w ramach systemu; b) wyprowadzania dedukcyjnego twierdzeń z aksjomatów, zbiorów aksjomatów i twierdzeń. Jednym z pierwszych i często cytowanym przykładem teorii aksjomatycznej jest teoria Durkheima w wersji sformułowanej przez Hansa Zetterberga. Zetterberg wyprowadził dziesięć następujących twierdzeń22: 1. Im większy podział pracy, tym więcej uniformizmu (zgody co do podstawowych wartości i kwestii). 2. Im większa solidarność (w sensie przynależności), tym większa liczba więzi społecznych przypadających na jednostkę (większa liczba kontaktów z innymi członkami grupy). 3. Im większa liczba więzi społecznych przypadających na jednostkę, tym większy uniformizm. 4. Im większy uniformizm, tym mniejsza liczba odrzuconych dewiantów (osób, które nie akceptują podstawowych wartości lub zachowują się w sposób społecznie nieaprobowany). 5. Im większy podział pracy, tym mniejsza liczba odrzuconych dewiantów. 6. Im większa liczba więzi społecznych przypadających na jednostkę, tym mniejsza liczba odrzuconych dewiantów. 7. Im większy podział pracy, tym większa solidarność. 8. Im większa solidarność, tym większy uniformizm. 9. Im większa liczba więzi społecznych przypadających na jednostkę, tym większy podział pracy. 10. Im większa solidarność, tym mniejsza liczba odrzuconych dewiantów. Zetterberg, On Theory and Yerification in Sociology, s. 159-160. 57 Ostatnie cztery twierdzenia zostały potraktowane przez Zetterberga jako aksjomaty. Pozostałe można — jego zdaniem — logicznie wyprowadzić z przyjętego zbioru aksjomatów. Najtrudniejszym problemem dotyczącym teorii aksjomatycznych jest wybór aksjomatów. Jakie kryteria powinni zastosować naukowcy, wybierając określone stwierdzenia jako aksjomaty? Dlaczego tworząc zbiór aksjomatów, Zetterberg wybrał jedynie cztery ostatnie twierdzenia ze swojej listy? Jednym z kryteriów dokonywania wyboru jest zgodność wewnętrzna: aksjomaty nie powinny prowadzić do sprzecznych twierdzeń. Innym kryterium jest liczba: teoretycy powinni wybierać najmniejszy z możliwych zbiór aksjomatów, z którego da się dedukcyjnie wyprowadzić wszystkie twierdzenia. Kryteria te odzwierciedlają zgodę naukowców co do tego, że oszczędność czy prostota powinny być brane pod uwagę w procesie budowania teorii. Trzecim kryterium wyboru aksjomatów, które sprawia, że konstruowanie teorii aksjomatycznych w naukach społecznych jest najtrudniejsze, jest nakaz wybierania jako aksjomatów tych twierdzeń, które osiągnęły status praw. Aby dane twierdzenie mogło zostać uznane za prawo, musi zostać wyposażone w bardzo mocne dowody empiryczne. Jak dotąd niewiele twierdzeń formułowanych w ramach nauk społecznych osiągnęło taki status. W najnowszych badaniach naukowcy starają się wybierać aksjomaty ze zbioru twierdzeń w taki sposób, aby teoria była wyraźnie określona i łatwa do zrozumienia. Realizują ten cel, uznając za aksjomaty te twierdzenia, które opisują bezpośrednie zależności przyczynowe pomiędzy dwoma pojęciami. Według Huberta Blaloc-ka „Aksjomat może zostać sformułowany w następującej postaci: wzrost wartości X spowoduje (jest przyczyną) niemal natychmiastowy wzrost wartości Y; wzrost wartości Y spowoduje z kolei dalszy wzrost wartości X, chociaż w znacznie wolniejszym tempie"23. Posługując się regułą uwzględniania bezpośrednich związków przyczynowych, Blalock przeformułował cztery aksjomaty Zetterberga, tworząc łańcuch przyczynowo-skutkowy24: 1. Wzrost liczby więzi społecznych przypadających na jednostkę spowoduje wzrost podziału pracy (twierdzenie 9). 2. Wzrost podziału pracy spowoduje wzrost solidarności (twierdzenie 7). 3. Wzrost solidarności spowoduje wzrost zgodności (twierdzenie 8). 4. Wzrost solidarności spowoduje spadek liczby odrzuconych dewiantów (twierdzenie 10). Aksjomaty te, mające charakter zdań przyczynowo-skutkowych, są z kolei źródłem empirycznie sprawdzalnych twierdzeń. Zalety teorii aksjomatycznych. Ze względu na złożoność ludzkiego zachowania i badań im poświęconych (por. rozdział 1) niewiele twierdzeń formułowanych w ramach nauk społecznych osiągnęło status praw. Dlaczego zatem naukowcy nadal próbują konstruować teorie aksjomatyczne w ramach nauk społecznych? Teorie aksjomatyczne mają wiele zalet. Po pierwsze, wymagają one dobrego Hubert M. Blalock (1969), Theory Construction, Englewood Cliffs, N.J.: Prentice-Hall, s. 18. Ibidem, s. 19. 58 opisu i jasnego wyjaśnienia głównych pojęć i założeń wykorzystywanych w niezależnych teoriach. Po drugie, ponieważ każde pojęcie musi być wyraźnie zdefiniowane, wszystkie terminy — pierwotne i pochodne — a także definicje operacyjne muszą zostać sformułowane explicite. Po trzecie, teoria aksjomatyczna pozwala na zwarte podsumowanie aktualnych i planowanych badań. Zamiast tworzenia dużej liczby twierdzeń w teoriach aksjomatycznych uwzględnia się jedynie twierdzenia podstawowe. Po czwarte, teorie aksjomatyczne mogą być wykorzystywane do „koordynowania badań tak, aby wiele niezależnych wyników potwierdzało się wzajemnie, dając najwyższą akceptowalność teorii w świetle określonych wyników"25. Ponieważ teoria składa się ze zbioru powiązanych ze sobą twierdzeń, więc dowiedzenie empiryczne dowolnego twierdzenia staje się jednocześnie potwierdzeniem całej teorii. Na przykład teoria Durkheima stała się źródłem badań empirycznych nad społecznymi dewiacjami. Po piąte, forma aksjomatyczna sprawia, że badacze mogą w sposób systematyczny badać wszystkie konsekwencje przyjętych przez siebie aksjomatów. To z kolei pozwala im określić, które elementy teorii zostały zweryfikowane, a które wymagają dalszych badań. Jest to szczególnie użyteczne wtedy, gdy badacze podejmują decyzje o tym, jakie badania wniosą największy wkład do teorii26.1 wreszcie, forma aksjomatyczna jest najwygodniejsza dla analizy przyczy-nowo-skutkowej (patrz rozdział 17). ¦ Modele Ściśle związane z rozumieniem teorii jako systemu pojęciowego jest pojęcie modelu. Teoretycy często starają się tworzyć systemy pojęciowe przez opracowywanie modeli. Tak jak w innych dyscyplinach i profesjach model może oznaczać wizerunek czegoś. Na przykład inżynier może dysponować modelem pojazdu takiego jak prom kosmiczny. Model jest miniaturowym odtworzeniem rzeczywistego promu, łącznie z uzwględnieniem jego specyficznych cech w odpowiedniej skali (Jeg° struktury). Model pomija natomiast inne cechy charakterystyczne takie jak np. instrumenty kontrolne. Ponieważ model służy jako fizyczna, wizualna reprezentacja struktury i cech promu kosmicznego, można się nim posługiwać w czasie eksperymentów i procedur testowych. Inżynierowie mogą go np. testować w tunelu aerodynamicznym, aby sprawdzić jego zachowanie w specyficznych warunkach. W naukach społecznych modele mają raczej postać symboliczną aniżeli fizyczną. Oznacza to, że cechy charakterystyczne zjawisk empirycznych, włączając w to ich składowe oraz powiązania między nimi, są odtwarzane poprzez logiczne uporządkowanie pojęć. I tak modelem w naukach społecznych jest abstrakcyjne przedstawienie rzeczywistości w taki sposób, aby uporządkować i uprościć nasze spojrzenie na daną rzeczywistość poprzez odtworzenie jej podstawowych cech charakterystycznych: Charakterystycznym sposobem konstrukcji modeli jest metoda abstrakcji; pewne elementy sytuacji mogą zostać rozmyślnie pominięte, gdyż są traktowane 25 Zetterberg, On Theory and Verification in Sociology, s. 163. 26 Te zalety teorii aksjomatycznych zostały znakomicie wyłożone w: Gerald Hagę (1980), Theories ofOrganizations: Forms, Process, and Transformation, New York: Wiley-Interscience. 59 jako nieistotne. Stworzony w ten sposób uproszczony opis sytuacji może się okazać użyteczny przy jej analizowaniu oraz w celu jej zrozumienia. W budowaniu modeli, oprócz abstrakcji, czasami stosuje się również procedurę przetwarzania pojęć. Zamiast bezpośredniego rozważania danej sytuacji może się zdarzyć, że każdy element rzeczywistej sytuacji zostaje wysymulowany za pomocą obiektów matematycznych lub fizycznych. Odpowiednie cechy charakterystyczne sytuacji oraz ich związki z innymi elementami są wówczas odzwierciedlane przez odpowiadające im wysymulowane właściwości i relacje; organizacja ruchu drogowego w mieście może zostać wysymulowana za pomocą miniaturowego modelu zawierającego siatkę dróg, sygnały świetlne i pojazdy27. Model zatem to reprezentacja rzeczywistości. Opisuje on te cechy świata rzeczywistego, które — według naukowców — mają największy związek z badanym problemem. Model pozwala wyeksplikować istotne związki między tymi cechami, a także budować empirycznie sprawdzalne twierdzenia dotyczące natury tych związków. Po zakończeniu procedur sprawdzających i lepszym zrozumieniu niektórych elementów świata rzeczywistego naukowcy mogą zdecydować się zmienić model tak, aby był zgodny z ich najnowszą wiedzą. Modele stosuje się również po to, aby uzyskać wiedzę o zjawiskach, których nie można obserwować bezpośrednio, jak np. o zjawisku władzy. I tak w badaniach nad polityką badacze konstruują modele struktur i procesów decyzyjnych, wyprowadzając z nich twierdzenia dotyczące zachowań osób podejmujących decyzje. Następnie oceniają te twierdzenia w świetle danych empirycznych. Analitycy zajmujący się polityką używają modeli również do szacowania konsekwencji alternatywnych kierunków działania, które mogliby wybrać decydenci. Model dostarcza zatem bardziej racjonalnych podstaw do wyborów politycznych niż sądy subiektywne. Przykład: model wdrażania polityki Interesującym przykładem modelowania złożonych aspektów świata rzeczywistego, których nie da się bezpośrednio obserwować, jest sformułowany przez Thomasa Smitha model wdrażania polityki28. Wiele osób jest przekonanych, że gdy raz zostanie określony kierunek polityki (np. gdy Kongres Stanów Zjednoczonych zatwierdzi projekt ustawy), osiągnięcie oczekiwanych przez polityków celów nastąpi w sposób naturalny i wręcz automatycznie. Ale tak dzieje się bardzo rzadko. Problemy techniczne związane z wdrażaniem polityki są tak złożone, że wdrożenie to niemal nigdy nie przebiega w sposób, w jaki zostało zaplanowane. Poza tym polityczni biurokraci, zainteresowane grupy oraz osoby i organizacje, których to dotyczy, często starają się wymóc zmiany w ustawach już w trakcie ich wdrażania. Smith w swoim modelu abstrahuje od określonych aspektów procesu wdrażania, a skupia się na czterech jego podstawowych składowych: 1. Polityce wyidealizowanej, tj wyidealizowanych schematach oddziaływania, które politycy chcieliby zastosować. 2. Grupie celowej definiowanej jako grupa osób zobowiązanych do przyjęcia Olaf Helmer (1966), Social Technology, New York: Basic Books, s. 127-128. Thomas B. Smith (1973), The Policy Implementation Process, „Policy Sciences", 4, s. 197-209. 60 nowych schematów oddziaływania wprowadzonych przez politykę. Są to osoby, których polityka dotyczy najbardziej bezpośrednio i które muszą się zmienić, aby sprostać jej wymaganiom. 3. Organizacji, której zadaniem jest wdrożenie polityki. Najczęściej są to odpowiednie agendy rządu. 4. Czynników środowiskowych, na które wpływa proces wdrażania polityki. Mowa tu, między innymi, o opinii publicznej oraz o różnych, specyficznych grupach interesów. Te cztery komponenty i zakładane między nimi relacje zostały przedstawione na rycinie 2.3. Efektem procesu uprawiania polityki jest wypracowanie określonych kursów polityki państwowej. Polityka państwowa jest z kolei źródłem stanu napięcia społecznego: wdrożenie polityki bowiem powoduje napięcia i konflikty tak wśród osób odpowiedzialnych za proces wdrożenia, jak i wśród tych, których wdrożenie to dotyczy. Napięcia prowadzą do zawarcia ugody, czyli transakcji. Terminem tym Smith określa reakcję na istniejące napięcia i konflikty. Zainicjowany przez transakcje i instytucje mechanizm sprzężenia zwrotnego oddziałuje z kolei zarówno na wszystkie cztery komponenty procesu wdrożeniowego, jak i na przyszłe uprawianie polityki. Modele zatem to narzędzia wyjaśniania i przewidywania. Dobrze opracowane wiernie przybliżają rzeczywistość. Modele jednak nie są tożsame z rzeczywistością. Są one często zmieniane, aby rzeczywistość została dokładniej odzwierciedlona i aby można było uwzględnić nową wiedzę. Istotną cechą modeli naukowych jest to, że mogą być one testowane w sposób empiryczny, tj. że można udowodnić ich fałszywość i następnie je zmienić lub odrzucić. proces tworzenia polityki ¦^•polityka. Ryc. 2.3. Model procesu wdrażania polityki sprzężenie *^_ zwrotne organizacje wdrażające ~* grupa docelowa , ' u łł } polityka wyidealizowana 1 1 1 1 1 1 ' H 1 • i ł czynniki środowiskowe transakcje instytucje Teoria, modele i badania empiryczne Nauki społeczne jako dyscypliny naukowe opierają się na dwóch podstawowych elementach: teoriach i badaniach empirycznych. Badacze w naukach społecznych działają w dwóch „światach": w świecie obserwacji i doświadczenia oraz w świecie 61 idei, teorii oraz modeli. Tworzenie racjonalnych połączeń między tymi dwoma światami pozwala realizować cel nauk społecznych, czyli wyjaśniać zjawiska i dokonywać dokładnych predykcji. W jaki sposób jednak tworzy się to połączenie? Czy powinniśmy najpierw konstruować teorie i modele, a następnie przenosić się do świata badań empirycznych, czy też badania empiryczne powinny poprzedzać teorię?* Teoria przed badaniami Zgodnie z jedną z głównych szkół myślenia najpierw powinna być formułowana teoria, a potem dopiero powinny następować badania empiryczne. Ten sposób postępowania nazywa się strategią teorii przed badaniami. Strategię tę, w sposób najbardziej systematyczny, opracował Karl Popper (1902-1994). Twierdził on, że wiedza naukowa czyni największe postępy, gdy naukowcy tworzą idee (przypuszczenia), a następnie korzystając z badań empirycznych, starają sieje odrzucić (odrzucenia)29. Popper wykluczał ewentualność, że badania empiryczne mogą w sposób systematyczny wpływać na teorie. Jego zdaniem badania rzadko są źródłem nowych teorii, a także nie są źródłem logicznych metod tworzenia teorii. Teorie „można tworzyć jedynie intuicyjnie, odwołując się do czegoś w rodzaju intelektualnej miłości do przedmiotu doświadczenia"30. Strategia teorii przed badaniami składa się z następujących, bardzo uproszczonych, pięciu kroków31: 1. Skonstruuj explicite teorię lub model. 2. Z teorii lub modelu wybierz twierdzenie, które poddasz empirycznej weryfikacji. 3. Opracuj plan badawczy pozwalający zweryfikować twierdzenie. 4. Jeżeli na podstawie danych empirycznych twierdzenie wyprowadzone z teorii zostanie odrzucone, to wprowadź zmiany do teorii lub planu badawczego (np. badanie, plan, pomiar — por. ryc. 1.1) i powróć do etapu 2. 5. Jeżeli twierdzenie nie zostanie odrzucone, to wybierz inne twierdzenie w celu weryfikacji lub staraj się poprawić teorię. Badania przed teoriq Przeciwieństwem strategii teorii przed badaniami jest, sformułowana przez Roberta Mertona, strategia badań przed teorią: Twierdzę, iż funkcja badań empirycznych wykracza daleko poza bierną rolę weryfikowania oraz sprawdzania teorii: czynią one więcej niż potwierdzanie * Autorzy w skrótowej formie przedstawiają tu cechy charakterystyczne dwóch metod naukowych stosowanych w naukach empirycznych (w tym społecznych) — indukcjonizmu oraz hipotetyzmu (fal-syfikacjonizmu, inaczej: metody stawiania i krytyki hipotez). Na gruncie nauk społecznych w sporze zwolenników tych dwóch przeciwstawnych podejść więcej zwolenników ma metoda hipotetyzmu, której głównym przedstawicielem jest K.R. Popper (przyp. red. nauk.). 29 Karl R. Popper (1968), Conjectures and Refutations: The Growth ofScientific Knowledge, New York: Harper & Row. 30 Karl R. Popper (1961), The Logic of Scientific Discovery, New York: Science Editions; wyd. polskie: K.R. Popper (1977), Logika odkrycia naukowego, Warszawa: PWN, tłum. Urszula Niklas. 31 Reynolds, A Primer in Theory Construction, s. 140-144. 62 lub obalanie hipotez. Badania empiryczne odgrywają rolę aktywną: spełniają co najmniej cztery podstawowe funkcje, które przyczyniają się do kształtowania rozwoju teorii. Zapoczątkowują, przeformułowują, nadają inny kierunek i precyzują teorię"32. Zgodnie z tym poglądem badania empiryczne stanowią nowe wyzwanie dla teorii. Wymagają one bowiem kontynuowania prac teoretycznych prowadzących do zmian istniejących teorii, a także pełnią funkcję narzędzia ich weryfikacji. Strategia badań przed teorią składa się z czterech następujących etapów: Analiza zjawiska i określenie jego podstawowych cech. Zmierzenie tych cech w różnych sytuacjach (problematyka pomiaru i procedury pomiarowe zostały omówione w rozdziale 7). Analiza otrzymanych danych w celu określenia, czy są one systematycznym źródłem wariancji. Jeżeli zostanie ustalone systematyczne źródło wariancji, to należy opracować teorię. Może to być teoria w jednej z form, które omówiliśmy wcześniej, choć najbardziej preferowane są tu systemy teoretyczne. Obie strategie traktują teorie jako formę przejawiania się postępu naukowego. Rzeczywisty dylemat dotyczy miejsca teorii w procesie badawczym. Naszym zdaniem, aby prowadzić badania, nie trzeba zajmować stanowiska dogmatycznie akceptującego którąkolwiek ze strategii. Nauki społeczne rozwijały się niezależnie od tej kontrowersji, a działania naukowe podejmowano, wykorzystując obie strategie. W rzeczywistości teoria i badania wchodzą ze sobą w ciągłe interakcje, jak to pokazano na rycinie 1.1. Co więcej, Ernest Nagel utrzymuje, że różnica między tymi strategiami jest raczej pozorna aniżeli rzeczywista: Wybitni uczeni twierdzili wielokrotnie, że teorie są »dowolnymi tworami umysłu*. Nie znaczy to oczywiście, że dane z obserwacji nie mogą sugerować teorii lub że teorie nie wymagają uzasadnienia przez dane obserwacyjne. Natomiast twierdzi się w ten sposób słusznie, że podstawowe terminy teorii nie mają znaczeń wyznaczonych przez określone operacje eksperymentalne oraz że teoria może być zadowalająca i owocna, mimo iż dane na jej poparcie mają z konieczności charakter pośredni33 . ¦ Podsumowanie 1. Jednym z najbardziej istotnych elementów nauki są pojęcia. Nauka bierze swój początek od stworzenia pojęć opisujących świat empiryczny i rozwija się, łącząc te pojęcia w system empiryczny. Pojęcia umożliwiają efektywną komunikację, 12 Robert K. Merton (1968), Social Theory and Social Structure, wyd. popr. i posz. New York: Free Press, s. 103; wyd. polskie: Robert K. Merton (1982), Teoria socjologiczna i struktura społeczna. Warszawa: PWN. tłum. Ewa Morawska, Jerzy Wertenstein-Żulawski, s. 170. 13 Emest Nagel (1979), The Structure of Science, New York: Heckett, s. 86; wyd. polskie: Ernest Nagel (1970). Struktura nauki, Warszawa: PWN, tłum. Jerzy Giedymin, Bożydar Rassalski, Helena Eilstein, s. 85. 1. 2. 3. 4. 63 precyzują punkt widzenia, są środkami klasyfikacji i generalizacji, i wreszcie są klockami, z których buduje się twierdzenia, teorie i hipotezy — co dokładnie omówimy w rozdziale 3. 2. Aby pojęcia mogły skutecznie pełnić swoją funkcję, powinny być wyraźnie i jasno formułowane oraz powinny być powszechnie akceptowane. Można to osiągnąć poprzez tworzenie definicji pojęciowych i operacyjnych. Definicje pojęciowe opisują pojęcia za pomocą terminów pierwotnych i pochodnych. Definicje operacyjne kładą nacisk na zbiór procedur i działań, które powinny zostać podjęte przez badaczy, aby empirycznie zaobserwować zjawisko opisywane przez pojęcia. Definicje operacyjne zatem są pomostem pomiędzy poziomem pojęciowo-teoretycznym a poziomem empiryczno-obserwacyjnym. 3. Chociaż badacze w dziedzinie nauk społecznych zgadzają się co do tego, że podstawowym celem działań naukowych jest teoria, to różnią się oni poglądami dotyczącymi znaczenia i rodzajów teorii. Dzisiaj mówimy o czterech rodzajach teorii: systemach klasyfikacyjnych ad hoc, taksonomiach, strukturach pojęciowych i systemach teoretycznych. Jedną z podstawowych form systemów teoretycznych jest teoria aksjomatyczna. Teoria aksjomatyczna składa się ze zbioru pojęć i definicji, zbioru stwierdzeń, zbioru stwierdzeń dotyczących zależności podzielonego na aksjomaty i twierdzenia oraz systemu logiki, za pomocą którego wiąże się pojęcia z twierdzeniami oraz wyprowadza twierdzenia z aksjomatów. 4. Naukowcy wykorzystują modele do systematycznego odzwierciedlania wybranych aspektów świata rzeczywistego. Modele są abstrakcjami pozwalającymi porządkować i upraszczać obraz rzeczywistości tak, by zachować wszystkie jej podstawowe cechy. Naukowcy posługują się modelami również po to, aby lepiej poznać zjawisko, którego nie można bezpośrednio obserwować, jak np. system ekonomiczny. 5. Naukowcy tworzą systematyczne powiązania pomiędzy światem empirii i światem pojęć za pomocą jednej z dwóch ogólnych strategii: strategii teorii przed badaniami oraz strategii badań przed teorią. I chociaż trwa spór o to, która ze strategii jest bardziej owocna i prowadzi do postępu w nauce, to naszym zdaniem teoria i badania pozostają ze sobą w ścisłych związkach, a różnica pomiędzy strategiami jest raczej pozorna aniżeli rzeczywista. ¦ Podstawowe terminy definicja operacyjna 46 struktura pojęciowa 54 definicja ostensywna 45 system klasyfikacyjny 53 definicja pojęciowa 45 system teoretyczny 55 fałszywa konkretyzacja 43 taksonomia 53 model 59 teoria aksjomatyczna 57 odpowiedniość 50 termin pierwotny 45 pojęcie 42 termin pochodny 45 strategia badań przed teorią 62 znaczenie teoretyczne 51 strategia teorii przed badaniami 62 64 ¦ Pytania sprawdzajgce 1. Omów cztery funkcje, jakie pełnią pojęcia w naukach społecznych. 2. Czym się różnią definicje pojęciowe od definicji operacyjnych? Podaj przykład każdej definicji z dziedziny nauk społecznych, którą studiujesz. 3. Omów typowe nieporozumienia dotyczące teorii. Czy możesz podać jeszcze inne? 4. Opisz i wyjaśnij sposób stosowania modeli w naukach społecznych. Czy znasz przykłady z innych dziedzin? 5. Omów różnicę pomiędzy strategią teorii przed badaniami a strategią badań przed teorią. Która ze strategii — twoim zdaniem — lepiej odtwarza proces badań naukowych? Dlaczego? ¦ Literatura dodatkowa Hempel CG. (1968), Podstawy nauk przyrodniczych, Warszawa: WNT. HomowskaE. (1989), Operacjonalizacja wielkości psychologicznych. Założenia — struktura — konsekwencje, Wrocław: Ossolineum. Marciszewski W. (red.)(1988), Mata encyklopedia nauki, wyd. 2, Wrocław: Ossolineum. Mokrzycki E. (1980), Filozofia nauki a socjologia, Warszawa: PWN. Nagel E. (1970), Struktura nauki. Warszawa: PWN. Nowak S. (red.)(1965), Metody badań socjologicznych. Wybór tekstów, Warszawa: PWN. Pawłowski T. (1986), Tworzenie pojąć i definiowanie w naukach humanistycznych, Warszawa: PWN. Przetęcki M. (1966), Operacjonizm, w: T. Pawłowski (red.), Logiczna teoria nauki, s. 99-121, Warszawa: PWN. Rozdział 3 Podstawowe elementy procesu badawczego Problemy badawcze 67 Jednostki analizy 68 Błąd ekologizmu 69 Błąd indywidualizmu 70 Zmienne 70 Zmienne zależne i zmienne niezależne 71 Zmienne kontrolne 72 Zmienne ciągłe i zmienne dyskretne 73 Związki 74 Rodzaje związków 75 Hipotezy 77 Problemy i hipotezy: wybrane przykłady 80 Źródła informacji o badaniach i hipotezach naukowych 81 Bibliografie, indeksy i streszczenia 82 Czasopisma fachowe 83 Publikacje statystyczne 84 Monografie 86 Podsumowanie 86 Podstawowe terminy 87 Pytania sprawdzające 87 Literatura dodatkowa 87 Na początku rozdziału 1 przedstawiliśmy przykład badań długofalowych obejmujących tysiące mieszkańców Chicago, mających na celu zrozumienie, czym jest przestępczość. Jakie wnioski naukowe możemy wyprowadzić z tak złożonych badań? Jaka jest jakość tych wniosków? Czy możemy dokładnie określić każde analizowane zagadnienie? Czy analizowane problemy zostały sfomułowane poprawnie i czy zastosowano właściwe techniki testowania hipotez? Takie pytania stawiamy sobie, planując każde badanie w naukach społecznych. Odpowiedzi na nie pokazują, w jaki sposób stosujemy podstawowe narzędzia badawcze. W niniejszym rozdziale zastanowimy się, w jaki sposób naukowcy formułują problemy badawcze oraz omówimy dwa rodzaje popełnianych błędów: błąd ekologizmu i błąd indywidualizmu. Następnie podamy definicje zmiennych, omówimy ich rodzaje oraz przedyskutujemy powiązania między nimi. Dalej zajmiemy się procesem tworzenia hipotez. Na koniec dokonamy przeglądu podstawowych źródeł informacji na temat opublikowanych badań, w tym materiałów drukowanych oraz baz danych dostępnych w sieciach komputerowych. Niezależnie od tego, czy badania naukowe są prowadzone zgodnie ze strategią teorii przed badaniami czy strategią badań przed teorią, terminy takie, jak: „problem badawczy", „zmienna", „związek" i „hipoteza" pojawiają się bardzo często. Są one podstawowe dla procesu badawczego, gdyż umożliwiają przełożenie idei teoretycznej na konkretne operacje badawcze. W tym rozdziale zdefiniujemy, omówimy i podamy przykłady ich wykorzystywania w kontekście procesu badawczego. ¦ Problemy badawcze Na początku jest problem. Problem badawczy to bodziec intelektualny wywołujący reakcję w postaci badań naukowych. Na przykład: Kto rządzi Ameryką? Jakie czynniki zachęcają do oszczędzania energii? W jaki sposób można zmniejszyć inflację? Czy klasa społeczna wpływa na zachowania wyborcze? — to problemy badawcze. Nie wszystkie bodźce intelektualne mogą być badane w sposób empiryczny i nie każde ludzkie zachowanie jest sterowane wiedzą naukową. W rzeczywistości — co pokazaliśmy w rozdziale 1 — podstawowych założeń przyjmowanych w nauce nie da się badać empirycznie. Nie są one dowiedzione i nie da się ich dowieść. Takich zagadnień, jak: Czy cywilizacja Zachodu zniknie? Czy kolor niebieski jest ładniejszy od zielonego? oraz: Czy impresjonizm wpłynął w największym stopniu na rozwój sztuki? nie da się badać w sposób empiryczny. Generalnie rzecz biorąc, problemy, których nie można empirycznie uzasadnić (tzn. nie można zidentyfikować z ob-serwowalnymi zachowaniami), lub te, które dotyczą subiektywnych preferencji, wierzeń, wartości czy upodobań, nie poddają się badaniom empirycznym. Uwaga, że naukowcy nie zajmują się w sposób naukowy subiektywnymi preferencjami, nie oznacza oczywiście, że spełniając zadania obywateli, rodziców czy 67 przyjaciół nie mają takich preferencji. Ponieważ jednak preferencje czy wierzenia subiektywne nie mogą zostać empirycznie zweryfikowane, pozostają one poza obszarem wiedzy naukowej. Mimo to niektóre z preferencji czy wierzeń subiektywnych można badać, stosując środki naukowe w taki sam sposób, w jaki naukowcy badają inne zjawiska empirycznie. Można, na przykład, zbadać, dlaczego niektórzy ludzie wierzą, że zniknie cywilizacja Zachodu, i dlaczego inni nie podzielają tego poglądu; można zbadać, czy przekładanie impresjonizmu nad inne kierunki ma związek z przynależnością dla klasy społecznej i cechami osobowości. Podkreślmy jednak, że to nie preferencje subiektywne są przedmiotem badania, lecz przyczyny, dla których ludzie zajmują określone stanowiska, a także niekiedy zachowania wynikające z tych wierzeń. Ponadto, aby problem badawczy był empirycznie uzasadniony, musi zostać w sposób jasny i dokładny sformułowany. Na przykład problem „Jakie czynniki zachęcają do oszczędzania energii?" jest zbyt ogólny i zbyt niejasny, aby się stać podstawą projektowania badań. Różni ludzie mogą go różnie rozumieć. Nie precyzuje się w nim ani rodzajów czynników (ekonomicznych, społecznych czy patriotycznych), ani rodzajów energii (ropa naftowa, benzyna, gaz ziemny czy węgiel). Nie precyzuje się także, czy oszczędzanie dotyczy przemysłu czy odbiorców indywidualnych. Brak jasności i dokładności może prowadzić do niejasnych wyników, które mogą być sprzecznie interpretowane. Jednostki analizy Formułując problem, badacz musi rozważyć jednostki analizy, tj. określić, jakie są podstawowe elementy badanego zjawiska. Jednostka (czy poziom) analizy warunkuje wybór planu badawczego, metod zbierania danych oraz metod analizy danych. Czy problem badawczy dotyczy spostrzeżeń, postaw czy zachowania? Czy badacz powinien się koncentrować na jednostkach czy grupach, instytucjach czy społeczeństwach? Abraham Kapłan nazwał problem wyboru jednostek analizy problemem umiejscowienia: Problem umiejscowienia można opisać jako wybór podstawowego przedmiotu badań w naukach behawioralnych, przestrzeni cech do jego opisu i struktur pojęciowych, w ramach których będą formułowane hipotezy dotyczące tego przedmiotu. Istnieje wiele możliwych przedmiotów badań i wiele z nich zostaje wybranych w różnych badaniach: stany świadomości, działania (elementy istotnych zachowań), role, osoby, osobowości, relacje interpersonalne, grupy, klasy, instytucje, cechy lub wzorce społeczne, społeczeństwa i kultury. Czy instytucje prawne, na przykład, różnią się od instytucji państwowych, czy też są ich częścią? A jeżeli są ich częścią, to co to oznacza?1 Zasadniczo nie ma żadnych ograniczeń co do wyboru jednostek analizowanych w badaniach naukowych. Jednakże kiedy badacz dokonał już wyboru, musi dostosować procedury badawcze, zwłaszcza poziom i zakres uogólnień oraz sformułowań teoretycznych tak, aby były one zgodne z wybranymi jednostkami analizy. Ta 1 Abraham Kapłan (1968), The Conduct oflnąuiry, New York: Harper & Row, s. 78. 68 część procesu badawczego ma zasadnicze znaczenie, gdyż jednostki analizy posiadają na tyle unikatowe właściwości, że przechodzenie od jednej jednostki do drugiej może być źródłem błędów. Uogólnienia wyników badań, w których jednostkami analizy były pojedyncze osoby, i uogólnienia badań, w których analizowano grupy, mogą być zupełnie różne. Podstawową przyczyną tych niejasności jest podobieństwo pojęć wykorzystywanych do opisywania badanych właściwości; pojęć, które mogą się różnić swoimi obserwowalnymi odniesieniami w zależności od jednostki analizy. Na przykład pojęcie „przetrwanie" jest wykorzystywane do wyjaśniania zachowań takich odrębnych jednostek analizy, jak poszczególne osoby, grupy, organizacje i narody. I w zależności od jednostki analizy termin „przetrwanie" ma różne znaczenia. Nie istnieje przyczyna dająca się sformułować a priori, która pozwoli przyjąć, że związek pomiędzy przetrwaniem a innymi właściwościami będzie identyczny dla wszystkich jednostek. Na przykład konsekwencje behawioralne przetrwania mogą być podobne dla poszczególnych osób — ich fizyczne przetrwanie. Jednakże, gdy weźmiemy pod uwagę organizacje, to przetrwanie może oznaczać utrzymanie statusu prawnego firmy, nawet jeżeli jej podstawowa linia produkcyjna uległa całkowitej zmianie. W wypadku narodów przetrwanie może oznaczać powrót do dawnych granic politycznych — sytuacja, z jaką mamy do czynienia w trakcie wojny domowej w byłej Jugosławii (1993-do dzisiaj). Błqd ekologizmu Badacze muszą określić jednostki analizy również z powodów metodologicznych. Jeżeli dany związek jest badany na określonym poziomie analizy lub dla danej jednostki (np. grup), a wyniki są przenoszone na inny poziom (np. jednostek), to łatwo o zniekształcenia. Innymi słowy, przenoszenie wniosków z bardziej złożonej na prostszą jednostkę analizy, z wyższego na niższy poziom jest niewłaściwe. Ten rodzaj zniekształceń nazywa się błędem ekologizmu. W klasycznym już dziś badaniu William Robinson w sposób bardzo przekonujący zademonstrował skutki błędu ekologizmu2. Analizując związki pomiędzy umiejętnością czytania i pisania a miejscem urodzenia w latach trzydziestych, Robinson porównywał ze sobą regiony Stanów Zjednoczonych. Ustalił, że w regionach z wyższym odsetkiem osób urodzonych za granicą istnieje też wyższy odsetek osób umiejących czytać i pisać, w porównaniu z regionami, w których mieszka mniejszy odstetek osób urodzonych za granicą. Kiedy jednak przeanalizował ten sam związek na poziomie jednostek, otrzymał dokładnie odwrotne rezultaty: w ramach danego regionu rdzenni mieszkańcy w większym stopniu posiadali umiejętność czytania i pisania niż osoby urodzone za granicą. Czym można by wyjaśnić tak sprzeczne rezultaty? Jak się wydaje, istnieją dwie możliwe przyczyny: (a) istotne różnice w jakości powszechnej edukacji między regionami — poziom grup, (b) tendencja imigrantów do osiedlania się w regionach, w których edukacja powszechna była lepsza — poziom jednostek. Robinson zwraca uwagę, że gdyby zastosował tylko pierwsze wyjaśnienie dotyczące określonej jednostki analizy, to byłby to błąd ekologizmu. 2 William S. Robinson (1950), Ecological Correlations and the Behavior of /ndividuals, „American Sociological Review", 15, s. 351-357. 69 Dwa rodzaje błędów, których badacze powinni być świadomi ¦ Błąd ekologizmu. Wyprowadzanie wniosków o jednostkach bezpośrednio z wyników otrzymanych dla grup, społeczeństw czy narodów. ¦ Błąd indywidualizmu. Wyprowadzanie wniosków o grupach, społeczeństwach czy narodach bezpośrednio z danych dotyczących zachowań jednostek. Błqd indywidualizmu Przeciwieństwem błędu ekologizmu jest błąd indywidualizmu. Błąd indywidualizmu powstaje wtedy, gdy wnioski dotyczące grup, społeczeństw czy narodów są bezpośrednio wyprowadzane z danych otrzymanych dla jednostek. Jeżeli na przykład badacz obliczył odsetek osób, które zgadzają się z określonym twierdzeniem dotyczącym demokracji, a następnie uznał te dane za wskaźnik akceptacji demokracji jako systemu politycznego, to popełnił błąd indywidualizmu. System polityczny danego państwa może np. być oparty na reżimie autorytarnym nawet wtedy, gdy większość jego mieszkańców ceni sobie wartości demokratyczne. Co więcej, pojęcie demokracji nie oznacza tego samego na obu poziomach analizy. Dla jednostek oznacza ono wartości, postawy i zachowanie; w wypadku systemu politycznego pojęcie to odnosi się do struktur politycznych, instytucji i metod podejmowania decyzji. Nie możemy wyjaśnić ani przewidzieć struktury czy zachowania systemu politycznego jedynie na podstawie wiedzy o jego indywidualnych członkach. ¦ Zmienne Problemy badawcze są zawsze formułowane dzięki wykorzystaniu określonych pojęć. Jak pokazaliśmy to w rozdziale 2, pojęcia są abstrakcjami odzwierciedlającymi zjawiska empiryczne. Aby przejść z poziomu pojęciowego na poziom empiryczny, pojęcia muszą zostać przekształcone w zmienne. To właśnie w postaci zmiennych pojęcia są uwzględniane w hipotezach badawczych. Pojęcia są przekształcane w zmienne poprzez ich zamianę lub przekształcenie w zbiór wartości. Kiedy np. badacz przypisuje liczby (jeden ze zbiorów wartości) obiektom, przekształca te obiekty w zbiór liczb. Zmienna to właściwość empiryczna mająca dwie lub więcej wartości. Innymi słowy, jeżeli badana przez nas właściwość może przybierać różne wartości, to możemy ją potraktować jako zmienną. „Klasa społeczna" na przykład jest zmienną, gdyż można jej przypisać przynajmniej pięć różnych wartości: niższa, niższa średnia, średnia, średnia wyższa, wyższa. „Oczekiwania" to też zmienna, gdyż można im przypisać co najmniej dwie wartości: wysokie i niskie. Zmienna, która ma tylko dwie wartości, nazywana jest zmienną dychotomie z n ą. Innym ważnym rozróżnieniem — z punktu widzenia badaczy — jest podział zmiennych na zmienne zależne i niezależne, zmienne kontrolne oraz na zmienne ciągłe i dyskretne. 70 Zmienne zależne i zmienne niezależne Zmienną, która badacz chce wyjaśnić, nazywamy zmienną zależną. Natomiast zmienną, za pomocą której badacz chciałby wyjaśnić zmiany wartości zmiennej zależnej, nazywamy zmienną niezależną. Zmienna niezależna nazywana jest również zmienną wyjaśniającą; jest ona zakładaną przyczyną zmian wartości zmiennej zależnej. Zmienna niezależna jest zatem traktowana jako powiązana ze zmienną zależną lub jako przyczyna zmian jej wartości. (Zmienne zależne są również nazywane zmiennymi kryterialnymi, a zmienne niezależne — zmiennymi predykcyj ny mi). W matematyce zmienna zależna to zmienna, która jest umieszczona po lewej stronie równania. Jeżeli na przykład zapiszemy Y = f(X), to Y potraktujemy jako zmienną zależną, a X jako zmienną niezależną. W tym wypadku powiemy, że Fjest funkcj ą X (co zaznaczyliśmy, wprowadzając literę/). Powiemy, że zmiany wartości X są powiązane ze zmianami wartości Y lub że X wpływa na Y. Badacz może na przykład starać się wyjaśnić, dlaczego niektórzy ludzie częściej biorą udział w życiu politycznym w porównaniu z innymi. Odwołując się do teorii podziału klas społecznych, badacz może przyjąć, że im wyższa klasa społeczna, do której należy jednostka, tym aktywniej będzie ona uczestniczyć w życiu politycznym. W tym wypadku badacz hipotetycznie zakłada, że udział w życiu politycznym (zmienna zależna) zależy od klasy społecznej. O klasie społecznej (zmiennej niezależnej) zakłada natomiast, że jest ona źródłem zróżnicowania udziału w życiu społecznym. Należy podkreślić, że rozróżnienie na zmienne zależne i zmienne niezależne ma charakter analityczny i odnosi się jedynie do celu badania. W świecie rzeczywistym zmienne nie są ani zależne, ani niezależne: to badacz decyduje, jak je interpretować, a decyzja ta wynika z celu badania. Zmienna niezależna w jednym badaniu może się stać zmienną zależną w innym. Ten sam badacz, biorąc udział w różnych projektach badawczych, może klasyfikować tę samą zmienną w różny sposób. Chcąc wyjaśnić zróżnicowanie udziału w życiu politycznym, potraktuje udział w życiu politycznym jako zmienną zależną. Jedną ze zmiennych wyjaśniających udział w życiu politycznym jest klasa społeczna, która z kolei jest traktowana jako zmienna niezależna. Jeżeli jednak chcemy wyjaśnić zróżnicowanie takiej zmiennej jak klasa społeczna (np.: Dlaczego niektórzy ludzie należą do klasy niższej, a inni do klasy średniej?), to klasa społeczna będzie w tym momencie traktowana jako zmienna zależna. Jedną ze zmiennych, które mogą wyjaśnić zróżnicowanie klas społecznych, jest udział w życiu politycznym, które tym razem jest traktowane jako zmienna niezależna. Większość zjawisk, którymi zajmują się badacze w naukach społecznych, wymaga określenia, które zmienne niezależne (najczęściej kilka) wpływają na jedną lub więcej zmiennych zależnych. Dzieje się tak dlatego, gdyż zjawiska społeczne są bardzo złożone. Jedna zmienna niezależna wyjaśnia zazwyczaj tylko pewną cześć zróżnicowania zmiennej zależnej, co powoduje konieczność wprowadzenia dodatkowych zmiennych niezależnych wyjaśniających pozostałą część zróżnicowania. I tak, jeżeli przedmiotem badania jest udział w życiu politycznym (zmienna zależna), to przynależność do klasy społecznej wyjaśnia, dlaczego niektórzy ludzie częściej w nim uczestniczą niż inni. Wyjaśnienie to jest jednak niepełne, gdyż zróżni- 71 cowanie udziału w życiu politycznym można także przypisać innym czynnikom. Te dodatkowe czynniki (zmienne niezależne) to między innymi wiek, płeć, wykształcenie czy znaczenie przypisywane działalności politycznej (zakres, w jakim dana osoba jest przekonana, że jej działalność będzie miała wpływ na wyniki działań politycznych). Zmienne kontrolne Naukowcy posługują się w badaniach empirycznych zmiennymi kontrolnymi po to, aby zmniejszyć ryzyko przypisywania mocy wyjaśniającej tym zmiennym, które w rzeczywistości nie odpowiadają za zróżnicowanie zmiennej zależnej. Zmienne kontrolne są wykorzystywane do sprawdzania, czy obserwowany empirycznie związek pomiędzy zmienną zależną i niezależną nie jest związkiem pozornym. Związek pozorny to taki związek, który można wyjaśnić za pomocą zmiennych innych niż uwzględnione w hipotezie badawczej. Innymi słowy, jeżeli wpływ innych zmiennych zostanie wyeliminowany (lub będzie kontrolowany), a związek pomiędzy zmienną zależną i zmienną niezależną będzie nadal obserwowany, to związek ten nie jest związkiem pozornym. Posługując się zmiennymi kontrolnymi, badacz może się upewnić, że pomiędzy zmiennymi istnieje rzeczywiste, przyczynowe powiązanie, takie jak to zostało określone w hipotezie, i że obserwowany związek nie wynika z innego, nie zakładanego związku z innymi zjawiskami. Załóżmy na przykład, że zaobserwowaliśmy, iż liczba wozów straży pożarnej obecnych przy pożarze jest powiązana z wysokością strat spowodowanych przez ten pożar. Hipoteza nasza może zostać sformułowana następująco: im więcej wozów straży pożarnej przyjeżdża do pożaru, tym większe są straty poniesione w tym pożarze. W istocie wozy strażackie nie są traktowane jako przyczyna strat. Zatem wielkość strat (zmienna zależna) nie powinna być wyjaśniana liczbą wozów straży pożarnej obecnych przy gaszeniu pożaru (zmienna niezależna), ale za pomocą innej zmiennej, na przykład wielkości pożaru. Duże pożary wymagają udziału większej liczby wozów strażackich i mogą spowodować większe straty. Tym samym obserwowany pierwotnie związek pomiędzy liczbą wozów strażackich gaszących pożar i wielkością poniesionych w tym pożarze strat jest związkiem pozornym, gdyż można go wyjaśnić za pomocą trzeciej zmiennej (wielkości pożaru). W tym wypadku wielkość pożaru jest zmienną kontrolną pozwalającą sprawdzić trafność wyjściowo założonego związku. Bez określenia wpływu zmiennej kontrolnej obserwowany związek pomiędzy liczbą wozów strażackich gaszących pożar i wielkością strat poniesionych w tym pożarze byłby związkiem pozornym. Ten sposób rozumowania przedstawiono na rycinie 3.1. Innym przykładem ilustrującym wagę zmiennych kontrolnych jest obserwowany empirycznie związek pomiędzy udziałem w życiu poltycznym a wydatkami rządowymi. Czy wielkość wydatków rządowych (zmienna zależna) jest spowodowana wielkością udziału w życiu politycznym (zmienna niezależna)? Pozornie tak. Liczne badania wykazały jednak, że empiryczny związek pomiędzy udziałem w życiu politycznym a wydatkami rządowymi znika, kiedy wprowadzimy zmienną kontrolną taką, jak rozwój ekonomiczny1. Poziom rozwoju ekonomicznego wpływa zarówno na wielkość wydatków rządowych, jak i na udział w życiu politycznym. Bez 3 Więcej informacji o pierwszym badaniu na ten temat można znaleźć u Haywarda R. Alkera (1965), Mathematics and Politics, New York: Macmillan. 72 zmienna kontrolna wielkość pożaru obserwacja wyjściowa liczba wozów strażackich związek pozorny obserwacja wyjściowa wielkość strat spowodowanych pożarem Ryc. 3.1. Istota zmiennych kontrolnych wyjaśniającego wpływu poziomu rozwoju ekonomicznego obserwowany związek pomiędzy udziałem w życiu politycznym a wydatkami rządowymi mógłby się wydawać trafny. Zmienna kontrolna odgrywa więc istotną rolę w sprawdzaniu, czy obserwowany związek pomiędzy zmienną zależną i zmienną niezależną jest związkiem pozornym, czy też nie (więcej informacji na temat związków pozornych czytelnik znajdzie w rozdziale 5). Zmienne ciqgłe i zmienne dyskretne Inną, ważną cechą zmiennych jest to, czy mają one charakter ciągły, czy też dyskretny. Cecha ta, jak się przekonamy w późniejszych rozdziałach, ma znaczenie dla operacji badawczych, zwłaszcza dla procedur pomiarowych, metod analizy danych oraz metod wnioskowania statystycznego i logicznego uogólniania wyników. Zmienna ciągła nie ma a priori określonej swojej najmniejszej jednostki. Długość to przykład zmiennej ciągłej, gdyż nie istnieje naturalna, minimalna jednostka długości. Długość konkretnego przedmiotu możemy określić jako przynajmniej 10 cm, 10,5 cm czy np. 10,5431697 cm. Generalnie rzecz biorąc, możemy mówić o jednej dziesiątej centymetra, jednej tysięcznej centymetra czy jednej milionowej centymetra. I chociaż nie możemy zmierzyć wszystkich możliwych długości z absolutną dokładnością (niektóre z wartości będą zbyt małe, aby instrument pomiarowy mógł je zarejestrować), długość każdego przedmiotu może być konceptualnie wyrażona za pomocą nieskończonej liczby miar. W przeciwieństwie do zmiennych ciągłych zmienne dyskretne mają swoją minimalną jednostkę. Ilość pieniędzy na rachunku bankowym to przykład zmiennej dyskretnej, gdyż pieniądze mają określoną minimalną jednostkę monetarną. I tak możemy posiadać w banku 101,21$, 101,22$, ale już nie 101,21843$. Różne ilości pieniędzy nie mogą się różnić między sobą o mniej, niż wynosi minimalna jednostka monetarna, tu: jeden cent. Liczba dzieci w rodzinie to inny przykład zmiennej ciągłej. Rodzina może mieć troje lub czworo dzieci, ale już nie 3,5 dziecka. Jeżeli jakaś ilość zmiennej nie może zostać dalej podzielona, to mamy do czynienia ze zmienną dyskretną. Jeżeli czytamy w prasie, że przeciętna amerykańska rodzina ma 2,2 dziecka lub 1,8 samochodu, to nie oznacza to oczywiście, że dyskretne jednostki analizy liczby dzieci czy samochodów można dalej dzielić w rzeczywistym życiu. Liczby 2,2 i 1,8 to wielkości statystyczne — produkty opracowania matematycznego (por. także rozdział 7 i 14). 73 Rodzaje zmiennych ¦ Zmienna zależna. Zmienna, którą badacz stara się wyjaśnić. ¦ Zmienna niezależna. Zmienna, która powoduje zmiany wartości zmiennej zależnej. ¦ Zmienna kontrolna. Zmienna używana przez badaczy do sprawdzania możliwości, że związek pomiędzy zmienną zależną i zmienną niezależną jest związkiem pozornym — innymi słowy, może zostać wyjaśniony jedynie przy obecności innej zmiennej. ¦ Zmienna ciągła. Zmienna, która nie ma określonej swojej minimalnej jednostki, np. długość. ¦ Zmienna dyskretna. Zmienna, która ma swoją minimalną jednostkę, np. liczba dzieci w rodzinie. ¦ Zwiqzki W poprzednich rozdziałach mogliśmy się przekonać, że wyjaśnianie i przewidywanie naukowe polega na określeniu relacji pomiędzy wyjaśnianym zjawiskiem (zmienna zależna) a innymi zjawiskami (zmienne niezależne, wyjaśniające) za pomocą ogólnych praw czy teorii. Co to jednak jest związek? Związek w badaniach naukowych to zawsze związek pomiędzy dwoma zjawiskami. Jeżeli powiemy, że zmienna Xi Ysą ze sobą powiązane, to mamy na myśli, Tabela 3.1. Związek pomiędzy wykształceniem a dochodami Obserwacje Liczba lat Dochody nauki [$] Dan 16 35 000 Ann 15 30 000 Marie 14 27 000 Jacob 13 19 000 Phillip 12 15 000 Suzanne 11 12 000 że istnieje coś wspólnego dla tych obu zmiennych. Jeżeli powiemy, że wykształcenie i dochody są ze sobą powiązane, to zakładamy, że jednocześnie się zmieniają, są współzmienne czy że zmiana wartości jednej zmiennej powoduje zmianę wartości drugiej zmiennej. Współzmienność (inaczej kowariancja) jest właśnie tym, co wiąże wykształcenie i dochody: osoby o wyższym wykształceniu mają wyższe dochody. Przyjmując w badaniach empirycznych, że istnieje związek pomiędzy dwiema czy więcej zmiennymi, zakładamy tym samym, że wartości jednej zmiennej będą się zmieniać wraz ze zmianami wartości innych zmiennych. Prowadząc badania, badacze zestawiają ze sobą wartości analizowanych zmiennych. W tabeli 3.1 pokazaliśmy przykład dwóch zbiorów wyników otrzymanych dla sześciu osób: wykształcenia (operacyjnie definiowanego jako lata nauki) oraz dochodów. Analizując te dane (zostały one uporządkowane), widać wyraźnie, że są one 74 współzmienne — wyższe wykształcenie występuje z wyższymi dochodami, a niższe wykształcenie z dochodami niższymi. Rodzaje zwiqzków Powiemy, że dwie zmienne są ze sobą powiązane, jeżeli zmiany wartości jednej zmiennej powodują systematyczne zmiany wartości drugiej. W ostatnim przykładzie zmiana liczby lat nauki prowadziła do zmiany wysokości dochodów. Prowadząc badania empiryczne, naukowcy szczególnie interesują się dwiema właściwościami takich związków: ich kierunkiem i siłą. Kierunek. Gdy mówimy o kierunku związku, mamy na myśli to, czy jest on dodatni (pozytywny) czy ujemny (negatywny). Związek dodatni oznacza, że wraz ze wrostem wartości jednej zmiennej rosną także wartości drugiej. Na przykład związek pomiędzy wykształceniem a dochodami jest dodatni, ponieważ wzrost liczby lat nauki prowadzi do większych dochodów. Między zainteresowaniem polityką a udziałem w życiu politycznym również istnieje związek dodatni, jako że im bardziej interesujemy się polityką, tym aktywniej uczestniczymy w życiu politycznym. Również dodatni związek pomiędzy wspomnianym wcześniej rozwojem ekonomicznym i wydatkami rządowymi stwierdzono w badaniach empirycznych. Związek ujemny (negatywny) oznacza natomiast, że wraz ze wzrostem wartości jednej zmiennej wartości drugiej maleją. Wysokie wartości jednej zmiennej są powiązane z niskimi wartościami drugiej. Na przykład stopień zainteresowania zastawami hipotetycznymi jest ujemnie powiązany z kredytami na zakup nowego domu: im wyższe zainteresowanie zastawami hipotetycznymi, tym mniej udziela się kredytów. Związek ujemny istnieje również pomiędzy wykształceniem i uprzedzeniami rasowymi: im bardziej ludzie są wykształceni, tym mniej są uprzedzeni rasowo. Również pomiędzy stopniem zbiurokratyzowania i udziałem w życiu politycznym istnieje związek ujemny: im bardziej zbiurokratyzowany staje się system polityczny, tym mniejszy jest udział ludzi w życiu politycznym. Związek pomiędzy zmienną niezależną i zmienną zależną można zilustrować na wykresie współrzędnych (por. ryc. 3.2). Tak jak w matematyce oś pozioma reprezentuje zmienną X, a oś pionowa zmienną Y. Na osi X zaznaczamy wartości X (zmiennej niezależnej), a na osi Y — wartości Y (zmiennej zależnej). Najpowszechniejszym sposobem zilustrowania związku pomiędzy zmiennymi jest naniesienie par wartości XY, uwzględniając odpowiednio osie X i Y. Załóżmy, że w badaniu osiągnięć akademickich zebraliśmy dwa zbiory pomiarów: liczbę godzin przeznaczanych przez studentów codziennie na naukę oraz liczbę bardzo dobrych ocen otrzymanych przez nich w ciągu danego semestru. Hipotetyczne dane dla dziewięciu studentów przedstawiliśmy w tabeli 3.2, a ich wykres na rycinie 3.2. Linia prosta na rycinie 3.2 jest wykresem związku pomiędzy liczbą godzin nauki dziennie (zmienna niezależna) a liczbą ocen bardzo dobrych (zmienna zależna). Jak widać, wysokie wartości na osi X są powiązane z wysokimi wartościami na osi Y, średnie wartości X ze średnimi wartościami Y, a niskie wartości X odpowiadają niskim wartościom Y. Przedstawiony w ten sposób związek pomiędzy wartościami X i Y nazywa się łącznym rozkładem wartości. Linia prosta przechodząca przez punkty reprezentujące pary wartości wskazuje na kierunek związku. Co więcej, badacz może wykorzystać informacje o własnościach prostej (jej nachyleniu 75 i przesunięciu) do przewidywania wartości zmiennej zależnej na podstawie wartości zmiennej niezależnej (metody obliczania współczynnika nachylenia i współczynnika przesunięcia prostej omawiamy w rozdziale 16). Innymi słowy, znając nachylenie prostej i miejsce, w którym przecina ona oś Y, możemy przewidywać, ile godzin dziennie trzeba się uczyć, aby otrzymać dobre stopnie. Tabela 3.2. Liczba godzin poświęconych dziennie na naukę a liczba otrzymanych ocen bardzo dobrych (dane hipotetyczne) Liczba godzin poświęconych Liczba otrzymanych dziennie na naukę (X) ocen bardzo dobrych (Y) 8 5 7 5 6 4 5 3 4 2 4 1 3 1 2 0 1 2 Siła. Związki pomiędzy zmiennymi można scharakteryzować nie tylko przez podanie ich kierunku, ale również przez podanie ich siły. Siła związku to zakres, w jakim zmienne współzmieniają się dodatnio lub ujemnie. Największą możliwą siłę związku nazywamy związkiem doskonałym (idealnym). Jeżeli związek pomiędzy dwiema zmiennymi jest związkiem doskonałym, to wartość jednej lub więcej zmiennych niezależnych dokładnie wyznacza wartość zmiennej zależnej. Takie prawo fizyczne jak prawo Einsteina E = mc2 to przykład niemal doskonałego związku, ponieważ odkryto tylko bardzo niewiele odchyleń od tego prawa. Hipotetyczny przykład przedstawiony w tabeli 3.1 to też przykład doskonałego związku: nie ma tu bowiem żadnego odstępstwa od reguły, że im większa liczba lat nauki, tym większe zarobki. Po stronie przeciwnej mamy najmniejszą siłę związku, tj. związek zerowy. W tym wypadku w ogóle nie ma współzmienności pomiędzy wartościami zmiennej zależnej i zmiennej niezależnej. Oznacza to, że zmienne te nie są ze sobą powiązane. Zmiany wartości jednej zmiennej nie wpływają na zmiany wartości drugiej zmiennej. Związki, którymi zajmują się zarówno nauki społeczne, jak i inne nauki, oscylują od zerowych do idealnych. Związek pomiędzy wykształceniem i dochodami okazał się dodatni, lecz nieidealny: u osób, które miały wyższe wykształcenie, obserwowano tendencję do osiągania wyższych dochodów, choć pojawiło się tu wiele wyjątków. Związek pomiędzy wykształceniem a uprzedzeniami rasowymi jest związkiem ujemnym i też nieidealnym — nie wszystkie osoby z wyższym wykształceniem nie są rasowo uprzedzone, jak też nie wszystkie osoby z niższym wykształceniem to osoby uprzedzone rasowo. (Miary siły związku takie, jak współczynniki korelacji, omawiamy dokładnie w rozdziale 16 i 17). Po poznaniu zmiennych i związków między zmiennymi, tj. podstawowych skła- 76 ¦i 10 i 123456789 10 liczba godzin poświęconych dziennie na naukę (X) Ryc. 3.2. Wykres danych z tabeli 3.2 dowych problemu badawczego, możemy teraz dokładniej przedstawić, w jaki sposób budujemy odpowiedź na pytania badawcze, a więc czym są hipotezy i jakie są ich cechy charakterystyczne. ¦ Hipotezy Hipoteza jest to proponowana przez nas odpowiedź, jakiej można udzielić na pytanie badawcze. Jest ona wyrażana w postaci jasno określonego związku pomiędzy zmienną zależną i zmienną niezależną. Hipotezy to proponowane odpowiedzi, ponieważ zostaną one zweryfikowane dopiero po przeprowadzeniu badań empirycznych. Budując hipotezę, badacz nie wie, czy zostanie ona potwierdzona czy nie. Najpierw hipotezy tworzymy, a potem je weryfikujemy. Jeżeli hipoteza zostanie odrzucona, to należy zbudować następną; jeżeli hipoteza zostanie przyjęta, to będzie ona włączona do wiedzy naukowej. Hipotezy można wyprowadzać dedukcyjnie — z teorii, indukcyjnie — na podstawie obserwacji, czy intuicyjnie, albo łącząc elementy tych sposobów. Źródła, z których korzystają badacze, tworząc swoje hipotezy, są mniej istotne w porównaniu z kryteriami, na podstawie których podejmują oni decyzje o ich odrzuceniu lub o braku podstaw do ich odrzucenia. Niektórzy bywają przekonani, że to spadające jabłko doprowadziło Isaaca Newtona (1642-1727) do sformułowania hipotezy o prawie grawitacji. W jednej ze scen filmu telewizyjnego And the Band Played On dr Don Francis z Centrum Kontroli Chorób zdał sobie sprawę z faktu, że wirus HIV uszkadza receptory komórkowe krwi wtedy, gdy zobaczył swojego kolegę dr. Harolda Jaffe'a grającego w grę PacMan4. Żaden z tych epizodów jednak, pomijając ich intelek- 4 John D. Piette (1994), Review Symposium "Playing It Safe", „Journal of Health Politics, Policy and Law"; 19(2), s. 453. 77 tualną atrakcyjność, nie przekonał naukowców o możliwości zaakceptowania hipotez, które z nich wynikały — akceptacja wymagała bowiem zebrania danych empirycznych. Hipotezy badawcze są do siebie podobne pod czterema względami: są jasno sformułowane, są konkretne (specyficzne), poddają się weryfikacji empirycznej za pomocą metod badawczych i nie są wartościujące. Szczegółowa analiza tych cech da czytelnikom wiedzę pozwalającą na konstruowanie własnych hipotez i na ocenę hipotez formułowanych przez innych. 1. Hipotezy muszą zostać jasno sformułowane. Aby hipoteza mogła zostać empirycznie sprawdzona, wszystkie zmienne w niej występujące muszą zostać zdefiniowane. Definicje pojęciowe i operacyjne, które omówiliśmy w rozdziale 2, są tu bardzo pomocne. W konstruowaniu hipotez i definiowaniu zmiennych niezwykle przydatna może się okazać literatura przedmiotu oraz opinie ekspertów. Załóżmy, że w naszej hipotezie przyjmujemy, iż związek pomiędzy alienacją (zmienna niezależna) i udziałem w życiu politycznym (zmienna zależna) jest związkiem ujemnym (odwrotnie proporcjonalnym). Analizując literaturę fachową, możemy się przekonać, jak inni badacze definiują te zmienne. Wśród definicji prawdopodobnie znajdziemy też takie, które będą odpowiadały naszej hipotezie badawczej. Jeżeli jednak się to nie uda, to definiując zmienne w sposób nam odpowiadający, zawsze możemy się odwołać do doświadczenia innych badaczy. W każdym wypadku definicje operacyjne muszą być konkretne i na tyle precyzyjne, aby możliwe było dokonywanie i powtarzanie obserwacji. 2. Hipotezy są konkretne. Zadanie badacza polega na określeniu oczekiwanego związku pomiędzy zmiennymi (z uwzględnieniem jego kierunku: dodatniego lub ujemnego) oraz warunków, w jakich ten związek zachodzi. Hipoteza stwierdzająca, że X jest powiązane z Y, jest zbyt ogólna. Związek pomiędzy X i Y może być albo dodatni, albo ujemny. Co więcej, związki te zmieniają się w czasie i przestrzeni i mogą mieć różną postać w zależności od jednostki analizy. Jak się przekonaliśmy wcześniej, obserwowany związek pomiędzy zmiennymi może ulec zmianie, kiedy zmienimy jednostkę analizy (błąd ekologizmu). I tak na przykład związek pomiędzy wykształceniem a udziałem w życiu politycznym może być analizowany na poziomie jednostek, grup czy okręgów wyborczych. Różne poziomy analizy wymagają różnych definicji pojęciowych i różnych definicji operacyjnych zmiennych, które zostały włączone w proces badawczy. Formułując hipotezę, należy również jasno określić warunki, w jakich dany związek będzie badany (obserwowany). Teoria zatem odgrywa niezwykle ważną rolę w procesie budowania owocnych — i dających się włączyć w proces badawczy — hipotez. 3. Hipotezy są sprawdzalne za pomocą dostępnych metod. Czasami zdarza się, że badacz sformułuje jasną, konkretną oraz nie wartościującą hipotezę, lecz nie znajdzie metod, za pomocą których będzie mógł ją sprawdzić (przetestować). W jaki sposób moglibyśmy na przykład sprawdzić hipotezę, że przedmiot A jest dłuższy o 3 cm od przedmiotu B, gdybyśmy nie posiadali linijki? W jaki sposób moglibyśmy sprawdzić hipotezę, że wirus C jest dodatnio powiązany z chorobą D, jeżeli nie dysponujemy instrumentami pozwalającymi zidentyfikować ten wirus? I wreszcie, w jaki sposób mog- 78 libyśmy zbadać związek pomiędzy wykształceniem a udziałem w życiu politycznym, gdybyśmy nie dysponowali metodami obserwacji tych zmiennych? W prostocie tych przykładów kryje się wyraźne wskazanie, że nie można sprawdzić hipotez badawczych, jeśli nie dysponuje się odpowiednimi metodami. Postęp nauki zależy w istocie od rozwoju nowych metod badawczych, metod obserwacji, metod zbierania danych oraz metod analizy danych, i to takich, które są dostępne wszystkim badaczom. Niektórzy badacze w naukach społecznych przywiązują niewielką wagę do metod w obawie, że mogą zostać przez nie ujarzmieni. Oczywiście, można zostać usidlonym przez metodę badawczą, jeżeli badacz stosuje ją dogmatycznie, bez zwracania uwagi na analizowany problem lub gdy metoda jest traktowana jako cel postępowania, a nie jako środek. W nauce można formułować nowatorskie hipotezy, dla których brak jest metod ich sprawdzania. Potwierdzenie trafności tych hipotez zależy jednak od dostępu do odpowiednich metod badawczych. 4. Hipotezy naukowe nie są wartościujące. Generalnie wartości wyznawane przez badacza, jego stronniczość czy subiektywne preferencje nie powinny w żadnym wypadku wpływać na proces badawczy. Biorąc jednak pod uwagę fakt, że badania w naukach społecznych są w pewnym stopniu także rodzajem działalności społecznej zależnej od otoczenia, badacze muszą zdawać sobie sprawę z własnej stronniczości i starać się explicite ją wyrazić. Gunnar Myrdal (1898-1987) w klasycznym dziś badaniu poświęconym problemom rasowym napisał: Próba wykorzenienia stronniczości poprzez usunięcie wszelkiego wartościowania jest beznadziejnym i źle ukierunkowanym przedsięwzięciem [...] Nie ma innego sposobu wykluczenia stronniczości z nauk społecznych jak stawienie czoła wartościowaniu i uwzględnienie go w postaci jasno określonego, swoistego i wystarczająco skonkretyzowanego założenia o wartościach5. Cechy charakterystyczne hipotez badawczych ¦ Hipotezy muszą być jasno sformułowane. Badacz musi zdefiniować pojęciowo i operacyjnie wszystkie zmienne. ¦ Hipotezy są konkretne. Badacz określa, jakie są oczekiwane związki pomiędzy zmiennymi w terminach kierunku (dodatni czy ujemny) i warunków, w jakich dany związek będzie zachodził. ¦ Hipotezy są sprawdzalne za pomocą dostępnych metod. Ocena hipotezy zależy od tego, czy istnieją odpowiednie metody pozwalające na jej przetestowanie. ¦ Hipotezy naukowe są pozbawione elementów wartościujących. Ponieważ badania w naukach społecznych dzieją się w społecznym otoczeniu, badacz musi być świadomy własnej stronniczości i starać się uczynić ją jawną. 5 Gunnar Myrdal (1944), The American Dilemma, New York: Harper, s. 1043. 79 ¦ Problemy i hipotezy: wybrane przykłady Problemy to ogólne pytania dotyczące związków pomiędzy zmiennymi. Hipotezy to proponowane odpowiedzi dające się sprawdzić empirycznie. Przedstawione niżej przykłady pozwolą nam na wyraźne rozróżnienie problemów i hipotez, a także będą ilustracją sposobu, w jaki hipotezy są konstruowane i formułowane. Pytania badawcze zostały wyprowadzone z ogólniejszego problemu: „Jak rządzić państwem demokratycznym?" ¦ Kto rządzi Ameryką? ¦ Jakie są przyczyny inflacji? ¦ Dlaczego biurokracja zagraża demokracji? ¦ Czy pozytywne programy działania osiągają swój cel? ¦ Czy integracja w szkole sprzyja zdobywaniu wykształcenia? ¦ Jakie czynniki wpływają na stopień urbanizacji? ¦ Jakie są przyczyny przemocy politycznej? W procesie badawczym wymaga się, aby naukowcy przekształcali tak sformułowane pytania ogólne na zbiór hipotez (proponowanych odpowiedzi) po to, aby możliwe stało się ich zbadanie. Ted Gurr zbudował zbiór hipotez (łącznie z przedstawionymi niżej), które były jego propozycją odpowiedzi na pytanie o przyczyny przemocy politycznej6: ¦ Prawdopodobieństwo przemocy grupowej zwiększa się wraz ze wzrostem i zakresem strat ponoszonych przez członków grupy. ¦ Prawdopodobieństwo przemocy politycznej zmienia się istotnie wraz z intensywnością i zakresem funkcjonowania sprawiedliwości normatywnej (tj. sprawiedliwości opartej na powszechnie uznawanych standardach moralnych). ¦ Prawdopodobieństwo przemocy politycznej zmienia się istotnie wraz z prawdopodobieństwem przemocy grupowej. ¦ Wielkość przemocy politycznej zmienia się istotnie wraz z prawdopodobieństwem przemocy grupowej. Inny przykład konstruowania hipotez pochodzi z pracy Gibbsa i Martina poświęconej czynnikom determinującym stopień urbanizacji7. Autorzy zaproponowali następujący zbiór hipotez: ¦ Stopień urbanizacji społeczeństwa zależy bezpośrednio od stopnia rozproszenia (tj. rozkładu na dużym obszarze fizycznym) przedmiotów konsumpcji. ¦ Stopień urbanizacji społeczeństwa zależy bezpośrednio od podziału rynku pracy. ¦ Podział rynku pracy w społeczeństwie zależy bezpośrednio od rozproszenia przedmiotów konsumpcji. 6 Ted R. Gurr (1970), Why Men Rebel, Princeton, N.J.: Princeton University Press, s. 360-367. 7 Jack P. Gibbs, Walter T. Martin (1976), Urbanization, Technology, and the Division of Labor: International Patterns, w: Paul Meadows, Ephraim H. Mizruchi (red.), Urbanism, Urbanization and Change, wyd. 2, Reading, Mass.: Addison-Wesley, s. 132-145. 80 ¦ Stopień urbanizacji społeczeństwa zależy bezpośrednio od rozwoju technologicznego. ¦ Rozwój technologiczny społeczeństwa zależy bezpośrednio od rozproszenia przedmiotów konsumpcji. Z kolei praca Geralda Hage'a, będąca próbą syntezy teorii i badań dotyczących złożonych organizacji, jest znakomitą ilustracją dedukcyjnego sposobu tworzenia hipotez8. Hagę przetworzył podstawowe pojęcia teorii biurokracji Maxa Webera na kategorię zmiennych. Na przykład pojęcie „hierarchia autorytetu" zostało przekształcone na zmienną zdefiniowaną jako „stopień centralizacji w ramach organizacji", a pojęcie „reguły i procedury" na zmienną zdefiniowaną jako „stopień formalizacji" (stopień, w jakim zachowania wynikające z wykonywanej pracy zostały skodyfikowane jako reguły i procedury). Hagę sformułował trzy następujące podstawowe hipotezy: ¦ Im większy stopień centralizacji w ramach organizacji, tym większa produkcja i vice versa. ¦ Im większy stopień centralizacji w ramach organizacji, tym większa skuteczność i vice versa. ¦ Im większy stopień centralizacji w ramach organizacji, tym większa formalizacja i vice versa. * ¦ Źródła informacji o badaniach i hipotezach naukowych Problemy badawcze i hipotezy można budować na wiele sposobów. Można korzystać z teorii, z bezpośrednich obserwacji czy z własnej intuicji, traktując każdy z tych sposobów niezależnie lub je łącząc. Najlepszym źródłem inspiracji w procesie formułowania problemów i hipotez jest jednak literatura fachowa. Krytyczny przegląd literatury fachowej pozwala badaczowi poznać aktualny stan wiedzy, podstawowe pojęcia, teorie, główne zmienne oraz definicje pojęciowe i operacyjne, problemy i hipotezy analizowane przez innych jak też stosowane przez nich metody badawcze. Wyprowadzanie nowych badań z wiedzy opisanej w literaturze fachowej sprawia, że przyczyniamy się do kumulowania wiedzy naukowej. Przeglądanie literatury fachowej przestało być łatwym zadaniem ze względu na obszerność dostępnego materiału. Jest to zadanie trudne zarówno dla naukowców, jak i studentów. Corocznie publikuje się tysiące artykułów i książek poświęconych naukom społecznym, stąd najlepiej rozpoczynać poszukiwania od jednego z przewodników po literaturze publikowanej. Przewodniki takie zawierające bibliografie, indeksy i streszczenia są w coraz większym stopniu skomputeryzowane. W dodatku B poświęconym pisaniu raportów przedstawimy nieco rad, w jaki sposób włączyć dawniej prowadzone badania w nasze własne hipotezy i wyniki badań. 8 Gerald Hagę (1980), Theories of Organizations: Forms, Process, and Transformation, New York: Wiley Interscience, s. 36-40. 81 Bibliografie, indeksy i streszczenia Poniżej przedstawiamy podstawowe publikacje zawierające wskazówki bibliograficzne oraz indeksy dotyczące prac opublikowanych w zakresie nauk społecznych. Biblioteki coraz częściej dysponują takim materiałem w postaci CD-ROM-ów (Compact Disk-Read Only Memory) lub w postaci dostępnych on linę baz danych, takich jak DIALOG. CD-ROM przypomina muzyczne płyty CD. Aby można było wykorzystać je komputerowo, należy wyposażyć sprzęt komputerowy w odpowiednie urządzenia hardwarowe i zakupić właściwe oprogramowanie. Jest to niezwykle użyteczny sposób gromadzenia ogromnej ilości informacji, do których bardzo łatwo można dotrzeć. Terminy „on linę", „CD-ROM" oraz „mikrofilm" oznaczają nie drukowane źródła informacji. ¦ Sheehy Eugene P., red., Guide to Reference Books, wyd. 10, Chicago: American Library Association, 1986. ¦ Balay Robert, red., Guide to Reference Books, suplement do wyd. 10, Chicago: American Library Association, 1992. ¦ Katalog rzeczowy dostępny w bibliotece. (W większości bibliotek uniwersyteckich katalogi zostały skomputeryzowane w postaci baz danych dostępnych on linę. Jeżeli stało się tak i na waszej uczelni, to możecie skorzystać z terminalu, aby szybko sprawdzić interesujące was informacje bibliograficzne oraz przekonać się, czy potrzebne wam materiały są dostępne w bibliotece). ¦ Przedstawiona poniżej lista zawiera informacje o źródłach, w których można znaleźć dane o poszukiwanej książce czy artykule. Wszystkie one są dostępne także w postaci drukowanej. Biography Index (również: on linę, CD-ROM) Book Review Index (również: mikrofilm, on linę) Cummulative Book Index (również on-line, CD-ROM Education Index (również on-line, CD-ROM) Index of Economic Articles in Journals and Collective Volumes (również on-line) International Bibliography of the Social Science (również: on linę) National Union Catalog (również mikrofilm) PAIS International (również: on linę, CD-ROM) Social Sciences Citation Index (SSCI) (również: on linę, CD-ROM) Social Science Index (również: on linę, CD-ROM) Niżej podane źródła zawierają abstrakty z krótkimi streszczeniami cytowanych prac: Current Contents: Social and Behavioral Sciences (CC:S&BS) (również: on linę) Dissertation Abstracts (również: mikrofilm, on linę, CD-ROM) Psychological Abstracts (również: on linę, CD-ROM) Resources in Education (RIE) (również: mikrofilm, on linę, CD-ROM) Sagę Public Administration Abstracts 82 Historical Abstracts (również: on linę, CD-ROM) International Political Science Abstracts (również: mikrofilm, on linę, CD-ROM) Journal of Economic Abstract (również: on linę, CD-ROM) Political Science Abstracts Sagę Urban Studies Abstracts (również: mikrofilm, on linę, CD-ROM) Social Work Abstracts (również: mikrofilm, on linę, CD-ROM) Sociological Abstracts (również: on linę, CD-ROM) Czasopisma fachowe Ogromna liczba istniejących na rynku nauk społecznych wysoce wyspecjalizowanych czasopism sprawia, że znalezienie poszukiwanego artykułu czy zagadnienia wymaga korzystania z abstraktów, indeksów czy innych źródeł bibliograficznych. Aby ułatwić pierwsze poszukiwania, zamieszczamy poniżeli listę podstawowych czasopism pogrupowanych według dyscyplin, których dotyczą. Przedstawione powyżej źródła pozwalają zidentyfikować artykuł publikowany w czasopiśmie na podstawie nazwiska jego autora, dyscypliny czy słowa kluczowego w tytule artykułu. Nauki polityczne „American Journal of Political Science" „American Political Science Reviewv „American Politics Quarterly" „British Journal of Political Science" „Canadian Journal of Political Science" „Canadian Journal of Political and Social Theory" „Comparative Political Studies" „Comparative Politics" „European Journal of Political Research" „International Studies Quarterly" „Journal of Policy Analysis and Management" „Journal of Political Philosophy" „Journal of Politics" „Policy Sciences" „Policy Studies Journal" „Policy Studies Review" „Political Science Quarterly" „Polity" „Public Interest" „Public Opinion Quarterly" „Public Opinion Quarterly" „World Politics" Socjologia „American Journal of Sociology" „American Sociological Review" „British Journal of Sociology" „Canadian Review of Sociology and Antropology" „Humań Relations" „International Journal of Comparative Sociology" „Journal of Mathematical Sociology" „Journal of Social Issues" „Social Forces" „Social Problems" „Social Psychology Quarterly" „Social Science Quarterly" „Sociological Quarterly" 83 Psychologia „American Behavioral Scientist" „Canadian Journal of Experimental Psychology" „Journal of Applied Behavioral Research" „Journal of Applied Psychology" „Journal of Applied Social Psychology" „Journal of Personality and Social Psychology" „Psychological Bulletin" „Psychological Review" Ekonomia i biznes „Academy of Management Journal" „Administration and Society" „Administrative Science Quarterly" „Advanced Management Journal" „American Economic Review" „American Review of Public Administration" „Canadian Journal of Administrative Sciences" „Decision Sciences" „Econometrica" „Economic Journal" „Evaluation Review" „Fortune Magazine" „Harvard Business Review" „Journal of Political Economy" „Management Science" „Public Administration Review" „Public Personel Management" „Quarterly Journal of Economics" „Rand Journal of Economics" „Review of Economics and Statistics" „Socio-economic Planning Sciences" Praca społeczna „Criminology" „Journal of Social Service Research' „Social Service Review" „Social Work" „Social Work Abstracts" „Social Work Research" Publikacje statystyczne* Poniżej przedstawiamy listę użytecznych publikacji statystycznych oraz innych publikacji rządowych. ¦ U.S. Bureau of the Census. Historical Statistics of the United States, Washington, D.C.: U.S. Government Printing Office. Publikowany nieregularnie. Przedstawia dane pogrupowane w 26 rozdziałów: ludność; ruch naturalny ludności, zdrowie i opieka medyczna; migracja; praca; ceny; dochód narodowy; konsumpcja; statystyka społeczna; grunty, woda i klimat; rolnictwo, leśnictwo i rybołówstwo; minerały; budownictwo; fabryki; transport; komunikacja; energia; usługi; handel zagraniczny i inne transakcje międzynarodowe; przedsiębiorstwa prywatne; wielkość produkcji i rozwój technologiczny; banki i finanse; dane dotyczące kolonii. Zawiera indeks nazwisk i indeks rzeczowy. *W Polsce Instytut Studiów Społecznych Uniwersytetu Warszawskiego wydaje od roku 1992 Polski Generalny Sondaż Społeczny (PGSS). Ostatnie wydanie pochodzi z 1995 roku: Cichomski B., Morawski P. (1996), Polski Generalny Sondaż Społeczny, Warszawa: Instytut Studiów Społecznych UW (przyp. red. nauk.). 84 ¦ U.S. Bureau of the Census. Statistical Abstract of the United States. Washington, D.C.: U.S. Government Printing Office. Publikowany corocznie. Dane pogrupowane w 33 sekcjach: ludność; ruch naturalny ludności; zdrowie i żywienie; imigracja i naturalizacja; edukacja; władza wykonawcza; sądy i więzienia federalne; powierzchnia; geografia i klimat; grunty państwowe; parki, rekreacja i podróżowanie; praca; zatrudnienie i zarobki; obrona narodowa i weterani; ubezpieczenia społeczne i służby społeczne; dochody, wydatki i poziom życia; ceny; wybory; finanse federalne i zatrudnienie; finanse stanowe i lokalne oraz zatrudnienie, banki, finanse i ubezpieczenia; przedsiębiorstwa prywatne; łączność; energia; nauka; transport lądowy; transport powietrzny i wodny; rolnictwo — farmy, grunty i finanse; rolnictwo — produkcja, marketing i handel; lasy i produkcja leśna; rybołówstwo; kopalnie i wydobywanie minerałów; budownictwo; fabryki; usługi; handel i pomoc zagraniczna; pozostałe obszary pozostające pod jurysdykcją Stanów Zjednoczonych; porównawcze dane międzynarodowe. Sześć dodatków. Indeks nazwisk i indeks rzeczowy. (Również dostępny on linę). ¦ U.S. Bureau of the Census. Census of Popułation, Washington, D.C.: U.S. Government Printing Office. Publikowany co dziesięć lat. Zawiera następujące informacje dotyczące większości miast liczących 2500 mieszkańców i więcej: ludność według płci; podstawowe grupy zawodowe według płci; rasa według płci; wiek ludności według płci; liczba ukończonych lat nauki; stan cywilny kobiet i mężczyzn, czternastolatków i starszych; miejsce urodzenia białej ludności urodzonej za granicą. ¦ Murray Toni, red., The Federal Data Base Finder, wyd. 4, Kensington, Md.: Information USA, 1995. ¦ U.S. Superintendent of Documents. Monthly Catalog of United States Govern-ment Publications. Washington, D.C.: U.S. Government Printing Office. Publikowany co miesiąc. (Dostępny w postaci drukowanej, mikrofilmu, on linę, CD-ROM-u). ¦ Taylor Charles L., David Jodice, World Handbook ofPolitical and Social In-dicators, wyd. 3, New Haven, Conn.: Yale University Press, 1983, 2 tomy. Zestawienie 75 zmiennych dotyczących 133 państw i dotyczących zarządzania zasobami ludzkimi, rządu i polityki, łączności, poziomu życia, zdrowia, edukacji, rodziny i więzi społecznych, rozdziału dóbr i przychodów oraz religii. ¦ U.S. Bureau of the Census. County and City Data Books, Washington, D.C.: U.S. Government Printing Office. Publikowany nieregularnie. Zawiera wiele danych tabelarycznych dotyczących jednostek administracyjnych i miast liczących powyżej 25 000 mieszkańców takich, jak: rynek pracy, przychody, wybory, banki i finanse, przedsiębiorstwa prywatne i edukacja. (Dostępny w postaci drukowanej, mikrofilmu, on linę, CD-ROM). ¦ Municipal Year Book, Washington D.C.: International City-County Management Association. Publikowany corocznie. Zbiór danych dotyczących władzy municypalnej. Zawiera informacje o roli władz miejskich (w tym dane o edukacji, mieszkaniach, opiece i zdrowiu) oraz umożliwia dokonywanie porównań danych dotyczących uwzględnionych miast w zakresie bardzo wielu zmiennych. ¦ American Statistics Index, Bethesda, Md.: Congressional Information Servi-ce. Publikowany co miesiąc. Spis publikacji statystycznych pochodzących z ponad 400 agend rządu USA. (Również dostępny on linę i na CD-ROM-ie). [Tytuł CD-ROM-u: Statistical Masterfde]. 85 ¦ Index to International Statistics, Bethesda, Md.: Congressional Information Service. Publikowany co miesiąc. Jest to spis organizacji międzynarodowych i międzyrządowych. (Również dostępny on linę i na CD-ROM-ie). [Tytuł CD-ROM-u: Statistkal Masterfile]. Monografie Na rynku dostępnych jest kilkanaście monografii szczegółowo opisujących problemy badawcze, hipotezy oraz dane i przeznaczonych dla badaczy w dziedzinie nauk społecznych. Między innymi są to następujące wydawnictwa: ¦ Bart Pauline, Linda Frankel, The Student Sociologist Handbook, wyd. 4, New York: McGraw-Hill, 1986. ¦ Holler Frederick L., Information Sources of Political Science, wyd. 4, Santa Barbara, Calif.: ABC-Clio, 1986. ¦ Miller Delbert C, Handbook of Research Design and Social Measurement, wyd. 5, Newbury Park, Calif.: Sagę Publications, 1991. ¦ Murphy Thomas P., red., Urban Indicators: A Guide to Information Sources, Detroit: Gale Research, 1980. ¦ Wasserman Paul, Jacąueline OBrien, Statistical Sources, wyd. 18, Detroit: Gale Research, 1994. ¦ Podsumowanie 1. Problemy badawcze to bodźce intelektualne wymagające reakcji w postaci badań naukowych. Problemy, które można zbadać, są empirycznie dostępne, jasne i konkretne. Formułując problem, naukowcy poświęcają wiele uwagi jednostkom analizy. Wyprowadzanie wniosków dotyczących jednostki analizy innej niż ta, której dotyczyło badanie, może prowadzić do dwóch błędów: błędu ekologizmu i błędu indywidualizmu. 2. Przekształcając pojęcia w zmienne poprzez przełożenie ich na zbiór wartości, badacze przechodzą z poziomu pojęciowego na poziom obserwacyjny. Zmienna jest to właściwość empiryczna, która ma dwie lub więcej wartości. Rozróżniamy — z punktu widzenia istoty badania — zmienne niezależne, zależne oraz zmienne kontrolne. Zmienna niezależna to zakładana przyczyna zmiennej zależnej, a zmienna zależna to zakładany wynik oddziaływania zmiennej niezależnej. Zmienne kontrolne są wykorzystywane po to, aby sprawdzić, czy obserwowany związek pomiędzy zmienną niezależną i zmienną zależną nie jest związkiem pozornym. Zmienne mogą być również ciągłe i dyskretne. Zmienna dyskretna ma określoną swoją najmniejszą jednostkę; zmienna ciągła zaś takiej jednostki nie ma. 3. Pojęcie związku w badaniach empirycznych oznacza zawsze związek pomiędzy dwiema lub więcej zmiennymi. Gdy mówimy, że dwie zmienne są ze sobą powiązane, oznacza to, że mają one ze sobą coś wspólnego. Badacze ustalają istnienie związku, badając, czy zmiana wartości jednej zmiennej powoduje zmianę wartości drugiej zmiennej. Dwie własności związku wymagają szczególnej uwagi: kierunek i siła. Mówiąc o kierunku, mamy na myśli to, czy związek jest dodatni czy ujemny. Siła związku zaś to stopień, w jakim zmienne współzmieniają się wprost lub odwrotnie proporcjonalnie. 4. Hipotezy to proponowane odpowiedzi udzielane na pytania badawcze. Tworzy sieje, określając związek pomiędzy zmiennymi zależnymi i niezależnymi. Hi- 86 potezy badawcze muszą być jasne, konkretne, nie wartościujące oraz poddające się badaniom empirycznym za pomocą dostępnych metod badawczych. 5. Problemy i hipotezy badawcze mogą zostać wyprowadzone dedukcyjnie z teorii, bezpośrednio z obserwacji, intuicyjnie lub na podstawie różnych kombinacji tych sposobów. Najbogatszym źródłem inspiracji w procesie tworzenia problemów i hipotez jest literatura fachowa. Osoby prowadzące badania w naukach społecznych powinny szukać informacji o podstawowych przewodnikach po publikowanych badaniach, włączając w to odsyłacze, bibliografie, indeksy, streszczenia, czasopisma i publikacje statystyczne. Większość bibliotek uniwersyteckich oferuje bazy danych (skomputeryzowane) dostępne on linę. ¦ Podstawowe terminy zmienna dyskretna 73 zmienna kontrolna 72 zmienna niezależna 71 zmienna zależna 71 związek 74 związek dodatni 75 związek pozorny 72 związek ujemny 75 ¦ Pytania sprawdzajqce 1. Zaproponuj dwa empiryczne problemy badawcze właściwe dla nauk społecznych. 2. Co to jest błąd ekologizmu? Co to jest błąd indywidualizmu? W jaki sposób badacz może uniknąć tych dwóch rodzajów błędów? 3. Napisz trzy dające się sprawdzić hipotezy badawcze oraz określ, co jest w nich zmienną zależną, zmienną niezależną i zmienną kontrolną. 4. Posługując się tymi sami hipotezami, określ, jakie są oczekiwane zmiany (biorąc pod uwagę ich siłę i kierunek) zmiennej zależnej i zmiennej niezależnej. 5. W jakich źródłach szukałbyś podstawowych informacji o problemach badawczych sformułowanych w pytaniu 1? ¦ Literatura dodatkowa Ajdukiewicz K. (1965), Logika pragmatyczna. Warszawa: PWN. Brzeziński J. (1997), Metodologia badań psychologicznych, wyd. 2, Warszawa: Wyd. Nauk. PWN. Giedymin J. (1964), Problemy, założenia, rozstrzygnięcia, Poznań: PTE. Nowak S. (red.)(1965), Metody badań socjologicznych. Wybór tekstów, Warszawa: PWN. błąd ekologizmu 69 błąd indywidualizmu 70 hipoteza 77 jednostka analizy 68 problem badawczy 67 siła związku 76 współzmienność 74 zmienna 70 zmienna ciągła 73 Rozdział 4 Problemy etyczne badań w naukach społecznych Dlaczego etyka w badaniach naukowych? 90 Badanie posłuszeństwa wobec autorytetu 90 Badanie zachowania policji 92 Badanie postaw studentów college'u 93 Wyrównywanie kosztów i zysków 93 Wyrażanie zgody na podstawie posiadanych informacji 95 Dlaczego wyrażanie zgody jest niezbędne 95 Co znaczy prawo do wyrażania zgody 96 Odpowiedzialność badacza 99 Prywatność 99 Wymiary prywatności 100 Anonimowość i poufność 102 Anonimowość 102 Poufność 103 Zawodowy kodeks postępowania etycznego 104 Podsumowanie 109 Podstawowe terminy 109 Pytania sprawdzające 110 Literatura dodatkowa 110 Przypuśćmy, że chcielibyśmy zapobiegać występowaniu lub wpływać na obniżenie częstości występowania raka skóry w populacji. Od czego powinniśmy zacząć? Zobaczmy, co w tej sprawie zdziałały władze szkolne w Tel Awiwie. Świadome potencjalnych skutków działania klimatu śródziemnomorskiego charakterystycznego dla Izraela, a także skutków stylu życia, w którym kocha się opalanie na słońcu, władze szkolne zdecydowały sprawdzić, czy uruchomienie specjalnego programu uświadamiającego groźbę zachorowania na raka skóry może wpłynąć na zmianę zachowania ludzi. Specjalny test sprawdzający działanie takiego programu został przeprowadzony w roku 1991. Program obejmował udzielanie informacji, o jakich porach najlepiej przebywać na słońcu, jak należy ubierać się podczas zabaw na słońcu, jak się chronić przed słońcem itp. Badacze wytypowali osiem szkół średnich. Po sprawdzeniu, co dzieci wiedzą i jaki jest ich stan fizyczny, dzieci z czterech szkół zostały objęte programem, podczas gdy dzieci z pozostałych czterech szkół nie brały udziału w programie. Rok później, w roku 1992, wszystkie dzieci zostały ponownie zbadane. Sprawdzano ich wiedzę i zachowania po to, aby upewnić się co do efektów programu. Otrzymane rezultaty zostały następnie wykorzystane do stworzenia programu obowiązującego we wszystkich szkołach. Pomijając podstawy naukowe i cel, którym była promocja zdrowia, taka procedura postępowania musi budzić wiele wątpliwości. Czy jest etyczne zatrzymywanie, nawet na krótko, ważnych informacji przed niektórymi uczestnikami badań? W jaki sposób badacze w naukach społecznych radzą sobie z takimi problemami, bez ryzyka niezrealizowania celu własnych badań?1 W tym rozdziale omówimy zagadnienia etyczne związane z prowadzeniem badań w naukach społecznych. Omówimy też sposoby ochrony praw i dóbr osobistych jednostek i społeczności, które są przedmiotem prowadzonych badań naukowych. Zaczniemy od przeglądu powodów, dla których zagadnienia etyczne stały się obecnie tak ważne. Następnie przedstawimy trzy przykłady badań dotyczących posłuszeństwa wobec autorytetu, zachowań policji oraz postaw studentów college^ jako ilustrację badań wywołujących podstawowe pytania natury etycznej. Dalej omówimy dylemat etyczny badacza, tj. konflikt pomiędzy prawem badacza do prowadzenia badań i prawem osób badanych do samookreślenia, zachowania prywatności i godności. Zaproponujemy również kryteria podejmowania decyzji etycznych w określonych sytuacjach. Omówimy też takie ważne zagadnienia etyczne, jak prawo do informacji oraz prawo do prywatności. Na koniec przedyskutujemy ogólne zawodowe zasady etyczne i przedstawimy kodeks etyczny dla nauk społecznych. W rozdziale 1 mówiliśmy, że nauki społeczne to jednocześnie dyscypliny naukowe i humanistyczne oraz że naukowcy są w nich zarazem obserwatorami i ucze- 1 Michael Fadida, Menashe Hadad, Rafael Shafir (1994), Sun Exposure Among Junior High School Students in Tel Aviv-Jaffo: Knowledge, Attitudes and Behavior, „Research and Surveys" (No. 67), Tel Aviv-Jaffo: The Center of Economic and Social Research. 89 stnikami procesu badawczego. Podkreślaliśmy również, że badania w naukach społecznych nie są prowadzone w izolacji. Badacze cały czas pozostają w interakcji ze złożnym i wymagającym środowiskiem, które wpływa na ich decyzje badawcze zarówno formalnie, jak i nieformalnie. Jednym z istotnych sposobów radzenia sobie z tymi oddziaływaniami jest przestrzeganie zasad etycznych. ¦ Dlaczego etyka w badaniach naukowych? Wraz z poszerzającym się zakresem nauk społecznych oraz tworzeniem lepszych i bardziej inwazyjnych metod badawczych zainteresowanie sprawami etyki w naukach społecznych staje się coraz większe. Zagadnienia dotyczące praw i dóbr osobistych ludzi uczestniczących w badaniach oraz powinności badaczy stały się przedmiotem dyskusji we wszystkich dyscyplinach należących do nauk społecznych. Większość towarzystw naukowych dokonała też adaptacji ogólnych zasad etycznych do własnej konkretnej działalności. Oczywiście, prowadzenie badań mogących pogwałcić prawa i dobra osobiste uczestników badań nie jest ani zamierzone intencjonalnie, ani nie jest głównym celem badaczy. Istotą badań naukowych jest systematyczne przyczynianie się do budowania dającej się zweryfikować wiedzy naukowej. Proces badawczy, zgodnie z tym, co mówiliśmy wcześniej (por. ryc. 1.1), obejmuje wszystkie działania pozwalające naukowcom na tworzenie takiej wiedzy. Na każdym etapie procesu badawczego jednakże — oprócz rozważań o charakterze naukowym — mogą się pojawić rozważania natury etycznej. Problemy natury etycznej wynikają ze specyfiki problemów analizowanych w naukach społecznych oraz ze specyfiki metod wykorzystywanych do otrzymywania trafnych i rzetelnych danych. Źródłem problemów etycznych może być sam problem badawczy (np. inżynieria genetyczna, determinanty inteligencji czy ocena programu); otoczenie, w jakim odbywa się badanie (szpital, więzienie, szkoła czy agenda rządu); procedury wymagane w planie badawczym (zastosowanie takiej manipulacji w grupie eksperymentalnej, która może mieć negatywny wpływ na uczestników badań); metody zbierania danych (obserwacja uczestnicząca); osoby będące uczestnikami badań (biedni, dzieci, osoby chorujące na AIDS, politycy); rodzaj zebranych danych (dane osobiste czy procedury rekrutacyjne stosowane w instytucjach państwowych). Badanie posłuszeństwa wobec autorytetu Badanie przeprowadzone przez Milgrama to ważny i kontrowersyjny przykład wart szczegółowego opisania. Stanley Milgram przeprowadził kontrolowany eksperyment laboratoryjny po to, aby zbadać, w jakich warunkach osoby badane odmówią wypełnienia instrukcji udzielanej przez osobę obdarzoną autorytetem2*. * Polski czytelnik może się też zapoznać z przekładem pracy Milgrama omawiającej ten eksperyment: Milgram S. (1978), Badanie posłuszeństwa, w: K. Jankowski (red.), Przełom w psychologii. Warszawa: Czytelnik, s. 83-103 (przyp. red. nauk.). 2 Przedstawione tu omówienie oparte jest na pracy Stanleya Milgrama, Obedience to Authoritf (New York: Harper & Row, 1975). 90 Do laboratorium psychologicznego zgłaszały się dwie osoby, aby wziąć wspólnie udział w badaniu dotyczącym procesów uczenia się. Jedna z osób miała być „nauczycielem", druga zaś „uczniem". Jednakże właściwa osoba badana zawsze zostawała nauczycielem. Dowiadywała się ona, że celem badania jest sprawdzenie efektu, jaki wywiera kara na uczenie się. Uczeń, którego sadzano na specjalnym krześle z przypiętymi do nadgarstków elektrodami i przywiązywano za ramiona do fotela, aby nie mógł się poruszać, został wcześniej poinstruowany, jak ma się zachowywać. Osoba prowadząca eksperyment informowała ucznia, że jego zadanie polega na uczeniu się par słów. Uczeń dowiadywał się także, że jeżeli w trakcie uczenia się popełni błąd, to zostanie ukarany uderzeniem prądu. Nauczyciel obserwował to wszystko i następnie przechodził do pokoju eksperymentalnego. Tam jego z kolei informowano, w jaki sposób można korzystać z — robiącego duże wrażenie — generatora prądu elektrycznego. Generator ten miał na konsoli 30 przycisków, oznaczonych od 15 do 450 woltów. Przyciski były również opisane słownie od „łagodny wstrząs" do „niebezpieczeństwo porażenia". Od poziomu 28 (420 woltów) przyciski miały jedynie czerwone oznaczenia „XXX". Nauczyciela informowano, że będzie on „uczył" osobę, która znajduje się w drugim pokoju, czytając mu listę pogrupowanych w pary wyrazów takich jak: „ładny-dzień", „niebieskie-pudełko". Nauczyciel miał następnie czytać jedno ze stów (bodziec), któremu towarzyszyły cztery możliwe odpowiedzi. Uczeń miał wskazać, która z tych odpowiedzi jest prawidłowa, naciskając jeden z czterech przycisków. Jeżeli udzielona odpowiedź była prawidłowa, nauczyciel przechodził do następnego zadania. Jeżeli odpowiedź była nieprawidłowa, nauczyciel miał ukarać ucznia, stosując uderzenie prądem. Nauczyciela poinstruowano również, że po każdej kolejnej złej odpowiedzi ma on stosować coraz większe napięcia prądu. Jednakże — o czym nauczyciel nie wiedział — uczeń w rzeczywistości nie otrzymywał żadnych ud.erzeń prądem. Główną zmienną zależną w tym eksperymencie było posłuszeństwo, czyli skłonność nauczyciela do postępowania zgodnie ze wskazówkami badacza, a więc osoby uznawanej w tej sytuacji za autorytet. Badacz dodatkowo zachęcał nauczyciela do stosowania wysokich dawek prądu w stosunku do mylącego się ucznia. Te dodatkowe ponaglenia miały postać zdań: „Proszę dalej. Eksperyment wymaga, aby pan kontynuował. Biorę na siebie odpowiedzialność". Uczeń reagował zawsze standardowo, podobnie jak na sytuację eksperymentalną. Nie wykazywał oznak dyskomfortu, aż do momentu uderzenia prądem o napięciu 75 woltów, kiedy zaczynał cicho jęczeć. Jęczał także przy napięciu 90 i 105 woltów, a przy 120 woltach zaczynał wołać, że uderzenia są bardzo bolesne. Przy 135 woltach uczeń wydawał z siebie głośne jęki, a przy 150 krzyczał, że chce zostać uwolniony, i odmawiał dalszego udziału w eksperymencie. Reagował w ten sposób na kolejne uderzenia, aż przy 180 woltach zaczynał krzyczeć, że dłużej nie może już znieść takiego bólu. Przy 270 woltach zachowywał się tak, jak gdyby był w agonii, przy 300 odmawiał udzielania dalszych odpowiedzi, a po 330 w ogóle przestawał reagować. Wyniki tego eksperymentu stoją w sprzeczności z tym, co powszechnie uznaje się za moralne: większość badanych okazała się bowiem posłuszna i zachowywała się zgodnie z instrukcjami, choć, jak wiedzieli, było to bolesne i niebezpieczne dla uczniów. W jednym z eksperymentów 26 na 40 badanych kontynuowało stosowanie uderzeń prądem aż do maksimum, czyli 450 woltów, 5 osiągnęło poziom 300 91 woltów, po czym odmówiło współpracy, a 8 osiągnęło poziom między 315 a 360 woltów. Innym ważnym wynikiem uzyskanym w czasie tego eksperymentu był niezwykle wysoki poziom stresu spowodowanego przez sytuację eksperymentalną i przeżywanego przez nauczyciela w porównaniu z uczniem, który de facto nigdy naprawdę nie został uderzony prądem. Według Milgrama „badani [tj. nauczyciele w eksperymencie] pocili się, przygryzali wargi, jęczeli i wbijali sobie paznokcie w ciało. Były to reakcje raczej typowe niż wyjątkowe w tym doświadczeniu"3. Wiele oznak potwierdzało przeżywanie bardzo silnego stresu przez uczestników badania, zwłaszcza tych, którzy byli posłuszni. Stres był dostrzegalny zarówno dla samych nauczycieli, jak i eksperymentatorów. Świadomi, że zastosowana procedura badawcza może przynieść długofalowe negatywne skutki dla uczestników, autorzy badań przeprowadzili dwa spotkania terapeutyczne. Po pierwsze, wszyscy badani otrzymali pełne i prawdziwe wyjaśnienie celu i mechanizmu eksperymentu, a także spotkali się w miłej atmosferze ze swoim uczniem. Po drugie, rok po eksperymencie wszyscy zostali poddani badaniu psychiatrycznemu; nie opisano wtedy żadnych negatywnych skutków eksperymentu. Eksperyment Milgrama wywołał falę krytyki dotyczącej zastosowanej procedury, głównie z powodów etycznych. Po pierwsze, nauczyciele byli przekonani, że zadają ból innej osobie, co nie było prawdą. Zostali oni zatem oszukani na samym początku co do prawdziwego celu badań. Tym samym zostało złamane ich prawo do pełnej i prawdziwej informacji o eksperymencie. Po drugie, badani przeżywali ogromny stres; byli bardzo zmartwieni, zdenerwowani, a niektórzy zachowywali się w sposób nie kontrolowany. Po trzecie, uwagi krytyczne dotyczyły także tego, że gdy wyniki eksperymentu stały się znane, badani, zdając sobie sprawę z tego, co mogłoby się stać, gdyby naprawdę stosowali uderzenia prądem, mogli zostać przytłoczeni poczuciem winy. Po czwarte, eksperyment mógł zmienić zdolności badanych do zawierzania autorytetom w przyszłości. Innymi słowy, mógł podkopać zaufanie badanych do osób uznawanych za autorytet. I wreszcie, niektórzy wręcz stwierdzali, że ponieważ udział w eksperymencie nie przynosił żadnych korzyści badanym, nie powinien się w ogóle odbyć4. I chociaż Milgram odpowiedział na wszystkie uwagi krytyczne dotyczące etyki postępowania, wątpliwości, jakie ten eksperyment wywołał, są nadal ważne i istotne5. Badanie zachowania policji W roku 1960 w Stanach Zjednoczonych coraz częściej pojawiały się skargi na brutalność policji. Do tego czasu ani same skargi, ani zachowanie policji nigdy nie było przedmiotem systematycznych badań. Albert Reiss postanowił zatem poddać obserwacji zachowanie policji. Wiedział jednak, że jeżeli funkcjonariusze policji poznają prawdziwy cel badań, to będą unikać wszelkich brutalnych zachowań. Dla- 3 Stanley Milgram (1963), Behavioral Study of Obedience, .Journal of Abnormal and Social Psy-chology", 67, s. 375. 4 Więcej uwag krytycznych na temat tego eksperymentu zob. Diana Baumrind (1964), Some Thoughts on Ethics of Research: After Reading Milgram 's Behavioral Study of Obedience, „American Psychologist", 19, s. 421-423. 5 Odpowiedź Milgrama można znaleźć w jego pracy Obedience to Authority, s. 193-202. 92 tego też Reiss sprawił, że funkcjonariusze uwierzyli, iż badanie dotyczy przede wszystkim reakcji mieszkańców na działania policji. W czasie trwania badania Reiss zarejestrował po stronie policji dużą liczbę zachowań polegających na złym traktowaniu i stosowaniu brutalności wobec mieszkańców6. Badanie to można potraktować jako źródło trzech ważnych problemów etycznych. Po pierwsze, Reiss posłużył się oszustwem, aby uzyskać zgodę na dokonanie obserwacji, która w innym wypadku nie byłaby możliwa (poszczególni funkcjonariusze policji nie znali prawdziwego celu badań oraz nie wiedzieli, że to oni byli obserwowani i analizowani). Po drugie, funkcjonariusze policji nie wyrażali zgody na udział w badaniu. Nie wyrazili oni rzeczywistej zgody, ponieważ nie powiedziano im, że to oni są osobami badanymi. I po trzecie, badania tego typu mogą wywoływać brak zaufania wśród potencjalnych przyszłych osób badanych, np. funkcjonariuszy policji, a przyszli badacze mogą mieć trudności z uzyskiwaniem informacji czy zgody na współpracę ze strony osób badanych. Badanie postaw studentów college'u Badaniem, które przyczyniło się do zwiększenia świadomości istnienia problemów natury etycznej, było badanie przeprowadzone przez American Council of Educa-tion poświęcone postawom społecznym i politycznym studentów college'u7. Zaprojektowany w latach sześćdziesiątych, w okresie niepokojów w miasteczkach uniwersyteckich, eksperyment miał na celu zebranie informacji o postawach i zachowaniach studentów w trakcie i po zakończeniu studiów. Badanie miało charakter podłużny i polegało na powtarzaniu wywiadów z tymi samymi osobami. Kontrowersje wokół tych badań pojawiły się wtedy, gdy do kwestionariusza wywiadu zostały włączone pytania dotyczące orientacji i aktywności politycznej osób badanych. Szczególne wątpliwości dotyczyły możliwości ujawnienia zebranych danych i ich wykorzystania przez władze uczelni lub agendy rządowe do zidentyfikowania osób aktywnie działających. Podstawowym problemem etycznym była tu niedoskonała anonimowość i tajność danych. Problem ten jest ściśle związany z tym, jakie są prawa osób badanych i możliwości ochrony ich dóbr osobistych, co omówimy dalej. ¦ Wyrównywanie kosztów i zysków Przedstawione wyżej trzy badania są dobrą ilustracją tezy, że problemy natury etycznej mogą powstawać przed badaniem i po wykonaniu badań prowadzonych zarówno w ramach nauk społecznych, jak i w innych naukach. Badania, w których jednym z elementów postępowania jest oszukiwanie*, stają się coraz powszechniejsze, po- * W oryginale: deception, co też można oddać jako okłamywanie osób badanych czy utajnianie prawdziwego celu badania (przyp. red. nauk.). 6 Albert J. Reiss (1971), The Police and the Public, New Haven, Conn.: Yale University Press; Albert J. Reiss (1968), Police Brutality: Answers to Key Questions, „Transaction", 5, s. 10-19. 7 Por. Robert F. Boruch (1971), Education Research and the Confidentiality ofData: A Case Study, „Sociology of Education", 44, s. 59-85; J. Walsh (1969), A.C.E. Study on Campus Unrest: Questions for Bekavioral Scientists, „Science", 165, s. 1243-1245. 93 nieważ mają wiele zalet zarówno metodologicznych, jak i praktycznych. Badacze często zbierają dane bez wiedzy osób badanych i czasami nie przestrzegają zasady ochrony i zachowywania tajności danych. W wielu wypadkach naukowcy stają w obliczu konfliktu pomiędzy dwoma prawami: prawem badacza do prowadzenia badań i zdobywania wiedzy oraz prawem osób uczestniczących w badaniach do samookreślenia, prywatności i zachowania godności. Podjęcie decyzji o nieprowadzeniu badań, ponieważ naruszają one dobra osobiste osób badanych, to poważne ograniczenie praw badaczy. Decyzja o kontynuowaniu badań pomimo wątpliwej etycznie procedury (np. oszukiwania) wiąże się z pogwałceniem praw osób badanych. Ten konflikt stanowi istotę dylematu etycznego osób prowadzących badania w naukach społecznych. Rozstrzygając ten dylemat, trudno dać całkowicie dobrą czy całkowicie złą odpowiedź. Waga, jaką ludzie przypisują korzyściom i kosztom badań w naukach społecznych, zależy w dużym stopniu od ich pochodzenia, przekonań i doświadczenia. I tak na przykład podczas gdy polityczni analitycy podkreślają korzyści płynące z możliwości dokładnego przewidywania efektów działań politycznych, obrońcy wolności zawsze przestrzegają przed niebezpieczeństwem zagrożenia wolności jednostki, jej prywatności i prawa do samookreślenia. Zdaniem tych ostatnich zawsze istnieją wątpliwości co do korzyści badania, jeżeli istnieje choćby najmniejsze ryzyko pogwałcenia praw jednostki. Planując badania naukowe, obowiązkiem badaczy jest dokładne zestawienie potencjalnych korzyści czy zysków wynikających z badań z kosztami ponoszonymi przez osoby badane. Koszty te mogą dotyczyć naruszenia cudzej godności, narażenia na przeżywanie stanów lękowych, zawstydzenie, utratę zaufania do więzi społecznych między ludźmi, utratę poczucia autonomii i prawa do samookreślenia oraz zaniżenie ich samooceny. Dla naukowca korzyści z badań to potencjalne zwiększenie wiedzy teoretycznej i stosowanej, dla osoby badanej zaś to rekompensata finansowa, satysfakcja płynąca z przyczynienia się do postępu nauki i lepsze zrozumienie istoty badań naukowych. Proces wyrównywania potencjalnych zysków i kosztów ma z konieczności charakter subiektywny. Badacze tworzą czy wybierają procedury badawcze zgodnie z preferowanymi przez siebie wartościami zawodowymi i osobistymi. Ponieważ nasze wybory powiązane są z preferowanymi przez nas wartościami, naukowcy — tak jak wszyscy — powinni wziąć te wartości pod uwagę, zanim podejmą decyzje dotyczące etyki postępowania. Co więcej, decyzje etyczne muszą być w każdym wypadku podejmowane indywidualnie, ponieważ proces podejmowania decyzji jest tak samo ważny jak rezultaty. Badacz etyczny „zna standardy etyczne, dokładnie analizuje moralne alternatywy, dokonuje oceny każdej sytuacji i bierze odpowiedzialność za swoje decyzje"8. W kontekście zestawiania kosztów i zysków szczególnie ważne dla badaczy są dwa problemy: prawo osoby badanej do wyrażenia zgody na podstawie posiadanych informacji oraz jej prawo do prywatności. 8 Eduard Diener, Rick Crandall (1978), Ethics in Social and Behavioral Research, Chicago: Uni-versity of Chicago Press, s. 4-5. 94 H ¦ Wyrażanie zgody na podstawie posiadanych informacji Naukowcy są zgodni co do tego, że badania z udziałem ludzi powinny zawsze być poprzedzone wyrażeniem zgody przez uczestników badań na podstawie przedstawionych im informacji. Wyrażenie zgody na podstawie posiadanych informacji jest absolutnie niezbędne w sytuacjach, w których osoby badane są narażane na ryzyko lub utratę wartości osobistych. Amerykański Department of Health and Humań Services nadzorujący badania przez siebie finansowane wymaga uzyskania pisemnej zgody wszystkich uczestników badań, jeżeli mogą się oni znaleźć w „ryzykownej" sytuacji9. Większe uniwersytety dobrowolnie zgodziły się na przestrzeganie wytycznych rządowych przy recenzowaniu wszystkich prowadzonych przez siebie badań, i to bez względu na to, czy były one finansowane przez rząd, czy też nie. Polityka uzyskiwania zgody osób badanych na podstawie posiadanych przez nie informacji nie wyklucza prowadzenia badań w obrębie nauk społecznych, które mogą zawierać elementy ryzyka, wymaga natomiast uzyskiwania zgody potencjalnych uczestników badań. Jeżeli osoby badane mogą zostać narażone na ból, zranienie fizyczne czy emocjonalne, naruszenie prywatności, stres fizyczny lub psychologiczny czy wreszcie, jeżeli prosi sieje o czasowe zrezygnowanie z własnej autonomii (np. w badaniach nad skutkami brania narkotyków), to prawo do wyrażenia zgody musi być w pełni zagwarantowane. Osoby badane muszą wiedzieć, że ich uczestnictwo w badaniach jest zupełnie dobrowolne oraz powinny wcześniej otrzymać pełną informację o korzyściach, prawach, o ryzyku i niebezpieczeństwie związanym z ich uczestniczeniem w badaniach. Dlaczego wyrażanie zgody jest niezbędne Idea prawa do wyrażania zgody na podstawie posiadanych informacji powstała zarówno z akceptacji wartości kulturowych, jak i regulacji prawnych. Jej źródeł można upatrywać w ogromnym znaczeniu, jakie przypisujemy wolności i samookreś-laniu. Jesteśmy przekonani, że ludzie powinni być wolni i sami kierować własnym zachowaniem, a do wolności jako wartości jesteśmy bardzo przywiązani. Zwolennicy takiego poglądu są nawet skłonni twierdzić, podobnie jak John Locke, że wolność jest naturalnym prawem jednostki, a ograniczenia wolności muszą zostać w pełni uzasadnione i zaakceptowane przez tych, których dotyczą. Jeżeli osoby uczestniczące w badaniach mogą zostać narażone na ryzyko ograniczenia wolności, to muszą się zgodzić na takie ograniczenie. Co więcej, uzyskiwanie zgody ludzi na ich uczestniczenie w badaniach odzwierciedla szacunek dla prawa jednostki do samookreślenia. Inną przyczyną, dla której tak ważne jest wyrażenie zgody przez osoby badane, to przekonanie, że osoby dobrze poinformowane same najlepiej będą siebie chronić. Ponieważ ludzie chronią swoje własne interesy, przeto stworzenie im możliwości wolnego wyboru co do ich uczestniczenia w badaniach jest najlepszym zabezpieczeniem przed korzystaniem z nadmiernie ryzykownych procedur badawczych10. I wreszcie, patrząc z perspek- 11 U.S. Department of Health, Education and Walfare, Public Health Services and National Institutes of Health (1971), The Institutional Guide to D.H.E.W. Policy on Protection of Humań Subjects, DHEW Publication (NIH), December 2, s. 72-102. Por. także Arturo Gandara (1978), Major Federal Regula-lions Governing Social Science Research, Santa Monica, Calif.: Rand. 10 Diener. Crandall, Ethics in Social and Behavioral Research, s. 36. 95 tywy badacza, wyrażenie zgody na podstawie posiadanych informacji przenosi część odpowiedzialności za negatywne skutki badań na osoby w nich uczestniczące. Wyrażenie zgody zmniejsza także prawną odpowiedzialność badaczy, gdyż oznacza ona dobrowolny udział osób badanych w prowadzonym badaniu. Co znaczy prawo do wyrażania zgody Chociaż zasada uzyskiwania zgody potencjalnych osób badanych na podstawie posiadanych przez nie informacji zyskała sobie szeroką akceptację, to badacze nadal nie stosują jej w sposób stały. Dzieje się tak dlatego, że nie zgadzają się oni co do znaczenia tej zasady w konkretnych przypadkach. Pytania takie, jak: „Co to znaczy, że dana osoba jest poinformowana?", „Skąd wiemy, że dana osoba badana rozumie przekazane jej informacje?", , Jakie informacje należy przekazywać?", „Co zrobić, jeżeli jest rzeczą niezmiernie ważną, aby osoby uczestniczące w badaniach nie dowiedziały się, czy są w grupie kontrolnej czy w eksperymentalnej?", są w sposób oczywisty pytaniami trudnymi i nie ma na nie jednoznacznej odpowiedzi. Można jednak — i jest to bardzo użyteczne — spróbować określić, jaka jest intencja wprowadzenia zasady uzyskiwania zgody potencjalnych osób badanych. Postaramy się to pokazać, omawiając istotę tej zasady i dyskutując niektóre zagadnienia związane z jej stosowaniem. Eduard Diener i Rick Crandall zdefiniowali pojęcie zgody na podstawie posiadanych informacji następująco: jest to procedura, w trakcie której osoby podejmują decyzję, czy uczestniczyć w badaniach po tym, jak zostaną poinformowane o faktach, które mogłyby wpłynąć na ich decyzję"". Procedura ta obejmuje cztery aspekty: kompetencję, dobrowolność, pełną informację oraz zrozumienie. Kompetencja. Podstawowym założeniem leżącym u podstaw zasady wyrażania zgody na podstawie posiadanych informacji jest założenie o kompetencji. Oznacza ono, że każda decyzja podejmowana przez osobę odpowiedzialną i dojrzałą, której udostępniono wszystkie niezbędne informacje jest decyzją właściwą. Ponieważ jednak wiele osób to osoby niedojrzałe lub nieodpowiedzialne, więc podstawowy problem sprowadza się do tego, jak te osoby w sposób systematyczny można identyfikować. Ogólnie rzecz biorąc, ludzie nie są w stanie wyrazić zgody, jeżeli mają trudności natury intelektualnej lub mają kłopoty z samookreśleniem się. Za osoby niekompetentne w tym sensie generalnie uważa się małe dzieci, pacjentów znajdujących się w stanie śpiączki oraz pacjentów psychiatrycznych. Jeżeli udział w badaniach (np. sprawdzenie skuteczności postępowania terapeutycznego) może zakończyć się określonymi bezpośrednimi korzyściami dla osób badanych, to warto rozważyć możliwość podjęcia decyzji przez ich opiekunów, rodziców czy inne osoby odpowiedzialne za osoby traktowane tu jako niekompetentne. Jeżeli w badaniach nie można oczekiwać bezpośrednich korzyści i istnieje pewne ryzyko ujemnych skutków, to wiele osób sugeruje, że badania takie powinny być w całości zaka- 12 zane . " Ibidem, s. 34. 12 Paul D. Reynolds (1979), Ethical Dilemmas and Social Science Research, San Francisco: Jos-sey-Bass, s. 91. 96 Dobrowolność. Badacz, który akceptuje zasadę wyrażania zgody na podstawie posiadanych informacji, zapewnia przyszłym osobom uczestniczącym w badaniach wolny wybór co do tego, czy uczestniczyć w badaniach naukowych, czy też nie oraz gwarantuje sobie, że zgoda na narażenie się na znane ryzyko została podjęta całkowicie dobrowolnie. Określanie warunków, w jakich ludzie mogą podejmować wolne decyzje, jest zadaniem niezwykle złożonym. W badaniach przeprowadzanych w placówkach takich, jak: więzienia, instytucje psychiatryczne, szpitale czy szkoły państwowe, jednostki uważane za autorytety wywierają ogromny wpływ na osoby uczestniczące w badaniach. I tak na przykład pacjent znajdujący się pod opieką lekarza-badacza może wyrazić zgodę na udział w badaniach, ponieważ czuje się źle lub w jakiś inny sposób znajduje się pod wpływem lekarza. I chociaż zasady etyczne przeprowadzania eksperymentów medycznych podkreślają fakt uzyskania dobrowolnej zgody, wielu badaczy nigdy nie zetknęło się z subtelnymi niuansami pogwałcenia zasady dobrowolności aż do II wojny światowej. Ustawy norymberskie, które zostały sformułowane po tym, jak świat się dowiedział o nazistowskich eksperymentach medycznych, obciążają badacza odpowiedzialnością za dokładne wyjaśnienie uczestnikom, na czym polega badanie oraz czynią z tego warunek wstępny wyrażenia zgody w sposób całkowicie dobrowolny: Oznacza to, że osoba zainteresowana powinna mieć rzeczywistą możliwość wyrażenia własnej zgody. [Osoba ta] powinna znaleźć się w takiej sytuacji, aby jej decyzja była podjęta zgodnie z jej wolną wolą, bez jakichkolwiek elementów przymusu, oszustwa, podstępu, nadużycia czy innych form wymuszania13. Niektórzy autorzy sądzą, że aby określić warunki prowadzące do wyrażenia dobrowolnej zgody, badacz powinien ustawić swoje stosunki z osobami badanymi na płaszczyźnie egalitarnej i traktować badanie jako wspólną wyprawę w poszukiwaniu nieznanego14. Inni z kolei twierdzą, że obecność trzeciej, neutralnej strony w trakcie procesu wyrażania zgody zminimalizuje możliwość pojawienia się jakichś form wymuszania. Jeszcze inni zalecają, aby osoby mające uczestniczyć w badaniach mogły się ze sobą porozumiewać po tym, kiedy poprosi się je o wyrażenie zgody, a przed podjęciem przez nie decyzji. Pełna informacja. Aby zgoda wyrażona przez przyszłe osoby badane mogła zostać przyjęta, musi zostać wyrażona dobrowolnie i w sytuacji pełnego poinformowania. Może bowiem być tak, że zgoda zostanie wyrażona dobrowolnie, lecz przy braku wszystkich niezbędnych informacji, a także przy pełnym poinformowaniu, lecz nie dobrowolnie. W praktyce trudno jest uzyskać zgodę osób badanych przy założeniu ich pełnego poinformowania, albowiem wymagałoby to wprowadzenia wszystkich osób w złożone technicznie i statystycznie szczegóły procedury badawczej oraz podważyłoby użyteczność stosowania grupy kontrolnej. Co więcej, w wielu sytuacjach naukowcy sami nie posiadają pełnych informacji o konsekwencjach związanych ze stosowaniem określonej procedury badawczej. Gdybyśmy — odwołując się do " Ibidem, s. 436. 14 Ibidem, s. 93. 97 Paula Reynoldsa — „posiadali wszystkie informacje, nie byłoby potrzeby prowadzenia badań; badania mają jakąś wartość tylko wtedy, gdy istnieje pewna niejasność dotycząca badanego zjawiska"15. Nie oznacza to oczywiście, że idea zasady wyrażania zgody na udział w badaniach nie ma racji bytu. Wręcz odwrotnie, naukowcy opracowali strategię wyrażania zgody w sposób racjonalny. Wytyczne opracowane przez władze federalne odwołują się właśnie do takiej strategii. Zgodnie z tymi wytycznymi do obowiązków badacza należy takie przekazywanie informacji, aby znalazło się w nich sześć następujących elementów16: 1. Pełne wyjaśnienie zastosowanej procedury i celu, jakiemu ma ona służyć. 2. Opis mogących się pojawić niedogodności oraz rozmiarów rozsądnie przewidywanego ryzyka. 3. Opis rozsądnie oczekiwanych korzyści. 4. Ujawnienie właściwych procedur alternatywnych, które mogą być korzystne dla osoby badanej. 5. Udzielenie odpowiedzi na wszystkie pytania dotyczące procedury badawczej. 6. Poinformowanie, że osoba podejmująca decyzję ma wolny wybór i może w każdej chwili odmówić kontynuowania udziału w badaniu bez jakiejkolwiek szkody dla siebie. Niektóre z wymienionych wyżej elementów informacji są — w sposób oczywisty — kontrowersyjne. Na przykład ujawnianie celu badania może wpłynąć na trafność otrzymanych wyników. Tak byłoby w wypadku eksperymentu Milgrama i badania przeprowadzonego przez Reissa. Brak jest także zgody co do tego, jak wiele informacji należy udzielać. Na przykład badania przeprowadzone przez H.R. Resnicka i T. Schwartza są dobrą ilustracją tego, że przekazanie pełnych informacji o badaniu może nie być pożądane. Resnick i Schwartz przygotowując badania nad warunkowaniem, opowiedzieli swoim potencjalnym osobom badanym dokładny przebieg eksperymentu przed jego rozpoczęciem. W rezultacie wiele osób w ogóle nie zjawiło się na badaniach. Natomiast ci, którzy przyszli, nie uczyli się, co było wynikiem zupełnie odmiennym od wyników podobnych badań. Badanie to pokazało, że udzielanie zbyt wielu informacji może mieć zdecydowanie negatywny wpływ na wyniki prowadzonych badań17. Pytania dotyczące kryteriów, na podstawie których można zdecydować, jakie informacje trzeba przekazać przyszłym osobom badanym, stały się zatem niezmiernie ważne. Jedno z kryteriów dotyczy prawnego wymiaru tego, co „osoba rozważna i roztropna" powinna wiedzieć. Badacz ma obowiązek ujawnienia — przed podjęciem decyzji przez potencjalną osobę badaną — tych wszystkich szczegółów dotyczących badania, które mają związek z jej dobrami osobistymi. Osoby uczestniczące w badaniach powinny być zatem zawsze poinformowane o możliwych negatywnych konsekwencjach fizycznych czy psychologicznych oraz o możliwości pozbawienia ich jakichkolwiek praw w trakcie badania. 15 Ibidem, s. 95. 16 HEW, The Institutional Guide to D.H.E.W. Policy, s. 7. 17 H.J. Resnick, T. Schwartz (1973), Ethical Standards as an Independent Variable in Psycholom cal Research, „American Psychologist", 28, s. 134-139. 98 Łatwiejszą metodą ustalania, jakie informacje należy przekazać osobie badanej, jest powołanie specjalnego zespołu reprezentującego przyszłych uczestników lub uczestników i badaczy. Zespół ten podejmuje następnie odpowiednie decyzje. Inną procedurą jest przeprowadzenie wywiadu z osobami imitującymi przyszłych uczestników i określenie w ten sposób, jakie informacje są konieczne18. Zrozumienie. Czwartym elementem składającym się na proces podejmowania zgody przez potencjalne osoby badane jest zrozumienie, czyli „przekonanie, że osoby uczestniczące w badaniach wyraziły zgodę na podstawie właściwej wiedzy o procedurze badawczej, zwłaszcza gdy jest ona ryzykowna"19. Jasne jest, że dokładny opis procedury badawczej, nawet w języku nietechnicznym, może nie być w pełni zrozumiały. Proponowano wiele sposobów przekazywania informacji przyszłym uczestnikom badań tak, aby były one w pełni zrozumiałe. Między innymi zaleca się angażowanie osób dobrze wykształconych, które lepiej rozumieją przekazywane im informacje, zatrudnianie konsultantów omawiających badanie z jego uczestnikami, a także wprowadzanie przerwy pomiędzy prośbą o udział w badaniach a wyrażeniem zgody przez ich uczestników. Najczęściej stosowaną procedurą jest jednak bezpośrednie pytanie przyszłych uczestników, czy wszystko jest zrozumiałe, lub też stosowanie specjalnej ankiety sprawdzającej stopień zrozumienia przekazanych informacji20. Odpowiedzialność badacza Praktyka uzyskiwania zgody przyszłych osób badanych na podstawie posiadanych przez nie informacji jest najogólniejszym rozwiązaniem problemu prowadzenia badań w naukach społecznych bez naruszania praw i dóbr osobistych osób badanych. Jeżeli wszystkie warunki wyrażenia zgody na udział w badaniach zostaną spełnione (kompetencja, dobrowolność, pełne poinformowanie oraz zrozumienie), to badacze mogą przyjąć, że zwrócili należytą uwagę na problem praw i dóbr osobistych osób badanych. Zasada uzyskiwania zgody na udział w badaniach nie jest jednak absolutnie konieczna we wszystkich badaniach prowadzonych w ramach nauk społecznych. Chociaż pożądana, to nie jest niezbędna w tych badaniach, w których osoby badane niczym nie ryzykują. Im bardziej poważne jest ryzyko podejmowane przez osoby badane w trakcie badań, tym większy obowiązek uzyskania ich zgody na udział w badaniach spoczywa na badaczach. W takich sytuacjach badacze są również odpowiedzialni za negatywne skutki badań dla osób badanych, nawet jeżeli wcześniej wyrazili oni zgodę na udział w badaniach. ¦ Prywatność Naruszenie prywatności to problem angażujący wszystkich, zwłaszcza dzisiaj, gdy skomputeryzowane bazy danych należące do banków prywatnych lub państwowych Ta i inne procedury zostały opisane przez Reynoldsa w pracy Ethical Dilemmas and Social Science Research, s. 95-96. " Ibidem, s. 97. 20 Ibidem. 99 są tak łatwo dostępne. Prawo do prywatności — „wolność jednostki co do wyboru czasu i okoliczności, i co ważniejsze, zakresu, w jakim chce ona lub nie chce ujawniać swoich postaw, wierzeń, zachowań i opinii"21 — może zostać łatwo pogwałcone w czasie badań lub po zakończeniu badań naukowych. W badaniu postaw studentów college'u, które zostało przeprowadzone przez American Council of Education, proszono osoby badane o udzielanie odpowiedzi ujawniających prywatne informacje, które mogły zostać wykorzystane przez władze administracyjne (uniwersyteckie czy rządowe) do zidentyfikowania aktywistów politycznych. Zebrane dane zostały umieszczone w komputerowej bazie danych i w ten sposób stały się dostępne dla każdej osoby, która zechciała uiścić niewielką opłatę manipulacyjną. Jest to praktyka, która staje się dzisiaj coraz bardziej powszechna. Aby ochronić osoby uczestniczące w badaniach, badacze w konstruowanych przez siebie bazach danych oddzielają dane identyfikacyjne osób badanych od ich odpowiedzi*. Ciągle jednak realna jest możliwość, że na podstawie zebranych danych władze mogą wystawiać nakazy sądowe. W badaniach, o których mówimy, badacze oczekiwali prywatnych informacji od studentów, a sami nie gwarantowali tajności tych danych, zwłaszcza w panującej wówczas atmosferze inwigilacji politycznej. Aby chronić prywatność i aby zebrane informacje nie stały się podstawą do sformułowania nakazu sądowego, badacze zaczęli wprowadzać kody na powiązania danych identyfikacyjnych z indywidualnymi odpowiedziami. I chociaż tą techniką posługiwano się w bardzo wielu badaniach, to problem ochrony prywatności osób badanych pozostaje nadal nie rozwiązany. Wymiary prywatności Zazwyczaj o prywatności mówi się w trzech wymiarach. Są to: istotność otrzymywanych informacji, otoczenie, w jakim przeprowadza się badanie, oraz udzielanie informacji22. Zanim przedstawimy propozycje technik pozwalających na ochronę prywatności, przeanalizujmy dokładniej owe trzy wymiary. Istotność informacji. Istotność informacji odnosi się do zakresu, w jakim informacje zbierane przez badacza mają charakter prywatny lub potencjalnie zagrażający osobie badanej. W raporcie American Psychological Association wyraźnie stwierdzono, że „preferencje religijne, praktyki seksualne, dochody, uprzedzenia rasowe i inne właściwości jednostki takie, jak: inteligencja, uczciwość i odwaga to dane zdecydowanie bardziej osobiste niż nazwisko, klasa społeczna czy numer identyfikacyjny"23. Im bardziej osobiste są informacje udzielane przez osobę badaną, tym większy obowiązek zapewnienia ich ochrony spoczywa na badaczu. I tak dopiero od listopada 1993 roku dzięki decyzji Josepha Steffana homoseksualiści mogą się starać o przyjęcie do wojska czy do marynarki, co do tej pory było całkowicie za- * W Polsce badacze muszą m.in. respektować Ustawą z dnia 29 sierpnia 1997 r. o ochronie danych osobowych (Dziennik Ustaw Nr 133 z 1997 r., poz. 883) (przyp. red. nauk.). 21 M.O. Ruebhausen, 01iver G. Brim (1966), Privacy and Behavioral Research, „American Psycho-logist", 21, s. 432. 22 Diener, Crandall, Ethics in Social and Behavioral Research, s. 55-57. 23 American Psychological Association, Ethical Principles in the Conduct of Research with Humań Subjects (1973), Washington, D.C.: Ad Hoc Committee on Ethical Standards in Psychological Research, s. 87. 100 kazane przez Pentagon24. Gdyby zatem informacje o preferencjach seksualnych osoby badanej pojawiały się w trakcie badań, badacz powinien być szczególnie skrupulatny, dbając o zachowanie prywatności tej informacji. Otoczenie, w którym przeprowadza się badanie. Otoczenie, w którym przeprowadza się badanie, może być od całkowicie prywatnego do w pełni publicznego. Dom na przykład jest traktowany w naszej kulturze jako miejsce najbardziej prywatne i wdzieranie się do cudzego mieszkania bez zgody właścicieli jest zakazane przez prawo. Jednakże kiedy określone otoczenie należy traktować jako prywatne lub jako publiczne, nie jest wcale tak oczywiste i dlatego dycyzja taka może prowadzić do problemów natury etycznej. Badając zachowania homoseksualistów w trakcie przypadkowych, krótkich spotkań w miejscach publicznych (toalety), Laud Humphreys zastosował metodę obserwacji ukrytej. Zagrał on rolę voyeura [voyeur — osoba czerpiąca satysfakcję seksualną z podglądania innych — przyp. tłum.], zapewniając uczestników, że nie ma tam policjantów, nastolatków ani mężczyzn o orientacji heteroseksualnej, i zyskując w ten sposób ich zaufanie oraz zgodę na wejście do miejsca, w którym mógłby dokonywać obserwacji. W czasie badań odnotował on także numery rejestracyjne 134 samochodów, z których korzystali uczestnicy badań. Rok później, w trakcie oficjalnych badań dotyczących zdrowia publicznego przeprowadził pięćdziesiąt wywiadów z byłymi osobami badanymi, w ich własnych domach25. Krytycy tych badań zwrócili zwłaszcza uwagę na fakt, że chociaż badania odbywały się w publicznej toalecie, to ich uczestnicy nie inicjowaliby kontaktów seksualnych („zachowania prywatne"), gdyby nie zostali wcześniej zapewnieni, że miejsce, w którym się znajdują, ma czasowo charakter „prywatny". Humphreysa oskarżono o naruszenie prywatności badanych. Udzielanie informacji. Trzeci aspekt problemu prywatności dotyczy możliwości identyfikowania danych personalnych oraz łączenia ich z odpowiedziami udzielonymi przez osoby badane. I tak na przykład informacje dotyczące dochodów pozostaną informacjami prywatnymi, jeśli dostęp do nich będzie miał jedynie badacz. Jeżeli natomiast informacje te, włączając wielkość zarobków oraz nazwiska, zostaną rozpowszechnione przez media, to wóczas mamy do czynienia z poważnym naruszeniem prywatności. Im więcej ludzi może się dowiedzieć o szczegółach przekazywanych danych, tym większa powinna być troska o zachowanie tajności tych danych. Nierzadko się zdarza, że określona społeczność lub całe miasto potrafi zidentyfikować osoby uczestniczące w badaniach, nawet jeżeli posłużono się w nich fikcyjnymi nazwiskami. W pracy Smali Town in Mass Society Arthur Vidich i Joseph Bensman opisali intymne i często krępujące szczegóły dotyczące życia mieszkańców małego miasta w stanie Nowy Jork26. Chociaż samo miasto oraz jego miesz- 4 David A. Kapłan, Daniel Glick (1993), Into the Hands of Bigots, „Newsweek", November 29, s.43. 25 Laud Humphreys (1975), Teamom Trade: Impersonal Sex in Public Places, Hawthorne, N.Y.: Aldine. 26 Arthur J. Vidich, Joseph Bensman (1960), Smali Town in Mass Society, Garden City, N.Y.: Do-ubleday. 101 kańcy otrzymali w książce fikcyjne nazwiska, to poszczególne opisy były bardzo łatwo identyfikowalne dla osób zainteresowanych. Z tego powodu badanie to zostało skrytykowane nie tylko w środowisku naukowym27, ale także zaprotestowali sami mieszkańcy opisywanego miasta, organizując marsz protestacyjny, w którym każdy włożył na twarz maskę z wypisanym fikcyjnym nazwiskiem — wyraźny dowód, że całe miasto znało tożsamość osób opisanych w pracy. Gdy marsz miał się zakończyć, do zebranych osób podjechało urządzenie do roztrząsania nawozu z kukłą badacza28. Badacze muszą brać pod uwagę wszystkie trzy elementy (istotność otrzymywanych informacji, otoczenie, w którym przeprowadza się badanie, oraz udzielanie informacji) przy podejmowaniu decyzji o tym, jak dalece osobisty charakter mają zebrane przez nich informacje oraz w jaki sposób należy zapewnić ich tajność, aby ochronić osoby badane. Tak jak z większości praw, tak i z prawa do prywatności można dobrowolnie zrezygnować. Osoby biorące udział w badaniu mogą zrezygnować z prawa do prywatności, godząc się na udzielanie nawet najbardziej osobistych informacji lub wyrażając zgodę, aby w raporcie z badań znalazły się ich prawdziwe nazwiska. W tym ostanim wypadku konieczne jest uzyskanie zgody ze strony osób badanych. ¦ Anonimowość i poufność Dwiema powszechnie stosowanymi technikami mającymi na celu ochronę osób badanych jest anonimowość i poufność. Obowiązek zapewnienia anonimowości osób badanych oraz obowiązek zapewnienia poufnego charakteru zebranych danych nie wykluczają się wzajemnie. Powinny być one spełnione bez względu na koszty, chyba że badacz wcześniej porozumiał się w tych sprawach z osobami badanymi. Podobnie jak w przypadku problemu prywatności, tak i tutaj szybko powstające sieci komputerowe, takie jak Internet, i coraz większe możliwości komunikowania się drogą satelitarną sprawiają, że zapewnienie anonimowości i poufności danych staje się coraz bardziej technicznie skomplikowane i moralnie konieczne. Anonimowość Badacze zapewniają anonimowość poprzez oddzielenie danych o tożsamości osób badanych od informacji, jakich one udzielają. Osoba badana jest uważana za osobę anonimową, jeżeli badacz lub inne osoby nie potrafią powiązać konkretnych informacji z konkretnymi osobami badanymi. Jeżeli zatem informacja zostanie udzielona anonimowo, a więc badacz nie będzie w stanie powiązać nazwisk z danymi, to tożsamość osoby badanej pozostaje niejawna nawet wtedy, kiedy udzieliła ona bardzo osobistych informacji. Można na przykład zachować anonimowość w badaniach metodą ankiety pocztowej (omawiamy ją w rozdziale 10), jeżeli dane identyfikacyjne zostaną usunięte z kwestionariuszy zaraz po ich otrzymaniu. Z drugiej strony jednak respondent w bezpośrednim wywiadzie kwestionariuszowym nie jest osobą anonimową, ponieważ ankieter zawsze łatwo może ją zidentyfikować. 27 Urie Bronfenbrenner (1959), Freedom and Responsibility in Research: Comments, „Humań Or-ganization", 18, s. 49-52. 28 Diener, Crandall, Ethics in Social and Behavioral Research, s. 62. 102 Jedną z najprostszych technik gwarantowania anonimowości jest niepytanie o nazwisko i inne dane mogące identyfikować osobę badaną. Można jednak prosić osoby badane o samodzielne zaszyfrowanie swoich odpowiedzi lub zakodowanie ich w jakiś łatwo dający się zapamiętać sposób (np. poprzez odejmowanie daty urodzenia od numeru konta bankowego). Anonimowość danych można zwiększyć, jeżeli nazwiska i inne dane identyfikacyjne zostaną powiązane z odpowiedziami za pomocą specjalnego kodu. Przygotowując dane do analizy, badacz może zadbać o anonimowość, rozdzielając dane identyfikacyjne od pozostałych informacji. Pozostałe działania powinny obejmować ochronę danych przed ich kopiowaniem, wprowadzenie kodu dostępu (hasła) do danych i automatyczne monitorowanie sposobu korzystania z danych29. Poufność Osoby uczestniczące w badaniach w ramach nauk społecznych często zapewnia się, że podane przez nie informacje będą traktowane jako poufne, tj. informacje identyfikujące osoby badane nie będą upubliczniane. I chociaż na badaczach spoczywa obowiązek, zarówno moralny, jak i profesjonalny, dotrzymania zobowiązania utrzymania poufności danych, można wskazać na okoliczności, w których może to być bardzo trudne lub wręcz niemożliwe. Jedna z takich istotnych sytuacji powstaje wtedy, gdy zebrane dane mogą posłużyć sądowi lub innym instytucjom prawnym. Zbierając dane, badacze powinni dokładnie i wyraźnie informować osoby uczestniczące w badaniach — najlepiej w postaci pisemnej — o znaczeniu i ograniczeniach poufności danych. Im większe zagrożenie niosą same informacje i im większe szanse sformułowania na ich podstawie nakazu kontroli lub nakazu sądowego, tym wyraźniej należy o tym informować. Donald Campbell i jego współpracownicy zaproponowali jedno z możliwych wyjaśnień, jakie można podać osobom badanym. Jeżeli jednak zbierane informacje nie są w żaden oczywisty sposób niebezpieczne dla osób badanych, to wystarczy ogólne zapewnienie o poufności zbieranych danych, na przykład: Badania te zostaną podsumowane w postaci danych statystycznych, obliczonych dla całej grupy, tak że nikt nie będzie mógł rozpoznać danych indywidualnych. Wszystkie wywiady będą traktowane jako poufne. Można się natomiast liczyć z możliwością, że po zakończeniu badań ktoś się z Państwem skontaktuje, aby sprawdzić, czy ja rzeczywiście przeprowadziłem(łam) te badania i czy przeprowadziłem(łam) je uczciwie i w całości30. Jeżeli uczciwe i wyczerpujące odpowiedzi na pytania badawcze mogą zagrozić interesom respondenta (np. w przypadku nakazu sądowego), to respondenta należy o tym poinformować, na przykład: 29 Znakomite omówienie tej i innych technik patrz: Reynolds, Ethical Dilemmas and Social Science Research, s. 167-174. 30 Donald T. Campbell i in. (1976), Protection of the Rights and Interests of Humań Subjects in Program Evaluation, Social Indicators, Social Experimentation, and Statistical Analyses Based upon Administrathe Records: Preliminary Sketch, Northwestern University, powielacz. 103 Te badania są przeprowadzane po to, aby uzyskać informacje o charakterze statystycznym. W związku z tym dane indywidualne nie będą ani identyfikowane, ani później nie będą mogły zostać zidentyfikowane. Zrobimy wszystko, co w naszej mocy, aby udzielone przez Państwa odpowiedzi pozostały poufne. Jedynie w przypadku otrzymania nakazu sądowego możemy odstąpić od tej zasady i udostępnić podpisane kwestionariusze instytucjom prawnym31. Opracowano wiele technik umożliwiających dostęp do zebranych danych osobom z zewnątrz, i to tak, aby nie została naruszona zasada poufności. Są to między innymi: 1. Usunięcie danych identyfikacyjnych — na przykład usunięcie nazwisk, numerów ubezpieczenia lub adresu. 2. Wprowadzenie szerokich kategorii dla danych — na przykład posługiwanie się województwem zamiast miastem (czy spisem ludności), rokiem urodzenia zamiast konkretnej daty urodzenia, zawodem zamiast konkretnie wykonywanej pracy itd. 3. Grupowanie danych — tj. budowanie na podstawie danych indywidualnych obrazu „osoby przeciętnej" i udostępnianie tych danych zamiast danych surowych. 4. Wprowadzanie błędu — rozmyślne wprowadzanie błędów do danych indywidualnych i pozostawienie bez zmian danych pogrupowanych. ¦ Zawodowy kodeks postępowania etycznego Reguły sterujące badaniami w naukach społecznych można obecnie rozważać na różnych poziomach. Organizacje prawne, komitety do spraw etyki badań powstające w ramach uniwersytetów czy innych instytucji, kodeksy postępowania etycznego tworzone przez różne towarzystwa naukowe czy indywidualne zasady etyczne wyznawane przez poszczególnych badaczy to istotne mechanizmy regulujące postępowanie w tym zakresie. W tym rozdziale zajmiemy się zawodowym kodeksem postępowania etycznego i przedstawimy całościowy kodeks etyczny dla naukowców podejmujących badania w ramach nauk społecznych. Najpoważniejsze towarzystwa naukowe opracowały kodeksy etyczne mające obowiązywać własnych członków*. Tworzone są one po to, aby w zasadach postępowania uwzględnione zostały specyficzne problemy i zagadnienia, z jakimi naukowcy mogą się spotkać w badaniach prowadzonych w ramach określonej dyscypliny. Kodeksy uwrażliwiają badaczy na ciążące na nich zobowiązania, a także zwra- * Polskich psychologów zrzeszonych w Polskim Towarzystwie Psychologicznym obowiązuje kodeks etyczny opracowany przez to towarzystwo: Kodeks etyczno-zawodowy psychologa (Warszawa, 1992). Do wszystkich zaś uczonych adresowane są Dobre obyczaje w nauce. Zbiór zasad opracowane przez Komitet Etyki w Nauce przy Prezydium Polskiej Akademii Nauk (1996 — wyd. 2, zmienione) (przyp. red. nauk.). 31 Ibidem. 104 ¦P terze sta-ikowane, /stko, co )ufne. Je-)d tej za- lych oso-o między nazwisk, osługiwa-kiem urodnie wy- dywidual-tst danych tych indy- zważac na iń powsta-inia etycz-dy etyczne ilujące po-kodeksem a naukow- :ne mające iach postę-jakimi na-lej dyscyp-akże zwra- bowiązuje ko-a (Warszawa, X --------> O, 02 — Ox=de Kontrolna R O,---------------------------> O, O.-0, = d 3 4 4 3 C Innym interesującym przykładem wykorzystania klasycznego planu eksperymentalnego, tym razem w dziedzinie polityki, jest „Manhattan Bail Project", zainicjowany przez Vera Institute w Nowym Jorku4. Vera Institute postanowił dostarczyć sędziom sądów kryminalnych dowodów wskazujących na to, że wiele osób mogłoby zostać zwolnionych z aresztu przed procesem, i to bez konieczności wpłacania kaucji. Osoby te bowiem są silnie powiązane ze społecznością więzami rodzinnymi, zawodowymi, przyjacielskimi oraz mieszkaniowymi. W zbadanej populacji znaleźli się ludzie oskarżeni o przestępstwa i nieobyczajne zachowanie. Osoby oskarżone o cięższe zbrodnie zostały z eksperymentu wyłączone. Studenci prawa uniwersytetu w Nowym Jorku oraz pracownicy Vera Institute przeanalizowali akta oskarżonych pod kątem danych dotyczących ich zatrudnienia, rodziny, miejsca zamieszkania, referencji, aktualnego oskarżenia ewentualnie oskarżeń wcześniej- 4 W tym miejscu odwołujemy się do pracy Bernarda Boteina (1965), The Manhattan Bail Project: Itslmpact in Criminology and the Criminal Law Process, „Texas Law Review", 43, s. 319-331. 117 szych, aby na tej podstawie zdecydować, czy można sądowi zarekomedować zwolnienie przed procesem danej osoby, bez konieczności zapłacenia kaucji. Osoby, które mogły uzyskać taką rekomendację, zostały losowo podzielone na grupę eksperymentalną i kontrolną, a rzeczywistą rekomendację otrzymały tylko osoby znajdujące się w grupie eksperymentalnej. Zmienną niezależną stanowiło tu zwolniennie z aresztu przed procesem, a zmienną zależną odsetek osób, które się nie stawiły na proces. W odniesieniu do większości osób z grupy eksperymentalnej sędziowie zaakceptowali rekomendacje przedprocesowego zwolnienia bez płacenia kaucji. Wyniki eksperymentu były uderzające. W latach 1961-1964, kiedy to eksperyment się zakończył, mniej niż 1% osób z grupy eksperymentalnej nie pojawiło się w sądzie, aby wziąć udział w procesie — odesetek zdecydowanie niższy w porównaniu z osobami, które zostały zwolnione po opłaceniu kaucji. Wyniki te wskazują, że zwolnienie z zapłacenia kaucji nie przyczynia się do niestawiania się w sądzie. Powołując się na wyniki tego eksperymentu, New York Probation Department wprowadził taki system działania we wszystkich pięciu dzielnicach miasta. Dlaczego warto analizować eksperymenty Klasyczny plan eksperymentalny był najczęściej wykorzystywany w badaniach prowadzonych w zakresie biologii i fizyki. Jesteśmy skłonni wiązać eksperymenty raczej z badaniami prowadzonymi w ramach nauk przyrodniczych niż z badaniami dotyczącymi zjawisk społecznych takich, jak: dyskryminacja, zachowanie się członków gangów, religia czy atrakcyjność społeczna. Dlaczego zatem poświęcamy tyle czasu na omówienie badań eksperymentalnych prowadzonych w naukach społecznych? Przyczyny są dwojakie. Po pierwsze, klasyczny plan eksperymentalny pozwala zrozumieć logikę wszystkich innych planów badawczych; jest to rodzaj modelu, z którym możemy porównywać pozostałe plany. Po drugie, eksperyment pozwala badaczowi na wyprowadzanie wniosków o zależnościach przyczynowo-skut-kowych, a także stosunkowo łatwo badać, czy zmienna niezależna rzeczywiście spowodowała zmiany zmiennej zależnej. Stosując inne plany badawcze, nie zawsze da się łatwo wyprowadzić wnioski o zależnościach przyczynowo-skutkowych. Dlatego też jeżeli zrozumiemy strukturę i logikę klasycznego planu eksperymentalnego, to zrozumiemy również ograniczenia wynikające ze stosowania innych planów. Generalnie rzecz biorąc, badacze w naukach społecznych w porównaniu z naukowcami z nauk przyrodniczych stosują badania eksperymentalne w znacznie mniejszym zakresie. Dzieje się tak dlatego, że bardzo rygorystyczna struktura planu nie pozwala na łatwe zaadaptowanie jej do badań prowadzonych w ramach nauk społecznych. Z tego powodu badacze z nauk społecznych często wykorzystują plany, które są słabsze, jeżeli chodzi o możliwości wyprowadzania wniosków przyczynowo-skutkowych, ale są bardziej przydatne do rodzaju problemów, którymi się oni zajmują. Plany, które będziemy określać mianem quasi-eksperymentów (omawiane w rozdziale 6) są w naukach społecznych powszechniej stosowane. Jak widzieliśmy na przykładzie „Pigmaliona" i „The Manhattan Bail Project", eksperymenty są z całą pewnością stosowane w naukach społecznych. Rzeczywiście, w niektórych dziedzinach nauk społecznych, takich jak psychologia społeczna, badania eksperymentalne są dominującym rodzajem badań. Co więcej, badania eksperymentalne są coraz częściej stosowane w badaniach dotyczących polityki i oceny skutków jej działania. 118 ¦ Wyprowadzanie wniosków o charakterze przyczynowo-skutkowym Zarówno eksperyment, który nazwaliśmy „Pigmalionem", jak i „Manhattan Bail Project", to eksperymenty pozwalające sprawdzić hipotezę o zależnościach przyczy-nowo-skutkowych. Idea przyczynowości jest rzeczywiście sercem wszystkich naukowych wyjaśnień. Dotyczy ona naszych oczekiwań, że zmienna zależna spowoduje zmiany wartości zmiennej zależnej w kierunku i w stopniu, jaki określa to teoria. Jeżeli jednak naukowcy stwierdzą, że zmiany wartości zmiennej niezależnej są zawsze związane ze zmianami wartości zmiennej zależnej, to nie musi to oznaczać, że pomiędzy tymi zmiennymi istnieje relacja przyczynowo-skutkowa. Rozważmy na przykład politykę rządu dotyczącą walki z wykroczeniami przeciw prawu. Podstawowym celem takich działań jest zmniejszanie przestępczości. Czy w takim razie fakt, że ktoś nie popełnił zbrodni, oznacza, że to polityka rządu skutecznie go od tego powstrzymała? Odpowiedź zależy przede wszystkim od tego, czy jednostka była skłonna do podejmowania działań przestępczych. Co więcej, jeżeli dana osoba miała skłonności w tym kierunku, to czy powstrzymała ją możliwość złapania i ukarania, czy też inne czynniki takie, jak brak możliwości popełnienia przestępstwa czy wpływ grupy rówieśniczej? Jeżeli zatem badacze ustalą nawet, że ustanowienie przez rząd bardziej drastycznych metod walki z przestępczością przyczynia się do spadku liczby popełnianych przestępstw, to nie można jeszcze z całą pewnością stwierdzić, że zjawiska te były ze sobą przyczynowo powiązane. W praktyce stwierdzenie przyczynowości wymaga przeprowadzenia trzech niezależnych operacji: wykazania kowariancji, wyeliminowania relacji pozornych oraz określenia czasowego porządku występowania zjawisk. Kowariancja Kowariancja oznacza, że dwa zjawiska się współzmieniają. Na przykład, jeżeli zmianie poziomu wykształcenia towarzyszy zmiana wielkości dochodów, to możemy powiedzieć, że wykształcenie współzmienia się wraz z dochodami. Innymi słowy, osoby o wyższym wykształceniu mają większe dochody niż osoby o mniejszym wykształceniu. Z kolei odwrotnie, jeżeli zmianom poziomu wykształcenia nie towarzyszy zmiana wielkości dochodów, to wykształcenie nie współzmienia się wraz z dochodami. W badaniach naukowych pojęcie kowariancji wyrażane jest w postaci miar związku między zmiennymi, czyli korelacji lub inaczej siły p o w i ą z a n i a. Aby stwierdzić, że jedno zjawisko powoduje drugie, należy udowodnić istnienie korelacji pomiędzy tymi zjawiskami. Jeżeli na przykład ubóstwo nie koreluje (nie współzmienia się) z przestępczością, to nie można go traktować jako przyczyny przestępczości. Brak zwiqzków pozornych Drugą operacją, którą należy przeprowadzić, jest wykazanie, że stwierdzona kowariancja nie jest związkiem pozornym. Jak przedstawiliśmy to w rozdziale 3, danego związku nie będziemy traktować jako związku pozornego, jeżeli nie istnieje taka trzecia zmienna, za pomocą której można by ten związek wyjaśnić. Jeżeli kontrolujemy efekty oddziaływania wszystkich istotnych zmiennych i oryginalny związek między dwiema zmiennymi zostaje utrzymany, to związek ten nie jest związkiem pozornym. Stwierdzenie, że dany związek nie jest związkiem pozornym, stwarza 119 mocne podstawy wnioskowania, że pomiędzy zmiennymi istnieje relacja przyczy-nowo-skutkowa, a stwierdzona kowariancja nie jest wynikiem przypadkowego powiązania między zmiennymi. Na rycinie 3.1 pokazaliśmy, że kowariancja pomiędzy liczbą wozów strażackich, które przyjechały na miejsce pożaru, a wielkością strat w wyniku tego pożaru jest związkiem pozornym, ponieważ istnieje trzecia zmienna — wielkość pożaru — która wyjaśnia ten związek. Porzqdek czasowy Trzecią istotną operacją jest wykazanie porządku czasowego, tj. wykazanie, że zakładana przyczyna pojawia się lub zmienia pierwsza, przed zakładanym skutkiem. Logiczny model wnioskowania: trzy niezbędne elementy ¦ Kowariancja. Dwa zjawiska lub więcej zjawisk współzmieniają się. ¦ Brak związków pozornych. Kontrolujemy efekty oddziaływania wszystkich istotnych zmiennych i oryginalny związek między dwiema zmiennymi zostaje utrzymany. ¦ Porządek czasowy. Zakładana przyczyna pojawia się lub zmienia pierwsza przed zakładanym skutkiem. I tak na przykład zgodnie z wynikami wielu badań kowariancja pomiędzy stopniem urbanizacji i rozwojem demokratycznych struktur politycznych nie jest związkiem pozornym. Aby ustalić, że urbanizacja jest przyczynowo powiązana z rozwojem struktur demokratycznych, badacz musi wykazać, że pierwszy czynnik poprzedza drugi. Milcząco przyjmuje się tu założenie, że zjawiska mogące występować w przyszłości nie powinny powodować zjawisk występujących aktualnie bądź w przeszłości. Ustalenie porządku czasowego zazwyczaj nie jest trudne. Status rodziców wpływa na oczekiwania edukacyjne ich dzieci, a nie odwrotnie; zainteresowania polityką wyprzedzają udział w życiu politycznym; depresja wyprzedza samobójstwo. Czasami jednakże porządek czasowy zjawisk bywa trudny do ustalenia. Czy urbanizacja wyprzedza rozwój struktur politycznych, czy też może to rozwój struktur politycznych wyprzedza urbanizację? Czy osiągnięcia następują po motywacji, czy też poziom motywacji zmienia się po osiągnięciach? W rozdziale 6 i 17 omówimy metody wykorzystywane do ustalania porządku czasowego. W tym miejscu chcemy jedynie podkreślić istotność kryterium porządku czasowego w sytuacji, kiedy formułuje się wyjaśnienia o charakterze przyczynowo-skutkowym. ¦ Podstawowe cechy planu badawczego Klasyczny plan badawczy ma cztery podstawowe cechy: możliwość porównywania, manipulowania, kontrolowania i uogólniania. Pierwsze trzy cechy są niezbędne wtedy, kiedy chcemy ustalić zależności przyczynowo-skutkowe pomiędzy zmienną niezależną i zmienną zależną. Porównywanie pozwala wykazać istnienie kowariancji, manipulowanie pomaga ustalić porządek czasowy badanych zjawisk, a kontro- 120 lowanie umożliwia określenie, czy badany związek nie jest związkiem pozornym. Uogólnianie natomiast jest związane z ustalaniem zakresu, w jakim wyniki badań można odnieść do całej populacji lub do innych warunków społecznych. Porównywanie Proces porównywania leży u podstaw pojęcia kowariancji czy korelacji. Porównywanie jest operacją wymaganą wtedy, kiedy chcemy wykazać, że dwie zmienne ze sobą korelują. Przypuśćmy, że chcemy wykazać, że istnieje korelacja pomiędzy paleniem papierosów a rakiem płuc, tj. że palenie papierosów jest związane z większym ryzykiem zachorowania na raka płuc. Aby to sprawdzić, badacz może porównać częstość występowania przypadków raka wśród palaczy i niepalaczy lub porównać częstość występowania przypadków raka w populacji palaczy przed paleniem i po tym, kiedy zaczęli palić. Przypuśćmy z kolei, że jesteśmy przekonani, iż oglądanie telewizji wpływa na zjawisko seksizmu w postrzeganiu roli kobiety i mężczyzny wśród ludzi dorosłych. Powinniśmy zatem oczekiwać kowariancji pomiędzy oglądaniem telewizji i postawami seksistowskimi. Innymi słowy, ludzie dorośli spędzający więcej czasu na oglądaniu telewizji będą ujawniali tradycyjne stereotypy dotyczące płci. Aby oszacować kowariancję pomiędzy oglądaniem telewizji i postawami, moglibyśmy porównać ludzi rzadko i bardzo często oglądających telewizję. Moglibyśmy też porównać, jak zmieniają się poglądy dotyczące roli związanej z płcią po obejrzeniu programu telewizyjnego przedstawiającego te role w tradycyjnym ujęciu. Mówiąc jeszcze inaczej, aby oszacować kowariancję, należy ustalić wynik, jaki uzyskają badani dorośli na wymiarze zmiennej zależnej przed wprowadzeniem i po wprowadzeniu zmiennej niezależnej, czy też porównać grupę osób poddanych oddziaływaniu zmiennej niezależnej z grupą osób, które temu oddziaływaniu nie zostały poddane. W pierwszym wypadku dana grupa jest porównywana sama ze sobą, w drugim porównuje się grupę eksperymentalną z grupą kontrolną. Manipulowanie W pojęciu przyczynowości przyjmuje się, że jeżeli Y jest spowodowane przez X, to znaczy, że zmiany wartości X będą wyprzedzać zmiany wartości Y. Innymi słowy, przyjmuje się, że relacja ta jest relacją niesymetryczną: jedna zmienna jest siłą wywołującą, a druga zmienna jest wywołaną reakcją. Aby stwierdzić przyczyno-wość, zmiana wartości X musi się zdarzyć, zanim wystąpi zmiana Y, gdyż w przeciwnym wypadku zmiennej X nie będzie można uznać za przyczynę. Jeżeli badacz chciałby na przykład wykazać, że uczestniczenie w grupach terapeutycznych dla alkoholików zmniejsza zjawisko niedostrzegania własnych problemów związanych z piciem, to należy wykazać, że liczba aktywnych zaprzeczeń spadła po uczestniczeniu w takiej grupie. Badacz musi również określić metody kontrolowania (tj. manipulowania) sposobu przyporządkowywania do grupy badawczej po to, aby można było dokonać pomiaru liczby zaprzeczeń problemom alkoholowym przed udziałem i po uczestniczeniu w takiej grupie. W badaniach eksperymentalnych, zwłaszcza laboratoryjnych, badacze sami mogą wprowadzić oddziaływanie badawcze. W warunkach naturalnych jednakże taki poziom kontroli zazwyczaj nie jest możliwy. W obu sytuacjach jednak podstawowym dowodem pozwalającym określić sekwencję czasową zdarzeń — tj. że zmienna niezależna wyprzedziła zmienną 121 zależną —jest to, że zmiany zmiennej zależnej pojawiły się dopiero po zadziałaniu zmiennej niezależnej. Kontrolowanie: trafność wewnętrzna planu badawczego Kontrolowanie, trzecie kryterium przyczynowości, wymaga wyeliminowania innych czynników, które mogłyby dostarczyć konkurencyjnych wyjaśnień stwierdzonego związku pomiędzy badanymi zmiennymi. Czynniki te mogłyby zmniejszyć trafność wnioskowania, że zmienne te są ze sobą przyczynowo powiązane. Donald Campbell i Julian Stanley nazwali to problemem trafności wewnętrznej. Aby określić trafność wewnętrzną, badacz musi odpowiedzieć na pytanie, czy określone zmiany wartości zmiennej niezależnej rzeczywiście spowodowały zmiany wartości zmiennej zależnej5. Wysiłek związany z zapewnieniem trafności wewnętrznej jest czynnikiem, od którego zależy plan i wdrożenie projektu badawczego. Czynniki zakłócające trafność wewnętrzną można podzielić na takie, które pojawiają się, zanim wystąpi operacja badawcza — czynniki poza planem — i takie, które są związane z planem badawczym i wpływają na wyniki w trakcie trwania badania. Czynniki poza planem. W badaniach prowadzonych w ramach nauk społecznych, problemy natury etycznej i kwestie praktyczne mogą nie pozwolić na losowe przyporządkowanie badanych osób do grupy eksperymentalnej i kontrolnej. Kiedy trzeba zastosować inne metody przyporządkowania, musimy się liczyć ze stronniczością, czyli efektem doboru. Przyczyną tego zjawiska jest powstawanie różnic pomiędzy grupą eksperymentalną i grupą kontrolną, zanim wystąpi operacja badawcza; różnice te są spowodowane czynnikami pojawiającymi się poza planem badawczym. Jeżeli dwie grupy różnią się między sobą na początku eksperymentu, to trudno będzie później oddzielić efekt doboru od efektu oddziaływania zmiennej niezależnej. I tak na przykład, instytucja Manpower Demonstration Research Corporation, badając skuteczność programu zatrudnienia dla osób otrzymujących zasiłek z opieki społecznej, porównywała ze sobą osoby objęte pomocą społeczną i uczestniczące w federalnym programie zatrudnienia z innymi osobami objętymi pomocą społeczną. Okazało się, że wśród osób objętych tym programem zanotowano wyższy stopień zatrudnienia i wyższe zarobki, co z kolei wpłynęło na zmniejszenie kosztów opieki społecznej ponoszonych przez podatników. Można jednak sformułować konkurencyjne wyjaśnienie zarejestrowanych zmian w poziomie zatrudnienia i w wysokości zarobków. Zgodnie z tym wyjaśnieniem osoby biorące udział w programie różniły się od pozostałych osób objętych opieką społeczną jeszcze przed rozpoczęciem badania. Mogła to być różnica w poziomie motywacji tych osób do poszukiwania pracy i to ona mogła wpłynąć na wyższy stopień zatrudnienia i większe zarobki. Efekt doboru jest szczególnie istotny wtedy, gdy osoby badane same decydują, czy wziąć udział w eksperymencie. W takich wypadkach bowiem badacz nie jest w stanie stwierdzić, czy różnice pomiędzy grupą eksperymentalną i kontrolną zostały spowodowane wyłącznie przez zmienną niezależną, czy też obserwowane efe- 5 Donald T. Campbell, Julian Stanley (1963), Experimental and Quasi-experimental Designs for Research, Skokie, 111.: Rand MacNally, s. 3. 122 kty należy przypisać innym czynnikom związanym z procedurą selekcyjną. Spora liczba programów społecznych jest dostępna dla wielu osób na zasadzie wolnego wyboru. Dlatego też trudno ocenić skuteczność takich programów, między innymi ze względu na efekt doboru. Czynniki związane z procedurą selekcji należy zatem kontrolować, zanim badacz zdecyduje się je wyeliminować jako konkurencyjne wyjaśnienie. Dalej w tym rozdziale omówimy metody kontrolowania czynników związanych z doborem do próby badawczej. Czynniki związane z planem badawczym. Czynniki te obejmują te zmienne, które pojawiły się w trakcie prowadzenia badania i mogły spowodować zmiany w badanych osobach lub w obiektach oraz zmiany w narzędziu pomiarowym. Do czynników tych zaliczamy również efekt oddziaływania samego badania. Poniżej przedstawiamy podstawowe czynniki związane z planem eksperymentalnym, które mogą wpłynąć zakłócająco na trafność interpretowania zależności przyczynowych na podstawie zebranych danych6. 1. Historia to zmienna dotycząca wszelkich zdarzeń zewnętrznych pojawiających się w trakcie badania, które mogą wpłynąć na osoby badane i stworzyć podstawy konkurencyjnego wyjaśnienia zmian wartości zmiennej zależnej. Na przykład w badaniu, którego celem jest oszacowanie wpływu kampanii przedwyborczej na zachowania wyborcze, można sformułować następującą hipotezę: informacje o kandydacie pojawiające się w czasie kampanii mogą wpłynąć na sposób głosowania wyborców. Badanie polega na porównaniu zamiarów wyborców przed ukazaniem się i po pojawieniu się takich informacji. Różnice w przewidywanych głosach między dwiema grupami —jednej, której przedstawiono informacje o kandydatach, i drugiej, która takich informacji nie miała — mogą być wynikiem posiadanych informacji, ale również mogą być wynikiem wydarzeń, które nastąpiły w tym czasie. Mogło na przykład dojść do konfliktu z rządem, mogły się pojawić kryzysy międzynarodowe, mogła się zwiększyć stopa inflacji lub mogły zostać wprowadzone nowe podatki. Im dłuższy czas upłynie między pomiarem początkowym a pomiarem końcowym, tym większe prawdopodobieństwo, że przy formułowaniu alternatywnego wyjaśnienia hipotezy badawczej powinny być uwzględnione wydarzenia inne niż zmienna niezależna. 2. Dojrzewanie obejmuje procesy biologiczne, psychologiczne lub społeczne, które mogą — wraz z upływem czasu — przyczynić się do powstawania zmian w badanych osobach lub obiektach. Zmiany te mogą wpłynąć na zmienną zależną i prowadzić do błędnych wniosków. Przypuśćmy, że interesuje nas ocena wpływu określonej metody uczenia na osiągnięcia uczniów. Rejestrujemy zatem ich osiągnięcia przed wprowadzeniem i po wprowadzeniu tej metody. Jednakże w czasie pomiędzy pomiarem początkowym i pomiarem końcowym uczniowie stali się starsi i być może mądrzejsi. Te zmiany zaś, nie związane z metodą uczenia, mogą wyjaśniać różnice pomiędzy dwoma pomiarami. Dojrzewanie, tak jak historia, stanowi zagrożenie dla trafności wnioskowania o charakterze przyczynowo-skutkowym. 6 Ibidem. 123 3. Utrata osób badanych to czynnik opisujący problemy związane ze zmniejszeniem próby, który powoduje, iż badacz nie jest w stanie zebrać kompletu danych dla wszystkich badanych przypadków. Jeżeli osoby badane wypadają selektywnie z próby eksperymentalnej i z próby kontrolnej, to końcowa próba osób, dla których zebrano wszystkie dane, może być stronnicza. Jeżeli w badaniu wpływu środków masowego przekazu na uprzedzenia okaże się, że większość osób, które wypadły. to osoby uprzedzone, to możemy stwierdzić, że media zmniejszają uprzedzenia. W rzeczywistości jednak jest to efekt utraty osób badanych i to było przyczyną sformułowanej opinii. 4. Instrumentacja opisuje zmiany w narzędziu pomiarowym w okresie między pomiarem początkowym a pomiarem końcowym. Aby powiązać różnicę pomiędzy wynikami w pomiarze początkowym i w pomiarze końcowym ze zmienną niezależną, należy wykazać, że powtórny pomiar dokonany za pomocą identycznego narzędzia, w nie zmienionych warunkach, dostarczy takich samych wyników. Jeżeli wyniki nie będą takie same, to obserwowane różnice można przypisać zmianom w narzędziu pomiarowym, a nie jedynie zmiennej niezależnej. Brak stabilności narzędzia pomiarowego, określanej też jako rzetelność, może być zagrożeniem dla trafności badań eksperymentalnych (por. rozdział 7). Jeżeli na przykład program zwiększania umiejętności poznawczych został oceniony przez porównanie ocen psychologów wystawionych przed wdrożeniem programu i po jego zakończeniu, to każda zmiana standardowego sposobu oceny stosowanego przez psychologów, która nastąpiła w okresie badania, wpłynie stronniczo na wyniki. 5. Testowanie — możliwość uwrażliwienia przez pomiar jest podstawowym problemem nauk społecznych. Innymi słowy, sam proces testowania może zmienić badane zjawisko. Poddanie pomiarowi początkowemu może uwrażliwić osoby badane i zwiększyć ich wyniki w pomiarze końcowym. Różnica pomiędzy wynikami w pomiarze początkowym i w pomiarze końcowym może zatem zostać przypisana nie tyle zmiennej niezależnej, ile raczej doświadczeniu zdobytemu przez osobę badaną w trakcie pomiaru początkowego. Wiadomo na przykład, że osoby badane mogą poprawić swoje wyniki w testach inteligencji przez ich częste rozwiązywanie. Podobnie osoby badane, które poddano pomiarowi początkowemu, mogą się nauczyć odpowiedzi społecznie akceptowanych czy to przez zadawanie pytań, czy przez omawianie odpowiedzi z przyjaciółmi. Następnie w fazie pomiaru końcowego mogą one udzielać takich odpowiedzi, jakich się od nich oczekuje. 6. Niekorzystne zjawisko artefaktu regresji pojawia się wówczas, kiedy osoby badane zostały przyporządkowane do grupy eksperymentalnej na podstawie skrajnie wysokich wyników zmiennej zależnej, uzyskanych przez nie w pomiarze początkowym. Gdy się to zdarzy i zebrane miary nie będą rzetelne, to osobom, które uzyskały wyniki poniżej średniej w pomiarze początkowym, będzie się wydawało, że uzyskają lepsze wyniki w powtórnym badaniu. I odwrotnie osoby, które uzyskały wyniki powyżej średniej w pomiarze początkowym, będą — w powtórnym badaniu — wypadać gorzej. Wszyscy znamy ten problem z własnego doświadczenia w wypełnianiu testów. Niektórzy z nas wypadali w testach szkolnych poniżej własnych oczekiwań. Powodem były czynniki leżące poza naszą kontrolą, nie mające 124 nic wspólnego z naszymi szkolnymi osiągnięciami. Tuż przed egzaminem testowym mogła się nam na przykład przydarzyć bezsenna noc lub też inne ważne sprawy nie pozwalały nam się skupić w trakcie egzaminu. Istnieje duże prawdopodobieństwo, że nie ucząc się dodatkowo i rozwiązując ten test po raz drugi, wypadlibyśmy znacznie lepiej. Generalnie rzecz biorąc, zjawisko artefaktu regresji jest czynnikiem zakłócającym trafność badania wtedy, kiedy postępowanie eksperymentalne może spowodować zmianę wyników tych osób, które w pomiarze początkowym zmiennej zależnej uzyskały skrajne wyniki. I tak na przykład korpusy pracy są uważane za skuteczny program przeznaczony dla nie uczącej się młodzieży z wadami fizycznymi. Program ten zapewnia nauczanie wyrównawcze, kształcenie zawodowe oraz opiekę medyczną. Jeżeli jednak rekrutacja kandydatów na kurs byłaby dokonywana na podstawie skrajnie niskich wyników uzyskanych w nierzetelnym teście, to może się zdarzyć, że osoby te w powtórnym testowaniu uzyskają znacznie lepsze wyniki, mimo że w ich wypadku program ten okazał się nieskuteczny. Jest to możliwe dlatego, że uzyskane niskie wyniki nie mogły być już gorsze, a nierzetelny test wykazał poprawę. Istnieje zatem ryzyko, że stwierdzona poprawa funkcjonowania zostanie błędnie przypisana efektom oddziaływania programu. 7. Interakcje z selekcją. Wiele czynników związanych z planem badawczym, wpływających zakłócająco na trafność wewnętrzną badań eksperymentalnych może wchodzić w interakcję z czynnikiem selekcji i dodatkowo zmniejszać trafność badań eksperymentalnych. Do najczęściej wymienianych czynników należą czynnik interakcji selekcji z historią i dojrzewaniem. Czynnik interakcji selekcji z historią wpływa zakłócająco na trafność planu wtedy, gdy grupa eksperymentalna i grupa kontrolna zostały wybrane z różnych środowisk. Tym samym środowisko może wpływać na sposób reagowania osób badanych w trakcie postępowania eksperymentalnego. Przypuśćmy, że chcemy sprawdzić skuteczność oddziaływania programu szkolenia pokazującego bezrobotnym, jak szukać pracy. Uczestnicy tego programu (grupa eksperymentalna) zostali niestarannie dobrani. Pochodzili z rejonów, w których zamknięto kilkanaście zakładów przemysłowych w momencie zakończenia programu. W efekcie jego uczestnicy mieli ogromne trudności ze znalezieniem pracy. Mogło się zatem wydawać, że program ten nie przyniósł żadnych skutków, a tymczasem to interakcja czynnika selekcji ze specyficznymi warunkami ekonomicznymi w regionie, z którego pochodziły osoby badane, była przyczyną takich wyników. Interakcja czynnika selekcji z dojrzewaniem pojawia się wtedy, kiedy grupa eksperymentalna i grupa kontrolna podlegają procesowi dojrzewania w różnym tempie. Załóżmy, że w pomiarze początkowym i w pomiarze końcowym porównujemy ze sobą rozwój poznawczy kobiet i mężczyzn. Może się okazać, że kobiety dojrzewają szybciej niż mężczyźni i dlatego w pomiarze końcowym uzyskają lepsze wyniki. Procedury kontroli Czynniki związane z planem i pojawiające się poza planem, które wpływają zakłócająco na trafność wewnętrzną wnioskowania o zależnościach przyczynowo-skut-kowych, można kontrolować za pomocą różnych procedur. Naukowcy korzystają 125 z dwóch metod kontroli czynników zewnętrznych w stosunku do planu badawczego. Po pierwsze, stosują dobór wiązany pozwalający kontrolować zmienne znane badaczowi przed rozpoczęciem postępowania eksperymentalnego. Po drugie, stosują randomizację, która pomaga wyrównać działanie czynników nie dających się z góry ustalić. Stosowanie grupy kontrolnej pomaga z kolei wyrównać działanie czynników związanych z planem badawczym. Dobór wiązany jest sposobem wyrównywania grupy eksperymentalnej i grupy kontrolnej ze względu na czynniki nie związane z planem badawczym, o których można założyć, że mają związek z hipotezą badawczą. W celu wyrównania grupy eksperymentalnej i grupy kontrolnej można zastosować dwie metody: dopasowywanie dokładne i dopasowywanie rozkładów częstości. Dopasowywanie dokładne (znane również jako dopasowywanie parami) polega na przyporządkowywaniu każdej osobie z grupy eksperymentalnej jednej osoby z grupy kontrolnej w taki sposób, aby posiadały one identyczne wyróżnione cechy. Kontrolując na przykład efekt wieku, powinniśmy zapewnić, aby każdej osobie wpadającej do określonego przedziału wiekowego w jednej grupie odpowiadała osoba wpadająca do identycznego przedziału wiekowego w drugiej grupie, jak przedstawiono to na rycinie 5.1. Dopasowując osoby badane ze względu na czynniki zewnętrzne w stosunku do planu, badacz może wyciągać wnioski, że zmienne, ze względu na które grupy zostały dopasowane, nie są przyczyną stwierdzanych różnic pomiędzy grupą eksperymentalną i grupą kontrolną. Główną wadą tej metody jest trudność w dopasowywaniu osób, gdy liczba czynników jest duża. Jeżeli chcemy kontrolować wiek, płeć, rasę i wykształcenie, to dla każdego Azjaty, mężczyzny w wieku 30 lat z wykształceniem wyższym w grupie eksperymentalnej musimy znaleźć osobę o takiej samej kombinacji cech, która wejdzie do grupy kontrolnej. Dlatego też w sytuacji, w której chcemy kontrolować wiele cech, trudno znaleźć dopasowane do siebie pary. Badacze stosujący metodę dopasowania dokładnego często tracą około 90% przypadków, dla których nie można znaleźć odpowiadającej im pary. wiek osób z grupy eksperymentalnej 0 0 0 wiek osób z grupy kontrolnej 0 0 © 0000 ©000 © n © © r, © (V) (m) wiek 20-24 lata: 3 osoby wiek 20-24 lata: 3 osoby wiek 25-29 lat: 2 osoby wiek 25-29 lat: 2 osoby wiek 30-34 lata: 5 osób wiek 30-34 lata: 5 osób Ryc. 5.1. Dopasowanie dokładne 126 Alternatywną i bardzo skuteczną metodą dopasowywania jest odwołanie się do rozkładu częstości. Dzięki tej metodzie grupa eksperymentalna i grupa kontrolna są do siebie podobne niezależnie pod względem każdej istotnej zmiennej, anie pod względem ich określonej kombinacji. Dlatego też, zamiast dobierać osoby badane na zasadzie osoba do osoby, dwie grupy dopasowuje się do siebie ze względu na podstawowe charakterystyki. I tak, jeżeli interesuje nas dopasowanie ze względu na wiek, to średni wiek w jednej grupie powinien odpowiadać średniej wieku w grupie drugiej. Jeżeli kontrolujemy płeć, to należy się upewnić, że w obu grupach jest taka sama proporcja kobiet i mężczyzn. Jak pokazano na rycinie 5.2, dwie grupy dopasowano do siebie niezależnie ze względu na każdą zmienną nie związaną z planem. Chociaż dopasowanie ze względu na rozkład częstości jest mniej precyzyjne, to bywa o wiele łatwiejsze do zrealizowania niż dopasowanie dokładne. Pozwala też badaczowi kontrolować kilka czynników, bez niebezpieczeństwa utraty dużej liczby przypadków. Podstawowy problem związany ze stosowaniem metody dopasowywania jako formy kontroli wynika z tego, że badacz zazwyczaj nie wie, które z wszystkich ważnych czynników są najbardziej istotne z punktu widzenia wyjaśniania związku pomiędzy zmienną niezależną i zmnienną zależną. Co więcej, badacz nigdy nie jest pewien, czy uwzględnił wszystkie istotne czynniki. Randomizacja. Dopasowywanie jest metodą pozwalającą kontrolować ograniczoną liczbę wcześniej zdefiniowanych czynników zewnętrznych w stosunku do planu. Jeżeli jednak możliwe byłoby wyeliminowanie efektów działania nawet wszystkich zdefiniowanych czynników, to badacz i tak nigdy nie byłby pewien, czy udałoby mu się zidentyfikować wszystkie czynniki. Te czynniki, których badacz nie byłby świadom, mogłyby się stać powodem błędnych wniosków o zależnościach przyczy-nowo-skutkowych. Problem ten można ominąć, stosując inną procedurę przyporządkowywania osób badanych do grupy eksperymentalnej i grupy kontrolnej, a mianowicie procedurę randomizacji. Randomizację można zrealizować, rzucając monetą, wiek i płeć osób z grupy eksperymentalnej wieki i płeć osób z grupy kontrolnej © ® © © @ © ©©©© ©©©© © ^ © 0 © ® przeciętny wiek 28,1 lat kobiety: 60% mężczyźni: 40% F — kobiety M — mężczyźni przeciętny wiek 28,0 lat kobiety: 60% mężczyźni: 40% Ryc. 5.2. Dopasowanie ze względu na rozkład częstości 127 posługując się tablicami liczb losowych czy wykorzystując jakąkolwiek inną metodę gwarantującą, że każda osoba będzie miała jednakowe szanse znalezienia się w grupie eksperymentalnej lub w grupie kontrolnej. Przypuśćmy, że badacz chce sprawdzić hipotezę o tym, że udział pracowników w procesie podejmowania decyzji dotyczących ich miejsca pracy wpływa na proces produkcji. Pracownicy zostali podzieleni na grupę eksperymentalną i kontrolną. Osobom z grupy eksperymentalnej umożliwiono udział w decyzjach dotyczących planu pracy i jej organizowania. Poziom produkcji w obu grupach mierzono na początku i na końcu eksperymentu. Celem badania było stwierdzenie, czy pracownicy, którzy uczestniczą w procesie decyzyjnym, wytwarzają istotnie więcej w porównaniu z pracownikami z grupy kontrolnej. Poziom produkcji jednakże jest wyznaczony licznymi czynnikami innymi niż udział w procesie decyzyjnym, tj. innymi niż czynnik bezpośrednio włączony do badania. Czynnikami wyjaśniającymi obserwowane różnice mogą być czynniki charakteryzujące jednostkę, takie jak: wiek, sprawność fizyczna, inteligencja czy motywacja. Być może osoby najbardziej wydajne to osoby o wysokiej motywacji, większej inteligencji, bardziej sprawne fizycznie i młodsze. Brak kontrolowania sposobu przydzielania pracowników do grup może spowodować, że do grupy eksperymentalnej zgłoszą się na ochotnika osoby spośród młodszych pracowników, o największej motywacji, bardziej inteligentne i sprawne fizycznie. A to może stanowić wyjaśnienie zwiększonego poziomu produkcji. Jednym ze sposobów wykluczenia działania tych zmiennych jest dobór parami (por. ryc. 5.1). Innym sposobem jest randomizacja, czyli losowy przydział pracowników do grupy eksperymentalnej i kontrolnej, przeprowadzony za pomocą rzutu monetą lub tablicy liczb losowych (por. dodatek D). Rzut monetą jest prostą metodą — wypadnięcie orła to przydzielenie do jednej grupy, wypadnięcie reszki —do drugiej. Tablicą liczb losowych można się natomiast posługiwać z wielu powodów i na wiele różnych sposobów — na stronie 209 opisujemy, w jaki sposób należy z takich tablic korzystać. Procedura randomizacji zapewnia, że motywacja, inteligencja, sprawność fizyczna i przeciętny wiek będą wykazywały podobne rozkłady w dwóch grupach. W efekcie każdą różnicę w poziomie produkcji pomiędzy grupami będzie można wyjaśnić tym, że pracownicy z grupy eksperymentalnej brali udział w procesie decyzyjnym. Innymi słowy, randomizacja znosi efekty oddziały-wania stałego błędu spowodowanego czynnikami zewnętrznymi w stosunku do planu eksperymentalnego, które mogą być powiązane albo ze zmienną zależną (poziom produkcji), albo ze zmienną niezależną (udział w procesie decyzyjnym). Korzyści tej metody polegają na tym, że pozwala ona na jednoczesną kontrolę wielu czynników nawet wtedy, gdy badacz nie jest świadomy ich oddziaływania. Stosując tę metodę, badacz może wyrównać grupę eksperymentalną i kontrolną pod kątem wszystkich wyjściowych różnic pomiędzy nimi. Grupa kontrolna. Tworząc grupę kontrolną, która nie jest poddawana oddziaływaniom czynnika eksperymentalnego, badacze kontrolują czynniki związane z planem eksperymentalnym. W sytuacji idealnej grupa eksperymentalna i grupa kontrolna powinny zostać wybrane w sposób losowy lub dopasowane w taki sposób, aby obie miały dokładnie takie same cechy charakterystyczne. Obie grupy są poddawane również identycznym oddziaływaniom w trakcie eksperymentu, z wyjątkiem różnego oddziaływania zmiennej niezależnej. W efekcie cechy sytuacji eksperymentalnej 128 czy zdarzenia zewnętrzne zachodzące w czasie trwania eksperymentu będą wpływać w jednakowy sposób na obie grupy i nie będą mylnie utożsamiane z efektem oddziaływania zmiennej niezależnej. Tworząc grupę kontrolną, badacz kontroluje większość czynników związanych z planem badawczym, które mogłyby wpłynąć zakłócająco na trafność eksperymentu. Czynnik historii nie stanowi konkurencyjnej hipotezy, ponieważ te same wydarzenia zachodzące w czasie eksperymentu wpływają zarówno na grupę eksperymentalną, jak i na grupę kontrolną. Czynnik dojrzewania jest również neutralizowany, ponieważ obie grupy przechodzą te same zmiany. Stworzenie grupy kontrolnej nie chroni jednak przed utratą osób badanych. Może bowiem zdarzyć się tak, że z jednej grupy wypadnie więcej przypadków niż z drugiej, co sprawi, że wyniki eksperymentu będą stronnicze. Procedurą dopuszczalną jest włączanie przez badaczy do końcowej próby jedynie tych przypadków, dla których zebrano komplet danych, dostarczenie informacji o liczbie utraconych osób badanych i omówienie konsekwencji tego faktu. Stosowanie grupy kontrolnej pozwala badaczom również na uniknięcie efektu oddziaływania zmian w narzędziu pomiarowym. Jeżeli zmiana wyników w pomiarze początkowym i końcowym została spowodowana przez brak rzetelności narzędzia pomiarowego, to ujawni się to w jednakowy sposób w obu grupach. Metoda ta jest jednakże rozwiązaniem problemu zmian w narzędziu pomiarowym jedynie wtedy, kiedy warunki testowania w obu grupach są identyczne. Posługiwanie się grupą kontrolną jest również odpowiedzią na problem testowania. Ewentualny, uwrażliwiający wpływ procedury pomiarowej dotyczy obu grup i nie jest przyczyną błędnych interpretacji. Posługiwanie się grupą kontrolną jest również pomocne przy wyrównywaniu efektów działania tych czynników, które wchodzą w interakcje z czynnikiem selekcji (np. selekcja-dojrzewanie, selekcja-historia czy podobne interakcje), jednak jedynie wtedy, gdy badacz stosuje również inne metody kontroli czynników zewnętrznych w stosunku do planu eksperymentalnego, takie jak dobór wiązany czy rando-mizację. Metody te gwarantują, że grupa, która zostanie potraktowana jako grupa kontrolna, będzie miała te same właściwości i obie grupy będą obowiązywać identyczne warunki w trakcie eksperymentu. Uogólnianie: trafność zewnętrzna Trafność zewnętrzna stanowi zasadniczy problem w badaniach społecznych. Można jednakże postawić inne istotne pytanie dotyczące zakresu, w jakim wyniki badań można uogólniać na większe zbiorowości osób i przenosić na inne warunki społeczne czy polityczne. Większość badań koncentruje się nie tylko na analizowaniu wpływu jednej zmiennej na drugą w określonych warunkach, lecz także stawia pytanie o to, jakie jest to oddziaływanie w innych warunkach społecznych i czy da sieje przenieść na większe zbiorowości osób. Odpowiedź na to pytanie mieści się w pojęciu trafności zewnętrznej planu badawczego. Podstawowymi zagadnieniami związanymi z trafnością zewnętrzną są problemy reprezentatywności próby oraz uwrażliwiający wpływ warunków badania. Reprezentatywność próby. Aby zapewnić trafność zewnętrzną badania, należy zadbać o to, aby cechy charakteryzujące osoby badane odzwierciedlały cechy charakteryzujące badaną populację. Chociaż procedura randomizacji gwarantuje trafność wewnętrzną planu badawczego, to nie gwarantuje całkowicie, że badana próba bę- 129 dzie reprezentatywna dla interesującej badacza populacji. Może bowiem zdarzyć się tak, że wyniki, które są wewnętrznie trafne, mogą być specyficzne dla określonej grupy osób, które wzięły udział w badaniu. Taki efekt może się pojawić wtedy, kiedy mamy trudności z doborem osób badanych. Rozważmy przykład badań eksperymentalnych prowadzonych na grupie studentów college'u, dobrze zaplanowanych, jednak opartych na doborze ochotniczym. Badacz nie może przyjąć, że ta grupa jest reprezentatywna dla całej populacji studentów. Aby można było uogólnić wyniki poza ograniczony zakres konkretnego badania, badacz musi starannie wybrać próbę, posługując się taką metodą doboru, która zapewnia reprezentatywność. Metody oparte na rachunku prawdopodobieństwa, takie jak dobór losowy, pozwalają dokonywać generalizacji na większe, wyraźnie zdefiniowane populacje (por. rozdział 8). Od strony teoretycznej zarówno grupa eksperymentalna, jak i grupa kontrolna powinny stanowić próbę wylosowaną z populacji. W praktyce jednakże tworzenie próby losowej dla potrzeb eksperymentu napotyka trudności takie jak wysokie koszty i dużą liczbę osób, które odmówiły współpracy. Elementy klasycznego planu badawczego ¦ Porównywanie. Operacja, która pozwala określić, czy dwie zmienne współzmieniają się (korelują ze sobą). ¦ Manipulowanie. Operacja, której celem jest kontrolowanie sposobu przyporządkowywania do grupy badawczej po to, aby badacz mógł określić sekwencję czasową zdarzeń i upewnić się, że zmiany wartości zmiennej niezależnej wyprzedziły zmiany wartości zmiennej zależnej. ¦ Kontrolowanie. Operacja, która umożliwia badaczowi wyeliminowanie konkurencyjnych wyjaśnień zmian wartości zmiennej zależnej. Badacze muszą w tym celu kontrolować zarówno czynniki zewnętrzne w stosunku do planu badawczego, tj. czynniki selekcji, jak i czynniki wewnętrzne, takie jak historia i dojrzewanie. ¦ Uogólnianie. Zakres, w jakim wyniki badań mogą zostać uogólnione na większe zbiorowości osób i przeniesione na inne warunki społeczne czy polityczne. Uwrażliwiający wpływ warunków badania. Problem zmniejszenia trafności zewnętrznej powstaje wówczas, kiedy warunki eksperymentu lub sytuacja ekspery mentalna nie odzwierciedlają rzeczywistych warunków czy sytuacji, na które badacz chciałby uogólnić swoje wyniki. Kiedy badanie jest realizowane w sztucznych warunkach czy w wymyślonej sytuacji (np. laboratoryjnej), to cechy tej sytuacji mogą wpłynąć na sposób reagowania osób badanych. Dla przykładu przypomnijmy tu głośne badanie Muzafera Sherifa, którego celem było zbadanie, w jaki sposób normy grupowe — wskazówki, jak się zachować — wpływają na jednostkę znajdującą się w sytuacji, w której nie ma żadnych zewnętrznych punktów odniesienia7. 7 Muzafer Sherif (1937), An Experimental Approach to the Study of Attitudes, „Sociometry" 1, s. 90-98. 130 ¦ Sherif eksperymentalnie stworzył sytuację pozbawioną zewnętrznych punktów odniesienia, wykorzystując w tym celu efekt autokinetyczny, powstający wówczas, gdy w całkowicie ciemnym pokoju pojawia się promień światła. Z powodu braku zewnętrznych punktów odniesienia promień światła wydaje się chaotycznie przesuwać z miejsca na miejsce. Sherif stwierdził, że na relacje uczestników dotyczące ruchów światła wpływały odpowiedzi udzielane przez innych członków grupy. Można jednakże sądzić, że sytuacja eksperymentalna, w której osoby badane znajdują się w ciemnym pokoju i udzielają odpowiedzi na temat promieni świetlnych, nie przypomina codziennych sytuacji społecznych. Dlatego też otrzymane wyniki mogą być po prostu specyficzne jedynie dla tej sztucznej sytuacji. Wiele innych czynników związanych z warunkami badania może oddziaływać uwrażliwiająco i wpływać na trafność zewnętrzną badania. Pomiar początkowy może na przykład wpływać na sposób, w jaki jednostka reaguje na bodźce eksperymentalne. Efekt tego oddziaływania będzie zatem specyficzny dla populacji, która została poddana pomiarowi początkowemu. Postawy czy zachowanie eksperymentatora mogą wpływać na sposób, w jaki reaguje osoba badana ze względu na to, że osoby badane starają się reagować tak, jak oczekuje eksperymentator. Jest to szczególnie ważne w badaniach sondażowych, w których należy neutralnie formułować pytania, aby uniknąć sugerowania odpowiedzi (por. rozdział 11). ¦ Rodzaje planów badawczych Plany badawcze można sklasyfikować w zależności od tego, w jakim zakresie spełniają one wymienione dotąd kryteria. Niektóre z planów pozwalają badaczom na manipulowanie zmiennymi, jednak nie umożliwiają stosowania metod kontroli czy zastosowania adekwatnych metod doboru grup. Inne plany z kolei zawierają grupę kontrolną, jednak nie pozwalają badaczowi na kontrolowanie zabiegu manipulowania zmienną niezależną. Biorąc to pod uwagę, możemy wyróżnić cztery podstawę rodzaje planów badawczych: eksperymentalny, quasi-eksperymentalny, przekrojowy i preeksperymentalny. W planach eksperymentalnych osoby czy inne badane obiekty są losowo przyporządkowywane do grupy eksperymentalnej i grupy kontrolnej, a zmienna niezależna oddziałuje jedynie w grupie eksperymentalnej. Plany te umożliwiają porównywanie, kontrolowanie, manipulowanie i zazwyczaj uogólnianie. Plany quasi-eksperymentalne i przekrojowe mają kilka — choć nie wszystkie — z wymienionych cech. Najczęściej plany te nie spełniają wymogu manipulacji i randomizacji. Plany preeksperymentalne zawierają jeszcze mniej zabiezpie-czeń niż plany quasi-eksperymentalne oraz przekrojowe i w tym sensie są najmniej wiarygodne w procesie stwierdzania zależności przyczynowo-skutkowych między dwiema lub więcej zmiennymi. W rozdziale tym prezentujemy najczęściej stosowane plany eksperymentalne. Plany preeksperymentalne, quasi-eksperymentalne oraz przekrojowe przedstawimy w rozdziale 6. Eksperyment kontrolowany Klasyczny plan eksperymentalny przedstawiony w tabeli 5.1 jest jednym z najsilniejszych modeli logicznych pozwalających na dokonywanie wnioskowania o cha- 131 rakterze przyczynowo-skutkowym. Plan ten pozwala przeprowadzić pomiar początkowy, pomiar końcowy oraz porównać grupę kontrolną z grupą eksperymentalną. Umożliwia też manipulowanie zmienną niezależną i — w konsekwencji — określenie następstwa czasowego. Co więcej, dzięki wykorzystywaniu grup, które zostały losowo dobrane, plan ten umożliwia kontrolowanie większości źródeł trafności wewnętrznej. Trafność zewnętrzna tego planu jest jednak mała i nie pozwala badaczom na uogólnianie zebranych wyników na inne — niż badana — populacje. W tym względzie lepsze są dwie odmiany planu klasycznego: czterogrupowy plan Solomona i plan z grupą kontrolną i tylko pomiarem końcowym. Czterogrupowy plan Solomona Pomiar początkowy przeprowadzany w warunkach eksperymentalnych ma zarówno swoje zalety, jak i wady. Mimo że pomiar początkowy stwarza podstawy i do oceny sekwencji czasowych, i dokonania operacji porównywania, to uwrażliwiający efekt jego działania jest niebagatelny. Uwrażliwiając wylosowaną zbiorowość, pomiar początkowy może bowiem wpłynąć na pomiar końcowy. I tak na przykład dokonanie pomiaru postaw społecznych w stosunku do polityki rządu, zanim zostanie ona wdrożona, może — w porównaniu z grupą bez pomiaru początkowego — wpłynąć uwrażliwiająco na zachowania osób badanych w pomiarze końcowym. Jest to możliwe dlatego, że pomiar początkowy może spowodować, iż osoby badane zaczną się zastanawiać i analizować możliwe konsekwencje wdrożenia tej polityki. Co więcej, w wielu wypadkach przeprowadzenie pomiaru początkowego może się okazać nierealne. Tak się dzieje na przykład w szkolnictwie, gdzie bardzo często przeprowadza się eksperymenty dotyczące nowych metod nauczania. W takiej sy- j tuacji pomiar początkowy nie jest oczywiście możliwy. Czterogrupowy plan Solomona przedstawiony w tabeli 5.2 ma takie same cechy! jak plan klasyczny oraz dodatkowo wprowadza grupę eksperymentalną i grupę kontrolną bez pomiaru początkowego. Dlatego też poprzez porównanie ze sobą dwóch grup eksperymentalnych (02 i 05) oraz dwóch grup kontrolnych (Oą i ć>6) pozwala na bezpośredni pomiar uwrażliwiającego efektu testowania. Dzięki przeprowadzeniu takich porównań możemy ocenić, czy zmienna X oddziałuje inaczej w grupach, w których nie przeprowadzono uwrażliwiającego pomiaru początkowego. Jeżeli się okaże, że zmienna niezależna wywiera wpływ na zmienną zależną również wtedy, kiedy nie dokonano pomiaru początkowego, to otrzymane wyniki można uogólniać I na populację, w której przed zadziałaniem zmiennej X nie dokonano wcześniejszego pomiaru. Według Campbella i Stanleya: nie tylko zwiększa on możliwość uogólniania wyników, ale również pozwalał ocenić efekt oddziaływania zmiennej X na cztery różne sposoby: 02 > 0{M 02 > Oą, 05 > 06 i Ot > 03. Występujący realnie brak stałości warunków po-1 stępowania eksperymentalnego sprawia, że otrzymanie zgodnych wyników tych porównań gwarantuje większą pewność naszego wnioskowania8. 8 Campbell, Stanley, Experimental and Quasi-experimental Designs, s. 25. 132 Tabela 5.2. Czterogrupowy plan Solomona Pomiar początkowy Pomiar końcowy R O, X 02 R O, 04 R X Os R 06 Przykład: „Wyprzedawanie Pentagonu". Ciekawego przykładu zastosowania planu czterogrupowego dostarczają badania dotyczące wpływu programów telewizyjnych na politykę9. We wczesnych latach sześćdziesiątych większość specjalistów z dziedziny nauk politycznych była mocno przywiązana do teorii, zgodnie z którą telewizja i inne mass media wywierają minimalny wpływ i generalnie są spostrzegane jako środki nie mające większego znaczenia. Stanowisko to zaczęło się zmieniać pod koniec dekady, kiedy w trakcie wojny w Wietnamie i demonstracji studenckich dziennikarstwo telewizyjne znalazło się w centrum zainteresowania opinii publicznej. W swoich badaniach Robinson poszukiwał związku pomiędzy programami informacyjnymi produkowanymi przez duże sieci telewizyjne a polityką. Postawił on, między innymi, takie pytania: Czy wiadomości telewizyjne wpływają na etos prowadzonej przez państwo polityki? Czy podsycają one postawę cynizmu i uczucie bezradności? Czy mają wpływ na wybory? Robinson wykorzystał czterogrupowy plan Solomona, aby sprawdzić, 'jaki wpływ wywarł wyprodukowany przez sieć CBS film dokumentalny The Selling of the Pentagon („Wyprzedawanie Pentagonu") na opinie ludzi dotyczące wojska, administracji i mediów. (W rzeczywistości Robinson przeprowadził dwa zestawy eksperymentów — w pierwszym badał efekty oddziaływania programu telewizyjnego, w drugim zaś analizował oddziaływanie komentarza przedstawionego na końcu programu. Tu przedstawimy jedynie badania z pierwszej grupy). Aby sprawdzić efekt oddziaływania programu telewizyjnego, wykorzystano plan badawczy z dwiema grupami eksperymentalnymi i dwiema grupami kontrolnymi. Pomiar początkowy przeprowadzono w stosunku do niektórych (nie wszystkich) uczestników badania. W grupach eksperymentalnych dokonano pomiaru końcowego natychmiast po zakończeniu emisji filmu. W grupach kontrolnych natomiast, tuż przed emisją przeprowadzono badanie wstępne. Kolejne badanie przeprowadzono we wszystkich grupach dwa miesiące później. Otrzymane wyniki przedstawiono w tabeli 5.3. Pomiar początkowy i pomiar końcowy polegały na wypełnieniu kwestionariusza dotyczącego opinii i stopnia zaufania w stosunku do: instytucji społecznych i politycznych, urzędników państwowych, osób prywatnych i organizacji skupiających media. Kwestionariusz zastosowany w drugim badaniu dotyczył tych samych tematów, był jednak nieco krótszy. 'Michael J. Robinson (1976), Public Affairs Television and the Growth of Political Malaise: The Case of"The Selling of the Pentagon", „American Political Science Review", 70, s. 409-432. 133 Tabela 5.3. Eksperyment „Wyprzedawanie Pentagonu" Pomiar początkowy Rodzaj Pomiar końcowy Kolejne badanie (listopad 1971) działania (grud zień 1971) (luty 1972) Grupa A tak program tak tak Grupa B nie program tak tak Grupa C tak kontrola tak tak Grupa D nie kontrola tak tak Na podstawie: Michael J. Robinson (1976). Public Affairs Television and the Growth of Political Malaise: The Case of "The Selling of the Pentagon", „American Political Science Review", 70, s. 412. Analiza wyników tego eksperymentu pozwala lepiej zrozumieć praktyczną! stronę badań społecznych. Robinson wybrał początkowo plan Solomona, ponieważ I zapewnia on skuteczny sposób kontrolowania wszystkich potencjalnych czynni-1 ków, które mogłyby być źródłem alternatywnych wyjaśnień otrzymanych wyni-1 ków. Wprowadzenie grupy eksperymentalnej oraz grupy kontrolnej bez pomiani I początkowego stworzyło jednak wiele problemów. Okazało się, że osoby z grupy I B i grupy D, które nie przeszły przez etap pomiaru początkowego, zdecydowanie I mniej chętnie zgadzały się na udział w badaniach kwestionariuszowych w porów-1 naniu z osobami, które już wypełniały ten kwestionariusz. Spowodowało to tak du- I żą utratę osób badanych w tych dwóch grupach, że w analizie wyników badacze I mogli wykorzystać jedynie grupy z pomiarem początkowym. Uzyskane wyniki potwierdziły, że film dokumentalny The Selling ofthePeml tagon zmienił opinie ludzi o funkcjonowaniu amerykańskiego wojska na mniej pozytywne. Osoby z grup eksperymentalnych spostrzegały wojsko jako chętniej an-1 gazujące się w sprawy polityczne i chętniej poszukujące określonych korzyści politycznych, niż były skłonne wcześniej przypuszczać. W grupie kontrolnej natomiast I nie odnotowano istotnych zmian w żadnej ze spraw. Wywołana eksperymentalnie I zmiana opinii jest tu bardzo ważna, ponieważ zmieniła ona postawy osób badanych I na „mniej lojalne", tj. spowodowała, iż uznały one, że polityka rządu jest zła. Plan badawczy z grupą kontrolną i tylko pomiarem końcowym (posttestem) Chociaż czterogrupowy plan Solomona jest mocnym planem eksperymentalnym, to I jego stosowanie okazuje się często niepraktyczne i zbyt kosztowne. Może się też I okazać, że wymagany w nim pomiar początkowy działa uwrażliwiająco*. Plan ba-1 dawczy z grupą kontrolną i tylko z pomiarem końcowym jest odmianą zarówno I planu klasycznego, jak i planu Solomona. W planie tym w ogóle rezygnuje się z po-1 miaru początkowego. W tabeli 5.4 przedstawiono schemat takiego planu. Jakwi-1 dać, plan ten składa się z identycznych grup jak dwie ostatnie grupy w planie So-1 lomona, w których nie przeprowadza się pomiaru początkowego. Osoby badane zo I stają losowo przyporządkowane zarówno do grupy eksperymentalnej, jak i do kona * Posługiwanie się planem Solomona oraz złożoną analizą statystyczną uzyskanych wyników, taką jak analiza konwergencji, daje najlepszą ocenę efektu ewentualnego uwrażliwiającego wpływu pomiaru początkowego (pretestu) na zmienną zależną (wyniku pomiaru końcowego). W sytuacjach wa pliwych badacz zawsze powinien odwoływać się do planu Solomona (przyp. red. nauk.). trolnej, a pomiaru dokonuje się w trakcie lub po zakończeniu oddziaływania zmiennej niezależnej. Tabela 5.4. Plan badawczy z grupą kontrolną i tylko z pomiarem końcowym Pomiar końcowy R X O, R 02 Przypuśćmy, że przeprowadzając badanie dotyczące wpływu pogadanek oświatowych na zmianę postaw ludzi wobec wirusa AIDS, badacz losowo przyporządkowuje osoby badane do dwóch grup. Jedna grupa bierze udział w czterogodzinnej prelekcji na temat AIDS. Następnie w obu grupach przeprowadza się wywiad i porównuje uzyskane odpowiedzi. Przedmiotem porównania są postawy dotyczące bezpiecznego seksu w grupie eksperymentalnej i kontrolnej. Jeżeli różnica między postawami okaże się istotna, to można przyjąć, że pogadanka wpłynęła na zmianę postaw. Dzięki temu, że osoby badane zostały losowo przyporządkowane do grup badawczych, badacz może wyprowadzać wnioski dotyczące porządku czasowego. Procedura ta eliminuje bowiem wszelkie początkowe różnice pomiędzy grupami, co pozwala na wyciągnięcie wniosku, że przyczyną zaobserwowanej różnicy postaw jest wysłuchana prelekcja. Plan z grupą kontrolną i pomiarem końcowym umożliwia kontrolowanie wszystkich źródeł braku trafności związanych z planem badawczym. Ponieważ pomiar początkowy tu nie występuje, dlatego też testowanie i instrumentacja nie mogą wpływać na obniżenie trafności planu. Pozostałe czynniki związane z planem (wewnętrzne) są w pełni kontrolowane, ponieważ na obie grupy wpływają takie same zdarzenia zewnętrzne i obie podlegają takiemu samemu procesowi dojrzewania. Ponadto czynnik selekcji, który jest zewnętrzny w stosunku do planu badawczego —dzięki losowemu przyporządkowaniu osób badanych do grup badawczych — także podlega tu kontroli, co przeciwdziała powstawaniu początkowych różnic między grupami. Plany eksperymentalne umożliwiające badanie skutków rozciqgniętych w czasie We wszystkich schematach eksperymentalnych, które opisaliśmy do tej pory, efekt oddziaływania zmiennej niezależne/ na zmienną rsieżną można bykr zarejestrować natychmiast lub krótko po zakończeniu badania. Czasami jednak efekt ten może się pojawiać znacznie później i może być rozciągnięty w czasie. Szczególnie wyraźnie uwidacznia się to w badaniach dotyczących polityki i w badaniach, w których zmienną zależną są postawy. Załóżmy, że chcielibyśmy zbadać, jak płeć i rasa wpływają na proces integracji w szkołach i wpływ tego procesu na zjawisko rasizmu i seksizmu wśród uczniów. Jest mało prawdopodobne, aby efekt wprowadzonego w szkole programu integracji ujawni! się natychmiast i dlatego rejestrowanie ewentualnych zmian postaw musi zostać rozciągnięte w czasie. W podobnej sytuacji znajdziemy się również wówczas, kiedy będziemy chcieli zbadać, jaki wpływ może wywrzeć ograniczenie pra- 135 wa do aborcji na prawybory kandydatów. W tym wypadku badacz będzie zainteresowany sprawdzeniem i określeniem warunków, w jakich ludzie zmieniają swoje zachowania wyborcze w odpowiedzi na bardziej restryktywną politykę dotyczącą aborcji. Zmian tych jednakże nie można oczekiwać natychmiast, zatem oszacowanie zmian w sposobie głosowania będzie możliwe znacznie później. Jednym z rozwiązań problemu opóźnionego efektu badania może być wprowadzenie dodatkowych sesji pomiaru końcowego, np. po sześciu miesiącach lub po roku. Kiedy badanie jest przeprowadzane na przykład w szkole, wprowadzenie dodatkowych sesji pomiaru końcowego jest wygodnym rozwiązaniem, zwłaszcza że dzieci chodzą do szkoły i zebranie ich nie nastręcza żadnych kłopotów. Jednakże — o czym pisali Campbell i Stanley — trzeba pamiętać, że: przeprowadzanie kolejnych pomiarów końcowych przez badacza sprawia, że powtarzanie pomiarów u tych samych osób może, analogicznie jak pomiar początkowy, wpływać zakłócająco na trafność planu. Dlatego też lepszym rozwiązaniem jest tworzenie zestawów grup eksperymentalnych i kontrolnych dla każdego kolejnego pomiaru końcowego oddalonego w czasie10. Przykład takiego planu przedstawiliśmy w tabeli 5.5. Tabela 5.5. Plan eksperymentalny do badania efektu eksperymentalnego przesuniętego w czasie Pomiar początkowy Pomiar końcowy Pomiar końcowy R o, X o2 R o3 o4 R o, X o6 R o7 o, Taką sama metodę podwajania grupy eksperymentalnej można również zastosować i w innych planach badawczych. Plany czynnikowe We wszystkich planach badawczych, które omówiliśmy dotychczas, występowała tylko jedna zmienna niezależna (postępowanie eksperymentalne), która oddziaływała w grupie eksperymentalniej i nie oddziaływała w grupie kontrolnej. Zmienną niezależną była na przykład pogadanka oświatowa, film czy polityka społeczna i w każdym z tych przykładów badano efekt oddziaływania tylko jednej zmiennej. Czasami jednak badacze mogą uzyskać więcej informacji, badając efekt jednoczesnego oddziaływania dwóch lub więcej zmiennych niezależnych. Z badań nad funkcjonowaniem instytucji wynika, że wielkość instytucji jest powiązana z morale jej pracowników. Duże instytucje mają tendencję do stawiania swoich pracowników w sytuacjach stresowych i wpływają na obniżanie morale. Chociaż wielkość instytucji jest ważnym czynnikiem wpływającym na morale jej pracowników, to jednak 10 Campbell, Stanley, Experimental and Quasi-eksperymental Designs, s. 32. 136 badacz nie może analizować jej niezależnie od innych zmiennych związanych z funkcjonowaniem instytucji. Duże instytucje mogą się różnić strukturą — niektóre minimalizują negatywny efekt wielkości poprzez wprowadzanie decentralizacji. Badanie efektu więcej niż jednej zmiennej niezależnej wymaga dużej liczby grup eksperymentalnych i wprowadzenia planu czynnikowego*. Przypuśćmy, że zmiennymi niezależnymi będą dla nas wielkość instytucji i stopień decentralizacji, a morale pracowników będzie zmienną zależną. Jeżeli każda ze zmiennych niezależnych będzie przyjmować jedynie dwie wartości (zmienne dychotomiczne), to do zbadania wszystkich kombinacji wartości tych zmiennych potrzebne będą cztery grupy eksperymentalne. Kombinacje te przedstawiliśmy w tabeli 5.6. Tabela 5.6. Możliwe kombinacje zmiennych w planie dwuzmiennowym Wielkość Duża Mata 1 2 3 4 Możliwe są następujące kombinacje: (1) instytucja duża i wysoka decentralizacja, (2) instytucja mała i wysoka decentralizacja, (3) instytucja duża i niska decentralizacja oraz (4) instytucja mała i niska decentralizacja. W wypadku tego problemu można zastosować każdy z planów omówionych wcześniej. Na przykład w tabeli 5.7 przedstawiono plan z grupą kontrolną i pomiarem końcowym. W tabeli tej X, doX4 oznaczają cztery możliwe kombinacje z tabeli 5.6, a O, do Oą to końcowe pomiary morale. Osoby badane zostały oczywiście losowo przyporządkowane do czterech grup badawczych. Tabela 5.7. Plan czynnikowy zastosowany do badania wpływu wielkości instytucji i stopnia decentralizacji na morale pracowników Pomiar końcowy R *i fi, R *2 Q2 R *3 fi3 R *4 G4 Trafność zewnętrzna planów czynnikowych. Podstawową zaletą korzystania * Plany czynnikowe (o dowolnej liczbie czynników dwu- i więcej wartościowych) wymagają odwołania się do statystycznego modelu analizy wariancji (ANOVA). Por. Brzeziński J., Stachowski R. (1984), Zastosowanie analizy wariancji w eksperymentalnych badaniach psychologicznych, wyd. 2, Warszawa: PWN. 137 z planów czynnikowych jest możliwość rozszerzenia zakresu generalizowania wyników. Zamiast „kontrolowania wszystkiego", jak to było w planach jednozmien-nowych, badacz może wprowadzić dodatkowe, istotne z punktu widzenia badania, zmienne. Każda z nich może mieć dwie lub więcej wartości. Dzięki temu badacz, uogólniając wyniki badań, nie jest ograniczony tylko do jednego, stałego poziomu I każdej z tych zmiennych. Badacz może wyprowadzać wnioski o tym, że badany I efekt (morale) wystąpi na wszystkich poziomach danej zmiennej lub że efekt ten I jest różny na różnych poziomach tej czy innej zmiennej. Duże, wysoko zdecentra- I lizowane firmy mogą kształtować morale pracowników w podobny sposób, jak czy-1 nią to małe firmy o niskim stopniu decentralizacji. Decentralizacja może się w sposób istotny przyczyniać do poprawy morale pracowników w dużych firmach, jed- I nak bywa, że nie przynosi żadnych efektów w firmach małych. Plany czynnikowe I zwiększają trafność zewnętrzną eksperymentów, albowiem — jak stwierdził Ro- I nald A. Fisher: Każdy wniosek [...] ma mocniejsze podstawy indukcyjne, jeżeli został wypro- I wadzony na podstawie eksperymentu, w którym użyto zróżnicowanej liczby I składników niż w eksperymencie, w którym składniki te są utrzymywane na I stałym poziomie. Dokładna standaryzacja warunków badania, która często jest I nierozważnie zalecana jako panaceum, zawsze ma wadę polegającą na tym, żel wysoko standaryzowany eksperyment pozwala na wyciąganie bezpośrednich ¦ wniosków tylko w stosunku do wąskiego zakresu warunków określonych ¦ w procesie standaryzacji. Dlatego też standaryzacja osłabia raczej, niż wzmacnia podstawy naszego wnioskowania o występowaniu podobnych rezultatów wtedy, kiedy — zazwyczaj w praktyce — warunki są nieco bardziej zróżnico-J wane". Efekty interakcji w planach czynnikowych. Zaletą planów czynnikowych jest możliwość dokonywania systematycznych ocen interakcji dwóch (lub więcej) zmiennych niezależnych. Zmienne pozostają ze sobą w interakcji, jeżeli wpływ jednej zmiennej niezależnej na zmienną zależną zależy od wartości drugiej zmiennej niezależnej. Jeżeli duże instytucje przyczyniają się do niskiego morale jej pracowników jedynie w przypadku instytucji o niskim stopniu decentralizacji, to możemy przyjąć, że wielkość organizacji i decentralizacja wchodzą ze sobą w interakcję. I na odwrót, jeżeli się okaże, że im większa wielkość organizacji, tym mniejsze jest morale jej członków — bez względu na to, czy organizacja jest mniej lub bardziej zdecen- I tralizowana — to wpływ wielkości organizacji na morale nie zależy od decentrali- I zacji i te dwie zmienne nie wchodzą ze sobą w interakcję. Testowanie stopnia inter-1 akcji pozwala znacznie lepiej zrozumieć, jak zmienna niezależna wpływa na zmień- I ną zależną. Dzięki temu możemy wyraźniej formułować wnioski o wpływie jednej i zmiennej na drugą, ponieważ badamy jednoczesne działanie dwóch zmiennych nie-1 zależnych. " Ronald A. Fisher (1971), The Design of Experiments, wyd. 8, New York: Hafner Press. s. 106. 138 ¦ Podsumowanie 1. Plan badawczy to program sterujący badaczem w procesie zbierania, analizowania i interpretowania wyników. Umożliwia on wyciąganie wniosków przyczy-nowo-skutkowych i określa zakres możliwych generalizacji. 2. Klasyczny plan badawczy zakłada cztery operacje: porównywanie, manipulowanie, kontrolowanie i uogólnianie. Porównywanie to operacja pozwalająca badaczowi zademonstrować, że zmienna niezależna i zmienna zależna są ze sobą powiązane. Manipulowanie związane jest z określonymi formami kontroli dotyczącymi zainicjowania działania zmiennej niezależnej, co pozwala badaczowi na określenie czasowego uporządkowania zmiennych. Operacja kontrolowania pozwala badaczowi na wyeliminowanie innych czynników, które mogłyby dostarczyć podstaw alternatywnego wyjaśnienia związku stwierdzonego pomiędzy zmienną niezależną i zmienną zależną. Czwarta operacja, uogólnianie, pozwala na uogólnienie zebranych wyników na rzeczywiste warunki lub populacje, które są przez badacza analizowane. 3. Proces kontrolowania jest związany z trafnością wewnętrzną planu eksperymentalnego. Aby zapewnić trafność wewnętrzną, badacz musi wyeliminować konkurencyjne wyjaśnienia przyczyn zmian wartości zmiennej zależnej. Czynniki zakłócające trafność wewnętrzną mogą mieć charakter wewnętrzny lub zewnętrzny w stosunku do operacji eksperymentalnej. Czynniki zewnętrzne nazywane są czynnikami selekcji. Powodują stronniczość wynikającą z niejednakowej rekrutacji osób badanych do grupy eksperymentalnej i grupy kontrolnej. Czynniki związane z planem eksperymentalnym (wewnętrzne) to: historia, dojrzewanie, utrata osób badanych, instrumentacja, testowanie, zjawisko artefaktu regresji i czynniki, które wchodzą w interakcję z czynnikiem selekcji spowodowanym różnym przyporządkowaniem osób badanych do grupy eksperymentalnej i grupy kontrolnej. 4. Aby przeciwdziałać efektom działania czynników zewnętrznych w stosunku do planu, stosuje się dwie metody kontroli. Dobór wiązany pozwala badaczom na kontrolowanie zmiennych, które są im znane przed rozpoczęciem operacji badawczej, a randomizacja umożliwia wyrównanie efektów działania zarówno czynników przewidywalnych, jak i nieprzewidywalnych. Czynniki zewnętrzne w stosunku do planu są kontrolowane przez wprowadzenie grupy kontrolnej. 5. Uogólnianie jest związane z problemem trafności zewnętrznej planu eksperymentalnego. Dotyczy ono zakresu, w jakim wyniki badań można przenosić na większe populacje i inne warunki. 6. Plany badań eksperymentalnych są najsilniejszymi modelami logicznego wnioskowania, ponieważ umożliwiają manipulowanie zmiennymi niezależnymi i stwarzają warunki maksymalnego kontrolowania czynników zewnętrznych i wewnętrznych w stosunku do planu. Dwie odmiany planu klasycznego to: czterogru-powy plan Solomona i plan z grupą kontrolną i tylko z pomiarem końcowym. Inne plany pozwalają na badanie skutków rozciągniętych w czasie, a plany czynnikowe umożliwiają badaczom analizowanie skutków więcej niż jednej zmiennej niezależnej. Korzyści planów czynnikowych wynikają stąd, że zwiększają one trafność zewnętrzną badania i pozwalają badaczowi na ocenę interakcji pomiędzy zmiennymi niezależnymi. 139 ¦ Podstawowe terminy czynniki poza planem 122 czynniki związane z planem 123 dobór wiązany 126 dojrzewanie 123 grupa eksperymentalna 116 grupa kontrolna 116, 128 historia 123 instrumentacja 124 klasyczny plan eksperymentalny 116 kontrolowanie 122 kowariancja 119 ¦ Pytania sprawdzajqce 1. Opisz elementy klasycznego planu badawczego. 2. Jakie są różnice pomiędzy zewnętrzną a wewnętrzną trafnością planu badawczego? 3. Jakie operacje są zaangażowane w procesie stwierdzania przyczynowości? 4. Wymień i opisz różne metody kontrolowania możliwych zakłóceń trafności wewnętrznej planu badawczego. 5. Jakie są trzy najważniejsze odmiany klasycznego planu badawczego? Podaj ich zalety i wady. ¦ Literatura dodatkowa Brzeziński J. (1997), Metodologia badań psychologicznych, wyd. 2, Warszawa: Wyd. Nauk. PWN. Karpiński J. (1994), Przyczynowość w badaniach socjologicznych, Warszawa: PWN. Mayntz R., Holm K., Hubner P. (1985), Wprowadzenie do metod socjologii empirycznej, Warszawa: PWN. Nowak S. (1985), Metodologia badań społecznych, Warszawa: PWN. Sułek A. (1979), Eksperyment w badaniach społecznych, Warszawa: PWN. manipulowanie 121 plan badawczy 114 plan czynnikowy 137 pomiar końcowy 116 pomiar początkowy 116 porównywanie 121 randomizacja 127 trafność wewnętrzna 122 trafność zewnętrzna 129 utrata osób badanych 124 zjawisko artefaktu regresji 124 Rozdział 6 Plany badawcze: plany badań przekrojowych i plany quasi-eksperymentalne Rodzaje zmiennych i plany badawcze 143 Plany przekrojowe 145 Plany quasi-eksperymentalne 147 Plany z grupami kontrastowymi 147 Plany z zaplanowanym zróżnicowaniem 150 Badania panelowe i szeregi czasowe 153 Plany szeregów czasowych z grupą kontrolną 158 Plany łączone 159 Plany preeksperymentalne 162 Jednorazowa analiza przypadku 162 Porównanie planów badawczych 164 Podsumowanie 166 Podstawowe terminy 167 Pytania sprawdzające 167 Literatura dodatkowa 167 Czy mężczyźni są lepszymi lekarzami niż kobiety? Zdaniem badaczy jest tak, jeżeli I przyjmiemy, że wyniki egzaminu państwowego z medycyny są trafnym wskaźnikiem I sukcesu w uprawianiu zawodu lekarza1. Egzamin ten, zdawany przez studentów w USA dwa lata przed uzyskaniem dyplomu, składa się z 900 do 1000 pytań dotyczących siedmiu różnych przedmiotów, istotnych z punktu widzenia wiedzy lekarza. Ponieważ wyniki tego egzaminu odgrywają ważną rolę w przyszłej I karierze studentów i są warunkiem uzyskania miejsca rezydenta w szpitalu, dlatego test ten powinien być zarówno trafny, jak i niestronniczy. Aby sprawdzić, czy tak jest, badacze — w czerwcu 1986, 1987 i 1988 roku — podzielili wszystkich studentów rozwiązujących test według rasy i pochodzenia etnicznego. Ponieważ nie można było tu manipulować zmienną niezależną — płcią, rasą czy pochodzeniem etnicznym — nie można było również zastosować planu eksperymentalnego, aby odpowiedzieć na postawione pytania. Dlatego też badacze przeprowadzili badania przekrojowe i stwierdzili, że średnie wyniki białych studentów były wyższe od średnich wyników studentów pochodzenia azjatyckiego, hiszpańskiego i murzyńskiego. We wszystkich grupach kobiety uzyskiwały wyniki niższe niż mężczyźni. Ponieważ przez ostatnie dwadzieścia lat szkoły medyczne preferowały przyjmowanie kobiet oraz przedstawicieli mniejszości narodowych i w niektórych przypadkach obniżały nawet kryteria przyjęcia dla osób z tych grup, dlatego też sprawdzono, jakie było przygotowanie studentów do studiów medycznych. Stwierdzono, że wcześniejsze doświadczenia i sukcesy akademickie wyjaśniają dużą część zróżnicowania wyników pomiędzy studentami białymi a studentami pochodzenia hiszpańskiego i murzyńskiego, ale nie wyjaśniają niższych wyników u Azjatów i kobiet. Zdaniem autorów przyczyną tego, że na egzaminie Azjaci wypadają gorzej, niż można by oczekiwać, mogą być różnice kulturowe. Twierdzą również, że wykładowcy nie motywują kobiet do osiągania wysokich wyników w dziedzinach mierzonych przez test. Wyniki otrzymane w tym badaniu pozwoliły zarówno na przygotowanie dodatkowych miar posiadanej wiedzy po to, aby lepiej przygotowywać studentów mniejszości narodowych do egzaminu państwowego, jak i na zaproponowanie dalszych badań sprawdzających, czy na podstawie wyników egzaminu można dokonywać trafnych prognoz co do jakości pracy w zawodzie lekarza. Tematem tego rozdziału są plany alternatywne w stosunku do planów eksperymentalnych, takie jak opisany wyżej. Chociaż plany eksperymentalne omówione w rozdziale 5 są najsilniejszymi modelami logicznego wnioskowania, to wiele zjawisk interesujących badaczy w naukach społecznych nie poddaje się bezpośredniemu eksperymentowaniu. W tym rozdziale przedstawimy plany badawcze, które są powszechnie stosowane 1 Beth Dawson, Carrolyn K. Iwamoto, Linette Postell Ross, Ronald J. Nungester, David B. Swan-son, Robert L. Volle (1994), Performance on the National Board of Medical Examiners Part 1 Exami-nation by Men and Women of Different Race and Ethnicity, „Journal of the American Medical Associa-tion", 272.9, s. 674-679. 142 w naukach społecznych. Na początku omówimy związki pomiędzy różnymi typami badanych zmiennych a planami badawczymi, które stosujemy. Następnie przedstawimy plany badań przekrojowych, plany quasi-eksperymentalne i preeksperymen-talne. Przeanalizujemy też plany łączone, będące kombinacją różnych planów oraz dokonamy porównania wszystkich rodzajów planów. Eksperyment kontrolowany pozwala na jednoznaczne określenie związków przy-czynowo-skutkowych pomiędzy dwiema lub więcej zmiennymi. Jednakże, jak widzieliśmy w rozdziale 5, naukowcy nie zawsze mogą kontrolować badane zmienne. Co więcej, rozważania natury społecznej, politycznej i etycznej mogą zniechęcać badaczy do przeprowadzania kontrolowanych eksperymentów. Chociaż można zaindukować strach w sytuacji laboratoryjnej i eksperymentalnie manipulować osobami badanymi, to pytanie o to, czy mamy prawo to czynić, nawet w celach naukowych, jest niezwykle ważne. Ogólnie rzecz biorąc, nie można stosować planów eksperymentalnych wtedy, kiedy nie można spełnić warunku randomizacji i kontroli eksperymentalnej. Plany, które omawiamy w tym rozdziale, stanowią alternatywę klasycznego planu eksperymentalnego. Każdy z tych planów ma swoje zalety i wady, ale wszystkie umożliwiają badanie zmiennych w realnych warunkach życiowych. Zanim jednak przedstawimy kolejne plany, powinniśmy przeanalizować rodzaje zmiennych zazwyczaj badanych przez naukowców. I Rodzaje zmiennych i plany badawcze W rozdziale 5 omówiliśmy przykłady badań, w których badacz mógł manipulować zmiennymi niezależnymi. Niestety, wieloma zmiennymi, które są badane w ramach nauk społecznych, nie da się manipulować. Nie możemy manipulować rasą ani płcią osób badanych, jak też nie możemy sprawić, aby były one młodsze lub starsze wtedy, kiedy chcemy przeanalizować wpływ, jaki mogą mieć te zmienne na jakąś zmienną zależną. W naukach społecznych badamy zazwyczaj związek typu właś-ciwość-dyspozycja. Związek typu właściwość-dyspozycja to związek pomiędzy jakąś cechą charakteryzującą osoby (właściwością) a odpowiadającymi jej postawami czy skłonnościami (dyspozycjami). Takim związkiem jest na przykład związek pomiędzy klasą społeczną a postawą taką jak polityczna tolerancja czy związek pomiędzy rasą a uprzedzeniami. Z kolei w badaniach określanych najczęściej jako eksperymentalne analizuje się związki typu bodziec-reakcja. Cechą charakterystyczną związku typu bodziec-reakcja jest możliwość manipulowania zmienną niezależną. Badacz może na przykład zaindukować stres lub poddać osoby badane działaniu kampanii reklamowej. Zmienną zależną będzie tu zatem bezpośrednia reakcja na zmienną niezależną. Może to być określona reakcja psychologiczna na stres czy wzrost konsumpcji, jaki nastąpił po kampanii reklamowej. Tak jak związki typu bodziec-reakcja dobrze poddają się badaniom eksperymentalnym, tak związki typu właściowość-dyspozycja raczej nie. Dzieje się tak dlatego, ponieważ te dwa typy związków różnią się przerwą czasową, stopniem swoistości, naturą porównywanych grup i sekwencją czasową zdarzeń2. Morris Rosenberg (1968), The Logic of Survey Analysis, New York: Basic Books, rozdz. 1. 143 1. Przerwa czasowa. W związkach typu bodziec-reakcja przerwa czasowa pomiędzy wprowadzeniem zmiennej niezależnej a reakcją na tę zmienną jest stosunkowo krótka. Z kolei w związkach typu właściowość-dyspozycja przerwa czasów może być znacznie dłuższa. Badacz może na przykład zarejestrować reakcję na 1 czy kampanię reklamową w stosunkowo krótkim czasie, jednak efekty oddziaływ nia właściwości takich jak wiek, rasa czy klasa społeczna ujawnią się dopiero dłuższym czasie. 2. Stopień swoistości. Druga różnica dotyczy stopnia swoistości zmiennej ni zależnej. Bodziec można zazwyczaj łatwo wyizolować i zidentyfikować, a skut działania tego bodźca można wyraźnie sprecyzować. Natomiast właściwości tak jak klasa społeczna mają charakter ogólny i zawierają wiele innych czynników, ta kich jak na przykład prestiż, zawód i wykształcenie. Każdy z tych czynników wy wiera wpływ na zmienną zależną. Dlatego też, badając ten rodzaj zmiennych, moż na mieć trudności w określeniu właściwych przyczyn oraz eksperymentalnym i manipulowaniu. 3. Natura porównywanych grup. Badając związek typu bodziec—reakcja, dacz może porównywać ze sobą dwie podobne grupy. W jednej z tych grup wpr wadzą się bodziec (to grupa eksperymentalna), a w drugiej bodźca nie ma (to gru kontrolna). Można też porównać tę samą grupę przed i po zadziałaniu bodźca. Ba dając natomiast związek typu właściwość-dyspozycja, porównanie typu przed i jest niemożliwe, zwłaszcza w wypadku właściwości, które się nie zmieniają, np. płeć czy rasa. Trudno też przyjąć, że dwie grupy różniące się pod względem określonych właściwości są porównywalne pod każdym innym względem. I rzeczywiście, niższa klasa społeczna i wyższa klasa społeczna różnią się nie tylko ze względt na klasę, lecz również ze względu na wiele innych wymiarów takich, jak: wartości, orientacje, sposób wychowywania dzieci, zachowania wyborcze itd. Stosując plan przekrojowy lub quasi-eksperymentalny, badacze raczej porównują tę samą grupę zamiast porównywania grupy eksperymentalnej i kontrolnej, wprowadzając od" więdnie metody statystyczne w miejsce procedury manipulacji i kontroli. 4. Sekwencja czasowa zdarzeń. W przypadku relacji typu bodziec-reakcja kierunek zależności przyczynowej jest raczej oczywisty, zwłaszcza jeżeli zastosowany plan badawczy umożliwiał przeprowadzenie porównania typu przed i po zadziałaniu bodźca. W wypadku niektórych własności ustalenie sekwencji czasowej staje się jednak trudne. Kiedy właściwości mają charakter stały, jak np. płeć czy rasa, badacz ustala kierunek związku przyczynowo-skutkowego, odwołując się do faktu, że zmienne te mogą być jedynie czynnikami determinującymi, a nie wywołanymi skutkami. Na przykład płeć może wpływać na postawy w stosunku do kary śmierci, ale nie odwrotnie. Jednakże właściwości, które są nabywane, jak na przykład inteligencja, wykształcenie czy orientacja polityczna, mogą zarówno same determinować, jak i być determinowane przez inne czynniki, co sprawia, że trudno jest w tej sytuacji ustalić porządek czasowy. W wypadku relacji typu właściwość-dyspozycja, z uwagi na wymienione cztery trudności, badacze nie mogą spełnić — w ścisłym eksperymentalnym sensie — wymogów planu badawczego, tj. porównywania, manipulowania i kontrolowania. Nie wszystkie zjawiska, które są interesujące dla badaczy społecznych, można poddać manipulacji w czasie eksperymentu. Co więcej, nie zawsze można losowo przy- 144 porządkować analizowane obiekty do grupy eksperymentalnej i grupy kontrolnej, a wiele procesów społecznych, politycznych i ekonomicznych można badać jedynie po upływie dłuższego czasu. Mimo to naukowcy starają się jak najbardziej zbliżyć do modelu eksperymentalnego, stosując wyspecjalizowane techniki analizowania danych rekompensujących ograniczenia związane z badaniem relacji typu właści-wość-dyspozycja. (Techniki te omawiamy w rozdziale 17). I Plany przekrojowe W badaniach prowadzonych w ramach nauk społecznych najbardziej rozpowszechnione są plany przekrojowe. Plany te są często utożsamiane z badaniami sondażowymi. W naukach społecznych jest to bardzo popularna metoda zbierania danych. W badaniach sondażowych (omówionych dokładnie w rozdziale 10 i 11) osoby badane dobrane losowo odpowiadają na pytania o swoje pochodzenie, doświadczenie i postawy. W większości wypadków badania sondażowe dostarczają danych będących podstawą określania związku pomiędzy właściwościami a dyspozycjami. 1 chociaż bardzo często badacze starają się określić relacje przyczynowo-skutkowe pomiędzy właściwościami a dyspozycjami, to celem wielu badań — zanim zostanie podjęty trud określenia zależności przyczynowo-skutkowych — jest po prostu opis zależności pomiędzy zmiennymi. Przykładem typowego problemu, który można zbadać, stosując plan przekrojowy, jest pytanie o akceptację elektrowni jądrowych. Postawy wobec elektrowni jądrowych mają znaczące konsekwencje dla środowiska i bezpieczeństwa ludności3. I tak, w wielu badaniach okazało się, że istnieje duże zróżnicowanie postaw wobec elektrowni jądrowych ze względu na płeć: kobiety przyjmują postawę mniej akceptującą niż mężczyźni. Badanie z wykorzystaniem planu przekrojowego rozpoczyna się od utworzenia losowej, reprezentatywnej próby mężczyzn i kobiet. Następnie osobom badanym zadaje się liczne pytania dotyczące ich postaw wobec elektrowni jądrowych. Ze względu na naturę badanych zmiennych — zwłaszcza zmiennej niezależnej, tj. płci — taki problem badawczy można sklasyfikować jako problem typu właści-wość-dyspozycja. Ponieważ badacz nie może tu manipulować zmienną niezależną, aby dokonać porównania wyników przed manipulacją i po manipulacji, taki problem badawczy nie może być analizowany w ramach modelu eksperymentalnego. Co więcej, czas, w jakim płeć może wykształcić postawy wobec elektrowni jądrowych, jest bardzo długi. Z powodu tych ograniczeń, włączenie do planu badawczego elementu manipulacji i kontroli, niezbędnych w analizach przyczynowo-skutkowych, byłoby bardzo trudne. Na rycinie 6.1 przedstawiliśmy schemat planu badawczego, jaki można tu zastosować. Litera X narysowana linią przerywaną oznacza płeć, a 0, — postawy wobec elektrowni jądrowych. Taki plan oczywiście ma wiele poważnych ograniczeń metodologicznych, zwłaszcza dotyczących jego trafności wewnętrznej. Przykład ten pochodzi z pracy Lawrence'a S. Solomona, Donalda Tomaskovica-Deveya i Barbary J. Risman (1989), The Gender Gap and Nuclear Power: Attitudes in a Politicized Environment, „Sex Roles". 21, s. 401-414. 145 Ryc. 6.1. Najprostszy plan Aby przezwyciężyć ograniczenia metodologiczne wynikające z planów badan przekrojowych, badacze wykorzystują metody statystyczne odpowiadające w przybliżeniu niektórym operacjom naturalnie wbudowanym w plan eksperymentalny. W badaniu postaw wobec elektrowni jądrowych badacz musi najpierw stwierdzić. czy płeć i postawy wobec elektrowni jądrowych są ze sobą powiązane. W tabeli 6.1 przedstawiono wyniki analizy statystycznej przeprowadzonej w celu określenia związku pomiędzy tymi zmiennymi. Wykorzystując metody statystyczne do kategoryzowania, opisywania i zestawiania zebranych danych, możemy się przekonać. że 59% mężczyzn i jedynie 29% kobiet popiera elektrownie jądrowe; różnica w akceptacji między płciami wynosi 30%. Wniosek ten został wyprowadzony na podstawie dwóch technik analizy danych: krzyżowego grupowania danych i dwu-zmiennowej analizy danych procentowych, które omawiamy w rozdziale 16. Dzięki zastosowaniu tych metod analizy danych nasz plan stał się mocniejszy i w przybliżeniu odpowiada planowi z grupą kontrolną i pomiarem końcowym (opisanemu w rozdziale 5). Na rycinie 6.2 przedstawiliśmy schemat graficzny takiego ulepszonego planu. Komórka opisana jako 02 i obwiedziona linią przerywaną oznacza dodatkowe informacje, które uzyskaliśmy na etapie statystycznej analizy danych. Jeżeli dane te zostaną pokategoryzowane i zestawione tak, jak to uczyniono w tabeli 6.1, to zyskujemy możliwość dokonania wielu porównań między różnymi grupami. Tabela 6.1. Płeć a postawy wobec elektrowni jądrowych Mężczyźni Kobiety Zwolennicy Przeciwnicy 59% 41% 29% 71% 100% 100% Na podstawie: Lawrence S. Solomon, Donald Tomaskovic-Devey, Barbara J. Risman (1989), The Gender Gap and Nitclear Power: Attititdes in a Politicized Environmenl, „Sex Roles", 21, s. 407. Chociaż plan przekrojowy przedstawiony na rycinie 6.2 umożliwia oszacowanie związku (korelacji) pomiędzy płcią a poparciem dla elektrowni jądrowych, to na tej podstawie nie możemy wyciągnąć wniosku, że pomiędzy tymi zmiennymi zachodzi związek przyczynowo-skutkowy, jak też nie jesteśmy w stanie wyjaśnić, dlaczego kobiety w porównaniu z mężczyznami wyrażają mniejsze poparcie dla elektrowni jądrowych. Można wskazać na wiele przyczyn takiego zróżnicowania postaw między płciami. Na przykład badane kobiety mogły mieć mniejszą wiedzę na temat spraw technicznych i dlatego mniej chętnie popierały budowanie elektrowni jądrowych. Mogły też być bardziej zainteresowane sprawami bezpieczeństwa, co powodowało, że częściej — w porównaniu z mężczyznami — oponowały przeciwko energii jądrowej. 146 po X Ryc. 6.2. Plan badań przekrojowych Kiedy wykorzystujemy plan eksperymentalny, te czynniki są kontrolowane za pomocą procedury randomizacji i wprowadzenia grupy kontrolnej. Kiedy badacze wykorzystują plan przekrojowy, muszą kontrolować te czynniki za pomocą metod statystycznych. W wypadku planów przekrojowych najczęściej wykorzystywanymi metodami stanowiących alternatywę eksperymentalnych metod kontroli i wnioskowania o zależnościach przyczynowo-skutkowych są takie statystyczne metody analizy wielozmiennowej, jak kategoryzowanie krzyżowe, regresja wielokrotna i analiza ścieżek. (Więcej na ten temat i opis tych metod można znaleźć w rozdziale 17). Warto w tym miejscu zaznaczyć, że w planach przekrojowych badacze nie mają możliwości zastosowania technik statystycznych, aby określić porządek czasowy zmiennych. Następstwo czasowe zmiennych musi zostać określone na podstawie rozważań teoretycznych lub logicznych. W naszym przykładzie dotyczącym energii jądrowej to płeć — logicznie rzecz biorąc — jest powodem różnic w postawach wobec energii jądrowej, a postawy wobec energii jądrowej nie mogą zmienić pici, która jest stałą właściwością. Podstawowa zaleta badań przekrojowych dotyczy możliwości prowadzenia ich w warunkach naturalnych i wykorzystywania losowych prób badanych osób. Dzięki temu badacze mogą uogólniać wyprowadzone wnioski na szersze populacje oraz przenosić zebrane wyniki na realne sytuacje życiowe, co przyczynia się do zwiększenia trafności zewnętrznej badania. ¦ Plany quasi-eksperymentalne Posługując się klasycznym planem badawczym jako modelem logicznego wnioskowania, badacze opracowali wiele planów quasi-eksperymentalnych. Podobnie jak w wypadku planu przekrojowego plany te są słabsze od planów eksperymentalnych pod względem ich trafności wewnętrznej i badacze muszą stosować techniki analizy danych jako sposób kontroli. Stosując plany quasi-eksperymentalne, można losowo pobierać próbę z populacji, lecz nie można losowo przyporządkowywać osób badanych do porównywanych grup. Są one jednak mocniejsze niż plany przekrojowe, ponieważ badanie jest zazwyczaj prowadzone na więcej niż jednej próbie i może być rozciągnięte w czasie. Poniżej przedstawimy najważniejsze, obecnie stosowane plany quasi-eksperymentalne. Plany z grupami kontrastowymi W badaniach prowadzonych w ramach nauk społecznych często się zdarza, że w wielu wypadkach badacz nie może losowo przyporządkowywać osób badanych 147 o, °> i ______I czy innych analizowanych obiektów do porównywanych grup. Na przykład badacz nie może losowo przyporządkowywać osób do rasy, płci, klasy społecznej czy religii — żeby wymienić tylko niektóre. Niekiedy badacze stosują pełne grupy porównawcze albo w fazie pomiaru początkowego, albo jedynie w fazie pomiaru końcowego. Wnioski dotyczące zależności przyczynowo-skutkowych determinowanych przez zmienną niezależną są szczególnie narażone na błędy w sytuacji, kiedy badacze nie mogą zastosować procedury randomizacji, aby przyporządkować osoby badane do porównywanych grup, o których wiadomo, że różnią się pod względem istotnych cech. Tak będzie wtedy, gdy badacze zechcą porównywać ze sobą grupy dzieci pochodzących z biednych i bogatych środowisk, grupy o różnym pochodzeniu etnicznym czy mężczyzn i kobiety. Jeżeli w wypadku tak kontrastowych grup badacz wykorzystuje plan z pomiarem końcowym, to różnice otrzymane w pomiarze końcowym można raczej przypisać pierwotnym różnicom pomiędzy grupami niż wpływowi zmiennej niezależnej. Tak czy inaczej, kiedy badacze muszą oszacować różnice pomiędzy grupami kontrastowymi, można wprowadzić kilka modyfikacji planu badawczego, które pełnić będą funkcję zabezpieczeń przed możliwością oddziaływania innych czynników poza zmienną niezależną. Najmniej wyszukanym planem z grupami kontrastowymi jest plan, w którym osoby badane czy inne analizowane obiekty są zaliczane do określonej katego-r i i. Osoby odpowiadające jednej kategorii mają te same cechy. Te właśnie cechy pozwoliły zaliczyć je do zdefiniowanej kategorii, np. mężczyzn, demokratów czy katolików. Pomiaru zmiennej zależnej dokonuje się w stosunku do wszystkich osób w ramach danej klasy. Badacz może na przykład porównywać umiejętność czytania u dzieci pochodzących z różnych środowisk. Plan takiego badania można przedstawić w następujący sposób: O, o2 o, o. gdzie Ox do Ok oznaczają pomiary zmiennej zależnej w określonej kategorii osób. Badacze mogą następnie przeprowadzić prostą, porównawczą analizę statystyczną dotyczącą różnic w wynikach pomiarów otrzymanych dla k grup. Mogą na przykład analizować różnice pomiędzy średnimi — wynikami przeciętnymi — uzyskanymi w każdej z grup. Ponieważ jednak grupy kontrastowe różnią się pod wieloma względami, zatem trudno jest określić, jakie są przyczyny obserwowanych różnic. Źródłem tych różnic mogą być raczej niedoskonałości procedury pomiarowej niż rzeczywiste różnice pomiędzy grupami. Na przykład wykazano, że na wyniki otrzymane w trakcie wywiadów bezpośrednich duży wpływ ma pochodzenie ankieterów. I tak odpowiedzi czarnych respondentów były uwarunkowane tym, czy osoba przeprowadzająca wywiad miała biały czy czarny kolor skóry. (Bardziej szczegółowe 148 wm } ba- znej gru- po- deter- sytua- ąd- się porówny- rupy tak różnice różnicom kiedy można keję za- zmienną którym tego-cechy czy osób zy tania przedsta- osób. statystycz-przy-yska-wieloma różnic, niż otrzy- prze-ółowe omówienie tego i innych problemów dotyczących metody wywiadu przedstawimy w rozdziale 10). Stosując plan z grupami kontrastowymi, można zmniejszyć niebezpieczeństwo popełnienia błędu przy wyprowadzaniu wniosków o charakterze przyczynowo-skut-kowym, jeżeli w dłuższym przedziale czasu zostaną zebrane dodatkowe dane dotyczące różnic przewidzianych w hipotezie badawczej. Jeżeli wyniki otrzymane w innych warunkach będą takie same i badacze przeprowadzą porównania dotyczące wartości zmiennych zależnych, to uzyskają dodatkowy dowód zwiększający siłę wnioskowania w planie z grupami kontrastowymi. Bardziej złożonym planem z grupami kontrastowymi jest plan, w którym badacze porównują dwie lub więcej grupy przed i po wprowadzeniu zabiegu badawczego (zmienna niezależna). W tym planie — planie z nierównoważnymi grupami kontrolnymi — wykorzystuje się metody statystyczne, aby sprawdzić podobieństwo grup kontrastowych, zanim zostaną wyciągnięte wnioski o charakterze przyczynowo-skutkowym. Przykładem zastosowania takiego planu jest badanie dotyczące oceny jakości kursu poświęconego problematyce AIDS4. Przedmiotem badania była ocena wpływu zajęć na temat AIDS na wiedzę o tej chorobie, na postawy i zachowania. Badanie polegało na porównaniu dwóch grup osób. Grupa eksperymentalna składała się ze studentów, którzy zapisali się na kurs „AIDS — plaga współczesności". Grupę kontrolną natomiast stanowili studenci innego kursu: „Astronomia: natura wszechświata". W badaniu tym przeprowadzono zarówno pomiar początkowy, jak i końcowy: uczestnicy obu kursów zostali poproszeni o wypełnienie kwestionariusza ankiety na początku i na końcu zajęć. Zastosowano plan, który schematycznie został przedstawiony w tabeli 6.2. Ponieważ losowe przyporządkowanie studentów do grupy eksperymentalnej i kontrolnej było niemożliwe, przeto też oceniając kurs dotyczący AIDS, badacze napotkali poważne ograniczenia. Istotnym problemem było na przykład to, że obie grupy dobrały się samodzielnie. Jeżeli zatem studenci w grupie eksperymentalnej już wcześniej interesowali się problematyką AIDS, to istnieje większe prawdopodobieństwo, że zaakceptowaliby oni metody bezpiecznego seksu bez względu na to, czy uczestniczyliby w takim kursie czy nie. Dlatego badacze musieli zastosować specjalne metody, aby sprawdzić, jakie było początkowe podobieństwo grupy eksperymentalnej i kontrolnej. Jedną z możliwych strategii jest taka konstrukcja grupy kontrolnej, aby była ona jak najbardziej podobna do grupy eksperymentalnej. Grupa ta powinna zostać dobrana ze względu na następujące kryteria: (1) efekt kohorty (oba kursy odbywały się w tym samym kwartale, dlatego czynnik historii nie był tu istotny), (2) dyscyplinę (oba kursy zostały wpisane do planu zajęć), (3) swobodne zapisy, (4) popularność (oba kursy cieszyły się dużą popularnością wśród studentów). Tabela 6.2. Plan badawczy z różną grupą kontrolną Pomiar początkowy Pomiar końcowy O, o, o, 4 Paul R. Abramson, Joan C. Sekler, Richard A. Berk, Moniąue Y. Cloud (1989), An Evaluation ofan Udergraduate Course on AIDS, „Evaluation Review", 13, s. 516-532. 149 Wykorzystując statystyczne techniki analizy wielozmiennowej (omówione w rozdziale 17), badacze dodatkowo wyrównali grupę eksperymentalną i kontrolną ze względu na wiek, płeć, pochodzenie etniczne, rok studiów i pomiar początkowy. W ten sposób wyeliminowali oni potencjalną hipotezę, że te właśnie czynniki mogły odpowiadać za różnice wyników otrzymane w pomiarze końcowym. Otrzymane rezultaty wskazują na to, że zajęcia poświęcone problematyce AIDS miały ogromny wpływ na postawy, zachowania i wiedzę dotyczącą przenoszenia się wirusa odpowiedzialnego za AIDS. W tym miejscu raz jeszcze chcemy podkreślić ograniczenia wynikające z zastosowania tego planu. Ponieważ osoby badane nie zostały losowo przyporządkowane do grupy eksperymentalnej i kontrolnej, trafność wewnętrzna tego planu może być mniejsza. Gdy dokonuje się porównania grup kontrastowych, można dokonać pomiarów zmiennej zależnej przed i po wprowadzeniu zmiennej niezależnej. W takich wypadkach otrzymuje się pomiary wielokrotne przed i po ekspozycji zmiennej. Takie dodatkowe dane dostarczają informacji o tym, jakie jest zróżnicowanie zmiennej zależnej w czasie, gdy pominie się wpływ zmiennej niezależnej. Załóżmy, że badacze są zainteresowani oceną skuteczności nowych technik stosowanych w nauce czytania, wprowadzanych w piątych klasach w szkole E. Mogą oni porównać wyniki, jakie dzieci osiągnęły w nauce czytania w tej szkole, począwszy od klasy trzeciej aż do siódmej, i porównać je z analogicznymi wynikami uzyskanymi przez dzieci z innej szkoły (C), przyjmującej dzieci z tej samej społeczności i nie wprowadza- i jącej nowych metod. Badaniami objęto uczniów klasy siódmej, którzy byli w tej samej szkole, począwszy od klasy trzeciej. Ponieważ w szkole osiągnięcia uczniów są oceniane corocznie, więc pozwoliło to na uzyskanie wstecznych danych dla pięciu poprzednich lat, które potrzebne były do porównań. W badaniu, w którym stosuje się pomiary wielokrotne, o skuteczności programu świadczyć będzie bardzo duża różnica w poziomie zmiennej zależnej, obliczona między wynikami otrzymanymi przed i po wprowadzeniu ocenianego programu, tak jak pokazano to na ryci-1 nie 6.3. Zauważmy, że wyniki zmiennej zależnej rosną sukcesywnie również w przypadku szkoły C, a więc szkoły, w której nie wprowadzono nowych technik kształcenia. Jednakże w przypadku szkoły E wyniki wyraźnie rosną pomiędzy czwartą i piątą klasą, by następnie pozostawać na podobnym poziomie. W odróżnieniu od hipotetycznych rezultatów, które przedstawiono na rycinie 6.3, wyniki z ryciny 6.4 wskazują, że zmienna niezależna nie wywarła większego wpływu w wypadku uczniów z grupy E, wykraczającego poza typowe zwiększenie umiejętności charakterystycznych dla cyklu kształcenia, na co wskazują wyniki uzyskane w grupie C. Zauważalna zmiana wyników w grupie E jest iluzoryczna, ponieważ odpowiada jej proporcjonalna zmiana wyników w grupie C. Plany z zaplanowanym zróżnicowaniem Stosując plany z zaplanowanym zróżnicowaniem, badacze wprowadzają systematycznie zróżnicowane bodźce po to, aby ocenić ich efekt przyczynowy. Zaplanowane zróżnicowanie w programie Head Start jest znakomitym przykładem zastosowania takiego planu w dziedzinie polityki. HSPV to trzyletnie badania dotyczące porównania efektów, jakie uzyskały różne ośrodki zawiadujące programem Head Start w dziedzinie rozwijania szkolnych umiejętności dzieci pochodzących z biednych rodzin. Badanie to opierało się na założeniu, że dzięki wybraniu wielu I 150 E C J____________I____________I____________I______ 3 4 5 6 7 klasa szkolna Ryc. 6.3. Porównanie dwóch grup kontrastowych wskazujące, że zmienna niezależna wywołała określony skutek tronów" — szkół, agencji czy organizacji samorządowych odpowiadających za zarządzanie — dla różnych rodzajów programów i dzięki systematycznemu różnicowaniu programów przeznaczonych dla dzieci badacze będą mogli ustalić, który program jest najbardziej korzystny dla danej grupy dzieci5. Patroni, którym zaproponowano uczestniczenie w tych badaniach, zasadniczo różnili się realizowanymi przez siebie celami, a także programami nauczania. W roku szkolnym 1971-1972 11 patronów objęło swoją opieką 28 ośrodków rozrzuconych po całym kraju. Aby można było porównywać otrzymane rezultaty, 11 spośród 28 ośrodków prowadziło również klasy „bez patronów", zarządzane bezpośrednio przez pracowników programu Head Start. Ponadto w trzech ośrodkach wprowadzono grupy porównawcze, które składały się z dzieci nie włączonych w żaden program. Dzieci, które znalazły się w tych grupach, pochodziły albo z bezpośredniej rekrutacji, albo z listy dzieci zapisanych do udziału w programie Head Start. Każdy patron kierował trzema lub czterema ośrodkami. Każdy ośrodek prowadził różną liczbę klas kierowanych przez konkretnego patrona. W niektórych ośrodkach istniały zarówno klasy pozostające pod opieką patronów, jak i zwykłe klasy bez patronów, znajdujące się pod opieką Head Start. Pozostałe ośrodki prowadziły wyłącznie klasy pozostające pod opieką patronów. Jednym z ważniejszych ograniczeń zastosowanego tu planu badawczego był nierówny rozkład istotnych zmiennych w ośrodkach, które miały patronów. Zdaniem Herberta I. Weisberga nierówno były rozłożone takie zmienne, jak: rasa, wiek. doświadczenia szkolne i status społeczno-ekonomiczny. I tak na przykład je- 5 Przedstawione tu informacje zaczerpnęliśmy z pracy Herberta I. Weisberga (1973), Short-Term Cognitive Effects oj Head Start Programs: A Report on the Third Year ofPlanned Variation, 1971-1972, Cambridge, Mass.: Huron Institute. 151 punkty pomiaru Ryc. 6.4. Porównanie dwóch grup kontrastowych wskazujące, że zmienna niezależna nie wywołała żadnego skutku den z patronów kierował ośrodkiem, w którym niemal w ogóle nie było czarnych dzieci, podczas gdy w innym nie było dzieci białych. Pomijając to istotne źródto zmniejszenia trafności, badacze wyprowadzili trzy istotne wnioski: (1) generalnie, zarówno programy kierowane przez patronów, jak i zwykłe programy wprowadzo-1 ne przez Head Start przyczyniły się do zwiększenia określonych umiejętności szkolnych takich, jak na przykład rozpoznawanie liter, (2) wybór 11 ośrodków prowadzących klasy posiadające patronów i porównanie ich z ośrodkami nie posiadającymi patronów i nadzorowanymi przez Head Start nie ujawniło poważnych różnic, (3) porównanie ośrodków posiadających patronów ujawniło pewne różnice w wy-1 nikach testów poznawczych rozwiązywanych przez dzieci. Innymi słowy, pewne rodzaje programów nauczania, wydawało się, przyczyniały się do różnego rozwoju umiejętności poznawczych. Oczywiście, jak już wspomnieliśmy, ze względu na nierówny rozkład istotnych! zmiennych w ośrodkach posiadających patronów wnioski te można traktować jedynie jako przypuszczenia. Ponieważ istotne zmienne nie zostały wprowadzone w sposób systematyczny, przeto badacze nie mogli zakładać wysokiej trafności czy I możliwości szerokiego zastosowania wyprowadzonych wniosków. Przykład ten uwidacznia, że można by zwiększyć stopień zaufania do wyników otrzymanych w planie z zaplanowanym zróżnicowaniem, gdyby badacze zagwarantowali równy I rozkład istotnych zmiennych w badanych grupach i gdyby pomiarów zmiennej za-1 leżnej dokonywano wielokrotnie, zarówno przed, jak i po wprowadzeniu zmiennej niezależnej. 152 Badania panelowe i szeregi czasowe Niektóre quasi-eksperymenty są rozciągnięte w czasie i umożliwiają analizowanie zmian wartości zmiennej zależnej. Czas stwarza problem dla badaczy z kręgu nauk społecznych z następujących powodów. Po pierwsze, najważniejsze, zarówno ludzie, jak i środowisko społeczne nie są wielkościami stałymi. Reagują na procesy wewnętrzne i zdarzenia zewnętrzne, z których jedynie niewiele można poddać celowej kontroli. Dlatego też zmienne, które badacz chce analizować, mogą — wraz z upływem czasu — ulec modyfikacji. Tendencja ta ujemnie wpływa na poprawność czy dokładność procedur badawczych oraz zmniejsza trafność wniosków. Ponieważ w rzeczywistym życiu nie można kontrolować czasu, więc metodologia wymaga, aby zastosować takie techniki, które umożliwiają kontrolowanie wpływu czasu na dane empiryczne. Omówimy teraz dwa podstawowe plany, które włączają zmienną czasu: badania panelowe oraz analizę szeregów czasowych. Badania panelowe. Bardziej rygorystycznym rozwiązaniem problemów, jakie ujawniły się w badaniach przekrojowych i schematach korelacyjnych, są badania panelowe. W badaniach tych ta sama próba osób jest badana w dwóch lub więcej odstępach czasowych. Badania panelowe umożliwiają badaczom stworzenie warunków bardzo zbliżonych do wymaganych w planie eksperymentalnym, a polegających na przeprowadzeniu badania przed i po wprowadzeniu zmiennej niezależnej. Osiągają to dzięki badaniu grupy w dwóch lub więcej punktach czasowych przed i po zadziałaniu zmiennej niezależnej. Dobrą ilustracją analiz panelowych są badania rozpoczęte w roku 1980, w których interesowano się, jaki wpływ na funkcjonowanie rodziny ma wyprowadzenie się dzieci z domu6. Większość badań, w których badano wpływ okresu po opuszczenia przez dziecko domu na życie jego rodziców, opierała się na planach przekrojowych. Metoda ta ogranicza jednak możliwości analizowania zmian w funkcjonowaniu rodziny związanych z odejściem dziecka z domu, ponieważ wyprowadzenie się z domu traktowane jest jako pojedyncze zdarzenie w konkretnym czasie. Cytowane badania odbyły się w roku 1980, 1983, a następnie w 1988 i miały formę wywiadów przeprowadzonych na próbie narodowej. Badacze dysponowali próbą liczącą 402 rodziców posiadających starsze dzieci. Przedmiotem porównania były zmiany w poczuciu szczęścia rodzinnego oraz satysfakcji z życia rodziców, których gniazdo opustoszało i nie opustoszało. Podstawową zaletą takiego planu badawczego jest to, że umożliwia on określenie kierunku zależności przyczynowych. Dzięki porównywaniu pomiarów dokonanych u tych samych respondentów przed i po tym, jak ich dzieci wyprowadziły się z domu, można stwierdzić, czy jakość funkcjonowania rodziny jest spowodowana wyprowadzeniem się dziecka. Porównując z kolei jakość funkcjonowania rodziców w ramach tej samej rodziny przed i po tym krytycznym wydarzeniu, można określić porządek czasowy zmiennych. Podstawowym problemem dotyczącym badań panelowych jest stworzenie reprezentatywnej próby respondentów, którzy wyrażą zgodę na przeprowadzenie wielokrotnych wywiadów w dłuższym przedziale czasu. Co więcej, jeżeli nawet badacz uzyska ich zgodę, to i tak niektóre osoby badane wypadną czy to z powodu 6Lynn White, John N. Edwards (1990), Emptying łhe Nest and Parental Well-being: An Analysis oj National Panel Data, „American Sociological Review", 55, s. 235-242. 153 odmowy kontynuowania współpracy, czy z powodu trudności dotarcia do tych osób, które się przeprowadziły lub zmieniły pracę. Poważną konsekwencją odmowy dalszego udziału w badaniu jest to, że badacz nie potrafi określić, czy ci respondenci zmienili się w inny sposób niż ci, którzy pozostali. Ta niepewność znajdzie swoje odzwierciedlenie w reprezentatywności i trafności wniosków. Innym problemem pojawiającym się wówczas, kiedy badacz szybko przeprowadza kolejne wywiady, jest uwarunkowanie panelu, czyli ryzyko, że powtarzane pomiary mogą sprzyjać udzielaniu określonego zbioru odpowiedzi. Na przykład uczestnicy panelu mogą się starać pokazać, że ich poglądy wyrażane przy różnych okazjach są stałe. W takich wypadkach wyniki panelu mogą się okazać nietypowe dla populacji, dla której jest on reprezentatywny. Jednym z zabezpieczeń przed uwarunkowaniem panelu jest przyznanie uczestnikom panelu ograniczonego życia panelowego (tj. okresu uczestnictwa), a następnie zastępowanie ich innymi osobami wylosowanymi z listy rezerwowej, skonstruowanej dla tej samej populacji7. Analiza szeregów czasowych. Kiedy nie można dokonać porównań czy wprowadzić grupy kontrolnej po to, aby zbadać relację przyczynowo-skutkową, badacze posługują się analizą szeregów czasowych, tj. stosują takie plany badawcze, w których pomiar początkowy i pomiar końcowy dokonywane są w wielu momentach przed i po wprowadzeniu zmiennej niezależnej. Zazwyczaj badacz stara się uzyskać przynajmniej trzy pomiary przed wprowadzeniem i trzy pomiary po wprowadzeniu zmiennej niezależnej. Typowy schemat planu dla analizy szeregów czasowych można przedstawić następująco: O, O2 O, x 04 Os 06 Stosując plan dla analizy szeregów czasowych, można oddzielić efekt uwrażliwiającego wpływu pomiarów (por. rozdział 5) od efektu wpływu zmiennej niezależnej. Plan analizy szeregów czasowych pozwala również na sprawdzenie, czy wpływ zmiennej niezależnej jest większy niż efekt uwrażliwiającego wpływu pomiaru. Jeżeli efekt uwrażliwiającego wpływu pomiaru uwidoczni się w pomiarze 03, to możemy go porównać z pomiarem 04. Wzrost wartości uzyskanej w 0Ą powyżej wartości O, można przypisać działaniu zmiennej niezależnej. Można również ocenić, czy zmiany spowodowane przez wprowadzenie zmiennej niezależnej są większe niż spowodowane upływem czasu, kontrolując w ten sposób czynnik dojrzewania obniżający trafność planu badawczego. Klasyczną ilustracją zarówno korzyści, jak i problemów związanych z zastosowaniem analizy szeregów czasowych jest badanie przeprowadzone przez Campbel-la, a dotyczące kampanii na rzecz ograniczenia szybkości jazdy samochodem, prowadzonej w Connecticut. Kampanię tę wprowadzono po rekordowej liczbie wypadków samochodowych, jaką zanotowano w roku 19558. W wyniku wprowadzonego programu pod koniec roku 1956 zanotowano 284 śmiertelne wypadki, co, porównu- 7 Szczegółową analizę korzyści i wad badań panelowych można znaleźć w pracy Roberta F. Borucha i Roberta W. Pearsona (1988), Assessing the Quality ofLongitudinal Surveys, „Evaluation Revie\v", 12, s. 3-58. 8 Donald T. Campbell (1969), Reforms as Experiments, „American Psychologist", 24, s. 409-429. 154 330 _______i----------------------------------1------------------ przed wprowadzeniem po wprowadzeniu kampanii kampanii (1955) (1956) Ryc. 6.5. Liczba wypadków samochodowych w latach 1955 i 1956 jąc z 324 wypadkami w roku poprzednim, dało 12,3-procentowy spadek. Otrzymane wyniki przedstawiono na rycinie 6.5, na której świadomie uwypuklono otrzymaną różnicę. Na podstawie tych danych władze zdecydowały, że „kampania ta okazała się zdecydowanie opłacalna". Ponieważ jednak wniosek ten został wyprowadzony przy zastosowaniu planu z pomiarem początkowym i pomiarem końcowym, przeto można sformułować wiele interpretacji alternatywnych. Na przykład, że rok 1956 mogl być rokiem szczególnie suchym, co sprzyjało mniejszej liczbie wypadków samochodowych spowodowanych przez deszcz lub śnieg. Można by wyciągnąć bardziej trafne wnioski przyczynowe, gdyby dane przedstawić jako część analizy rozszerzonych szeregów czasowych, jak uczyniono to na rycinie 6.6. Ten plan analizy szeregów czasowych pozwala na kontrolowanie czynnika dojrzewania. Dane zbierane przez wiele lat, zanim nastąpił wyraźny wzrost liczby wypadków samochodowych, pozwoliły na odrzucenie alternatywnej hipotezy, w której przyjmowano, że współczynnik śmiertelności w wypadkach samochodowych i tak maleje z roku na rok. Nie byłoby to możliwe, gdyby dane na temat nieszczęśliwych wypadków zostały zebrane jedynie na rok przed wprowadzeniem i rok po wprowadzeniu kampanii. Chociaż w analizie rozszerzonych szeregów czasowych uwzględnia się trzy zbiory danych zebranych przed wprowadzeniem kampanii i trzy zbiory danych po jej wprowadzeniu, mimo to kontrolowanie innych potencjalnych źródeł braku trafności nie jest możliwe. Na przykład czynnik historii nadal może stanowić źródło prawdopodobnych, alternatywnych wyjaśnień. W takiej sytuacji jedną ze strategii zwiększających siłę wnioskowania jest wykorzystywanie — jeśli to możliwe — dodatkowych danych. Badacze mogą na przykład sprawdzić dane meteorologiczne, aby stwierdzić, czy warunki pogodowe mogły wpłynąć na obniżenie liczby śmiertelnych wypadków samochodowych. Dane zbierane dla potrzeb analizy szeregów czasowych są — o czym pisaliśmy 320 310 300 290 280 155 325 - 200 - L____i____i____i____i____i i i i i '51 '52 '53 '54 '55 '56 '57 '58 '59 lata Ryc. 6.6. Analiza rozszerzonych szeregów czasowych w zastosowaniu do liczby wypadków samochodowych już wcześniej — wrażliwe na zmiany związane z upływem czasu, nawet wówc gdy nie wprowadzono zmiennej niezależnej. Stopień tego naturalnego braku stał tak został określony przez Campbella: „Zasadniczym problemem i jedną z podsta wych korzyści stosowania rozszerzonych szeregów czasowych jest to, że dostarc one próbki braku stałości"9. W omawianym przykładzie z Connecticut władze czywiście założyły, że zarejestrowana zmiana liczby wypadków pomiędzy ro'": 1955 a 1956 została spowodowana przez prowadzoną kampanię. Jeżeli jednak p rżymy się rycinie 6.6, to zauważymy stosunkowo wysoką fluktuację liczby wy ków samochodowych przed wprowadzeniem kampanii, co raczej świadczy o nie teczności prowadzonej polityki: „spadek zanotowany pomiędzy latami 1955-1 jest mniejszy niż sukces (w postaci mniejszej liczby wypadków samochodowy zanotowany pomiędzy latami 1954-1955 i 1952-1953. Jest to rzeczywiście najwi szy skok w serii pomiarów, jednak przewyższa skoki zaobserwowane pomiędzy r mi 1951-1952, 1953-1954 i 1957-1958 jedynie bardzo niewiele"10. Zgodnie z. można by też zasadnie twierdzić, że spadek zanotowany pomiędzy rokiem 19 i 1956 jest wynikiem jedynie braku stabilności serii danych. Pomijając jednak t: prawdopodobne wyjaśnienie, można też zauważyć, że po etapie wyraźnego wzr liczby wypadków samochodowych nie zanotowano już w kolejnych latach żadn wzrostu, co może sugerować, że charakter szeregów czasowych uległ zmianie. 9 Ibidem, s. 413. 10 Ibidem. 156 Zjawisko artefaktu regresji, które ma charakter statystyczny i wynika z nietypowych, skrajnych wartości danych (por. rozdział 5), również może obniżyć trafność planów z wykorzystaniem szeregów czasowych, zwłaszcza jeżeli obserwujemy brak stałości danych. Jako zasadę należy traktować to, że w przypadku zróżnicowanych szeregów czasowych wybór aktualnie „najwyższego" lub „najniższego" punktu prowadzi do tego, że następny punkt, przeciętnie, wypadnie w pobliżu ogólnego trendu. W przykładzie z Connecticut najbardziej dramatyczna zmiana wartości w całej serii to wzrost, jaki pojawił się tuż przed podjęciem akcji. Można zatem przypuszczać, że raczej — lub dodatkowo — ten właśnie wzrost był przyczyną uruchomienia kampanii, a nie spodziewana jej skuteczność w obniżeniu liczby wypadków samochodowych. Dlatego też — przynajmniej częściowo — spadek zanotowany w roku 1956 jest artefaktem wynikającym ze skrajnie wysokiej liczby wypadków zanotowanych w roku 1955. Oznacza to, że liczba wypadków samochodowych spadłaby tak czy inaczej. Podstawowym problemem pozostaje zatem pytanie: Jak bardzo? Na rycinie 6.7 przedstawiono przypadek ilustrujący sytuację, z której można by wyciągnąć wniosek, że zmienna niezależna nie wywiera żadnego wpływu na zmienną zależną. Wykreślona linia wznosi się zarówno przed wprowadzeniem zmiennej niezależnej, jak i po jej wprowadzeniu. Tym, co jest tu szczególnie ważne, jest jednak to, że linia ta wznosi się w tym samym tempie przed wprowadzeniem i po wprowadzeniu zmiennej niezależnej. wyniki zmiennej zależnej ! 1 1 l i i i 3 4 5 punkty pomiaru Ryc. 6.7. Analiza szeregów czasowych wskazująca na brak skutku Jeszcze trudniej zinterpretować hipotetyczne dane przedstawione na rycinie 6.8. Narysowana krzywa zaczyna rosnąć przed wprowadzeniem zmiennej niezależnej i podobnie dzieje się po jej wprowadzeniu. Jednakże duże zróżnicowanie zanotowane 157 I—,—I---------------1__________1__________1__________I__________l_ 12 3 4 5 6 punkty pomiaru Ryc. 6.8. Analiza szeregów czasowych ilustrująca pozorny efekt oddziaływania przyczynowo-skutkowego zarówno przed wprowadzeniem, jak i po wprowadzeniu zmiennej niezależnej pozwala badaczom na uzasadnione wyprowadzanie wniosków przyczynow -skutkowych. Ryciny 6.7 i 6.8 przedstawiają jedynie dwa rodzaje wyników, jakie można uzyskać przy zastosowaniu metody analizy szeregów czasowych. Są one jednak do ilustracją tego, że plany z zastosowaniem analizy szeregów czasowych, podoi jak inne plany quasi-eksperymentalne, w których nie ma grupy porównawczej, d starczają jedynie częściowego uzasadnienia wniosków o charakterze przyczyno-wo-skutkowym. Plany szeregów czasowych z grupq kontrolng Jak już wspominaliśmy wcześniej, jedną z głównych przeszkód w konstruowaniu planów eksperymentalnych jest trudność w spełnieniu warunku losowego przyporządkowania badanych osób lub innych badanych obiektów do grupy eksperymentalnej i grupy kontrolnej. Procedury doboru wiązanego również mogą się ok" niewystarczające, jeżeli badacz nie uwzględni istotnych czynników zewnętrzny Stosowanie nierównoważnych grup porównawczych w analizie szeregów czasowych dostarcza jednak bardziej rzetelnych uzasadnień wniosków przyczynow -skutkowych. Plany te nazywają się planami szeregów czasowych z grupą k trolną, ponieważ stwarzają one możliwość kontrolowania czynnika historii, doj wania i efektu powtórnego badania, które występują zarówno w grupie ekspe mentalnej, jak i w grupie kontrolnej. Na rycinie 6.9 przedstawiono pomiary zebrane w ramach akcji ogranicz szybkości w Connecticut wraz z dodatkowymi danymi dotyczącymi liczby w ków samochodowych w sąsiadujących stanach (grupa porównawcza). Aby oba s regi czasowe można było ze sobą porównywać, Campbell przedstawił dane w staci odsetka wypadków w stosunku do liczby ludności. Plan szeregów czasowy 158 stany kontrolne j____i____i—i-------1-------1—i—i-------1— *51 '52 '53 '54 '55 '56 '57 '58 '59 lata Ryc. 6.9. Zastosowanie planu szeregów czasowych z grupą kontrolną do porównania liczby wypadków samochodowych w stanie Connecticut i w czterech innych stanach Na podstawie: Donald T. Campbell (1969), Reforms as Experimenls, „American Psychologist", 24. s. 419. z grupą kontrolną pokazuje, że w latach 1955-1956 zanotowano tendencję spadkową w sąsiednich stanach, będącą wynikiem czynnika historii i dojrzewania (pogoda, wprowadzenie automatycznych zabezpieczeń itd.). Te same dane wskazują także, że ogólny układ danych dotyczących liczby wypadków zarejestrowanych w Connecticut przed rokiem 1955 jest podobny jak w pozostałych stanach. Jednakże po roku 1956 liczba wypadków w Connecticut maleje zdecydowanie bardziej niż w pozostałych stanach i jest to tendencja stała. Opierając się na tych danych, można postawić wniosek, że oddziaływanie wprowadzonej kampanii przewyższyło działanie czynnika artefaktu regresji. I Plany łqczone Skoncentrowaliśmy się jak dotąd na najważniejszych, z wielu możliwych, planach quasi-eksperymentalnych". Plany takie jak w przypadku klasycznego eksperymen- 1 Omówienie innych typów planów quasi-eksperymentalnych można znaleźć w pracy Thomasa D. Cooka i Donalda T. Campbella (1979), Quasi-experimentation: Design and Analysis Issues for Field Stttings, Skokie, 111.: Rand McNally; oraz E.A. Suchmana (1987), Evaluation Research, Englewood Cliffs. N.J.: Prentice-Hall. 17 16 15 141-13 12 -11 -10 - 9 - 8 7 159 tu kontrolowanego, omówione w rozdziale 5, umożliwiają w znacznie większym stopniu kontrolowanie tych czynników wewnętrznych (np. czynnika historii, dojrzewania, artefaktu regresji), które mogą wpływać na zmniejszenie trafności wniosków o charakterze przyczynowo-skutkowym. Najsłabsze plany quasi-eksperymen-talne, jak plan z grupami kontrastowymi, są zdecydowanie mniej pewne, jeżeli chodzi o trafność wniosków wyprowadzanych na ich podstawie. Plany quasi-eksperymentalne ¦ Plany quasi-eksperymentalne pozwalają na badanie więcej niż jednej próby, często w dłuższym przedziale czasu. Mają mniejszą trafność wewnętrzną niż klasyczny eksperyment kontrolowany i zależą od zastosowanych metod analizy danych jako metod kontroli. ¦ Plany z grupami kontrastowymi. Osoby lub inne badane obiekty są przypisywane do określonej kategorii (np. kobiety, demokraci). ¦ Plany z zaplanowanym zróżnicowaniem. W tych planach osoby badane są poddawane oddziaływaniu systematycznie zróżnicowanych bodźców (np. metod nauczania), aby można było wyprowadzać wnioski o przyczynowym działaniu bodźca. ¦ Badania panelowe. W tych planach ocenia się wyniki przed wprowadzeniem i po wprowadzeniu zmiennej niezależnej, badając tę samą próbę w kolejnych przedziałach czasowych. ¦ Analiza szeregów czasowych. W tych planach badawczych dokonuje się wielu pomiarów, przynajmniej trzech, przed wprowadzeniem i po wprowadzeniu zmiennej niezależnej (takich jak wprowadzenie nowego prawa o ruchu drogowym). ¦ Plany szeregów czasowych z grupą kontrolną. Plany te łączą analizę szeregów czasowych z analizą podobnych danych, pochodzących z innej, nierównoważnej grupy, w celu kontrolowania wpływu takich czynników, jak: historia, dojrzewanie i efekt powtórnego testowania. Każdy z omówionych planów może dostarczyć trafnych informacji, lecz różnią się one zarówno rodzajem danych, jakie generują, jak i ograniczeniami, jakie na-1 kładają na wyprowadzanie wniosków o charakterze przyczynowo-skutkowym. Aby I przezwyciężyć te trudności, często stosuje się podejście łączące w sobie wiele me-1 tod. Podejście to zwiększa możliwość postawienia wniosków o charakterze przw czynowo-skutkowym, poprzez sytematyczne łączenie dwóch łub więcej planów ba-1 dawczych dla potrzeb jednego badania12. Być może jednym z najbardziej pouczających zastosowań planów łączonych (tj.1 takich, w których łączy się wiele cech kilku planów badawczych) są badania nad I szczepionką Salka przeciwko poliomyelitis, po raz pierwszy przeprowadzone wroł ku 195413. W pierwotnym planie badawczym przyjęto, że szczepionka zostanie pol 12 John Brewer, Albert Hunter (1989), Multimethod Research: A Synthesis of Styles, Newbury Park,! Calif.: Sagę. 13 Ten akapit został oparty na pracy Paula Meiera (1972), The Biggest Health Experiment Eva, 160 dana jedynie uczniom klas drugich, których rodzice wyrażą zgodę na udział w badaniu, i nie zostanie podana uczniom klas pierwszych i trzecich, którzy będą traktowani jako grupa porównawcza. Założono, że dzięki porównaniu wyników uzyskanych w grupie eksperymentalnej i grupie porównawczej będzie można się dowiedzieć, czy szczepionka była skuteczna. Taki plan badawczy jest jednak wysoce nieprecyzyjny, okazało się bowiem, że polio pojawiało się częściej w okolicach, w których panowały warunki bardziej higieniczne, niż tam, gdzie panowały warunki mniej higieniczne. Z kolei warunki bardziej higieniczne są związane z wyższym statusem społeczno-ekonomicznym. Osoby o wyższym statusie społeczno-ekonomicz-nym częściej wyrażają zgodę na udział w badaniu w porównaniu z osobami o niższym statusie społeczno-ekonomicznym, dlatego też większość drugoklasistów pochodziła właśnie z tej grupy społecznej. Można było również oczekiwać, że drugo-klasiści zgłoszeni na ochotnika będą częściej kontaktować się z tą chorobą niż dru-goklasiści w ogóle, a także częściej niż pierwszo- i trzecioklasiści. Taka stronniczość w doborze próby może zatem wpłynąć na zmniejszenie trafności wnioskowania. Co więcej, jeżeli zaszczepiono by jedynie drugoklasistów, to lekarze mogliby podejrzewać, że część spośród dzieci zachorowała na polio właśnie z powodu szczepienia, co może z kolei spowodować istotną różnicę pomiędzy liczbą pozytywnych diagnoz w grupie ochotników i nieochotników. Świadomi tych problemów pracownicy publicznej służby zdrowia w niektórych stanach zaproponowali przeprowadzenie eksperymentu terenowego, który randomi-zowatby rozkład szczepień wśród ochotników ze wszystkich grup wiekowych. Szczepienia podano by połowie ochotników, a połowa otrzymałaby placebo (zastrzyk ze słonej wody), aby lekarze podejmowali decyzje diagnostyczne w warunkach „ślepej" diagnozy (tj. nie mogli odróżnić osób z grupy eksperymentalnej i kontrolnej). Dzięki temu lekarze, dokonując diagnozy, nie kierowaliby się własnymi oczekiwaniami. W efekcie niektóre ze stanów wdrożyły pierwotny projekt, inne kontrolowany plan z randomizacją. Wyniki otrzymane w drugim wypadku wskazały na wyraźne zmniejszenie liczby zachorowań na polio, z 57 przypadków na 100 000 osób w grupie porównawczej do 16 przypadków na 100 000 w grupie eksperymentalnej. Natomiast w tych stanach, w których zaszczepiono tylko drugoklasistów, zanotowano podobną liczbę przypadków (17 na 100 000) zarówno w grupie eksperymentalnej, jak i w grupie, w której podano placebo. Oczekiwany efekt stronniczości doboru próby, polegający na wzroście stwierdzonej liczby przypadków w grupie ochotników w porównaniu z nieochotnikami, ujawnił się w całej próbie. Wśród osób otrzymujących placebo największą liczbę zachorowań stwierdzono u ochotników (57 na 100 000), podczas gdy w grupie nieochotników 36 przypadków na 100 000. W stanach, w których zastosowano pierwotny plan quasi-eksperymentalny, pierwszo- i trzecioklasiści, którym nie zaproponowano ochotniczego udziału w badaniu i którzy nie zostali zaszczepieni, mieścili się pośrodku obu tych skrajnych wyników i zanotowano u nich 46 przypadków na 100 000. W badaniach nad szczepionką Salka posłużono się zatem równolegle dwoma planami badawczymi, które się wzajemnie uzupełniały. w. Judith M. Tamur i in. (red.), Statistics: A Guide to the Unknown, Oakland, Calif.: Holden Day, I 213; także K.A. Brownlee (1955), Statistics of the 1954 Polio Vaccine Trials, ,Journal of the American Statistical Association", 50, s. 1005-1013. 161 W wielu innych sytuacjach posługiwanie się jedynie planem quasi-eksperymentalnym nie jest wystarczającą podstawą otrzymania rzetelnych wyników. Kiedy analizujemy złożone problemy, często — jedną lub więcej głównych składowych tego problemu — możemy badać eksperymentalnie, podczas gdy pozostałe komponenty mogą się nie nadawać do badań eksperymentalnych. Wybór czynników, które zostaną włączone w złożone plany, zależy od specyfiki badanego problemu i pomysłowości badaczy. ¦ Plany preeksperymentalne W planach preeksperymentalnych nie można stosować manipulacji eksperymentalnej i nie można losowo przyporządkowywać badanych osób do grupy eksperymentalnej i grupy kontrolnej. W rzeczywistości plany te bardzo często w ogóle nie mają grupy kontrolnej. Ponadto w badaniach preekspery mentalnych respondenci nie są losowo wybierani z większej populacji, a także nie stosuje się metod statystyki wie-lozmiennowej jako substytutu grupy kontrolnej. Plan preeksperymentalny jest najsłabszym planem badawczym, ponieważ nie kontroluje się tu większości źródeł trat-ności zewnętrznej i wewnętrznej planu. Ryzyko popełnienia błędu przy wyprowadzaniu wniosków przyczynowo-skutkowych na podstawie planu preekspery mentalnego jest szczególnie duże i dlatego plany te najczęściej stosuje się przy wstępnym testowaniu niektórych hipotez badawczych oraz w badaniach eksploracyjnych. Przykładem zastosowania planu preeksperymentalnego jest jednorazowa analiza przypadku. Jednorazowa analiza przypadku Jednorazowa analiza przypadku polega na dokonaniu pomiaru jednej grupy lub jednego zdarzenia w jednym punkcie czasowym, zazwyczaj po wystąpieniu tego zjawiska, które naszym zdaniem jest przyczyną obserwowanych zmian. Na przy-1 kład badanie takie może dotyczyć określonej społeczności po wprowadzeniu pro-1 gramu renowacji miasta, systemu politycznego po wyborach powszechnych czyj szkoły po wprowadzeniu nowych technik nauczania. Przykład programu Head Start jest bardzo żywą ilustracją pułapek stwarzanych I przez jednorazową analizę przypadku. W styczniu 1965 roku prezydent LyndonB. I Johnson poinformował opinię publiczną, że do programu działań na rzecz spole-j czeństwa, Community Action Program, zostanie włączony program o nazwie Head I Start, przeznaczony dla dzieci w wieku przedszkolnym. Początkowo rząd przezna-1 czył 17 milionów dolarów, aby w lecie 1965 roku 100 000 dzieci mogło wziąB udział w tym programie14. Rozgłos, jaki zyskał program Head Start, zaowocowali licznymi żądaniami ze strony władz lokalnych domagających się funduszy na tefl cel. Odpowiedzią na te żądania było przyznanie przez Office of Economic Oppor-1 tunity (OEO) 103 milionów dolarów, które przeznaczono na to, aby 560 000 dzieci I w lecie 1965 roku mogło wziąć w nim udział. Później, w tym samym roku. program I 14 Ten fragment został oparty na pracy Waltera Williamsa i Johna W. Evansa (1969), The PoWm of Evaluation: The Case of Head Start, „Annals of the American Academy of Political and Social Science", 385, s. 118-132. 162 Head Start stał się trwałym elementem programu walki z ubóstwem. Według prezydenta Johnsona program ten został sprawdzony „w walce" i „okazał się wartościowy", i w efekcie został uznany za program całoroczny. W roku 1968 przeznaczono 330 milionów dolarów dla 473 000 dzieci biorących udział w letnim programie i 218 000 dzieci biorących udział w programie całorocznym. Program Head Start stał się największym pojedynczym elementem działań w ramach Community Action Program. Aż do połowy 1967 roku nie uzyskano jednak żadnych wyraźnych dowodów świadczących o skuteczności tego programu. Członkowie Kongresu, Komisji Budżetowej i władze OEO domagali się potwierdzenia jego efektywności. Dlatego też dziat zajmujący się badaniami w Office of Research, Plans, Programs and Evalua-tions zaproponował przeprowadzenie jednorazowej analizy przypadku dla programu Head Start polegającej na tym, że dzieci, które brały udział w programie i są aktualnie w klasie pierwszej, drugiej i trzeciej, zostaną przebadane zestawami testów odnoszących się do umiejętności poznawczych i procesów emocjonalnych. Wyniki uzyskane przez dzieci w tych testach zostaną następnie potraktowane jako dowód skuteczności programu Head Start. Kierownictwo programu Head Start oponowało przeciwko temu, twierdząc, że badania oparte na takim planie badawczym nie mogą dostarczyć solidnego wsparcia na rzecz przyczynowego oddziaływania tego programu. Uzyskane różnice w poziomie wykonania testów można będzie bowiem uzasadnić za pomocą wyjaśnień i hipotez alternatywnych. Twierdzono, że badania przeprowadzone jedynie w momencie działania programu nie dostarczą żadnych danych porównawczych, a właśnie porównywanie jest istotą wnioskowania przyczynowo-skutkowego. Co więcej, taki plan badawczy nie pozwoli na zebranie danych, na podstawie których można by wyciągnąć wniosek, że program ten w ogóle ma jakiś wpływ na funkcjonowanie dzieci. Aby można było wyprowadzić trafne wnioski przyczynowo-skutkowe, należy przeprowadzić badanie, zanim program zostanie wdrożony. Jednorazowa analiza przypadku nie pozwala na kontrolowanie czynników zewnętrznych i wewnętrznych. Nie umożliwia również porównywania danych zebranych przed i po wprowadzeniu zmiennej manipulacyjnej, a także pomiędzy grupą eksperymentalną i kontrolną. Jednorazowej analizy przypadku nie można zatem wykorzystać do badania związków przyczynowo-skutkowych. Jednorazowa analiza przypadku jest jednak użyteczna w badaniach eksploracyjnych. Umożliwia ona wgląd w badany program, a to z kolei pozwala na sformułowanie hipotez badawczych. Jednakże w przypadku programu Head Start tak słaby plan badawczy został wykorzystany do sprawdzenia skuteczności programu, a kiedy uzyskano odpowiednie dane, zostały one zignorowane właśnie z powodu „problemów wynikających z planu badawczego"15. Pomijając te ograniczenia, w przypadku wielu pytań dotyczących polityki — zwłaszcza spornych problemów, kiedy trudno jest zastosować plan eksperymentalny lub quasi-eksperymentalny — jednorazowa analiza przypadku może się okazać jedyną dostępną techniką. Ponieważ w określonych dziedzinach liczba badań polegających na analizie przy- David Nachmias, Gary T. Henry (1980), The Utilization of Evaluation Research: Problems and mtpects, w: David Nachmias (red.), The Practice of Policy Evaluation, New York: St. Martin's Press, s. 461-476 3 Head ał ten r- tics 163 padków stale rośnie, przeto — aby przezwyciężyć ograniczenia wynikające z jednorazowego zastosowania tej metody — należy integrować wyniki pochodzące z różnorodnych badań. Taką metodę integrowania analiz przypadków zaproponował Mi-chael Berger. W metodzie tej — przeglądowej analizie przypadków — dokonuje się analizy treści poszczególnych badań, agreguje kolejne wnioski i następnie dokonuje się generalizacji wniosków w stosunku do wszystkich badań jako całości16. ¦ Porównanie planów badawczych W tym rozdziale podobnie jak i w rozdziale 5 skoncentrowaliśmy się na dwóch podstawowych problemach badań naukowych: wnioskowaniu przyczynowo--skutkowym i uogólnianiu wyników. Problemy te są źródłem istotnego dylematu: starania o to, aby uzyskać jednoznaczne dane dotyczące przyczynowości (trafność wewnętrzna), prowadzą często do obniżenia możliwości generalizowania (trafność zewnętrzna). Plany badawcze, które są mocne z punktu widzenia trafności wewnętrz-1 nej, takie jak plany eksperymentalne, zazwyczaj są słabe, jeśli chodzi o trafność zewnętrzną. Z kolei plany, które są słabe z punktu widzenia trafności wewnętrznej. jak np. jednorazowa analiza przypadku, są na mocy definicji również słabe z punktu widzenia trafności zewnętrznej. Brak trafności wewnętrznej uniemożliwia bowiem I dokonywanie jakichkolwiek uogólnień. Być może największe ograniczenie trafności wewnętrznej planu badawczego wynika z braku właściwej kontroli czynników wewnętrznych i zewnętrznych w stosunku do planu badawczego. Aby wyniki badania mogły być uogólnione, plan ba-1 dawczy powinien umożliwiać przeprowadzenie badania na próbie reprezentatywnej I dla populacji w rzeczywistych warunkach społecznych lub w rzeczywistej sytuacji. I Można czasami poprawić trafność zewnętrzną planu badawczego, zwiększając he-1 terogeniczność próby i sytuacji eksperymentalnej. Zwiększanie realizmu badania I oraz heterogeniczności może jednak prowadzić do zmniejszenia możliwości stoso-l wania procedur kontroli. Porównajmy teraz słabości i zalety różnych schematów badawczych. I tak, podł czas gdy eksperymenty są silne ze względu na możliwość kontroli, a słabe, jeśli I idzie o reprezentatywność, to quasi-eksperymenty i badania przekrojowe są silne I z punktu widzenia reprezentatywności i słabe ze względu na możliwość kontroli. I Badania eksperymentalne mają wiele zalet. Przede wszystkim, i to jest najważniej-1 sze, umożliwiają wyprowadzanie wniosków przyczynowo-skutkowych dzięki moż-l liwości kontroli — szczególnie poprzez randomizację — większości czynników! wewnętrznych i zewnętrznych w stosunku do planu badawczego. Po drugie, ekspe-1 rymenty umożliwiają kontrolowanie procedury wprowadzania zmiennej niezalez-l nej, co pozwala określić kierunek zależności przyczynowo-skutkowej. NąjważniejM szym ograniczeniem quasi-eksperymentów, badań przekrojowych i zwłaszcza prfrB eksperymentów jest brak tych właściwości. Brak właściwej kontroli nad alternatyw nymi wyjaśnieniami i trudności w manipulowaniu zmienną niezależną sprawiaj™ że badaczom trudno jest formułować jednoznaczne wnioski. 16 Michael A. Berger (1986), Studying Enrollment Decline (and Other Timely Issues) via the Goj Survey, „Evaluation Studies", 11, s. 720-730. 164 Zalety i wady planów badawczych stosowanych w naukach społecznych Plany eksperymentalne Zalety ¦ Badania eksperymentalne w dużym stopniu umożliwiają kontrolowanie czynników wewnętrznych i zewnętrznych w stosunku do planu badawczego, co zwiększa trafność wnioskowania przyczynowo-skutkowego (trafność wewnętrzną). ¦ Badania eksperymentalne umożliwiają kontrolowanie procedury wprowadzania zmiennej niezależnej, co pozwala określić kierunek zależności przyczynowo-skutkowej. Wady ¦ Trafność zewnętrzna planu jest słaba, ponieważ schematy eksperymentalne nie pozwalają na odtwarzanie rzeczywistych sytuacji społecznych. ¦ Eksperymentatorzy muszą często korzystać z ochotników lub z osób, które same przydzieliły się do grupy badawczej. Dlatego próba może nie być reprezentatywna dla badanej populacji, co uniemożliwia dokonywanie uogólnień i ogranicza zakres uzyskanych wyników. Plany przekrojowe i plany quasi-eksperymentalne Zalety ¦ Umożliwiają prowadzenie badań w warunkach naturalnych i rzeczywistych, co zwiększa trafność zewnętrzną badań. ¦ Nie wymagają losowego przyporządkowywania osób badanych do grup porównawczych. Mimo że ogranicza to trafność wewnętrzną badań opartych na tych schematach, równocześnie pozwala na badanie takich sytuacji, w których przydzielanie osób badanych czy to do grupy kontrolnej, czy do grupy eksperymentalnej może być nieetyczne lub niemożliwe. Wady ¦ Brak właściwej kontroli nad alternatywnymi wyjaśnieniami sprawia, że trudno jest formułować jednoznaczne wnioski. ¦ Ponieważ badacze często nie mogą manipulować zmienną niezależną, więc mogą określić kierunek związku przyczynowo-skutkowego jedynie przez wnioskowanie logiczne lub teoretyczne. Plany preeksperymentalne Zalety ¦ Pozwalają na zbieranie informacji wtedy, kiedy nie można zastosować żadnych innych planów badawczych. Mogą też stanowić uzasadnienie prowadzenia dalszych, bardziej trafnych badań. Wady ¦ Są bardzo słabe zarówno pod kątem trafności wewnętrznej, jak i zewnętrznej i nie pozwalają na wyprowadzanie wniosków przyczynowo-skutkowych. Eksperymenty jednak, mimo że par excellence są akceptowane jako metody naukowe, mają również liczne ograniczenia. Eksperymenty, a szczególnie eksperymenty laboratoryjne, krytykuje się ze względu na ich sztuczność i brak przystawalności do rzeczywistych sytuacji życiowych. Zdaniem krytyków, o czym będziemy mówić w rozdziale 9, w sytuacji eksperymentalnej nie da się odtworzyć realnych warunków i dlatego eksperymenty nie nadają się do badania istotnych problemów. Drugie ograniczenie dotyczy schematu doboru próby. W planach eksperymentalnych trudno zapewnić reprezentatywność badanej populacji. W wielu eksperymentach korzysta się po prostu z ochotników lub w najlepszym razie z próby przypadkowej. Brak reprezentatywności próby uniemożliwia dokonywanie uogólnień i ogranicza zakres uzyskanych wyników. Z kolei odwrotnie, większość badań przekrojowych prowadzonych jest w warunkach naturalnych i umożliwia korzystanie z próby probabilistycznej. Dzięki temu badacze mogą przenosić wnioski statystyczne na większe populacje i uogólniać otrzymane wyniki na realne sytuacje życiowe. Ponieważ żaden z planów badawczych nie rozwiązuje jednocześnie problemu, kontroli i reprezentatywności, przeto badacz stoi przed trudnym wyborem. Chociaż w praktyce natura badania dyktuje, co wybrać, badacze na ogół akceptują zasadę. że zapewnienie trafności wewnętrznej badania jest ważniejsze niż zapewnienie trafności zewnętrznej. Co więcej, eksperymenty, badania przekrojowe i quasi-ekspery-menty można poprawić. Badacze stosujący eksperymenty mogą zwiększyć ich trafność zewnętrzną przez wyraźne definiowanie badanej populacji i przez losowy do-1 bór badanych obiektów z populacji za pomocą probabilistycznego schematu pobie-l ranią próby. Badacze stosujący badania przekrojowe i quasi-eksperymenty mogą. w dużym stopniu zwiększyć trafność wewnętrzną poprzez włączanie dodatkowych] informacji jako formy kontroli nad alternatywnymi wyjaśnieniami. Stosowanie bar-1 dziej zaawansowanych technik statystycznych, takich jak analiza ścieżek czy ana-l liza przyczynowości, pozwala badaczom prowadzącym badania przekrojowe czyi quasi-eksperymentalne na poprawienie jakości wniosków przyczynowo-skutkowych.1 ¦ Podsumowanie 1. Randomizacja, wraz ze staranną kontrolą eksperymentalną, daje badaczom fl łę i moc przekonywania, jakich nie dają żadne inne, powszechnie stosowane meto-1 dy. Jednakże związki typu właściwość-dyspozycja nie poddają się łatwo ekspery-1 mentowaniu, a problemy natury społecznej, politycznej i etycznej mogą zniechęć™ lub uniemożliwić zastosowanie planów eksperymentalnych w przypadku związków I typu bodziec-reakcja. 2. Plany przekrojowe, najczęściej stosowane w badaniach sondażowych, wyk™ rzystuje się w badaniach dotyczących związków pomiędzy właściwościami a dn pozycjami. Plany te mogą w przybliżeniu osiągnąć status planów z grupą kontrotał i pomiarem końcowym przez zastosowanie statystycznych technik analizy danydH 3. Plany quasi-eksperymentalne są podobne do planów przekrojowych pódl względem słabszej trafności wewnętrznej niż w planach eksperymentalnych orał konieczności stosowania statystycznych technik analizy danych jako metody koM troli. Przewyższają one jednak plany przekrojowe, ponieważ zazwyczaj obejmujB badanie więcej niż jednej próby, w większym przedziale czasu. Plany z grupaB 166 kontrastowymi i plany z zaplanowanym zróżnicowaniem to plany quasi-eksperymen-talne. Badania panelowe i analiza szeregów czasowych oparte są na planach quasi--eksperymentalnych rozciągniętych w czasie. 4. Badania oparte na planach preeksperymentalnych takie, jak jednorazowa analiza przypadku, są tradycyjnie wykorzystywane wtedy, gdy przeprowadzenie eksperymentu nie jest możliwe. Preeksperymenty to najsłabsze plany badawcze, ponieważ badacze nie mogą kontrolować większości czynników determinujących trafność zewnętrzną i wewnętrzną planu. plany quasi-eksperymentalne 147 plany szeregów czasowych z grupą kontrolną 158 plany z zaplanowanym zróżnicowaniem 150 związek pomiędzy bodźcem a reakcją 143 związek pomiędzy właściwościami a dyspozycjami 143 1. Opisz rodzaje związków, które można badać za pomocą planów eksperymentalnych i quasi-eksperymentalnych. Podaj po jednym przykładzie każdego z nich. 2. Opracuj plan quasi-eksperymentalny, który można by wykorzystać w badaniu wpływu edukacji seksualnej na odsetek ciąż u nastolatek. Wyjaśnij dokładnie swój sposób myślenia oraz omów wady i zalety skonstruowanego przez siebie planu. 3. Omów różnice pomiędzy planami łączonymi, planami przekrojowymi oraz planami panelowymi, wskazując ich słabe i mocne strony. 4. Omów ograniczenia planów preeksperymentalnych. 5. Wyjaśnij, dlaczego plany z wysoką trafnością wewnętrzną mają zazwyczaj niską trafność zewnętrzną. I Literatura dodatkowa Brzeziński J. (1997). Metodologia badań psychologicznych, wyd. 2, Warszawa: Wyd. Nauk. PWN. Mayntz R.. Holm K., Hubner P. (1985), Wprowadzenie do metod socjologii empirycznej, Warszawa: PWN. Nowak S. (1985), Metodologia badań społecznych, Warszawa: PWN. Sulek A. (1979), Eksperyment w badaniach społecznych, Warszawa: PWN. Sulek A. (1986), Metody analizy socjologicznej. Wybór tekstów, Warszawa: Wyd. UW. ¦ Podstawowe terminy analiza rozszerzonych szeregów czasowych 155 analiza szeregów czasowych 154 badania panelowe 153 grupy kontrastowe 148 jednorazowa analiza przypadku 162 plany łączone 160 plany przekrojowe 145 ¦ Pytania sprawdzajqce Rozdział 7 Pomiar Natura pomiaru 170 Definicja pomiaru 171 Struktura pomiaru 171 Poziomy pomiaru 173 Poziom nominalny 173 Poziom porządkowy 174 Poziom interwałowy 176 Poziom stosunkowy 177 Transformacja danych 178 Błąd pomiaru 179 Trafność 180 Trafność treściowa 180 Trafność empiryczna 181 Trafność teoretyczna 183 Rzetelność 185 Metoda powtórnego testowania 1 Metoda form równoległych 187 Metoda połówkowa 188 Podsumowanie 189 Podstawowe terminy 190 Pytania sprawdzające 190 Literatura dodatkowa 190 W jaki sposób ekonomiści mogą sprawdzić, czy bezpieczeństwo społeczne, dobrobyt lub emerytury wypłacane w stanie Illinois są porównywalne z tymi, które się wypłaca w stanie Missisipi czy we Francji? To, czego ekonomiści potrzebują, to instrumenty mierzące koszty dóbr i usług, które można stosować konsekwentnie prawie we wszystkich współczesnych ekonomiach. Takim instrumentem jest wskaźnik kosztów utrzymania. Wskaźnik ten dostarcza wzorów matematycznych pozwalających obliczyć i porównać zmiany w wysokości cen, niezależnie od wykorzystywanej waluty. Stosuje się go, ponieważ jest precyzyjny, rzetelny i trafny. Zanim został stworzony, ekonomiści nigdy nie byli w stanie dokładnie wskazać, które strefy ekonomii były odpowiedzialne za inflację. Również instytucje rządowe nie potrafiły właściwie dostosować płac do potrzeb. Ponieważ badacze w naukach społecznych w ogromnej mierze opierają się na miarach takich jak wskaźnik kosztów utrzymania, przeto muszą bardzo dokładnie określić, na ile takie miary odzwierciedlają rzeczywistość. Jednym z problemów omawianych w tym rozdziale jest dokładność tego typu miar. W tym rozdziale zajmiemy się naturą pomiaru w naukach społecznych oraz omówimy pojęcie izomorfizmu, które dotyczy tego, w jaki sposób instrument pomiarowy jest powiązany z mierzoną rzeczywistością. Przedstawimy następnie cztery poziomy pomiaru: nominalny, porządkowy, interwałowy i stosunkowy. Dalej przedyskutujemy zagadnienie błędu pomiaru. Rozdział zakończymy opisem pojęcia trafności — tj. czy instrument pomiarowy mierzy to, co z założenia miał mierzyć — oraz rzetelności — tj. czy i na ile wyniki otrzymane za pomocą instrumentu pomiarowego nie zmieniają się z jednego pomiaru na drugi. Kiedy zdecydujemy się na wybór problemu badawczego i określimy hipotezy badawcze, natychmiast stajemy wobec dwóch problemów: w jaki sposób zaprojektować badanie i jak zmierzyć zmienne. W rozdziale 5 i 6 omówiliśmy zagadnienia związane z wyborem planu badawczego. W tym rozdziale skoncentrujemy się na pomiarze, jego naturze i strukturze, poziomach pomiaru oraz na trafności i rzetelności narzędzi pomiarowych. Istotą zagadnień związanych z pomiarem jest, odwołując się do klasycznych dziś słów Norberta Wienera to, że „obiekty [...] nie poruszają się z naklejonymi na sobie informacjami, na przykład o ładowności — ustalenie ich miar wymaga nieco więcej poszukiwań"1. W niektórych sytuacjach będzie to poszukiwanie miar już istniejących i omawianych w literaturze fachowej, w innych — badacz musi sam opracować miary, które pozwolą zamienić obserwacje empiryczne na formy wymagane przez problem i plan badawczy. Badacze muszą ponadto uzasadnić, że wybrane przez nich miary są trafne i rzetelne. 1 Norbert Wiener (1920), A New Theory of Measurement: A Study in the Logic of Mathematics, „Proceedings of the London Mathematical Society", 19, s. 181. Praca ta cytowana jest w: Billy J. Franklin, Harold W. Osborne (red.) (1971), Research Methods: Issues and Insights, Belmont, Calif.: Wads-wotth, s. 118. 169 ¦ Natura pomiaru Pojęcie pomiaru jest ściśle powiązane z pojęciem definicji operacyjnych, które omówiliśmy w rozdziale 2. Definicje operacyjne to procedury pomiarowe łączące poziom pojęciowo-teoretyczny z poziomem empiryczno-obserwacyjnym. Mówiąc dokładniej, pomiar to procedura, w której przyporządkowuje się, zgodnie z określonymi zasadami, wartości liczbowe — cyfry lub inne symbole — właściwościom empirycznym (zmiennym)2. Przypuśćmy, że chcemy kupić nowy samochód. Ponieważ okazało się, że różnica w cenie pomiędzy różnymi samochodami średniej klasy jest niewielka, więc zdecydowaliśmy się na kupno takiego modelu, który najlepiej nam odpowiada pod względem kształtu, parametrów ekonomicznych i warunków serwisowania. Każda z tych trzech cech może przybierać różne wartości. I tak na przykład, jeden model może mieć dobrze zaprojektowaną sylwetkę oraz dobre parametry ekonomiczne, ale warunki serwisowe określone przez producenta nie zadowalają nas. W związku z tym decydujemy się porangować każdą z tych cech, wykorzystując skalę składającą się z pięciu wartości: 10, 11, 12, 13 i 14, gdzie 10 oznacza całkowity brak zadowolenia, a 14 — pełne zadowolenie. Wartości 11, li i 13 wskazują na rosnące zadowolenie w stosunku do analizowanej cechy. Teraz możemy ocenić każdy z pięciu modeli. W tabeli 7.1 przedstawiliśmy ocenę każdego modelu zgodnie z wybranymi kryteriami. Po przeanalizowaniu wyników zdecydowaliśmy się na kupno samochodu C, ponieważ otrzymał on najwyższą ocenę we wszystkich trzech punktach. Ocena ta oznacza, że biorąc pod uwagę trzy wybrane kryteria, model C najbardziej nas zadowoli. Przedstawiony tu system uporządkowania marek samochodów choć jest najbar-1 dziej uproszczonym przykładem pomiaru, obrazuje istotę idei pomiaru — zgodnie bowiem z określonymi regułami przyporządkowaliśmy wartości liczbowe określonym cechom. Własności czy zmienne, liczby i reguły przyporządkowania znalazły się w instrukcji, którą wcześniej opracowaliśmy. Możemy dalej wykorzystać wartości liczbowe, które otrzymaliśmy w wyniku pomiaru, aby porównać, ocenić i określić relacje pomiędzy różnymi mierzonymi cechami. Możemy, na przykład, obliczyć stopień powiązania pomiędzy kształtem a parametrami ekonomicznymi, czy pomiędzy kształtem a oferowanymi usługami serwisowymi. Tabela 7.1. Rangowanie preferencji Sylwetka Parametry ekonomiczne Usługi serwisowe Samochód A 10 11 10 Samochód B 13 14 12 Samochód C 14 14 14 Samochód D 14 12 13 Samochód E 10 12 14 2 S.S. Stevens (1951), Mathematics, Measurement and Psychophysics, w: S.S. Stevens (red.). Hani-book of Experimental Psychology, New York: Wiley, s. 8. 170 Definicja pomiaru Zacznijmy od sprecyzowania, co rozumiemy przez trzy pojęcia wykorzystywane do definiowania pomiaru, tj. co to są cyfry, przyporządkowanie i reguły. Cyfry to symbole przedstawiane w postaci I, II, III,..., lub 1, 2, 3,... Cyfry nie mają znaczenia ilościowego, dopóki im takiego sensu nie nadamy. Cyfry można wykorzystywać do opisywania zjawisk, obiektów czy osób. Możemy za ich pomocą określać miesiące, prawa jazdy, ulice, książki, zmienne czy graczy w futbol. Cyfry, które mają znaczenie ilościowe, stają się liczbami i same umożliwiają wykorzystywanie technik matematycznych i statystycznych w procesie opisywania, wyjaśniania i przewidywania. Innymi słowy, liczby nadają się do analiz ilościowych, które mogą dostarczyć nowych informacji o badanym zjawisku. W definicji pomiaru termin „przyporządkowanie" oznacza przydzielanie. Cyfry lub liczby są przydzielane obiektom czy zdarzeniom. Na rycinie 7.1 zobrazowaliśmy ideę przydzielania w procesie pomiaru: w zbiorze okręgów i kwadratów, cyfrę 1 przydzielono okręgom, a 2 kwadratom. Trzecim pojęciem wykorzystywanym w definicji pomiaru jest pojecie reguł. Reguła określa procedurę, jaką posłużono się w trakcie przypisywania cyfr lub liczb obiektom czy zdarzeniom. Reguła może stanowić: „Przyporządkuj systemom politycznym liczby od 10 do 15, zgodnie ze stopniem ich demokratyczności. Jeżeli system polityczny jest w wysokim stopniu demokratyczny, to przyporządkuj mu liczbę 15. Jeżeli jest całkowicie niedemokratyczny, to przyporządkuj mu liczbę 10. Systemom politycznym, mieszczącym się pomiędzy tymi stopniami demokracji, przyporządkuj liczby mieszczące się pomiędzy liczbami 10 i 15". Na przykład przypuśćmy, że pewna grupa składa się z trzech demokratów i dwóch republikanów. Badacz może tu zastosować następującą regułę przyporządkowywania: „Jeżeli dana osoba jest demokratą, to przydziel jej cyfrę 1; jeżeli jest republikaninem — przydziel jej cyfrę 2". Ilustrację zastosowania tej reguły przedstawiliśmy na rycinie 7.2. Ryc. 7.1. Przyporządkowywanie — przekształcanie Ryc. 7.2. Przyporządkowywanie według reguły Struktura pomiaru Pomiar zatem to przyporządkowywanie cyfr lub liczb obiektom, zdarzeniom lub zmiennym zgodnie z określonymi regułami. Reguły są najbardziej istotnym elementem procedury pomiarowej, ponieważ wyznaczają jakość pomiaru. Złe reguły sprawiają, że pomiar jest pozbawiony sensu. Pomiar jest bezsensowny wówczas, kiedy nie przystaje do rzeczywistości, kiedy brakuje mu podstaw empirycznych. Funkcją reguł właśnie jest wiązanie procedury pomiarowej z rzeczywistością. Przy- 171 puśćmy na przykład, że chcemy dokonać pomiaru miękkości trzech obiektów. Jeżeli obiekt A może zarysować obiekt B i nie vice versa, to obiekt B jest bardziej miękki niż obiekt A. Podobnie, jeżeli obiekt A może zarysować obiekt B i obiekt B może zarysować obiekt C, to A prawdopodobnie również zarysuje C. Możemy zatem wyciągnąć wniosek, że obiekt C jest bardziej miękki niż obiekt A. Ponieważ możemy to sprawdzić, więc — po przeprowadzeniu kilku testów na zarysowanie — możemy przyporządkować każdemu obiektowi liczby wskazujące na stopień jego miękkości. W tej sytuacji procedura pomiarowa i system liczbowy są izomorficzne w stosunku do rzeczywistości. Izomorfizm oznacza „podobieństwo lub identyczność struktury". Podstawowym pytaniem w dziedzinie pomiaru jest pytanie o to, czy wykorzystany system liczbowy ma podobną strukturę do struktury mierzonych pojęć. W naukach fizycznych problem izomorfizmu ma zazwyczaj znaczenie drugorzędne, ponieważ relacja pomiędzy mierzonymi pojęciami a liczbami przypisanymi dokonanym obserwacjom jest najczęściej bezpośrednio dana. W naukach społecznych natomiast naukowcy muszą zawsze być świadomi tego, że podobieństwo to nie musi być ani oczywiste, ani wprost określone: aby mogli oni dokonywać określonych operacji na liczbach, które zostały przyporządkowane obserwacjom, struktura zastosowanej przez nich metody przyporządkowania liczb obiektom musi być izomorficzna względem określonej struktury liczbowej zawierającej te operacje3. Kiedy mówimy, że dwa systemy są izomorficzne, mamy na myśli to, że mają one podobne struktury i że relacje pomiędzy ich elementami lub dopuszczanymi przez nie operacjami są również identyczne. Dlatego też, kiedy badacz przyporządkowuje liczby obiektom lub systemom, a następnie manipuluje tymi liczbami przez, powiedzmy, ich dodawanie, to tym samym przyjmuje, że struktura tego systemu pomiam jest izomorficzna względem relacji zachodzących wewnątrz lub pomiędzy badanymi zjawiskami. W naukach społecznych bardzo często dokonujemy pomiaru wskaźników po-1 jęć. Pojęć takich, jak: demokracja, motywacja, wrogość czy władza nie można obserwować bezpośrednio; badacze wyprowadzają wnioski dotyczące tych pojęć na podstawie pomiaru ich empirycznych, obserwowalnych wskaźników. Jeżeli w sys-1 ternie politycznym regularnie przeprowadza się wybory, to można sądzić, że jest to jeden ze wskaźników demokracji. Jeżeli rozwiązując test dotyczący motywacji, otrzymamy określony wynik, to psycholog może na tej podstawie wyciągnąć wnioski I o naszym poziomie motywacji. W przykładach tych określone zachowanie zostało potraktowane jako wskaźnik pojęcia teoretycznego. Uczeni, badając pojęcia abstrakcyjne, bardzo często opracowują wskaźniki złożone. Wiele istotnych pojęć stosowanych w naukach społecznych to właśnie pojęcia wielopłaszczyznowe, wymagające tworzenia złożonych wskaźników uwzględniających różne aspekty badanego pojęcia. I tak na przykład w pojęciu demokracji mieści się znacznie więcej niż zjawisko wyborów. Uczciwość wyborów, wolność prasy, swoboda w tworzeniu or- 3 Sidney N. Siegel (1988), Nonparametric Statistics for the Behavioral Sciences, New York: Mci Graw-Hill, s. 22. 172 ganizacji i prawa mniejszości to przykład innych istotnych cech. Dlatego systematyczność wyborów nie jest wystarczającym wskaźnikiem stopnia demokratyzacji społeczeństwa. Każda z wymienionych cech może zostać potraktowana jako dodatkowy wskaźnik globalnego procesu. Wskaźników nie można tworzyć arbitralnie. Powinny one mieć odniesienia zarówno w teorii, jak i w empirii. I tak wskaźniki demokracji opisane w poprzednim przykładzie zostały wyprowadzone i z teorii demoracji, i z rzeczywistego funkcjonowania systemu politycznego. I chociaż sam proces pomiaru pojęć bezpośrednio obserwowalnych jest taki sam jak proces pomiaru wskaźników pojęć, to określenie regut przyporządkowania w drugim przypadku sprawia więcej kłopotów, ponieważ proces pomiaru wskaźników wymaga szerszego zakresu wnioskowania. Trafność wyprowadzanych wniosków może z kolei zależeć od zastosowanej metodologii i logicznej struktury teorii leżącej u podstaw badań. I wreszcie, procedura pomiaru ma sens z punktu widzenia nauki jedynie wtedy, kiedy można ją powiązać z jakąś teorią wyjaśniającą. Podsumowując, wskaźniki są określane przez definicje operacyjne. Po dokonaniu obserwacji wskaźników badacze mogą zastąpić obserwowane wartości tych wskaźników za pomocą cyfr lub liczb i przeprowadzić analizę ilościową. Struktura numeryczna narzędzia pomiarowego musi być taka sama, pod względem relacji i operacji, jak struktura wskaźnika; zatem obie struktury muszą być izomorficzne. I Poziomy pomiaru Ponieważ system numeryczny i mierzone właściwości empiryczne (wskaźniki) muszą być izomorficzne, można wyróżnić różne sposoby pomiaru czy, używając języka technicznego, różne poziomy pomiaru. (Czasami zamiast terminu „poziom pomiaru" używa się terminu „skala". Skale można traktować jako instrument pomiarowy — skalą jest licznik szybkości, podobnie jak linijka czy kwestionariusz). Operacje matematyczne i statystyczne, jakie można przeprowadzić na określonym zbiorze liczb, zależą od osiągniętego poziomu pomiaru. Omówimy cztery podstawowe poziomy pomiaru — nominalny, porządkowy, interwałowy i stosunkowy — oraz istotę podstawowych operacji dopuszczanych na każdym z nich. Poziom nominalny Najniższym poziomem pomiaru jest poziom nominalny. Na tym poziomie wykorzystuje się cyfry lub inne symbole do klasyfikowania obiektów lub obserwacji do określonej liczby kategorii. Te cyfry lub symbole tworzą skalę nominalną lub inaczej klasyfikacyjną. Na przykład za pomocą cyfr 1 i 2 można poklasyfikowac określoną populację na mężczyzn i kobiety, gdzie 1 reprezentuje mężczyzn, a 2 kobiety. Ta sama populacja może zostać poklasyfikowana ze względu na religię: chrześcijanie mogą być reprezentowani przez cyfrę 6, żydzi przez 7, a muzułmanie przez 8. W pierwszym wypadku populacja została podzielona na dwie kategorie, w drugim — na trzy. Nominalny poziom pomiaru zostanie osiągnięty wówczas, kiedy zbiór obiektów zostanie poklasyfikowany na kategorie, które będą wyczerpujące (tzn. będą zawierać wszystkie obiekty określonego rodzaju), wzajemnie rozłączne (tzn. żaden obiekt nie zostanie jednocześnie zaliczony do więcej niż jednej katego- 173 rii) i każdej kategorii zostanie przypisany inny symbol, który będzie ją reprezentował. Płeć, narodowość, pochodzenie etniczne, stan cywilny, miejsce zamieszkania (na przykład — miasto czy wieś) czy przynależność partyjna to zmienne nominalne. Od strony matematycznej podstawową cechą nominalnego poziomu pomiaru jest to, że właściwości obiektów wpadających do jednej kategorii są traktowane ja- I ko identyczne dla wszystkich przypadków, tj. dla wszystkich przypadków wpada- I jących do jednej kategorii. Na przykład wszyscy mieszkańcy Kanady i Stanów Zje- I dnoczonych mogą być traktowani jako członkowie kategorii nominalnej określanej jako mieszkańcy kontynentu północnoamerykańskiego, pomimo ich różnego oby-1 watelstwa. Podobnie wszyscy mieszkańcy pięćdziesięciu stanów należą do tej sa-1 mej kategorii określanej z punktu widzenia obowiązku płacenia podatków federal- I nych; ich adresy określają, czy zostaną oni włączeni do innych kategorii nominał- I nych, takich jak listy podatników w konkretnym stanie czy mieście. Na nominalnym poziomie pomiaru naukowcy mogą klasyfikować obiekty, sto-l sując każdy zbiór symboli. Badacz może również zmieniać symbole, nie zmieniając I otrzymywanych informacji, jeśli uczyni się to jednolicie i dla wszystkich kategorii. I Tym samym, na tym poziomie pomiaru dopuszczalne są jedynie takie metody sta-1 tystyczne, które nie są wrażliwe na dokonywanie takich transformacji. Do metod tych można zaliczyć obliczanie mody, miar zróżnicowania jakościowego i odpo-1 wiednich miar związku. Przedstawimy je w rozdziale 15 i 16. Poziom porzqdkowy W naukach społecznych analizuje się wiele zmiennych, które nie tylko można kia-1 syfikować, ale też porządkować ze względu na określone relacje. Typowymi rela-1 cjami są „wyższy", „większy", „bardziej pożądany", „trudniejszy" itd. Relacje te I można przedstawiać za pomocą symbolu >, który oznacza „większy niż". Relacja I > w odniesieniu do konkretnych własności może oznaczać „jest wyższy niz",,Jest 11 większy niż", „jest bardziej pożądany niż" itp. Na przykład możemy założyć, żel Francja jest bardziej demokratyczna niż Rosja, lecz mniej niż Anglia. Ogólnie rzecz biorąc, osiągnęliśmy porządkowy poziom pomiaru, jeżeli relacja > (obok równo- I ważności) zachodzi dla wszystkich obserwacji tworzących zbiór w pełni uporząd- I kowany (na przykład od „największego" do „najmniejszego"). Relacja równoważ-1 ności zachodzi pomiędzy przypadkami posiadającymi tę samą rangę, natomiast re-B lacja > zachodzi pomiędzy każdą parą rang. Relacja > nie jest zwrotna, nie jest symetryczna i jest przechodnia. Brak zwrdB ności relacji to właściwość logiczna zachodząca dla każdego a wtedy, kiedy nie I jest prawdą, że a> a. Niesymetryczność oznacza, że jeżeli a> b, to bi-a. Nato-miast przechodniość relacji oznacza, że jeżeli a > b i b > c, to a > c. Innymi słowy, I jeżeli dokonamy pomiaru takiej zmiennej jak „konserwatyzm" na skali porządkowej, to można wyciągnąć wniosek, że jeżeli osoba w grupie A jest bardziej konserwatywna niż osoba w grupie B, i jeżeli grupa B jest bardziej konserwatywna niż grupa C, to osoba z grupy A jest bardziej konserwatywna niż osoba z grupy C i relacja zachodzi dla wszystkich osób należących odpowiednio do którejś z tych trzech grup. 174 Jako przykład pomiaru na poziomie porządkowym rozważmy stosowany powszechnie pomiar postaw. Badacze mierzą postawy za pomocą zestawu pytań, porządkując uzyskane odpowiedzi na każde pytanie w porządku rosnącym lub malejącym. Na przykład jedno z twierdzeń wykorzystanych do pomiaru poczucia alienacji politycznej brzmi: „Ludzie podobni do mnie mają ogromny wpływ na decyzje rządu". Zadanie osoby badanej polega na zaznaczeniu stopnia zgody lub braku zgody z treścią tego twierdzenia. W tabeli 7.2 przedstawiliśmy jedną z możliwości przypisania wartości liczbowych możliwym kategoriom odpowiedzi. Osobie badanej przedstawia się dalej kolejne twierdzenia dotyczące tej samej postawy i następnie — biorąc pod uwagę odpowiedzi na wszystkie twierdzenia — przypisuje się tej osobie odpowiednią rangę. Tabela 7.2. Skala porządkowa Tabela 7.3. Porangowanie osób badanych ze ______________________________________względu na wyniki uzyskane w kwestionariuszu Ranga Wartość alienacji politycznej całkowicie się zgadzam Respondent Wynik Ranga zgadzam się 3 nie zgadzam się 4 całkowicie się nie zgadzam Przypuśćmy, że badacz zastosował dziesięć twierdzeń, z których każde miało cztery możliwe odpowiedzi: 1 za „całkowicie się zgadzam", 2 za „zgadzam się", 3 za ..nie zgadzam się" i 4 za „całkowicie się nie zgadzam". W tym wypadku najwyższy wynik, jaki może otrzymać osoba badana, to 40 punktów (tj. 4 punkty w każdym z dziesięciu twierdzeń), najniższy zaś wynik to 10 punktów. Aby uprościć nasze rozumowanie, załóżmy, że osoba badana udzieli odpowiedzi na wszystkie 10 twierdzeń. Osoba z wynikiem 40 punktów będzie traktowana jako najbardziej wyalienowana i będzie pierwsza na skali stopnia alienacji. Inna osoba, której wynik jest najbliższy 40 — powiedzmy 36 — zostanie umieszczona na drugim miejscu i tak dalej dla wszystkich osób badanych w grupie. Proces nadawania porządku zakończy się, gdy wszystkie osoby badane zostaną uporządkowane ze względu na wyniki, jakie uzyskały w kwestionariuszu alienacji politycznej. W tabeli 7.3 przedstawiamy hipotetyczne wyniki i odpowiadające im rangi dla siedmiu osób. Zgodnie z danymi osoba oznaczona jako S6 jest najbardziej wyalienowana, a osoba S, najmniej. Dane uzyskane na porządkowym poziomie pomiaru można poddawać dowolnej transformacji monotonicznej, bez względu na to, jak przyporządkowano wartości liczbowe, otrzymane informacje nie ulegną zmianie. Nie ma również znaczenia to, które liczby zostały przyporządkowane parom obiektów czy całej kategorii, jeśli uczyniono to w sposób stały. Kierując się względami natury praktycznej, zazwyczaj przypisuje się mniejsze wartości liczbowe „wyższym" wynikom, ponieważ najczęściej, mówiąc o najlepszych wynikach, myślimy o nich jak o „pierwszej klasie", S, 10 7 S2 27 3 S, 36 2 S4 25 4 S_, 20 5 56 40 1 57 12 6 175 a odpowiednio gorsze wyniki traktujemy jako „drugą klasę" i „trzecią klasę" wyników. Obok postaw innymi zmiennymi porządkowymi, często badanymi w naukach społecznych są klasy społeczne, stopnie szkolne, stopnie wojskowe, pozycje zajmowane w hierarchii danej instytucji czy zaangażowanie w działanie partii politycznych. Jeżeli tylko określone zjawisko lub proces można opisać na skali od najlepszego do najgorszego (np. film) czy od najwyższego do najniższego (jak w wypadku klas społecznych), to mamy do czynienia z pomiarem porządkowym. Liczby wykorzystane do uporządkowania obiektów nazywamy wartość iw mi rangowymi. Zazwyczaj rangi przyporządkowuje się obiektom zgodnie z następującą regułą: obiekt znajdujący się na jednym krańcu skali (największy lub najmniejszy) otrzymuje wartość 1, następny pod względem wielkości — 2, trzeci pod względem wielkości — 3 itd., aż dotrzemy do obiektu znajdującego się na drugim końcu skali, który otrzyma ostatnią wartość liczbową z całej serii. W przykładzie przedstawionym w tabeli 7.3 osobie oznaczonej jako S6 przypisano wartości, S3 przypisano 2, S2 przypisano 3, S4 przypisano 4, S5 przypisano 5, S7 przypisano 6, a Si przypisano 7. Podkreślmy wyraźnie, że liczby porządkowe wskazują jedynie na sposób uporządkowania obiektów i na nic więcej. Na podstawie tych wartości liczbowych nie można twierdzić, że odległości pomiędzy poszczególnymi wartościami są równe ani że mają one wartości absolutne. Nie możemy zatem przyjąć, że chociaż wartości liczbowe są równo rozłożone, to właściwości odpowiadające tyra wartościom są też równo rozłożone. Jeżeli dwie osoby otrzymały rangę 7 i 5, a dwie inne 4 i 2, to nie oznacza to wcale, że różnica pomiędzy osobami w każdej parze jest taka sama. Na poziomie porządkowym dopuszczalne są wszelkie transformacje nie zmieniające uporządkowania właściwości. Dlatego badacze mogą przeprowadzać operacje matematyczne i statystyczne, które nie zmieniają uporządkowania właściwości. Na przykład statystyką opisującą tendencję centralną w wypadku danych porządkowych jest mediana. Wartość mediany nie zależy od zmian wyników znajdujących się powyżej lub poniżej mediany tak długo, jak długo liczba obserwacji powyżej i poniżej mediany pozostanie taka sama. W rozdziale 15 i 16 omówimy inne statystyki stosowane dla danych porządkowych, takie jak rozstęp, współczynnik gamma i tau-b. Poziom interwałowy Jeżeli, obok możliwości porządkowania zbioru obserwacji w terminach relacji >. można również określić dokładną odległość pomiędzy kolejnymi obserwacjami i ta odległość jest stała, to zrealizowaliśmy interwałowy poziom pomiaru. Oprócz możliwości stwierdzenia, że jeden obiekt jest większy niż drugi, możemy teraz określić, o ile dokładnie jednostek pierwszy jest większy od drugiego. Na przykład dokonując pomiaru interwałowego, możemy powiedzieć nie tylko, że Sue zarabia więcej niż Mikę, ale również, że Sue zarabia o 5000$ więcej niż Mikę. Aby można było dokonać takiego ilościowego porównania, musimy dysponować dokładną jednostką pomiaru. Interwałowy poziom pomiaru ma zatem określoną i stałą jednostkę pomiaru, która przyporządkowuje liczbę rzeczywistą każdej parze obiektów w uporządkowanym zbiorze. Przy tego rodzaju pomiarze stosunek dwóch interwałów (odległości) jest niezależny od jednostki pomiaru. Powiedzmy, że mamy zmienić 176 800-punktowy system oceniania z jednostek nominalnych na jednostki procentowe. Stosunek pomiędzy wynikiem równym 66% i 99% będzie taki sam jak pomiędzy wynikami 528 i 792, tj. 2:3. Wielkość odległości w tych dwóch systemach pozostanie taka sama. Przykładami zmiennych mierzonych na poziomie interwałowym są dochody, iloraz inteligencji (IQ), wyniki otrzymywane w teście SAT, głosy wyborców czy odsetek przestępstw. Na interwałowym poziomie pomiaru różnice pomiędzy obiektami są izomorficzne względem systemu arytmetycznego. Przypisując liczby pozycjom obiektów na określonej skali, możemy w sposób sensowny wykonywać szereg operacji arytmetycznych na różnicach pomiędzy tymi liczbami. Dla interwałowego poziomu pomiaru zachodzą następujące własności formalne: 1. Jednoznaczność: jeżeli a i b oznaczają liczby rzeczywiste, to wynikiem działań a + b i a x b jest jedna i tylko jedna liczba rzeczywista. 2. Symetryczność: jeżeli a = b, to b-a. 3. Przemienność: jeżeli a i b oznaczają liczby rzeczywiste, to a + b = b + a oraz ab = ba. 4. Podstawianie: jeżeli a = b i a + c-d, to b + c-d; i jeżeli a-b i ac = d, to bc=d. 5. Łączność: jeżeli a, b i c oznaczają liczby rzeczywiste, to (a + b) + c = = a + (b + c) i (ab)c = a(bc). Każda zmiana wartości liczbowych przypisanych obserwacjom musi zachowywać nie tylko ich uporządkowanie, ale również względne różnice pomiędzy nimi. Dlatego też informacje otrzymywane na tym poziomie pomiaru nie ulegną zmianie, jeżeli każdą liczbę pomnożymy przez stałą wartość dodatnią i następnie dodamy stałą do wyniku mnożenia. Wszystkie metody statystyki opisowej i indukcyjnej można stosować dla danych interwałowych. Poziom stosunkowy Zmienne, które mają naturalny punkt zerowy (tj. na przykład taki punkt, w którym zamarza woda), można mierzyć na poziomie stosunkowym. Zmienne takie, jak: waga, czas, długość czy powierzchnia mają naturalny punkt zerowy i można je mierzyć na poziomie stosunkowym. Na tym poziomie iloraz dwóch liczb jest również niezależny od jednostki pomiaru. Poziom interwałowy i stosunkowy są do siebie podobne i podobne są zasady przyporządkowywania liczb obiektom — z jednym wyjątkiem. Na poziomie stosunkowym liczby przyporządkowujemy mierzonym wielkościom, począwszy od zera absolutnego; na poziomie interwałowym punkt zerowy jest ustalany arbitralnie. Stosunkowy poziom pomiaru jest najczęściej osiągany w naukach ścisłych (np. w fizyce) i jest realizowany jedynie wtedy, gdy są spełnione wszystkie cztery następujące warunki: (1) zachodzi relacja równoważności, (2) zachodzi relacja „większy niż", (3) znana jest wielkość dwóch dowolnych interwałów oraz (4) istnieje prawdziwy punkt zerowy4. 4 Więcej szczegółów na temat poziomów pomiaru można znaleźć w pracy Siegla Nonparametric ttatistics, którą w dużej mierze wykorzystano w tym rozdziale. 177 Cztery poziomy pomiaru ¦ Poziom nominalny. Na poziomie nominalnym cyfry lub symbole są wykorzystywane do klasyfikowania obiektów lub wyników obserwacji. Zjawiska znajdujące się w jednej kategorii są sobie równe, lecz nie są równe zjawiskom znajdującym się w innej kategorii (oznacza to, że na poziomie nominalnym zachodzi relacja równoważności). ¦ Poziom porządkowy. Jeżeli między zmiennymi zachodzi relacja porządku, to można je mierzyć na poziomie porządkowym. Relację tego rodzaju oznacza się symbolem > (większy niż). Na poziomie porządkowym również zachodzi relacja równoważności. ¦ Poziom interwałowy. Jeżeli znana jest dokładna odległość między wynikami dwóch obserwacji i jest ona stała, to możemy dokonać pomiaru na poziomie interwałowym. Między zjawiskami mierzonymi na tym poziomie również zachodzi relacja równoważności, a także jeden wynik może być większy (lub mniejszy) od drugiego. ¦ Poziom stosunkowy. Jeżeli zmienne mają naturalny punkt zerowy, to można je mierzyć na poziomie stosunkowym. Na poziomie stosunkowym również zachodzi relacja równoważności, także relacja porządku (jeden obiekt jest większy niż inny) oraz istnieje stały interwał. ¦ Transformacja danych Zmienne, które da się zmierzyć na skali stosunkowej, można również mierzyć poziomie interwałowym, porządkowym i nominalnym. Generalnie obowiązuje stępująca zasada: wielkości, które można zmierzyć na poziomie wyższym, m być również zmierzone na poziomie niższym, ale nigdy na odwrót. Zmienna t jak przynależność partyjna może zostać zmierzona tylko na poziomie nominalnym. W tabeli 7.4 przedstawiliśmy właściwości formalne charakteryzujące każdy z poziomów pomiaru. I tak na przykład, relacja równoważności zachodzi dla wszystkich czterech poziomów, ale zero naturalne występuje tylko na poziomie stosunkowym. Tabela 7.4. Poziomy pomiaru i ich podstawowe właściwości Poziom Równoważność Większy niż Stały interwał Zero naturalne Nominalny tak nie nie nie Porządkowy tak tak nie nie Interwałowy tak tak tak nie Stosunkowy tak tak tak tak Wcześniej wymieniliśmy rodzaje operacji na liczbach oraz rodzaje metod sta-j tystycznych, jakie są właściwe i dopuszczalne na każdym poziomie. Niektórzy badacze zdają się nie przykładać wystarczającej wagi do tej sprawy. Problem ten jaj jednak na tyle istotny, że warto mu poświęcić nieco więcej miejsca. 178 są wy-ji- Zja-równe pozio- >orząd-rodza-cowym i wymiaru na pozio-k może i można m rów- (jeden mierzyć na wiązuje na-;zym, mogą mienna taka ominalnym. każdy z po-i wszystkich punkowym. tturalne iie lie iie ak e metod sta-liektórzy bakiem ten jest Matematyka i statystyka to języki atreściowe. Operują na liczbach i nie roz-strzygają, czy liczby reprezentują świat empiryczny. Są użyteczne z powodu swojej precyzji i możliwości odkrywania takich informacji o zjawiskach, które bez nich pozostałyby ukryte. Na pytanie „W jakim zakresie zmienne są ze sobą powiązane?" można sensownie i precyzyjnie odpowiedzieć, obliczając miarę siły związku. Przyporządkowując liczby, można przeprowadzić każdą operację statystyczną. Pamiętajmy jednak, że badaczy w dziedzinie nauk społecznych interesują zjawiska empiryczne. Posługują się liczbami i miarami statystycznymi, aby lepiej zrozumieć związki pomiędzy tymi zjawiskami. Jeżeli jednak zastosują systemy liczbowe i statystyczne, które nie są izomorficzne względem struktury badanych zjawisk empirycznych, to efekt ich działań nie poszerzy naszej wiedzy. ¦ Błqd pomiaru Procedury pomiarowe są wykorzystywane w celu przyporządkowania wartości liczbowych, cyfr lub wyników badanym właściwościom. Kiedy wyniki zostaną juz przyporządkowane, różnice między wynikami otrzymanymi w powtarzanych pomiarach można przypisać dwóm źródłom. Jednym ze źródeł jest zakres, w jakim wyniki odzwierciedlają rzeczywiste różnice pomiędzy mierzonymi właściwościami. Drugim źródłem różnic w wynikach jest zakres, w którym sam pomiar oraz otoczenie, w którym następuje akt pomiaru, wpływają na otrzymane wyniki. W tym wypadku pomiary odzwierciedlają różnice nierzeczywiste. Pomiary idealne odzwierciedlają wyłącznie rzeczywiste różnice pomiędzy właściwościami. Jednakże pomiary idealne zdarzają się bardzo rzadko i często otrzymane miary, oprócz różnic rzeczywistych, odzwierciedlają różnice będące artefaktem, tj. odzwierciedlaj;! zróżnicowanie wynikające z samej procedury pomiarowej. Wszelkie zróżnicowanie nie wynikające z rzeczywistych różnic między mierzonymi właściwościami nazywamy błędem pomiaru. Istnieje wiele typowych źródeł błędu pomiaru. Po pierwsze, otrzymane wyniki można przypisać pewnej innej właściwości powiązanej z mierzoną właściwością, której badacz intencjonalnie nie zamierzał mierzyć. Na przykład, aby zrozumieć pytania kwestionariusza dotyczącego rozwoju moralnego, respondenci muszą mieć określony poziom inteligencji i określony poziom świadomości społecznej. Indywidualne odpowiedzi na pytania tego kwestionariusza będą w efekcie odzwierciedlały rzeczywiste różnice w rozwoju moralnym, lecz również ujawnią różnice w inteligencji i świadomości społecznej badanych osób. Na błąd pomiaru składa się oddziaływanie właśnie takich zmiennych towarzyszących. Po drugie, błąd pomiaru może być wynikiem chwilowego samopoczucia (choroby czy nastroju), które może wpłynąć na odpowiedzi udzielane w badaniach kwestionariuszowych lub na zachowanie osoby badanej. Po trzecie, różnice otoczenia, w którym dokonuje się pomiaru, także przyczyniają się do powstania błędu pomiaru. Na przykład wiek, rasa i płeć osób przeprowadzających wywiad może wpłynąć na odpowiedzi respondentów w badaniach sondażowych. Po czwarte, różnice w sposobie stosowania narzędzia pomiarowego (np. słabe oświetlenie, hałas, zmęczony ankieter) mogą powodować błąd pomiaru. Po piąte, błąd pomiaru może również wynikać z różnic w przetwarzaniu danych (np. wtedy, kiedy różne osoby niejednakowo kodują po- 179 dobne odpowiedzi). Ostatnim, podstawowym źródłem zakłóceń jest niejednakowa interpretacja wyników tego samego narzędzia pomiarowego. Błędy wynikające z wymienionych wyżej źródeł są albo systematyczne, albd losowe. Błędy systematyczne pojawiają się wraz z zastosowaniem narzędzia pomiarowego i występują w odniesieniu do wszystkich osób badanych i wszystkich badań. W sposób systematyczny przyczyniają się one do zmniejszenia trafności otrzymanych wyników. W przeciwieństwie do nich błędy losowe pojawiają się również wraz z każdym zastosowaniem narzędzia pomiarowego, jednakże mają one charakter przypadkowy. Ze względu na rolę, jaką odgrywa tu problematyka trafności i rzetelności, od niej rozpoczniemy omawianie technik pozwalających zmniejszyć błąd pomiaru. ¦ Trafność Trafność dotyczy następującego pytania: „Czy udało nam się zmierzyć to, co zamierzaliśmy zmierzyć?" Problem trafności pojawia się dlatego, że w naukach społecznych, z nielicznymi tylko wyjątkami, mamy do czynienia z pomiarem pośrednim. W takiej sytuacji badacze nigdy nie są do końca pewni, czy dokonują pomiani zmiennych, dla których zaprojektowali procedurę pomiarową. Na przykład, czy liczba oddanych głosów rzeczywiście mierzy rozwój polityczny? Jeżeli respondent zgadza się z twierdzeniem „Tym światem kieruje niewielu ludzi posiadających władzę i tal ki mały człowiek jak ja niewiele może zrobić", to czy taką odpowiedź respondenta możemy potraktować jako właściwy wskaźnik takiej zmiennej jak „aliena-l cja"? Aby odpowiedzieć na takie pytania, badacz musi udowodnić, że zastosowany I przez niego instrument pomiarowy mierzy w rzeczywistości to, co wydaje się rnie-l rzyć. Możemy wyróżnić trzy podstawowe rodzaje trafności, z których każdy jestl związany z innym aspektem sytuacji pomiarowej. Są to: trafność treściowa, traf-1 ność empiryczna i trafność teoretyczna. Każda z nich ma swoje miary i w okres-1 lonych warunkach osiąga konkretną wartość. Trafność treściowa Można mówić o dwóch typowych rodzajach trafności treściowej: trafności fasadfl wej oraz trafności doboru próby. Trafność fasadowa* odwołuje się do subiekt™ nej oceny trafności narzędzia pomiarowego dokonanej przez badacza. W praktycfl trafność fasadowa nie dotyczy pytania, czy narzędzie pomiarowe mierzy to, cobfl dacz chciałby, aby mierzyło, lecz dotyczy raczej stopnia, w jakim badacz jest prztfl konany, że jego narzędzie pomiarowe jest właściwe. Na przykład za pomocą kwefl tionariusza składającego się z dziesięciu twierdzeń badacz chciałby dokonać pomiął ru takiej zmiennej jak „liberalizm". Po ułożeniu kwestionariusza badacz ponownie anafl lizuje każde twierdzenie, aby sprawdzić, w jakim stopniu każde z nich jest powił zane z liberalizmem. Może w tym celu zaprosić specjalistów (sędziów). Jeżeli ocefl ny sędziów będą zgodne, to badacz może przyjąć, że jego kwestionariusz jest traw fasadowo i — konsekwentnie — mierzy liberalizm. Jeżeli jednak oceny sędztół * W psychometru nie traktuje się poważnie tzw. trafności fasadowej (przyp. red. nauk.). 180 nie będą zgodne, to jest to podstawa do wyciągnięcia wniosku o braku trafności fasadowej narzędzia pomiarowego. Główny problem dotyczący trafności fasadowej polega na tym, że nie istnieją dokładne i powtarzalne procedury, które pozwoliłyby na ocenę narzędzia pomiarowego. Ponieważ dokładne powtórzenie procedury pomiarowej jest rzeczą niezwykle trudną, badacz musi polegać na ocenach subiektywnych. W wypadku trafności doboru próby interesujemy się przede wszystkim tym, czy określona populacja (np. zbiór wszystkich przypadków w świecie rzeczywistym) jest adekwatnie reprezentowana przez dane narzędzie pomiarowe. Innymi słowy, czy twierdzenia, pytania lub wskaźniki — tj. treść narzędzia pomiarowego — adekwatnie odzwierciedlają mierzoną właściwość. Założenie leżące u podstaw trafności doboru próby to założenie dotyczące istnienia populacji treści składającej się z dużej liczby pozycji (wyrażanych w postaci twierdzeń, pytań lub wskaźników). Przyjmuje się także, że narzędzie o dużej trafności jest reprezentatywną próbką tych pozycji. W praktyce problemem okazuje się definiowanie populacji treści, ponieważ jest to zagadnienie natury teoretycznej, a nie praktycznej. (W rozdziale 8 omówimy szerzej to zagadnienie, a także przedstawimy techniki tworzenia próby losowej). Wpływa to na zmniejszenie trafności doboru próby i w rezultacie na zmniejszenie całkowitej trafności narzędzia pomiarowego. Trafność doboru próby odgrywa jednak ważną rolę: wymusza znajomość wszystkich pozycji składających się na populację treści. Jest szczególnie użyteczna w badaniach eksploracyjnych, w których badacze konstruują narzędzia pomiarowe i stosują je po raz pierwszy. Po pierwszym zastosowaniu narzędzia pomiarowego badacze mogą porównać jego trafność z innymi testami. Trafność empiryczna Trafność empiryczna odwołuje się do związku pomiędzy dwoma narzędziami pomiarowymi i ich wynikami. Naukowcy przyjmują, że jeżeli narzędzie pomiarowe jest trafne, to powinien istnieć silny związek pomiędzy wynikami uzyskanymi dzięki zastosowaniu tego narzędzia a rzeczywistym związkiem zachodzącym pomiędzy mierzonymi zmiennymi. Na przykład możemy być zainteresowani, czy wyniki uzyskane w teście inteligencji (tzw. IQ) naprawdę odzwierciedlają inteligencję osoby badanej. Badacze poszukują danych potrzebnych do potwierdzenia istnienia takiej relacji przez określanie miar korelacji właściwych dla danego poziomu pomiaru. (Współczynnik korelacji to wskaźnik siły związku pomiędzy dwiema mierzonymi zmiennymi — więcej szczegółów na ten temat można znaleźć w rozdziale 16). Spośród różnych testów stosowanych do pomiaru trafności empirycznej najczęściej wykorzystuje się testy określające trafność prognostyczną. Dlatego teraz krótko ją omówimy. Badacze analizują trafność prognostyczną, dokonując prognozy na podstawie wyników swojego narzędzia pomiarowego, wyników pewnej zmiennej zewnętrznej (zwanej kry ter i u m) lub porównując wyniki swojego narzędzia z wynikami otrzymanymi za pomocą innych narzędzi pomiarowych. Innymi słowy, trafność prognostyczna jest wyrażana przez siłę związku (współczynnik korelacji) pomiędzy wynikami danego narzędzia pomiarowego i zewnętrznym kryterium. Badacz może na przykład określić trafność testu inteligencji, analizując związek pomiędzy wcześniej otrzymanymi wynikami testowymi dla grupy studentów college'u a późniejszymi 181 ich stopniami otrzymanymi w trakcie pierwszego roku studiów (kryterium). Analiza ta polega na obliczeniu współczynnika korelacji pomiędzy dwoma zbiorami pomiarów. Ten konkretny współczynnik korelacji nazywa się współczynnikiem trafności. Innymi kryteriami, które można wykorzystać do badania trafności testów inteligencji, są na przykład wyniki testów społecznego przystosowania czy oceny funkcjonowania. 0----—;0 Ryc. 7.3. Szacowanie trafności prognostycznej Na rycinie 7.3 przedstawiliśmy proces badania trafności prognostycznej narze-l dzia pomiarowego. Zmienną V mierzymy za pomocą określonego narzędzia pomia-1 rowego /. Aby ocenić trafność prognostyczną, badacz stosuje kryterium C. którego! trafność jest już ustalona. Następnie pomiary otrzymane za pomocą narzędzia/¦ korelowane z pomiarami otrzymanymi za pomocą kryterium C. Wielkość współ-1 czynnika korelacji rlc określa trafność prognostyczną tego narzędzia. Badając trafność prognostyczną, należy uwzględnić dwa problemy ogólne. Pierw-1 szy dotyczy wyboru kryterium. I tak na przykład w wielu college"ach porównuje! się wyniki testu SAT (narzędzie pomiarowe) z uzyskiwanymi wcześniej przeciffl nymi ocenami (kryterium) po to, aby przewidywać przyszłe osiągnięcia potencjaH nego studenta. Drugi problem dotyczy trafności kryterium. Problem pierwszy dotyczy takich sytuacji, w których zastosowanie określonego I kryterium może okazać się zbyt trudne lub zbyt kosztowne. Na przykład badariB jakości każdego stanowiska komputerowego opuszczającego linię produkcyjną jefl bardzo kosztowne: dlatego bada się tylko niektóre z nich (próbę). Czasami z koH trzeba przeprowadzić wstępne pomiary zmiennych, zanim dokona się ich wybfflB i pomiaru jako kryterium. Taką zmienną są na przykład umiejętności szkolne-trzeba je zmierzyć, zanim zostaną wybrane jako kryterium sukcesu w nauce szkow nej. Drugi problem rozwiązywany jest natomiast poprzez zastosowanie którejś I z dwóch, powszechnie używanych metod oceny trafności kryterium. Pierwsza mtfl toda odwołuje się do zasady akceptacji przez badaczy trafności danego kryteriuił wykorzystywanego do oceny określonego narzędzia pomiarowego. Zgoda ta jefl przedmiotem badań w procesie oceniania trafności fasadowej i trafności próbW Druga metoda polega na określaniu procentu osób (czy innych jednostek analizyB prawidłowo sklasyfikowanych przez narzędzie pomiarowe ze względu na ich znaofl właściwości i wyrażeniu związku pomiędzy narzędziem pomiarowym i kryteriw w terminach tych procentów5. 5 CG. Helmstadter (1970), Research Concepts in Humań Behavior, Englewood Cliffs, N.J.: Praj tice Hall. 182 I Przypuśćmy, że badacz chciałby ocenić trafność narzędzia przeznaczonego do pomiaru konserwatyzmu politycznego. Jeżeli istnieją teoretycznie uzasadnione przyczyny, aby przyjąć, że ludzie z niższych klas społecznych są bardziej konserw uywni niż ludzie należący do klasy średniej, to może on porównać osoby wpadające do każdej z tych kategorii i potraktować to jako test trafności prognostycznej. W tym wypadku klasa społeczna została wykorzystana jako pośrednie kryterium trafności prognostycznej narzędzia pomiarowego. Jeżeli jednak okaże się, że osoby z niższej klasy społecznej są równie konserwatywne jak osoby zaliczone do średniej klasy społecznej, to należy przyjąć, że narzędzie to ma niską trafność prognostyczną. I odwrotnie, wysoki współczynnik korelacji pomiędzy stopniem konserwatyzmu i przynależnością do klasy społecznej wskazuje na wysoką trafność prognostyczną. Wysoka korelacja jest jednak warunkiem koniecznym, ale nie wystarczającym do określenia trafności prognostycznej narzędzia pomiarowego. Jest tak dlatego, bo kryterium pośrednie (klasa społeczna) może być powiązane nie tylko z konserwatyzmem, ale również z innymi zmiennymi (np. wykształceniem). Narzędzie pomiarowe może mierzyć inne zmienne niż tylko konserwatyzm polityczny jako taki. Kryterium pośrednie jest zatem bardziej użyteczne do wykrywania braku trafności niż do wykrywania trafności narzędzia pomiarowego. Trafność teoretyczna Badacze określają trafność teoretyczną, badając narzędzie pomiarowe w świetle szerszego kontekstu teoretycznego po to, aby sprawdzić, czy narzędzie pomiarowe jest powiązane z pojęciami i teoretycznymi założeniami tego kontekstu. Lee J. Cronbach, pierwszy orędownik koncepcji trafności teoretycznej, uważał, że „jeżeli osoba badająca testem pyta, jakie psychologiczne znaczenie mają wyniki testowe lub dlaczego dana osoba uzyskuje określony wynik testowy, to pyta ona o to, za pomocą jakich pojęć można właściwie wyjaśnić wykonanie testu"6. Oczekiwania teoretyczne dotyczące mierzonej zmiennej pozwalają badaczowi na sformułowanie twierdzeń o rodzaju i stopniu związku pomiędzy określoną zmienną i innymi zdefiniowanymi zmiennymi. Aby określić trafność teoretyczną narzędzia pomiarowego, badacz musi sprawdzić, czy takie związki rzeczywiście zachodzą. Przedstawimy użyteczność badań dotyczących trafności teoretycznej na przykładzie badań Miltona Rokeacha nad dogmatyzmem7. Przyjmując określone założenia teoretyczne, Rokeach skonstruował kwestionariusz dogmatyzmu. Kwestionariusz składał się z twierdzeń mierzących sztywność umysłu, cechę osobowości ujawniającą się w każdym wyznawanym systemie przekonań czy ideologii, bez względu na jej treść. Rokeach twierdził, że przekonania jednostki mające charakter ideologiczny są powiązane z jej osobowością, procesami myślowymi i zachowaniem. Dlatego sądził, że dogmatyzm jest cechą ujawniającą się poprzez sztywne kanony myślenia. Przeprowadził on wiele badań sprawdzających zarówno teorię, jak i trafność teoretyczną skonstruowanego przez siebie kwestionariusza. W jednym z badań posłużył się techniką znanych grup. Technika 6 Lee J. Cronbach (1984), Essentials of Psychological Testing, wyd. 4, New York: Harper & Row, s. 121. ' Milton Rokeach (1960), The Open and the Closed Mind, New York: Basic Books. 183 ta polega na przebadaniu określonym narzędziem pomiarowym grup ludzi o znał nych cechach po to, aby na tej podstawie określić kierunek różnic pomiędzy grol parni. Rokeach poprosił profesorów college'u i studentów ostatnich lat, aby wskfl zali przyjaciół, którzy ich zdaniem mają umysł otwarty, a którzy zamknięty. Oka zało się, że kwestionariusz dogmatyzmu dobrze różnicował obie grupy. Ten wynB stał się podstawą uznania, że miara dogmatyzmu jest trafna teoretycznie. Cronbach i Meehl opisali proces badania trafności teoretycznej ze względu ml logikę postępowania w sposób następujący: najpierw naukowiec formułuje twiefl dzenie, że narzędzie pomiarowe mierzy określoną własność (powiedzmy własnoB A); następnie twierdzenie to wbudowuje w ramy teorii dotyczącej własności^ dalej, analizując teorię, określa, które cechy powinny być powiązane z narzc-B dziem pomiarowym, a dla których takiego związku nie da się określić; na koniecB zbiera dane empiryczne, które staną się podstawą przyjęcia lub odrzucenia okreś-1 lonych wcześniej relacji. Jeżeli określone wcześniej relacje zostaną potwierdzfflB to narzędzie pomiarowe może zostać uznane za trafne teoretycznie. Jeżeli natoł miast tak się nie stanie, to wyjaśnienia można szukać w jednym z trzech powoł dów: (1) narzędzie pomiarowe nie mierzy własności A, (2) ramy teoretyczne, him re były podstawą określania prawdopodobnych związków, zostały źle określoaM (3) zastosowany schemat badawczy nie pozwalał adekwatnie ocenić, czy zacbfl dzą poszukiwane związki. Badacz musi zatem ocenić, która z tych trzech nwfl liwości zachodzi w jego przypadku. Decyzja ta powinna wynikać z dokładał analizy każdego z czterech kroków składających się na proces walidacji narzędzifl pomiarowego8. Campbell i Fiske zaproponowali inną metodę badania trafności teoretycznej polegającą na budowaniu macierzy korelacji9. Metoda ta, odwołująca i do pojęcia aspektu zbieżnego i różnicowego trafności znanaj jako technika wielu c e c h-w i e 1 u m e t o d. U podstaw tej techniki leży za żenię, że różne metody mierzące tę samą własność powinny dawać te same wyi ki, natomiast różne własności powinny prowadzić do otrzymania różnych wyi ków, bez względu na zastosowaną metodę pomiaru. Operacyjnie oznacza to, I współczynniki korelacji pomiędzy wynikami narzędzi pomiarowych mierzącyi tę samą cechę powinny być wyższe niż współczynniki korelacji pomiędzy wyi kami podobnych narzędzi pomiarowych, lecz mierzących różne cechy. Abyj twierdzić trafność teoretyczną narzędzia pomiarowego, badacz powinien przeai lizować oba aspekty trafności, tj. zbieżny (dwa pomiary tej samej cechy powij ze sobą wysoko korelować, nawet jeżeli uzyskano je za pomocą różnych meto oraz różnicowy (dwa pomiary różnych własności nie powinny ze sobą wysoki korelować, nawet jeżeli uzyskano je za pomocą podobnych narzędzi pomiar wych). 8 Lee J. Cronbach, Paul Meehl (1955), Construct Validity in Psychological Tests, „Psycholo Bulletin", 52, s. 281-302. 9 Donald T. Campbell, Donald W. Fiske (1959), Convergent and Discriminant Validation by Multitrait-Multimethod Matrix, „Psychological Bulletin", 56, s. 81-105. 184 Izi o zna-ędzy gru-iby wska-ięty. Oka- ren wynik zględu na uje twier-własność isności A; : z narzę-na koniec nia okreś-vierdzone, ;żeli nato-;ch powo-czne, któ-określone, :zy zacho-zech moż-dokladnej narzędzia oretycznej ałująca się znana jest leży zało-ame wyni-ych wyni-icza to, że nierzących :dzy wyni-'. Aby po-n przeana-y powinny ich metod) bą wysoko < pomiaro- 'sychological iation by the Trzy rodzaje trafności ¦ Trafność treściowa. Przekonanie badacza, że narzędzie pomiarowe mierzy określoną charakterystykę, jest odzwierciedlone w postaci tzw. trafności fasadowej — subiektywnej oceny trafności narzędzia pomiarowego. Z kolei trafność doboru próby pozwala określić zakres, w jakim pytania, twierdzenia i inne wskaźniki wbudowane w narzędzie pomiarowe odzwierciedlają mierzoną właściwość. ¦ Trafność empiryczna. Jeżeli narzędzie pomiarowe jest trafne, to powinien zachodzić silny związek pomiędzy wynikami, jakie można prognozować na jego podstawie i wynikami otrzymanymi za jego pomocą. Trafność empiryczną można również oszacować, porównując wyniki danego narzędzia z wynikami otrzymanymi za pomocą innych narzędzi pomiarowych. ¦ Trafność teoretyczna. Ten rodzaj trafności można oszacować, badając narzędzie pomiarowe w świetle szerszego kontekstu teoretycznego. Przyjmując, że istnieją trzy rodzaje trafności, postawmy pytanie: Jaki test należy zastosować do oszacowania trafności określonego narzędzia pomiarowego? Jest to istotny problem i nie ma prostej odpowiedzi na to pytanie. Dlatego zespół złożony z ekspertów z różnych dyscyplin zalecił, aby badając określone narzędzie pomiarowe, oceniać wszystkie trzy rodzaje trafności10. Zatem przystępując do konstruowania narzędzia pomiarowego, należy najpierw przeanalizować teorię, która zostanie wykorzystana jako podstawa teoretyczna dla narzędzia pomiarowego (trafność teoretyczna). Następnie należy określić uniwersum treści pozycji testowych, z którego zostanie wybrana ich reprezentatywna próba (trafność treściowa). Na koniec należy ocenić trafność prognostyczną (empiryczną) narzędzia pomiarowego, korelując je z kryterium zewnętrznym. I Rzetelność Rzetelność to szczególnie ważny problem dla osób prowadzących badania w dziedzinie nauk społecznych, ponieważ stosowane narzędzia badawcze rzadko są całkowicie trafne. W wielu wypadkach dane na rzecz trafności są niemal w ogóle niedostępne. Dlatego badacz musi ocenić narzędzie pomiarowe, odwołując się do innych jego właściwości i na tej podstawie ocenić trafność. Metodą często stosowaną do oceny narzędzi pomiarowych w naukach społecznych jest badanie stopnia jego rzetelności. Rzetelność dotyczy wielkości błędu związanego z danym narzędziem pomiarowym, tj. błędu, który powstaje w sposób losowy, w kolejnych pomiarach do- 10 Por. American Psychological Association Committee on Psychological Tests (1954), Technical Recommendations for Psychological Tests and Diagnostic Techniques, „Psychological Bulletin Suppl.", 51. s. 1-38; Donald Campbell (1960), Recommendations for APA Test Standards Regarding Construct, Tran and Discriminant Validity, „American Psychologist", 15, s. 546-553. [Por. też: Standardy dla testu/losowanych w psychologii i pedagogice (1985), Warszawa: Polskie Towarzystwo Psychologiczne, Laboratorium Technik Diagnostycznych, tłum. E. Hornowska (przyp. red. nauk.)]. 185 konywanych za pomocą tego samego narzędzia pomiarowego. Na przykład, jeżeli dwukrotnie zmierzymy długość biurka za pomocą tego samego narzędzia pomiarowego — powiedzmy linijki — i otrzymamy nieco inne wyniki, to narzędzie to jest źródłem błędu pomiaru. Ponieważ narzędzia stosowane w naukach społecznych do-1 starczają generalnie miar pośrednich, zatem liczba błędów popełnianych w wypad-1 ku zmiennych o charakterze społecznym jest znacznie wyższa niż w wypadku I zmiennych fizykalnych. Czynniki takie jak chwilowe wahania uwagi respondenta I przy wypełnianiu kwestionariusza, niejasna instrukcja czy trudności natury technicznej I (np. złamanie ołówka w trakcie wypełniania kwestionariusza) przyczyniają siędfl powstania błędu pomiaru. Każdy pomiar składa się z dwóch elementów: komponentu prawdzi-l w e g o oraz komponentu błędu. Rzetelność można zatem zdefiniować jako I stosunek wariancji wyników prawdziwych do wariancji całkowitej otrzymanych I wyników". (Wariancja jest miarą rozproszenia wyników; opisuje, w jakim stopniu I wyniki różnią się od siebie, tj. X(*,-Jt)2 CT2 = N Por. również rozdział 15). Algebraicznie wynik obserwowany każdej osoby możemy przedstawić jako: xi = t, + eh (7.1] gdzie x, — wynik obserwowany dla /-tej osoby, r, — wynik prawdziwy dla i-t osoby, e, — wielkość błędu popełnianego w trakcie pomiaru dla /-tej osoby. Wyrażając to równanie w postaci wariancyjnej, otrzymamy: a2 = of+er2, gdzie o\ — wariancja wyników otrzymanych, o] — wariancja wyników prawd wych, oj — wariancja błędu. Rzetelność definiowaną jako stosunek wariancji wyniku prawdziwego do I riancji wyników obserwowanych można przedstawić następująco: , , ,, of (Ź ~ o] rzetelność = — =------=—. Odwołując się do równania (7.2), możemy stwierdzić, że jeżeli pomiar zawiera wy-j łącznie błąd, to o\ = oj i rzetelność wynosi zero. Jeżeli z kolei w ogóle nie po| niamy błędu, to oj - 0, a rzetelność definiowana jako stosunek dwóch wari; wynosi opętanej. 1' Definicja ta i dalsze wnioskowanie zostało zaczerpnięte z pracy CG. Helmstadtera. Researi Concepts, s. 169-176. 186 a-1- Współczynnik rzetelności może zatem przyjmować wartości od 0 (kiedy pomiar nic zawiera niczego ponad błąd) do 1 (kiedy błąd został całkowicie wyeliminowany). W praktyce nie można obliczyć wyniku prawdziwego niezależnie od błędów, które mogą się pojawić w każdym akcie pomiaru. Dlatego należy oszacować wielkość stosunku o;/o]. Istnieją trzy podstawowe sposoby szacowania rzetelności: metoda powtórnego testowania, metoda form równoległych oraz metoda połówkowania. Metoda powtórnego testowania Metoda powtórnego testowania wywodzi się wprost z definicji rzetelności. Polega na dwukrotnym przebadaniu tej samej grupy osób tym samym narzędziem pomiarowym i na obliczeniu współczynnika korelacji pomiędzy dwoma zbiorami wyników (obserwacji). Współczynnik ten nazywa się współczynnikiem rzetelności. W tym wypadku błąd obejmuje wszystkie te czynniki, które powodują, że wynik otrzymany przez daną osobę w jednym badaniu jest inny niż wynik tej osoby w drugim badaniu. Symbolicznie: Sl r«-SY (7-3) gdzie x — wynik w pierwszym badaniu, x — wynik w drugim badaniu, rrf współczynnik korelacji pomiędzy miarami x i x\ S; — oszacowana wariancja wyników prawdziwych, S2X — obliczona wariancja wyników obserwowanych. Korelacja ra pozwala na oszacowanie rzetelności definiowanej jako stosunek wariancji wyników prawdziwych do wariancji wyników obserwowanych. (Metody obliczania współczynnika korelacji przedstawiamy w rozdziale 16). Metoda powtórnego testowania ma duże ograniczenia. Po pierwsze, pomiar dokonany za pierwszym razem może wpłynąć na pomiar dokonany za drugim razem. Jeżeli na przykład narzędziem pomiarowym jest kwestionariusz, to respondent może zapamiętać treść pytań i za drugim razem udzielić tych samych odpowiedzi. Otrzymana wartość współczynnika rzetelności będzie w tej sytuacji wysoka, lecz jednocześnie przeszacowana. Po drugie, ponieważ wiele zjawisk podlega ciągłym zmianom, może się zdarzyć tak, że zmiany te wydarzą się w przerwie pomiędzy dwoma pomiarami i wpłyną na obniżenie współczynnika rzetelności. Metoda powtórnego testowania może zatem przeszacowywać (lub nie doszacowywać) prawdziwą rzetelność narzędzia pomiarowego i często trudno określić, która z tych dwóch sytuacji zaistniała. Metoda form równoległych Jednym ze sposobów przezwyciężenia ograniczeń metody powtórnego testowania jest wykorzystanie techniki form równoległych. Aby zastosować tę technikę, badacz musi stworzyć dwie równoległe wersje narzędzia pomiarowego. Następnie do- 187 konuje się pomiaru tej samej grupy osób badanych za pomocą obu form i koreluje otrzymane dwa zbiory wyników w celu otrzymania miary rzetelności. Stosowanie tej techniki rodzi jednak nowy problem, a mianowicie, czy dwie formy testu sąrzi czywiście równoległe. Chociaż istnieją testy statystyczne pozwalające sprawdzić, czy dwie formy testu są równoległe w terminach wskaźników statystycznych, to| oceniając wyniki, badacze nadal muszą polegać na własnych sądach12. Metoda połówkowa Szacowanie rzetelności w metodzie połówkowej polega na traktowaniu każdej z dwóch lub więcej części testu jako niezależnej skali. Przypuśćmy, że naszym narzędziem pomiarowym jest kwestionariusz. Kwestionariusz dzielimy na dwie czJ ści w ten sposób, że pytania nieparzyste tworzą jedną część, a pytania parzyste drugą. Każda z dwóch części kwestionariusza jest oceniana i traktowana niezależnie. Uzyskane w ten sposób dwa zbiory wyników są następnie korelowane ze sobą. a współczynnik korelacji jest traktowany jako miara rzetelności. Aby na podstawie korelacji połówek testu oszacować rzetelność całego testu, należy zastosować tza proroczy wzór Spearmana-Browna: gdzie rxv. — rzetelność całego testu, roe — współczynnik rzetelności otrzymany przez skorelowanie połowy testu składającej się z pozycji nieparzystych i polo* testu składającej się z pozycji parzystych. Stosując tę poprawkę, przyjmujemy, że narzędzie pomiarowe liczące 2;i pytań jest bardziej rzetelne niż narzędzie składające się z n pytań. Ponieważ nasze narzl dzie pomiarowe zostało przepołowione na pozycje parzyste i nieparzyste i dla każdej części obliczono niezależny wynik, zatem rzetelność całego narzędzia pomiarowego będzie większa niż rzetelność każdej połowy testu stosowanej oddziel™ Cronbach, Rajaratnam i Glesser dokonali rewizji klasycznego pojęcia rzetelnc-j ści13. Ich zdaniem podstawowym problemem teorii rzetelności powinna byćodpi wiedź na pytanie: „Jak dalece (na jakie uniwersum) chcemy uogólniać potencjala wyniki testowe?" Zamiast pojęcia rzetelności wprowadzili oni pojęcie uniwersali-i zacji. Zgodnie z teorią uniwersalizacji tym, co naprawdę nas interesuje, jest zabB w jakim jeden zbiór pomiarów jest podobny do innego zbioru pomiarów pochodzi cego z uniwersum wszystkich potencjalnych miar oraz pod kątem jakich właściwi ści są one do siebie podobne. Ta sama zasada odnosi się do różnic pomiędzy zbifl rami pomiarów pochodzących z uniwersum potencjalnych miar. Pytając o pódl bieństwa czy różnice, pytamy o ograniczenia możliwości dokonywania uogól™ opartych na wynikach jednego zbioru pomiarów. To, czy określony związek pom* dzy pomiarami uznamy za wskaźnik rzetelności czy uniwersalizacji, zależy od tęgi w jaki sposób zdefiniujemy różnice i podobieństwa warunków i miar. Natomił to, w jaki sposób badacze konstruują listę pozycji czy właściwości, które są tan 12 Por. Harold Gulliksen (1962), Theory of Mental Tests, New York: Wiley. 13 Lee J. Cronbach, Nageswars Rajaratnam, Goldine C. Glesser (1963), A Theory of Generałom lity: A Liberalization of Reliability Theory, „British Journal of Statistical Psychology", 16, s. 137-11 188 same czy różne w każdym zbiorze pomiarów, zależy oczywiście od problemu badawczego14. ¦ Podsumowanie 1. Pomiar polega na przyporządkowywaniu liczb zmiennym, właściwościom czy zdarzeniom zgodnie z określonymi regułami. Istotą tej definicji jest sformułowanie ..zgodnie z określonymi regułami". Reguły te wiążą procedury pomiarowe z rzeczywistością, tj. ustalają homomorfizm pomiędzy określoną strukturą liczbową a strukturą mierzonej zmiennej. Określenie izomorfizmu jest warunkiem przeprowadzenia takich operacji matematycznych na liczbach, które odpowiadają rzeczywistym właściwościom. 2. Izomorfizm pomiędzy systemem liczbowym i właściwościami empirycznymi pozwala na rozróżnienie czterech poziomów pomiaru: nominalnego, porządkowego, interwałowego i ilorazowego. Ogólnie rzecz biorąc, poziom pomiaru określa, jakie analizy ilościowe można przeprowadzać na określonym zbiorze wartości liczbowych. 3. Procedury pomiarowe są bardzo wrażliwe na zabieg transformacji danych i błąd pomiaru. Właściwości, które można zmierzyć z większym poziomem precyzji, można również zmierzyć z mniejszą precyzją, ale nie odwrotnie. Oznacza to, że niektóre dane można przekształcić z poziomu ilorazowego na nominalny, ale żadnych danych z poziomu nominalnego nie można przekształcić na poziom ilorazowy. 4. Błąd pomiaru odnosi się do dokładności i stałości samego narzędzia pomiarowego. Źródło błędu może leżeć w złym określeniu tego, co rzeczywiście jest mierzone (np. raczej inteligencja niż postawy), lub we wrażliwości pomiarów na czynniki sytuacyjne (np. zdolność respondenta do koncentrowania się w pokoju pełnym hałasu). W każdym wypadku błąd odzwierciedla problemy związane z mierzeniem, a nie rzeczywiste różnice w wielkościach mierzonej zmiennej. 5. Pojęcia trafności i rzetelności są ściśle związane z pomiarem. Określają one źródła btędu pomiaru. Trafność dotyczy pytania, z jaką dokładnością badacze mierzą to. co chcieliby mierzyć. Tradycyjnie wyróżnia się trzy rodzaje trafności: trafność treściową, trafność empiryczną i trafność teoretyczną. Każda z nich odnosi się do innego aspektu sytuacji pomiarowej. Aby określić trafność narzędzia pomiarowego, badacz musi zebrać dane na temat wszystkich trzech rodzajów trafności. 6. Rzetelność wskazuje na wielkość błędu popełnianego w trakcie pomiaru. Operacyjnie zakłada się, że każdy pomiar składa się z wartości prawdziwej i komponenty błędu. Miarą rzetelności jest stosunek wariancji prawdziwej do całkowitej wariancji wyników. Badacze oceniają rzetelność, stosując jedną z trzech następujących metod: metodę powtórnego testowania, technikę form równoległych lub metodę połówkową. W teorii uniwersalizacji przyjmuje się, że podstawowe zagadnienie rzetelności dotyczy zakresu, w jakim jeden zbiór pomiarów jest podobny do innego zbioru pomiarów pochodzącego z uniwersum wszystkich potencjalnych miar. " Informacje na temat statystycznego wskaźnika uniwersalizacji można znaleźć w pracy: Goldine C.GIesser. Lee J. Cronbach, Nageswars Rajaratnam (1965), Generalizability of Scores Influenced by Muhipk Scores of Variance. „Psychometrika", 30, s. 395-418. 189 ¦ Podstawowe terminy błąd pomiaru 179 technika znanych grup 183 izomorfizm 172 trafność 180 metoda połówkowa 188 trafność doboru próby 181 metoda powtórnego testowania 187 trafność empiryczna 181 pomiar 170 trafność fasadowa 180 poziom interwałowy 176 trafność prognostyczna 181 poziom nominalny 173 trafność teoretyczna 183 poziom porządkowy 174 uniwersalizacja 188 poziom stosunkowy 177 wskaźnik 172 rzetelność 185 współczynnik rzetelności 187 technika form równoległych 187 Pytania sprawdzajgce 1. Zdefiniuj, co to jest pomiar, i wyjaśnij, dlaczego pomiar jest tak ważny wm daniach naukowych? 2. Jakie znasz podstawowe poziomy pomiaru? Dlaczego różnice pomiędzy różnymi poziomami pomiaru mają istotne znaczenie? 3. Podaj przykład danych, które po transformacji mogą zostać przeniesiffl z jednego poziomu na inny, oraz takich danych, których nie można przetraw formować. 4. Zdefiniuj pojęcie rzetelności i omów sposoby jej szacowania. 5. W jaki sposób rzetelność jest powiązana z trafnością? Podaj przykład. ¦ Literatura dodatkowa American Psychological Association (1985), Standardy dla testów stosowanych w psychologii i ptĄ gogice, „Biblioteka Psychologa Praktyka", t. I, Warszawa: Pol. Tow. Psychol. Brzeziński J. (1997), Metodologia badań psychologicznych, wyd. 2, Warszawa: Wyd. Nauk. PWN. Brzeziński J. (red.) (1988), Problemy teorii, rzetelności, konstrukcji i analizy wyników testów \mó» logicznych, „Biblioteka Psychologa Praktyka", t. II, Warszawa: Pol. Tow. Psychol. Coombs C.H., Dawes R.M., Tversky A. (1977), Wprowadzenie do psychologii matematycznej, Warsaj wa: PWN. Nowakowska M. (1975), Psychologia ilościowa z elementami naukometrii, Warszawa: Wyd. liĄ PWN. Walenta K. (1971), Podstawowe pojęcia teorii pomiaru, w: J. Kozielecki (red.), Problemy psychom matematycznej, Warszawa: PWN. Rozdział 8 Dobór próby i schematy doboru próby Po co jest potrzebna próba? 193 Populacja 193 Jednostka doboru próby 194 Populacje skończone i nieskończone 195 Podstawa doboru próby (operat) 195 Btędy w konstrukcji podstawy doboru próby: wybory prezydenckie w roku 1936 197 Schematy doboru próby 197 Dobór losowy i nielosowy 198 Nielosowe schematy doboru próby 198 Losowe schematy doboru próby 200 Losowy dobór próby: podsumowanie 206 Losowy dobór próby: przykład 206 Wielkość próby 208 Btąd standardowy 209 Przedziały ufności 211 Określanie wielkości próby 213 Błędy nielosowe 214 Podsumowanie 216 Podstawowe terminy 216 Pytania sprawdzające 217 Literatura dodatkowa 217 Organizowanie sondaży przedwyborczych, na podstawie których można przewidywać wyniki wyborów, stało się ostatnio bardzo popularne. W trakcie kampanii roku 1992 wyniki sondaży prowadziły do przeszacowywania prognozowanego zwycięstwa Clintona i niedoszacowywania siły Perota. Co można powiedzieć na temat głosowania i procedur doboru próby, biorąc pod uwagę te niedokładności? Badając sposób organizowania sondaży, Richard Lau sformułował istotne wnioski metodologiczne dotyczące głosowania w ogóle1. Według Laua zróżnicowanie wyników, podobnie jak błąd, jest wynikiem zbyt małej liczebności próby, specyfiki populacji, z której się wybiera osoby badane i (np. „zarejestrowani wyborcy" vs „prawdopodobni wyborcy"), niewłaściwie określonego odsetka braku odpowiedzi (zwłaszcza że pora dnia lub dzień tygodnia, w którym przeprowadza się sondaż, może skutecznie ograniczyć włączenie pewnych grup), proporcji osób „niezdecydowanych" oraz tego, na ile dni przed właściwymi wyborami przeprowadza się badania. Jeżeli te czynniki wpływają na wyniki sondaży, to czy wpływają również na wyniki innych badań, w których korzysta się z określonej próby osób badanych? W tym rozdziale zajmiemy się podstawami teorii doboru próby oraz omów™ sposoby doboru próby. W pierwszej części omawiamy cele doboru próbji Następnie przechodzimy do definicji i omawiamy podstawowe pojęcia — populł cji; jednostki, z której składa się próba; podstawy, z której wybiera się próbę; próbł a także schematy losowego i nielosowego doboru próby. Dalej zajmujemy sięproB lemem określania wielkości próby. Na koniec przedstawiamy procedury szacowH nia wielkości błędu nie wynikającego ze sposobu doboru próby. Badacze zbierają dane po to, aby przetestować postawione hipotezy oraz uzys-l kać empiryczne podstawy wyjaśniania i przewidywania. Mając skonstruowane nal rzędzie pomiarowe pozwalające uzyskiwać odpowiednie dane z punktu widzenia problemu badawczego, musimy zadbać o to, aby wyprowadzane wnioski i prognoB zy można było uogólnić. Tylko wówczas bowiem będą one miały wartość nauko™ Jak podkreślaliśmy to w rozdziale 1 (ryc. 1.1), uogólnianie jest jednym z podstawo* wych etapów procesu badawczego. Uogólnianie jest ważne nie tylko z punktu wi-I dzenia testowanych hipotez, lecz również z powodu możliwości dokonywania szer-l szego opisu. Na przykład pytania takie, jak: „Jaki jest poziom politycznego zaufłB nia wśród Amerykanów?" lub: „Czy osoby głosujące bardziej się interesują spraw-mi środowiska obecnie niż dziesięć lat temu?" wymagają opisowych uogólnień.! Zazwyczaj uogólnienia nie są oparte na danych pochodzących ze wszystkichl możliwych pomiarów, od wszystkich respondentów czy wynikających ze wszyJI kich zdarzeń zdefiniowanych w problemie badawczym. Badacze posługują się i I czej stosunkowo małą liczbą przypadków (próbą) jako podstawą wyciągania wniMI ków o całej zbiorowości (populacji). Sondaże przedwyborcze są tego dobrym przfl kładem. Oparte na odpowiedziach stosunkowo małej grupy respondentów pozwł ' Richard R. Lau (1994), An Analysis of the Accuracy of 'Trial Heat' Polis During the I992P4 sidential Election, „Public Opinion Quarterly", 58, s. 2-20. 192 Wl u, przewidywać, jak głosowaliby wszyscy głosujący, gdyby wybory odbyły się wtedy, kiedy został przeprowadzony sondaż. Na ich podstawie można rowmez przewidywać, jaki będzie rozkład głosów w czasie rzeczywistych wyborów^Zarówno naukowcy prowadzący badania w ramach nauk społecznych, jak i osoby organizujące sondaże przedwyborcze stosują różne kryteria przy doborze próby, lo zas zkolei wpływa na rodzaj wniosków, jakie — na podstawie danych z próby — można wyprowadzić o populacji. I Po co jest potrzebna próba? U podstaw uogólnień opartych na danych empirycznych leżą zazwyczaj wyniki cząstkowe, ponieważ —jak to stwierdziliśmy wyżej — zebranie danych od wszystkich osób objętych problemem badawczym nie jest zazwyczaj możliwe, jest niepraktyczne lub jest zdecydowanie za drogie. Badacze mogą wyprowadzać precyzyjne wnioski dotyczące wszystkich analizowanych obiektów (całego zbioru) na podstawie niewielkiej liczby obiektów (podzbioru), pod warunkiem ze ow podzbiór jest reprezentatywny dla całego zbioru. W badaniach marketingowych, na przykład, wykorzystuje się dane na temat preferencji pochodzące z badań niewielkiej liczby gospodyń domowych po to, aby wprowadzić nowe produkty na wielomilionowy rynek konsumentów. Agencja Ochrony Środowiska prowadzi badania, testując niewielką liczbę samochodów, aby określić ich wpływ na środowisko. Dane zebrane dla podzbioru samochodów wykorzystuje się w celu określenia i wprowadzenia odpowiednich przepisów regulujących dopuszczalną emisję spalin przez wszystkie samochody. . ., , , Całkowity zbiór obiektów poddawanych analizie czy całkowity zbiór danych nazywamy populacją. Natomiast podzbiór danych pochodzący z populacji i będący podstawą uogólnień na całą populację nazywamy próbą. Wartość określonej zmiennej charakteryzującej populację - na przykład medianę dochodów czy poziom formalnego wykształcenia — nazywamy parametrem; jego odpowiednik w próbie nosi nazwę statystyki. Podstawowym celem teorii doboru próby jest dostarczanie metod szacowania nieznanych wartości parametrów na podstawie — dających się łatwo obliczyć — wartości odpowiednich statystyk. Aby poprawnie oszacować nieznane wartości parametrów na podstawie znanych wartości statystyk, należy wcześniej odpowiedzieć na trzy podstawowe pytania: (1) Jak definiujemy populację? (2) Jaki wybieramy schemat doboru próby, (i) Jaka powinna być wielkość próby? I Populacja Populacja - ujmując rzecz metodologicznie — to „zbiór wszystkich przypadków wykazujących określone cechy"2. Na przykład, określając cechy jako „ludzie ...mieszkający w Wielkiej Brytanii", możemy określić populację jako zbiorowość ' Isidor Chein (1981), An lntroduction to Sampling, w: Claire Selltiz i in. (red.), Research Methods nSocial Relations, wyd. 4. New York: Holt, Rinehart and Winston, s. 419. 193 składającą się z wszystkich ludzi mieszkających w Wielkiej Brytanii. I podobnie, jeżeli ¦ tymi cechami będą „studenci" i „przyjęci na studia w uniwersytetach stanowych USA", I to naszą populację będą stanowić wszyscy studenci przyjęci na studia w uniwersytetacli stanowych USA. W taki sam sposób możemy zdefiniować populację składającą sięzel wszystkich gospodarstw domowych w określonej gminie, z wszystkich zarejestrowa-1 nych wyborców w danym okręgu czy z wszystkich książek w bibliotece publicznej. I Populację mogą stanowić wszyscy mieszkańcy określonej dzielnicy, instytucje ustawodawcze, domy czy rejestry. To, jaka jest to populacja, zależy od problemu badawczego. I Badając zachowania konsumentów w określonym mieście, możemy zdefiniować I populację jako wszystkie gospodarstwa domowe w tym mieście. Możemy też, jtf żeli interesuje nas konkretny produkt — powiedzmy karma dla psów — do populacji zaliczyć wszystkich tych mieszkańców, którzy posiadają psy. Podstawowym problemem przy określaniu wartości parametru (dla populacji) na podstawie wartości zarejestrowanej w próbie jest zatem właściwe zdefiniowa populacji. Jeżeli politolog interesuje się zachowaniami wyborców w Wielkiej Bn tanii i chciałby skonstruować próbę, na podstawie której będzie mógł przewidywał wyniki głosowania, to powinien z niej wykluczyć wszystkie osoby poniżej osie nastego roku życia, ponieważ nie mają one praw wyborczych. Zdefiniowanie popu-J lacji jako „wszystkie osoby powyżej osiemnastego roku życia, mieszkające w Wid kiej Brytanii" jest jednak określeniem zbyt szerokim, ponieważ aby móc głosowat trzeba spełnić określone wymogi prawne. Osoby, które nie spełnią tych wymogó* nie mają praw wyborczych i powinny zostać wyłączone z populacji, z której I pobierana próba. Populacja powinna zatem zostać określona w terminach: (1) ofej któw, które się na nią składają, (2) zakresu, (3) czasu — na przykład (a) wszyaj mieszkańcy powyżej osiemnastego roku życia mieszkający na stałe w danym oki gu, (b) mieszkający w Wielkiej Brytanii, (c) począwszy od 1 maja 1995 roku. Jednostka doboru próby Pojedynczy obiekt z populacji, z której będzie pobierana próba (np. głosujący, { podarstwo domowe czy zdarzenie), jest określany jako jednostka doboru prób Jednostki doboru próby są zazwyczaj charakteryzowane przez cechy ilościowe,! re mają istotne znaczenie z punktu widzenia problemu badawczego. Na przyk jeżeli populacja jest definiowana jako wszyscy trzecioklasiści, którzy konkretne] dnia poszli do szkół publicznych w danym mieście, to jednostką doboru próby l trzecioklasiści. Trzecioklasiści jednak mają wiele różnych cech (zmiennych), ta jak otrzymywane stopnie, nawyki, posiadane opinie czy oczekiwania. Projekt l dawczy może dotyczyć tylko jednej z tych zmiennych, na przykład stopni z i matyki czy związków pomiędzy kilkoma zmiennymi, np. ilorazów inteligencji i f<Ą malnego wykształcenia rodziców. Jednostką doboru próby nie zawsze musi być osoba. Może nią być zdarzeń; uniwersytet, miasto czy naród. Rudolph J. Rummel, badając zachowanie się 1 w trakcie konfliktów wewnętrznych i międzynarodowych, zebrał przez trzy lata i ne dotyczące zachowania się ludzi (takie jak zabójstwa, walki partyzanckie, cz; ki, rozruchy, rewolucje, akcje wojskowe, wojny) w 22 konfliktach wewnętrzny) i międzynarodowych dla 77 różnych narodów1. W badaniu tym jednostką dob 3 Rudolph J. Rummel (1971), Dimentions of Conflict Behavior within and between Natiom,w.\ 194 próby były narody, ale nie wszystkie narody zostały wybrane. Jednostki doboru próby musiały spełnić dwa kryteria, aby mogły zostać włączone do badań: (1) posiadać polityczną suwerenność przynajmniej przez dwa lata i wyrażającą się w nawiązaniu dyplomatycznych stosunków z innymi państwami, jak też posiadaniem ministerstwa spraw zagranicznych, oraz (2) liczbę ludności nie mniejszą niż 800 000. Populacje skończone i nieskończone Populacja może być skończona lub nieskończona w zależności od tego, czy jednostka doboru próby jest skończona lub nieskończona. Populacja skończona — na mocy definicji — składa się z przeliczalnej liczby jednostek, np. wszyscy zarejestrowani wyborcy w danym mieście i w danym roku. Populacja nie-ikończona natomiast składa się z nieskończenie wielu jednostek, jak np. nieograniczona liczba rzutów monetą. Pobieranie próby po to, aby otrzymać informacje o określonej właściwości konkretnej skończonej populacji nazywane jest zazwyczaj doborem reprezentacyjnym. Podstawa doboru próby (operat) Mając zdefiniowaną populację, badacze pobierają próbę, która ma adekwatnie reprezentować tę populację. Odpowiednie procedury polegają na pobieraniu próby z podstawy doboru próby, którą tworzy pełna lista jednostek doboru próby. W sytuacji idealnej podstawa doboru próby, czyli operat zawiera wszystkie jednostki Badające się na daną populację. W praktyce jednak takie listy rzadko istnieją — badacze zazwyczaj tworzą listę zastępczą. Na przykład w dużych badaniach obejmujących cały kraj trudno opracować listę, która zawierałaby spis wszystkich mieszkańców Stanów Zjednoczonych. Z problemem tym regularnie stykają się nawet duże instytucje badawcze, takie jak urząd statystyczny, który co dziesięć lat podaje dane na temat wielkości populacji. Spis powszechny przeprowadzony w roku 1990 kosztował prawie 2,6 miliarda dolarów i wymagał 277 milionów formularzy. Urząd statystyczny uzyskał około 3,3 miliardów indywidualnych odpowiedzi zebranych wiatach 1988-1991 przez prawie 480 tysięcy pracowników. Pracownicy ci opracowali i sprawdzili listy adresowe oraz zebrali i zakodowali informacje dotyczące życia około 250 milionów ludzi i 106 milionów gospodarstw domowych w całych Stanach Zjednoczonych. Urząd zatrudnił też doraźnie około 35 tysięcy pracowników, którzy w latach 1988-1989 chodzili od drzwi do drzwi, przeprowadzając bezpośrednie rozmowy. Opracowali oni listę zawierającą około 43 milionów adresów gospodarstw domowych, często mieszczących się poza dużymi metropoliami. Oprócz tego — na podstawie list adresowych posiadanych przez komercyjne firmy wysyłkowe — urząd statystyczny dostarczył listę około 55 milionów adresów mieszkańców dużych metropolii. Listy te zostały następnie sprawdzone przez pracowników urzędu i pracowników poczty i dopiero na ich podstawie wydrukowano adresy, które naklejono na koperty zawierające kwestionariusze4. Szacuje się jednak, że mimo wszystkich tych wysiłków około 5 milionów Amerykanów nie znalazło Gillespie. B.A. Nesvold (red.), Macroquantitative Analysis: Conflict, Development and Democratiza-tion.Newbury Park, Calif.: Sagę. Na podstawie: Census 90 Basics, U.S. Department of Commerce, Bureau of the Census, Decem- berlTO.s. 1. 195 się na żadnej liście. Podobnie jak w czasie spisu przeprowadzonego w roku 1980 rosnąca mobilność mieszkańców Stanów Zjednoczonych sprawiła, że opracowanie kompletnej listy adresowej stało się bardzo trudne. W badaniach prowadzonych na mniejszą skalę operat doboru próby możezoj stać opracowany na podstawie książki telefonicznej, spisu mieszkańców danego miasta czy list członków organizacji państwowych lub prywatnych. Pomiędzy podstawą doboru próby a rzeczywistą populacją powinien istnieć bard dzo wysoki stopień odpowiedniości. To, czy próba okaże się właściwa, zależy głównie i przede wszystkim od podstawy doboru próby. I rzeczywiście, każdy aspekt schematu doboru próby — populacja, etapy doboru i zastosowana procedura seleł-j cji — jest powiązany z podstawą losowania. Zanim badacz pobierze próbę, najpierw musi ocenić jakość podstawy doboru próby. Leslie Kish przedstawił listę* powych problemów związanych z tworzeniem podstawy doboru próby. Lista ta obejmuje problemy takie, jak: niepełna podstawa doboru próby, grupowanie elementowi oraz problem tzw. elementów pustych znajdujących się poza badaną populacją.! Niepełna podstawa doboru próby. Problem niepełnej podstawy doboru próby pol jawią się wtedy, kiedy nie wszystkie jednostki doboru próby, z których składa m populacja, znalazły się na liście. Na przykład, jeżeli populacja składa się z wszj nowych mieszkańców danego miasta, to podstawa doboru próby oparta na liślfl właścicieli posiadłości w tym mieście stworzy niepełną podstawę doboru prótł Znajdą się bowiem na niej wszyscy nowi mieszkańcy, którzy kupili domy, alenfl znajdą się na niej ci nowi mieszkańcy, którzy wynajmują domy lub mieszkania* Kiedy podstawa doboru próby jest niepełna, to jednym z rozwiązań może bw stosowanie listy dodatkowej. Można, na przykład, stworzyć listę wszystkich osdl które od niedawna wynajmują mieszkania, posługując się spisem mieszkańców.jB śli ten spis zawiera informacje identyfikujące nowych mieszkańców. Grupowanie elementów. Drugim potencjalnym problemem związanym z two™ niem podstawy doboru próby jest grupowanie elementów. Problem ten pojawiał wtedy, kiedy jednostki doboru próby tworzą raczej grupy, niż mają charakter indfl widualny. Podstawa doboru próby może się na przykład składać z bloków mień kalnych, podczas gdy badanie dotyczy osób. Jednym z możliwych rozwiązań tejfl problemu może być stworzenie najpierw próby z bloków, a potem sporządzenie ¦ ty wszystkich mieszkań w każdym z wybranych bloków. Następnie z każdego n» szkania wybiera się jedną osobę (w wielu mieszkaniach mieszka bowiem więcł osób) zgodnie z przyjętymi wcześniej kryteriami, takimi jak osoby powyżej 18rotfl życia czy wyłącznie głowy rodziny. Puste elementy spoza populacji. Problem pustych elementów spoza populacji jefl dość powszechny. Pojawia się on wtedy, kiedy niektóre z jednostek doboru próbflB które znalazły się na liście tworzącej podstawę doboru próby, nie należą do popfl lacji będącej przedmiotem badania. Z takim przypadkiem mamy do czynienia nil przykład wtedy, gdy populacja zostaje zdefiniowana jako osoby posiadające prawi wyborcze, natomiast w podstawie doboru próby znajdą się osoby, które są zbyli 5 Leslie Kish (1965), Sumey Sampling, New York: Wiley, paragraf 2.7. 196 młode, aby głosować. Problem ten powstaje też wtedy, gdy korzysta się z nieaktualnych list. Może się tak zdarzyć, gdy korzystamy ze spisu mieszkańców danego miasta, a spis ten zawiera jedynie adresy, a nie nazwiska mieszkańców. Brak nazwisk nie oznacza jednak, że pod danym adresem nikt nie mieszka. Mieszkańcy mogli się niedawno wprowadzić i jeszcze nie zostali wprowadzeni na taką listę. Takie przypadki należy traktować jako puste i po prostu nie uzwględniać ich w próbie. Dobrze jest pobrać nieco większą próbę, aby później móc zastąpić takie przypadki. Błędy w konstrukcji podstawy doboru próby: wybory prezydenckie w roku 1936 Nasza analiza błędów popełnianych przy konstruowaniu podstawy doboru próby nie byłaby pełna, gdybyśmy nie wspomnieli o najgłośniejszym takim przykładzie, tj. sondażu przedwyborczym przeprowadzonym w roku 1936 przez magazyn „Li-terary Digest". Franklin Delano Roosevelt, kończąc swoją pierwszą kadencję jako prezydent Stanów Zjednoczonych, konkurował z kandydatem republikanów, Alfem Landonem z Kansas. „Literary Digest" w największym sondażu przedwyborczym, który objął około 2,4 miliony ludzi, przewidział zwycięstwo Landona przewagą 57% procent głosów do 43%. Mimo tej tak niekorzystnej prognozy Roosevełt wygra! wybory z ogromną przewagą, bo 62% do 38% głosów6. Pomimo że pobrana próba była bardzo duża, popełniony błąd okazał się ogromny — największy, jaki kiedykolwiek popełniła instytucja organizująca badania sondażowe. Podstawowym źródłem błędu okazała się podstawa doboru próby. Magazyn „Digest" wysłał kwestionariusze do 10 milionów ludzi, których nazwiska i adresy pochodziły z takich źródeł jak książki telefoniczne czy listy członków różnych klubów. Jednakże w roku 1936 ludzie biedni nie posiadali telefonów jak również nie należeli do organizacji klubowych. Tym samym tak skonstruowana podstawa doboru próby nie była pełna, albowiem w sposób systematyczny wyeliminowano z niej ludzi biednych. To zaś okazało się szczególnie istotne właśnie w roku 1936, w którym ludzie biedni głosowali głównie na Roosevelta, a dobrze sytuowani na Landona7. Tak więc podstawa doboru próby nie odzwierciedlała w tym przypadku populacji osób rzeczywiście głosujących. ¦ Schematy doboru próby W poprzednich paragrafach omówiliśmy problemy związane z doborem próby w odniesieniu do takich zagadnień jak sposób definiowania populacji i tworzenie podstawy doboru próby. Kolejny problem związany z pobieraniem próby pojawia się wtedy, kiedy badacze chcą skonstruować próbę reprezentatywną. Podstawowym wymogiem stawianym wobec każdej próby jest to, aby była ona w maksymalnym stopniu reprezentatywna w stosunku do populacji, z której została pobrana. Dana próba jest uważana za próbę reprezentatywną wtedy, gdy wyprowadzane przez badacza wnioski na podstawie badania próby są podobne do wniosków, które badacz otrzymałby, gdyby przebadał całą populację. 6David Freedman, Robert Pisani, Roger Purves (1978), Statistics, New York: Norton, s. 302-307. 7 Ibidem. 197 Dobór losowy i nielosowy* We współczesnej teorii doboru próby wprowadza się rozróżnienie na dobór losów; i dobór nielosowy. Istotą doboru losowego jest to, że dla każdej jednostki dobom próby wchodzącej w skład populacji możemy określić prawdopodobieństwo, zjJ kim jednostka ta może znaleźć się w próbie. W najprostszym przypadku wszystkie jednostki mają jednakowe prawdopodobieństwo znalezienia się w próbie. W pia padku doboru nielosowego natomiast nie ma możliwości określenia prawdopodobieństwa włączenia określonego elementu do próby i nie ma gwarancji, że każd} element może zostać włączony do próby z równym prawdopodobieństwem. Jeżeli jakiś zbiór elementów nie ma żadnej szansy na to, aby znaleźć się w próbie, ton leżałoby zawęzić definicję populacji. Oznacza to, że cechy tego zbioru elementón pozostaną nieznane i nie będzie można poznać dokładnej charakterystyki populacji8. Wracając do prognoz wyborczych w roku 1936, możemy powiedzieć, km poznano wówczas intencji wyborczych ludzi biednych. Dlatego też, aby dobni próbę reprezentatywną, należy posłużyć się wyłącznie doborem losowym. Dobry projekt doboru próby pozwala przyjąć, że badania przeprowadzone ml różnych próbach pobranych z tej samej populacji będą dawały rezultaty nie różnił ce się od parametrów populacyjnych o więcej niż o określoną wartość. LosoB schematy doboru próby pozwalają badaczom określić zakres, w jakim wyniki otm mane na podstawie badania próby będą się różniły od wyników otrzymanych vi tuacji, w której badano by całą populację. Posługując się losowym schematem al boru próby, można oszacować parametry populacyjne na podstawie statystyk ona czonych z próby. Chociaż parametry populacyjne można oszacować jedynie na podstawie próbl losowych, w naukach społecznych często korzysta się z prób nielosowych. WplyB na to, z jednej strony, wygoda, z drugiej — czynniki ekonomiczne. W niektórjł przypadkach (np. badania eksploracyjne) mogą one przeważyć nad korzyściafl wynikającymi ze stosowania prób losowych. W naukach społecznych korzystał z prób nielosowych również wtedy, kiedy trudno jest precyzyjnie zdefiniować pol pulację lub kiedy nie da się stworzyć listy elementów składających się na poptfl cję. Nie da się np. stworzyć listy osób nałogowo zażywających narkotyki czy osfl nielegalnie mieszkających w Stanach Zjednoczonych. Nielosowe schematy doboru próby W naukach społecznych zazwyczaj wykorzystuje się trzy rodzaje prób, które zosofl ły pobrane w sposób nielosowy. Są to: próba okolicznościowa, próba celowa i pnfl ba kwotowa. Próba okolicznościowa. Próba okolicznościowa to próba, którą tworzą osoby¦ wo dostępne. Profesorowie college'u mogą wybrać studentów ze swojej grupy;bfl * Autorzy posługują się terminami: probability sampling i nonprobability sampling. co moi tłumaczyć jako „probabilistyczny dobór próby" oraz „nieprobabilistyczny dobór próby". W polskiej! teraturze dotyczącej metody reprezentacyjnej używa się terminu „dobór losowy" i „dobór nielosowjH por. np. Steczkowski J. (1995), Metoda reprezentacyjna w badaniu zjawisk ekonomiczno-spokrjm Warszawa-Kraków: Wyd. Nauk. PWN. 8 Chein, An lntroduction to Sampling, s. 421. 198 iwy oru ja- na- u lanie dobrać na róznią-Losowe otrzy-sy-do-obli- prób Wpływa których zyściami się po-popula-osób zosta- pró- łat-; ba- dacz może wybrać pierwsze 200 osób, które spotka na ulicy i które wyrażą zgodę na przeprowadzenie wywiadu. Nie ma żadnych możliwości określenia stopnia reprezentatywności próby okolicznościowej i dlatego na jej podstawie nie można oszacowywać parametrów populacyjnych. Próba celowa. Do próby celowej (określanej czasami jako próba eksperc-ka) badacze dobierają osoby w sposób subiektywny, starając się otrzymać próbę, która wydaje się reprezentować populację. Innymi słowy, szansa zakwalifikowania określonej osoby do próby zależy od subiektywnej oceny badacza. Ponieważ najczęściej trudno jest określić, dlaczego badacze kwalifikują niektóre osoby jako należące do próby, dlatego trudno jest w przypadku każdej osoby określić jej prawdopodobieństwo zakwalifikowania się do próby. Mimo to próby celowe były z sukcesem wykorzystywane w naukach społecznych w badaniach, których celem było prognozowanie wyników wyborów. W Stanach Zjednoczonych, na przykład, badacze w każdym ze stanów wybierali określoną liczbę małych okręgów wyborczych, w których wyniki w poprzednich wyborach odzwierciedlały wyniki otrzymane wcatym stanie. Następnie wszystkim uprawnionym wyborcom zadano pytanie, na kogo będą glosowali. Prognozy przedwyborcze zostały oparte na tak zebranych danych. Ryzykownym założeniem, jakie przyjęto w tym przypadku, jest to, że wybrane okręgi nadal są reprezentatywne dla całego stanu. Próba kwotowa. Podstawowym celem tworzenia próby kwotowej jest uzyskanie maksymalnego podobieństwa do populacji wyjściowej. I tak na przykład, jeżeli wiadomo, że populacja składa się w równej części z kobiet i mężczyzn, to należy wybrać do próby taką samą liczbę kobiet i mężczyzn. Jeżeli wiadomo, że 15% populacji to osoby o czarnym kolorze skóry, to w próbie również powinno się znaleźć tyle osób o tym kolorze skóry. W doborze kwotowym dobiera się osoby badane ze względu na takie parametry, jak: płeć, wiek, miejsce zamieszkania czy pochodzenie etniczne, kierując się rozkładem tych zmiennych w populacji. Na przykład prowadzący badania ankieter może otrzymać instrukcję przebadania 14 osób, z których 1 mieszka na terenach podmiejskich, a 7 w mieście, 7 to kobiety, a 7 to mężczyźni, oraz że spośród 7 mężczyzn 3 powinno być żonatych, a 4 kawalerami i że taki sam podział ma zastosować w grupie kobiet. Analizując ten przykład, widać wyraźnie, ze dysproporcje pomiędzy próbą i populacją mogą się pojawić w stosunku do tych wszystkich zmiennych, które nie zostały uwzględnione w kwotach zdefiniowanych przez badacza. W przypadku próby kwotowej, podobnie jak w przypadku innych prób opartych na doborze nielosowym, nie możemy dokładnie oszacować parametrów populacyjnych na podstawie danych otrzymanych z badania próby. Osoby przygotowujące sondaże przedwyborcze posługiwały się próbami kwotowymi aż do wyborów prezydenckich w roku 1948, kiedy to błędnie wyprogno-zowano zwycięstwo Thomasa E. Deweya9. Przeprowadzono wówczas trzy sondaże przedwyborcze i we wszystkich prognozowano zwycięstwo Deweya. Tymczasem okazało się, ze wybory wygrał Harry S. Truman, uzyskując prawie 50% głosów, podczas gdy Dewey uzyskał niecałe 45%. We wszystkich trzech sondażach wykorzystano próby kwotowe zbudowane 'Freedman i in., Slatistics, s. 302-307. 199 względem takich zmiennych, o których sądzono, że mają wpływ na sposób gfosoJ wania. Do tych zmiennych należały: miejsce zamieszkania, płeć, wiek i pochodł nie etniczne. I chociaż założenie, że te zmienne są istotne z punktu widzenia sptl sobu głosowania wydaje się racjonalne, to można wskazać na wiele innych czyn-1 ników, które odegrały ważną rolę w trakcie tych wyborów. Co ważniejsze, nie uwzględniono kwot zbudowanych ze względu na głosy demokratów i republM nów, ale też rozkład opinii politycznych był dokładnie tym, czego nie znano ił chciano poznać poprzez sondaż. I wreszcie najbardziej wątpliwym elementem sow dąży z 1948 roku było przyjęcie strategii badania każdej dowolnej osoby wewnąB określonej kwoty. To sprawiło, że ankieterzy prowadzili badania wedle własnejB uznania, przyczyniając się w ten sposób do powstania istotnego błędu10. Losowe schematy doboru próby Jak wskazywaliśmy wcześniej, dobór losowy — w przeciwieństwie do doboru nid losowego — pozwala na określenie prawdopodobieństwa, z jakim każdy elemej populacji może zostać włączony do próby. W paragrafie tym przedstawimy cztd podstawowe metody doboru losowego: losowanie indywidualne nieograniczone,! sowanie indywidualne systematyczne, losowanie warstwowe i losowanie grupofl^ Losowanie indywidualne nieograniczone. Losowanie indywidualne nieograni ne jest podstawowym sposobem doboru probabilistycznego i elementem wszysJ bardziej złożonych losowych schematów doboru próby. W losowaniu indywid nym nieograniczonym każdy z elementów składających się na całą populację (o czaną dużą literą AO ma takie same, niezerowe prawdopodobieństwo dostania się próby. I tak na przykład prawdopodobieństwo wyrzucenia orła lub reszki w tr' rzutu idealną monetą jest jednakowe i znane (wynosi 50%), a każdy kolejny jest niezależny od wyników poprzednich. Aby skonstruować próbę losową, na wcy najczęściej posługują się specjalnymi programami komputerowymi lub tab" mi liczb losowych. Przykład tablicy liczb losowych przedstawiliśmy w dodatku Posługiwanie się taką tablicą jest bardzo proste. Najpierw należy ponumero wszystkie elementy składające się na populację i nadać im kolejne numery od 1 N. Następnie zaczynamy czytanie tablicy liczb losowych od dowolnie wybran punktu. Czytamy kolejne liczby w dowolnym porządku (w dół, w górę, po prze' nej), pilnując jednak, aby czytać je zawsze tak samo. Każda odczytana liczba wiadająca numerowi na naszej liście wskazuje, który element populacji zos wybrany do próby. Proces ten kontynuujemy tak długo, aż wylosujemy żądaną" bę elementów. Przy tej metodzie doboru próby decyzja o wybraniu określonego mentu ma charakter losowy, tj. niezależny od tego, jakie elementy zostały wcześ wybrane. Stosując tę procedurę konstrukcji próby, eliminujemy wszelką systematy stronniczość w jej doborze i możemy oszacować wartości parametrów, które reprezentować rzeczywiste wartości w ogólnej populacji. Procedura doboru losowego gwarantuje, że prawdopodobieństwo włączenia dego elementu populacji do próby będzie jednakowe. Prawdopodobieństwo to nosi n/N, gdzie n oznacza wielkość próby, a N wielkość populacji". Jeżeli na 10 Ibidem, s. 305-307. 1' Matematyczny dowód tego równania można znaleźć w pracy Kisha, Sumey Sampling, s. 3 200 kład populacja składa się z 50 389 osób posiadających prawa wyborcze w danym mieście i mamy pobrać próbę liczącą 1800 osób, to prawdopodobieństwo wybrania do próby każdego elementu populacji wynosi 1800/50 389, czyli 0,0357 (por. też przykład 8.1). Przykład 8.1 W jaki sposób dokonać losowania indywidualnego nieograniczonego Problem W badaniu kosztów ponoszonych przez szpital regionalny analizowane będą karty chorobowe pacjentów 7. V = 100 kart chorobowych należy wybrać losową próbę składającą się z n = 10 kart. 1. Zaczynamy od ponumerowania kart, rozpoczynając od przypisania liczby 001 pierwszej karcie i kończąc na liczbie 100, którą przypiszemy setnej karcie. Zauważmy, że każdej karcie składającej się na naszą populację przyporządkowaliśmy liczbę składającą się z trzech cyfr. Gdyby liczba kart chorobowych wynosiła 1250, posługiwalibyśmy się liczbami czterocyfrowymi. W naszym przypadku musimy odczytać trzycyfrowe liczby losowe, aby każda karta chorobowa miała tę samą, znaną szansę dostania się do próby. 2. Otwórzmy teraz dodatek D i przyjrzyjmy się pierwszej kolumnie. Widzimy, że każda kolumna składa się z liczb pięciocyfrowych. Jeżeli opuścimy dwie ostatnie cyfry w każdej liczbie i zaczniemy tak otrzymane liczby czytać z góry w dół, to otrzymamy następujące liczby trzycyfrowe: 521 007* 070* 053* 486 919 541 005* 326 007 293 690 024* 259 815 097* 296 Ostatnią liczbą jest 097 i znalazła się ona w 35 wierszu (kolumna 1). Nie musimy czytać więcej liczb, ponieważ odczytaliśmy już dziesięć liczb, które wskazują, które elementy zostaną zakwalifikowane do naszej próby (liczba 007 pojawiła się dwa razy, ale wykorzystaliśmy ją tylko jeden raz). Liczby oznaczone gwiazdkami wskazują, które karty chorobowe zostaną wybrane do próby, ponieważ tylko te liczby mieszczą się w określonym przez nas zakresie od 001 do 100. Nasza próba losowa składa się teraz z dziesięciu elementów: 094 070 005 071 024 097 023 007 010 053 • Nie musimy rozpoczynać od pierwszego wiersza w kolumnie pierwszej. Możemy wybrać dowolny początek, na przykład siódmy wiersz kolumny drugiej. Możemy również czytać liczby w dowolny sposób: z góry w dół, z lewej do prawej czy po przekątnej, bylebyśmy tylko opracowali wcześniej określony plan. 104 854 223 289 241 635 421 094* 375 103 779 071* 995 510 963 023* 895 010* 201 Losowanie systematyczne. Losowanie systematyczne polega na wybieraniu każdego K-tego elementu z populacji, począwszy od pierwszego elementu, który zostaje wybrany w sposób losowy. I tak, jeżeli chcemy pobrać próbę składającą się ze 100 osób, pochodzącą z populacji składającej się z 10 000 osób, to będziemy wybierać co setną osobę (K = N/n = 10 000/100 = 100). Pierwszy element wybieramy w spoJ sób losowy, na przykład korzystając z tablic liczb losowych. Powiedzmy, że począ-l tek losowania ustaliliśmy od osoby czternastej. Do próby wejdą zatem osoby mai jące następujące numery: 14, 114, 214, 314, 414 itd. Losowanie systematyczne jest wygodniejsze niż losowanie indywidualne nieJ ograniczone. W sytuacji, gdy badacz bez doświadczenia w stosowaniu różnych tediniłl pobierania próby ma skonstruować próbę, łatwiej mu będzie wybierać co K-ty efl ment, niż korzystać z tablic liczb losowych. Próby systematyczne jest także łat™ pobierać wtedy, gdy populacja jest bardzo duża, lub wtedy, gdy pobrana próba™ być bardzo liczna. Przykład 8.2 W jaki sposób dokonać losowania systematycznego Problem Chcielibyśmy poznać, jaki jest związek pomiędzy zawodem rodziców a średnią ocen studentów wl żym ośrodku miejskim (N= 35 000). Niezbędne informacje można otrzymać na podstawie danych pet nalnych studentów, dlatego też wylosowanych zostanie n = 700 teczek z danymi personalnymi. Ichoa w tym przypadku możemy dokonać losowania indywidualnego nieograniczonego (por. przykład 81 jednak wymagałoby to dużego nakładu pracy. Zamiast tego możemy zastosować następującą procedu 1. Pierwszym krokiem jest ustalenie odstępu losowania K. Ponieważ N = 35 000, a próba n =71 dlatego K wynosi 35 000/700, tj. K = 50. 2. Następnie, z pierwszych pięćdziesięciu teczek wybieramy losowo tę, od której zaczniemy*) bierać co pięćdziesiątą osobę, aż otrzymamy pożądaną wielkość próby, równą 700 osobom.* todę tę można nazwać systematycznym losowaniem co pięćdziesiątego elementu. W losowaniu systematycznym każdy element populacji może zostać wylosowanj do próby z prawdopodobieństwem l/K. W losowaniu tym może się jednak pojaw cykliczne wahanie (określony wzorzec) danych, przypadające co każde ATelementói Zjawisko to może być przyczyną pobrania próby stronniczej. Możemy na przykŁ prowadzić badania nad przeciętną wielkością domu zajmowanego przez jedną rod nę i pierwszy wybrany dom okaże się domem narożnym. Może się dalej tak zdarz] ze nie zauważymy, i/ każdy K-ty dom jest również domem narożnym. W ten sposl nasza próba będzie próbą stronniczą, ponieważ domy narożne są najczęściej więks Gdybyśmy wiedzieli, że taki wzorzec opisuje naszą populację, to przesuwając nieci początek losowania, moglibyśmy ten problem zminimalizować12 . Losowanie warstwowe. Badacze posługują się próbą warstwową przede wszyi kim po to, aby mieć pewność, że różne grupy składające się na populację są wił 12 Inne procedury pozwalające uniknąć stronniczości wynikającej z systematecznego wzorca H sującego populację zostały opisane w pracy Williama Cochrana (1977). Sampling Techniąues, wjl New York: Wiley. 202 ciwie reprezentowane w próbie. Zwiększa to poziom dokładności przy oszacowywaniu wartości parametrów. Co więcej, posiadając wszystkie cechy poprzednich technik, losowanie warstwowe jest zdecydowanie korzystniejsze ze względów ekonomicznych. Istotą losowania warstwowego jest podzielenie populacji „na grupy w taki sposób, aby elementy należące do jednej grupy były do siebie bardziej podobne uż elementy należące do populacji jako całości"13. Innymi słowy, oznacza to, że tworzymy zbiór homogenicznych grup wyodrębnionych ze względu na badane zmienne. Dokonując losowania z każdej grupy oddzielnie, otrzymujemy zbiór homogenicznych prób, które połączone razem tworzą próbę bardziej heterogenicznej populacji. Zabieg ten zwiększa poziom dokładności oszacowań parametrów. Wyobraźmy sobie na przykład, że określona populacja składa się z 700 białych, 200 czarnych i 100 Meksykano-Amerykanów. Gdybyśmy pobrali próbę losową liczącą 100 osób, to najprawdopodobniej do próby tej nie wejdzie dokładnie 70 białych, 20 czarnych i 10 Meksykano-Amerykanów — liczba Meksykano-Amerykanów może na przykład być zbyt mała. Próba warstwowa składająca się z 70 białych, 20 czarnych i 10 Meksykano-Amerykanów będzie lepiej reprezentować populację. Proces warstwowania nie łamie założenia o losowości, ponieważ wewnątrz każdej warstwy próba jest pobierana właśnie w sposób losowy. Warunkiem koniecznym przy dzieleniu populacji na homogeniczne warstwy jest to, że kryterium podziału musi pozostawać w związku z badanymi zmiennymi. Ponadto zastosowane kryteria podziału nie powinny prowadzić do pobrania zbyt wielu prób. Całkowita wielkość próby otrzymanej poprzez losowanie warstwowe nie powinna bowiem przewyższać wielkości próby, którą uzyskalibyśmy przy zastosowaniu losowania indywidualnego nieograniczonego. Przypuśćmy, że chcemy oszacować medianę dochodów rodziny w małym mieście i znamy cechy charakteryzujące pojedynczą rodzinę. Ponieważ wiadomo, że wielkość dochodów koreluje z zawodem, wykształceniem, pochodzeniem etnicznym, wiekiem i płcią, zatem oparcie podziału na warstwy na tych kryteriach wydaje się logiczne. Gdybyśmy jednak wykorzystali wszystkie te kryteria, to korzyści płynące z losowania warstwowego zdecydowanie się zmniejszą, albowiem liczba prób, które musielibyśmy pobrać, staje się ogromna. Przeanalizujmy, co się wydarzy, jeżeli będą istniały cztery kategorie zawodu, trzy wykształcenia, trzy pochodzenia etnicznego, trzy wieku i dwie kategorie płci. Liczba prób, które trzeba by wylosować, będzie zatem wynosić: 4x3x3x3x2, czyli 216. Ponieważ ze statytystycznego punktu widzenia liczba osób w każdej komórce me może być mniejsza niż dziesięć, musimy wybrać przynajmniej 2160 osób, zakładając, że liczebność w poszczególnych komórkach jest równa. Nikt nie uzna, że tń duża próba jest konieczna do reprezentacji małego miasta. Aby rozwiązać ten problem, możemy przyjąć, że wiele zmiennych będących podstawą podziału na warstwy to zmienne powiązane (tj. właściwości, które razem występują). I tak na przykład, jeżeli przyjmiemy, że status społeczny jest powiązany z zawodem, wykształceniem i pochodzeniem etnicznym, to liczbę prób możemy zredukować do: 4 (wyodrębnione ze względu na status) x 3 (wyodrębnione ze względu na wiek) x 2 (wyodrębnione ze względu na płeć) = 24, które łącznie liczą 240 osób. Taki schemat Morris H. Hansen, William N. Hurwitz, William G. Madow (1953), Sample Survey Methods and Tkory, New York: Wiley; s. 40. 203 doboru próby jest bardziej użyteczny i lepiej reprezentuje populację niż próba wylosowana w sposób indywidualny nieograniczony. Losowanie wewnątrz każdej warstwy może być dokonywane w sposób proporcjonalny lub nieproporcjonalny. Jeżeli z każdej warstwy wylosujemy jednakową liczbę elementów lub stałą ich frakcję (n/N), to taka próba nazywa się proporcjonalną próbą warstwową. Wielkość próby pobranej z każdej warstwj («) jest bowiem proporcjonalna do wielkości warstwy w populacji (/V). Jeżeli jednak całkowite liczebności poszczególnych warstw nie są sobie równe, to otrzymamy nieproporcjonalną próbę warstwową. Innymi słowy, jeżeli liczba osób charakteryzowanych przez każdą zmienną (czyli wpadających do każdej warstwy) jest inna, to musimy zdecydować — biorąc pod uwagę wymagania problemu badawczego — jaka powinna być wielkość próby pochodzącej z każdej waJ stwy. Zazwyczaj nieproporcjonalna próba warstwowa jest wykorzystywana do pa równywania dwóch lub więcej konkretnych warstw lub do poszerzonej analizy jefl nej warstwy. Posługiwanie się nieproporcjonalną próbą warstwową wymaga waza nia oszacowanych parametrów populacji ze względu na liczbę osób wpadający* do każdej warstwy14 (por. przykład 8.3). Przykład 8.3 W jaki sposób dokonać losowania warstwowego Problem W badaniu dotyczącym odnawiania się środowisk miejskich interesowano się postawami nowych miał kańców w stosunku do własnej społeczności. Założono, że postawy osób posiadających własne doa będą się różniły od postaw osób wynajmujących mieszkania. Dlatego też, aby zapewnić sobie wlaściw reprezentację obu grup, posłużono się schematem losowania warstwowego. Określono dwie warstw posiadaczy domów i wynajmujących mieszkania. 1. Populacja składa się z N = Nt + N2 osób, gdzie /V, oznacza nowych mieszkańców posiadający!! własne domy, a /V, nowych mieszkańców wynajmujących mieszkania. N] = 200, a Af, = 30Q| czyli N = 500. Zdecydowaliśmy się dokonać losowania proporcjonalnego w wysokości l/IOM dej warstwy. Do próby wejdzie zatem 20 osób posiadających domy i 30 osób wynajmującym mieszkania. 2. W każdej warstwie dokonujemy losowania indywidualnego nieograniczonego (patrz przykład 8.1 Losowanie grupowe. Czwartym rodzajem pobierania próby iosowej w naukackj społecznych jest losowanie grupowe. Najczęściej stosuje sieje w badaniach prowadzonych na dużą skalę, ponieważ jest to najmniej kosztowny schemat pobieraniii próby. Losowanie grupowe polega na wcześniejszym określeniu dużych zbiorowi ści zwanych grupami i następnie losowaniu określonej liczby grup za pomoc! losowania indywidualnego nieograniczonego lub losowania warstwowego. Wzaifl ności od problemu badawczego do próby można włączyć wszystkie elementy z dl nej grupy lub wybrać określoną ich liczbę, stosując losowanie indywidualne nil ograniczone lub losowanie warstwowe. Załóżmy, że chcemy zbadać postawy polityczne osób dorosłych w róż™ 14 Metody ważenia zob. w pracy Kisha, Survey Sampling, s. 77-82. 204 okręgach wyborczych w danym mieście. Nie ma jednak żadnej listy zawierającej nazwiska wszystkich dorosłych mieszkańców, a stworzenie takiej listy jest zbyt drogie. Istnieje natomiast mapa okręgów wyborczych w tym mieście. Możemy zatem - korzystając z tej listy — wylosować określoną liczbę okręgów wyborczych (etap pierwszy — losowanie grup). Następnie w każdym okręgu możemy wylosować kwartały mieszkalne (etap drugi — losowanie grup) i przeprowadzić wywiady z wszystkimi mieszkańcami tych kwartałów. Możemy również dokonać losowania indywidualnego nieograniczonego wewnątrz każdego kwartału. W takim przypadku nasze losowanie będzie losowaniem trójetapowym. (Ta metoda losowania jest też czasami nazywana losowaniem na płaszczyźnie). W podobny sposób przeprowadzając badania sondażowe dotyczące gospodarstw domowych, można się posłużyć próbą miast; w każdym mieście wylosować dzielnice, a w każdej dzielnicy wylosować próbę gospodarstw domowych (por. przykład 8.4). Przykład 8.4 W jaki sposób dokonać losowania grupowego Problem Celem badania jest przeprowadzenie wywiadów z mieszkańcami społeczności miejskiej. Ponieważ lista dorosłych mieszkańców nie jest dostępna, posłużymy się schematem losowania grupowego. Etapl 1. Na podstawie aktualnej mapy określ obszar, którego będzie dotyczyć losowanie. Kieruj się zaznaczonymi na niej granicami i wyłącz z losowania te obszary, na których nie ma żadnych budynków mieszkalnych. 2. Podziel obszar na kwartały mieszkaniowe. Narysowane granice nie powinny przechodzić przez poszczególne domy i być łatwe do zidentyfikowania przez pracowników terenowych. J. Ponumeruj kolejno kwartały, najlepiej w porządku przypominającym serpentynę. 4. Wylosuj — w sposób indywidualny lub systematyczny — określoną liczbę kwartałów. Etap 2 1. Sporządź listę i ponumeruj wszystkie domy mieszkalne znajdujące się w każdym z wybranych kwartałów. Sporządzenie takiej listy wymaga czasami pomocy pracowników terenowych, którzy sprawdzą, czy na liście znalazły się wszystkie nowo postawione domy. 2. Wylosuj —w sposób indywidualny lub systematyczny — określoną liczbę domów mieszkalnych. 3. Przeprowadź wywiady z wybranymi osobami mieszkającymi w każdym z wylosowanych domów. To, jakie to mają być osoby, ustala się zazwyczaj na podstawie wskazówek badacza. Pnykiad len częściowo oparty na pracy Matildy White Riley (1963), Sociological Research: Exercises and Manuał, Orlando, Ha.: Hart- camBrace Jovanovich, vol. 2, s. 172. Wybór grup zależy od celu badania i dostępnych informacji. Grupami mogą być gospodarstwa domowe, kwartały, szkoły, okręgi czy miasta. Według Lesliego Kisha: Populacja Stanów Zjednoczonych może być rozpatrywana jako zagregowany zbiór elementów, którymi są poszczególne stany, hrabstwa, miasta, dzielnice, kwartały mieszkaniowe, domy mieszkalne i wreszcie poszczególne osoby. 205 Wszystkie te elementy są następnie wykorzystywane przy konstruowaniu próby I losowej populacji Stanów Zjednoczonych15. Losowy dobór próby: podsumowanie Opisane cztery metody losowego doboru próby to podstawowe schematy losowania stosowane w naukach społecznych. Nie wyczerpują one oczywiście wszystkich możliwych procedur losowania, zachęcamy więc czytelników do skorzystania z literatury dodatkowej, którą zamieściliśmy na końcu rozdziału. Losowy dobór próby: przykład Aby zilustrować pełen proces pobierania próby w sposób losowy, przeanalizujmy procedury zastosowanie przez Institute for Social Research — ISR (Instytut Badań Społecznych) University of Michigan na rzecz prowadzonych przezeń badań sondażowych16. Zastosowana procedura losowania składała się z trzech schematów: losowania grupowego, losowania warstwowego i losowania indywidualnego nieograniczonego. I Charakterystyka czterech prób losowych ¦ Prosta próba losowa. Każdej jednostce losowania przyporządkuj kolejne liczby; dokonaj losowania określonej liczby elementów, posługując się tablicą liczb losowych ¦ Próba systematyczna. Ustal odstęp losowania (n/N); losowo wybierz początek losowania; wylosuj kolejne elementy, posługując się odstępem losowania. ¦ Próba warstwowa. Schemat proporcjonalny: zdefiniuj warstwę; pobierz losową próbę z każdej warstwy, proporcjonalnie do wielkości każdej warstwy w populacji. Schemat nieproporcjonalny: zdefiniuj warstwę; pobierz losową próbę z każdej warstwy; jej wielkość ustal na podstawie analitycznych analiz. ¦ Próba oparta na losowaniu grup. Określ liczbę poziomów losowania grupowego; z każdego poziomu pobierz próbę losową; podstawowymi jednostkami analizy są grupy należące do populacji, z której dokonano losowania. Por. Russell Ackoff (1953), The Design of Social Research, Chicago: University of Chicago Press. ISR to największy w Stanach Zjednoczonych uniwersytecki ośrodek prowadzący badania w dziedzinie nauk społecznych. Projekty badawcze realizowane przez Instytut są sponsorowane przez agencje rządowe, prywatne przedsiębiorstwa i c 15 Ibidem, s. 150. 16 Survey Research Center, Intemiewer's Manuał (1976), wyd. popr., Ann Arbor: Institute tor ciał Research, University of Michigan, rozdz. 8. 206 Ryc. 8.1. Pobieranie próby narodowej Na podstawie: Survey Research Center, Inteniewer's Manuał, wyd. popr., Ann Arbor: Institute for Social Research, ¦Wlityof Michigan, 1976, s. 8-2. nizacje społeczne. W wielu badaniach wykorzystywano duże próby narodowe, niżej przedstawiamy przybliżoną listę kroków, realizowanych przez ISR w trakci pobierania próby narodowej17 (por. ryc. 8.1): 1. Cały obszar geograficzny Stanów Zjednoczonych został podzielony nai obszary, które nazwano pod sta w o wy mi jednostkami losowania (PSU). PSU stanowiły zazwyczaj obszary wiejskie lub miejskie. Z pełnej listy! wierającej spis wszystkich PSU za pomocą losowania warstwowego badacze wy-l brali 74 jednostki. W ten sposób starano się zapewnić, aby zarówno okręgi wiejski małe miasta, miasta średniej wielkości, jak i regiony były odpowiednio reprezi towane w próbie. 2. Każdą z wylosowanych 74 jednostek podzielono na mniejsze okręgi. Itaki przykład hipotetyczna jednostka PSU składająca się z dwóch dużych miast. sześ< miast średniej wielkości i okolic wiejskich zostałaby podzielona na trzy warsti (1) duże miasta, (2) średnie miasta i (3) okolice wiejskie. Elementy w każdej wa stwie nazwano miejscami losowania. W każdej warstwie wybrano je lub więcej miejsc losowania. 3. Każde miejsce losowania zostało podzielone na c z ę ś c i, a każda część i liniowana jako obszar o określonych granicach: na przykład na obszarze miejskim część odpowiada kwartałowi; na obszarze wiejskim część będzie wyznaczona i gami lub granicami okręgów. W ramach każdego miejsca losowania dokonano I sowania części. 4. Na tym etapie główną rolę w procesie pobierania próby będzie odgrywać ( ba przeprowadzająca wywiad. Odwiedza ona każdą część, spisuje wszystkie je mieszkalne i proponuje podział części na mniejsze obszary zawierające od 4doi jednostek mieszkalnych. Te obszary nazwano segmentami. Z każdej en pobrano losową próbę segmentów. 5. Ostatni etap polegał na wybraniu w ramach każdego segmentu określonej lici by jednostek mieszkalnych, które stanowiły ostateczną próbę. Procedura wybiel nia jednostek mieszkalnych była zróżnicowana. I tak, jeżeli dany segment zawis tylko kilka jednostek mieszkalnych, to wszystkie one zostały włączone do bad Jeżeli natomiast dany segment składał się z wielu jednostek mieszkalnych, to ( badania wchodziła jedynie określona ich frakcja. ¦ Wielkość próby Próbą jest każdy podzbiór pochodzący z populacji. Podzbiorem jest każdy ukl elementów należących do populacji, który nie obejmuje wszystkich elementów c finiowanych jako populacja. Próba może zawierać tylko jeden element, wszystkiH elementy z wyjątkiem jednego, czy jakąkolwiek inną ich liczbę. W jaki sposób maj żemy zatem określić wielkość próby? Istnieje wiele nieporozumień co do tego, jak duża powinna być próba. Jednył z nich jest na przykład pogląd, że próba musi stanowić określoną proporcję (częstł ustalaną na poziomie 5%) populacji; innym, że próba powinna liczyć 2000 elemeiH tów; jeszcze innym, że wraz ze zwiększaniem wielkości próby rośnie precyzja 17 Ibidem. 208 wnioskowania na podstawie danych z próby. Przekonania te są fałszywe, ponieważ nie wynikają z teorii pobierania próby. Aby właściwie oszacować wielkość próby, należy ustalić oczekiwany poziom dokładności oszacowań, tzn. określić wielkość akceptowanego błędu standardowego. Błqd standardowy Pojęcie błędu standardowego (można się również spotkać z terminem „błąd próby") jest głównym pojęciem teorii pobierania próby i odgrywa zasadniczą rolę w określaniu wielkości próby. Jest to jedna z miar statystycznych wskazująca, na ile dokładnie wyniki otrzymane na podstawie badania próby odzwierciedlają rzeczywiste wartości parametrów w populacji. Zilustrujemy ideę błędu standardowego, posługując się przykładem niewielkiej populacji, z której należy pobrać prostą próbę losową. Nasza hipotetyczna populacja składa się z pięciu studentów zarabiających odpowiednio: 500$, 650$, 400$, 700$ i 600$ miesięcznie. Średnia zarobków w populacji (oznaczana literą fi) wynosi 570$18. Powiedzmy, że pobieramy próbę składającą się z dwóch elementów po to, aby oszacować wielkość parametru fi i że wybraliśmy osoby o zarobkach 500$ i 400$ dolarów. Średnia z próby (x) wynosi zatem (500$+400$)/2 = 450$ i traktujemy ją jako oszacowanie populacyjnego parametru fi. Ponieważ jednak wiemy już, że średnia zarobków w populacji wynosi 570$, to na pierwszy rzut oka widać, że wartość 450$ jako oszacowanie parametru populacji jest bardzo niedokładna. Gdybyśmy wybrali dwie osoby zarabiające 650$ i 700$, lo średnia w próbie wynosiłaby 675$ i również byłaby niedokładnym oszacowaniem średniej populacyjnej. W podobny sposób możemy pobrać wszystkie możliwe dwuelementowe (n = 2) próby z tej populacji. W tabeli 8.1 przedstawiliśmy dziesięć możliwych prób i obliczone dla nich średnie zarobki będące oszacowaniem parametru populacyjnego fi. Jak widać, niektóre wartości średnich obliczone z próby (na przykład 500$ i 650$) lepiej przybliżają średnią w populacji fi niż inne. Jeżeli nieskończenie wiele razy pobierać będziemy próbę o liczebności n = 2, to każda z prób przedstawionych w tabeli 8.1 zostanie wybrana więcej niż jeden raz. Możemy zatem sporządzić wykres rozkładu wszystkich średnich obliczonych z próby. Rozkład wartości średnich z próby (x) obliczonych dla nieskończonej liczby prób nazywa się rozkładem z próby średnich albo prościej rozkładem średnich. W naszym przykładzie szanse otrzymania każdej z dziesięciu prób są jednakowe (są to bowiem proste próby losowe) i jeżeli proces pobierania próby będziemy kontynuować nieskończenie długo, to wszystkie próby zostaną wybrane jednakową liczbę razy. Tym samym średnia z wszystkich oszacowań wartości średniej dokonanych na wszystkich możliwych próbach wynosi 5700/10 = 570, czyli dokładnie tyle, ile wynosi średnia populacyjna. Ogólnie rzecz biorąc, można zatem założyć, że wartość średnia obliczona z nieskończenie wielu prób równa się średniej w populacji. Im bardziej wartości średniej i próby odchylają się od średniej populacyjnej, tym większe staje się zróżnicowanie wyników uzyskanych z każdej próby. Tym większe również staje się ryzyko popełnienia dużego błędu przy oszacowaniu wartości parametru w populacji na podstawie wyników jednej próby lub ograniczonej liczby prób. Por. rozdział 15, w którym przedstawiliśmy pojęcie średniej i odchylenia standardowego. 209 Tabela 8.1. Oszacowanie wartości średniej w populacji Możliwe próby składające się z n = 2 elementów x (dochody wybranych studentów w $) (oszacowanie wartość fi w $) 500 i 650 575 500 i 400 450 500 i 700 600 500 i 600 550 650 i 400 525 650 i 700 675 650 i 600 625 400 i 700 550 400 i 600 500 700 i 600 650 Razem 5700 Ponieważ populacja w naszym przykładzie nie była duża, możemy łatwo o czyć wartość średniej w populacji i porównać ją ze średnią otrzymaną na podsta prób. W rzeczywistości wartość średnia w populacji nie jest znana, a badacz po' ra tylko jedną próbę po to, aby oszacować wartość parametru w populacji. Rozkt wartości otrzymanych w jednej próbie jest traktowany jako wskaźnik całego kładu z próby. Miarą rozproszenia wartości w jednej próbie jest odchylenie dardowe s (por. rozdział 15). Rozkład wszystkich wartości średnich wokół śred tych wartości nazywany jest błędem standardowym (SE). Możemy obliczyć odchylenie standardowe i następnie oszacować wartość (por. rozdział 15). Nie można obliczyć wartości SE bezpośrednio, ponieważ nie mo' pobrać nieskończenie wielu prób potrzebnych dla tych obliczeń. Możemy natomi przyjąć, że rozproszenie wartości zmiennej w ramach pojedynczej, losowo pobr próby reprezentatywnej odzwierciedla rozproszenie tych wartości w ramach lacji. Odchylenie standardowe rozkładu z próby w naszym przykładzie wynosi: [(575 - 570)2 + (450 - 570)2 + (600 - 570)2 + (550 - 570)2 + (525 - 570)2 + (675 - 570)2 + (625 - 570)2 + (550 - 570)2 + (500 - 570)2 + (650 - 570)2]/10 = V4350 = 65,95. Możemy teraz oszacować wartość SE poprzez podzielenie odchylenia stand wego z próby przez pierwiastek kwadratowy z wielkości próby («): gdzie s — odchylenie standardowe, n — wielkość próby. Jeżeli populacja jest ła, to do przedstawionego równania musimy włączyć czynnik 1 — n/N, czyli poprawkę dla populacji skończonej: 210 gdzie 5- — wariancja w próbie, n — wielkość próby, N — wielkość populacji. Zauważmy, że w tym wzorze wyrażenie n/N zostało odjęte od 1, ponieważ populacja jest mata. W naszym przykładzie N = 5 i n = 2, dlatego , _ (500 - 570)2 + (650 - 570)2 + (400 - 570)2 + (700 - 570)2 + (600 - 570)2 _ 4 Standardowy błąd średniej z próby będzie zatem wynosił: STO. V(^?)( 4^-^-65.95. który jest identyczny jak poprzednio otrzymany rezultat. Przedziały ufności Zanim przedstawimy metodę określania wielkości próby, należy omówić jeszcze jedno pojęcie, a mianowicie pojęcie przedziału ufności. Mówiliśmy już, że średnia w populacji jest równa średniej ze wszystkich średnich z prób, które można pobrać 2 populacji, i że możemy obliczyć odchylenie standardowe dla średnich z prób. Jeżeli rozkład z próby średnich jest normalny lub bliski rozkładowi normalnemu, to łby oszacować położenie średniej w populacji, możemy się odwołać do własności rozkładu normalnego19. Gdybyśmy znali średnią wszystkich średnich z próby (średnią w populacji) i odchylenie standardowe średnich z próby (standardowy błąd średniej), to moglibyśmy obliczyć wartość wyniku Z i określić, jaki procent wartości średnich z próby może się pojawić w określonym przedziale wyników. I tak w przedziale pomiędzy -IZ i +1Z możemy oczekiwać 68% wartości średnich z próby; pomiędzy -1,96Z a +1,96Z około 95%, a pomiędzy -2,58Z a +2,58Z około 99% wartości średnich z próby. Ponieważ jednak nie znamy średniej w populacji, musimy ją oszacować na podstawie pojedynczej próby. W tym celu możemy się posłużyć krzywą normalną (por. ryc. 8.2). Średnia z próby, która wynosi 1,96Z lub — w przybliżeniu — dwa odchylenia standardowe powyżej średniej populacyjnej, może się pojawić z prawdopodobieństwem 0,025. Innymi słowy, prawdopodobieństwo, że wszystkie średnie z próby będą się różniły od średniej populacyjnej o mniej niż ±1,96Z wynosi 95,5%. Podobnie jak rzadko się zdarza, aby średnia z próby wynosiła 1,96 lub 2 odchylenia standardowe powyżej średniej populacyjnej, tak równie rzadko się zdarza, aby średnia z próby wynosiła Pojęcie rozkładu normalnego dotyczy określonego kształtu rozkładu zmiennej w populacji generalnej. Por. strony 397-398, na których przedstawiliśmy szczegółowe omówienie krzywej normalnej i jej właściwości. 211 1,96 lub 2 odchylenia standardowe poniżej średniej populacyjnej. Nie wiemy jedna czy średnia z próby jest mniejsza czy większa od prawdziwej średniej w populac Jeżeli jednak skonstruujemy przedział od — l,96Zdo +1,96Z wokół średniej z prób to możemy być pewni, że 95,5% populacji wpada do tego przedziału. Nie oczekuj my oczywiście, że średnia z próby rzeczywiście będzie leżeć tak daleko jak+2 o chylenia standardowe od średniej populacyjnej; możemy natomiast przyjąć, żeśre nia populacyjna nie leży dalej jak ±2 odchylenia standardowe od średniej z prófl 2,28% 13,59% ' 99,44% ----------------------------------»> Ryc. 8.2, Krzywa normalna: wielkość obszaru pod krzywą od średniej do określonej wartości odchy standardowego (w procentach) Jeżeli skonstruujemy przedział ufności równy ±1,96Z (w przybliżeniu 2 lenia standardowe powyżej i poniżej średniej z próby), to z prawdopodobieńs równym 95% możemy się spodziewać, iż średnia populacyjna będzie leżała w przedziale. Oznacza to, że prawdopodobieństwo popełnienia błędu polegającego przyjęciu, że średnia populacyjna nie wpada do tego przedziału, wynosi 5%. dopodobieństwo, że średnia populacyjna będzie leżała w przedziale od —2,582 +2,58Z (czyli w przybliżeniu około 3 odchylenia standardowe powyżej i po" średniej z próby) wynosi z kolei 99% na 100% — inaczej nazywamy taki 99-procentowym przedziałem ufności. Na rycinie 8.2 przyjęliśmy dla celów ii racyjnych, że obszar pomiędzy 3 odchylenia standardowe pokrywa 100% próby przy założeniu, że populacja, z której pobrano próbę, jest duża. Szerokość prz" łu ufności, jaki chcemy zbudować wokół średniej z próby, zależy od przyjętego ziomu dokładności przewidywania. Innymi słowy, szerokość przedziału ufności determinowana wielkością ryzyka popełnienia błędu, jakie badacz jest skłonny nieść. Możemy skonstruować przedział ufności równy jedynie ±0,68 odchy standardowego powyżej i poniżej średniej i podejmując decyzję, że średnia lacyjna leży w tym przedziale, mieć tylko 50% szans niepopełnienia błędu. Podsumowując, jeżeli możemy przyjąć, że określony rozkład z próby w przybliżeniu rozkładem normalnym, to możemy założyć, iż około 68% w oszacowanych na podstawie próby będzie leżało w przedziale pomiędzy ±1 212 lenie standardowe, a około 95% pomiędzy ±2 odchylenia standardowe. Poziomy ufności i błędy standardowe są rutynowo wykorzystywane w badaniach sondażowych, w tym w sondażach przedwyborczych. Bez zastosowania tych miar statystycznych organizatorzy sondaży przedwyborczych nigdy nie wiedzieliby, w jakim stopniu otrzymane przez nich wyniki są trafne, a pracownicy działów marketingu nie potrafiliby określić stopnia powodzenia nowego produktu. Określanie wielkości próby Możemy teraz ustalić wielkość próby. Jeżeli przy podejmowaniu decyzji o wielkości próby koszty i inne czynniki natury praktycznej nie mają znaczenia, to określenie wymaganej wielkości próby nie jest trudne. Przypomnijmy wzór na standardowy błąd średniej: SE = v« gdzie s — odchylenie standardowe badanej zmiennej, n nując przekształcenia tego wzoru, otrzymamy: wielkość próby. Doko- n = s2 (SE)2 Aby obliczyć wielkość próby, musimy mieć jakieś wyobrażenie o wielkości odchylenia standardowego w populacji i należy zdecydować, jak duży standardowy błąd pomiaru możemy tolerować. Jeżeli na przykład mamy pobrać próbę losową z po-i liczącej 10000 elementów, a s2 = 0,20 oraz wartość akceptowanego $L=0.016, to oszacowana wielkość próby wynosi n — 0,20 0,000256 781,25. Jeżeli wielkość próby okaże się zbyt duża w stosunku do populacji, to należy wprowadzić poprawkę dla populacji nieskończenie dużych. W tym przypadku do 1 dodajemy wartość ułamka n/N. Ostateczna wielkość próby powinna zatem zostać obliczona następująco: n = 1 + (n/N)' gdzieN — wielkość populacji, n — wielkość próby, n' by. W naszym przykładzie, jeżeli N = 10 000, to optymalna wielkość pró- 781>25 n' =--------=L7T-^ = 725. 1 + 781,25 To ooo 213 W praktyce decyzje dotyczące wielkości próby są bardziej złożone. Badacze muszą przede wszystkim zdecydować, jak precyzyjne wyniki chcieliby otrzymać, tj. muszą podjąć decyzję o akceptowalnej wielkości standardowego błędu pomiaru. Po drugie, muszą określić sposób analizy otrzymanych danych. Po trzecie wreszcie, jeżeli badacze analizują jednocześnie więcej niż jedną zmienną, to powinni się upewnić, czy próba, która jest wystarczająca dla jednej zmiennej, będzie również wystarczająca dla innej zmiennej20. ¦ Błędy nielosowe W teorii losowego doboru próby rozważa się błędy wynikające z procedury loso-l wania. Stosując idealny plan losowania, minimalizujemy ten rodzaj błędu. Jest toj błąd wyznaczający różnicę pomiędzy tym, czego się spodziewamy, a tym, co otrzy-j mujemy, stosując określony zbiór procedur. Jeżeli nawet błąd losowy zostaje zminimalizowany, to nadal istnieje wiele innych źródeł błędu (np. błąd pomiaru — por. I rozdział 7). W badaniach sondażowych najbardziej dominującym błędem jest błąd wynikający z braku odpowiedzi. Nieudzielenie odpowiedzi prowadzi do braku danych i jest zazwyczaj spowodowane odmową odpowiedzi, nieobecnością cza przeoczeniem określonych kategorii. Brak odpowiedzi może w istotny sposób ob-1 ciążać otrzymane wyniki. Przypomnijmy sondaż przedwyborczy przeprowadzony przez czasopismo ..Lite-1 rary Digest" w 1936 roku. Prezentując to badanie, omówiliśmy błędy, jakie „Dii gest" popełniło w procesie pobierania próby. Ale „Digest" popełniło później jesł cze inne istotne błędy, opierając swoje szacunki na bardzo niskim procencie udzie-1 lonych odpowiedzi. Opracowując wyniki sondażu, wykorzystano bowiem odpowiedzi, których udzieliło 2,4 miliona osób spośród 10 milionów wylosowanych do próby21. Ten fakt w istotny sposób wpłynął na wyniki, jako że już w trakcie badań I sondażowych okazało się, że wśród osób nie udzielających odpowiedzi przeważał zwolennicy Roosevelta, a wśród osób udzielających odpowiedzi ponad połowa preB ferowała Landona. Ogólnie rzecz biorąc, przyczyny zniekształcenia wyników mogą być nastf-1 pujące: 1. Im większa proporcja osób nie udzielających odpowiedzi, tym większy będziB popełniany błąd. Proporcję udzielonych odpowiedzi możemy obliczyć w następfl jacy sposób: n — r R= 1------------, n gdzie R — proporcja udzielonych odpowiedzi, n — wielkość próby. I tak na przyn kład, jeżeli wielkość próby wynosi 1200 osób i otrzymano 1000 odpowiedzi, topro- 20 Więcej informacji na ten temat można znaleźć w pracy Kisha, Survey Sampling oraz w pracy CA. Mosera, Grahama Kaltona (1972), Survey Methods in Social Investigation, wyd. 2. New York: Basic Books. 21 Freedman i in., Statistics, s. 302-307. 214 porcja otrzymanych odpowiedzi wynosi 1 - (1200 - 1000)/1200 = 0,83, a proporcja braku odpowiedzi wynosi 0,17, czyli 17%. 2. Istotność błędu wynikającego z braku odpowiedzi zależy od zakresu, w jakim średnia populacyjna obliczona w próbie dla warstwy osób nie udzielających^odpowiedzi różni się od średniej obliczonej dla warstwy osób odpowiadających . 3. Każdy z wymienionych niżej powodów nieudzielenia odpowiedzi w inny sposób wpływa na otrzymane wyniki. (Dotyczą one zarówno wyników całego kwestionariusza, jego części, jak i pojedynczych pytań23). ¦ Brak możliwości przeprowadzenia wywiadu: ludzie chorzy, niepiśmienni czy posiadający bariery językowe. ¦ Nieodnalezieni respondenci — osoby, które się przeprowadziły i nie są dostępne, na przykład, z którymi ankieter nie może się umówić na spotkanie. ¦ Nieobecni w domu — osoby nieobecne w domu w momencie przeprowadzania wywiadu, lecz dostępne kiedy indziej. Ich wyniki są dodawane w późniejszym terminie. ¦ Odmowa odpowiedzi — osoby, które odmawiają współpracy lub udzielenia odpowiedzi na wszystkie pytania kwestionariusza. Odmowa odpowiedzi może zależeć od rodzaju zadawanych pytań. Proporcja osób nie udzielających odpowiedzi zależy od takich czynników, jak: rodzaj populacji, metoda zbierania danych, rodzaj zadawanych pytań, umiejętności ankietera i liczba ponawianych kontaktów z respondentem. Zle zaprojektowany i/lub źle przeprowadzony wywiad może dawać wysoką proporcję nie udzielonych odpowiedzi. . „ . Aby oszacować efekt, jaki wywiera brak odpowiedzi, ankieter może zebrać informacje o osobach, które nie udzieliły odpowiedzi, ponownie się z nimi kontaktując. Przypuśćmy, ze z osobami głosującymi w niewielkiej społeczności jest przeprowadzany wywiad po to, aby można było określić, jaka część populacji utożsamia się z tą czy inną partią. Przypuśćmy też, że w badaniach tych proporcja osób, które nie udzieliły odpowiedzi, wynosiła 10%. Wyniki te przyniosą znacznie więcej informacji, jeżeli zostaną wzbogacone o dane na temat wykształcenia czy dochodów osób, które nie udzieliły odpowiedzi. Załóżmy, że 10% oznacza 300 osób głosujących i ze wiemy z innych źródeł, iż 70% spośród nich zarabia około 25 000 rocznie. Jeżeli wiemy również, że 90% ludzi uzyskujących dochody w tym przedziale to demokraci to możemy oszacować, że 189 osób, które nie udzieliły odpowiedzi w naszych badaniach (0,70 x 300 x 0,90 = 189), to prawdopodobnie demokraci. Ponieważ jednak nie możemy obliczyć błędu takiego oszacowania, to — aby poprawić wyniki ze względu na osoby, które nie udzieliły odpowiedzi — tego typu oszacowania można wykorzystywać jedynie wówczas, kiedy procent osób odpowiadających jest stosunkowo niski. HMoser, Kalton, Survey Methods in Social lnvestigation, s. 166-167. u Dennis J. Palumbo (1977), Statistics in Political and Behavioral Science, wyd. popr., New York: Columbia University Press, s. 296. 215 ¦ Podsumowanie 1. W tym rozdziale skoncentrowaliśmy się na zagadnieniu, w jaki sposób można oszacować parametry populacyjne na podstawie statystyk obliczonych w próbie. Aby otrzymać dokładne oszacowania parametrów, badacz musi skutecznie rozwiązać trzy problemy: (1) zdefiniować populację, (2) pobrać próbę reprezentatywni! oraz (3) określić wielkość próby. 2. Populacja powinna zostać zdefiniowana w terminach treści, zakresu i czasu. Próbą jest każdy podzbiór jednostek, z których się składa populacja. Próba może zawierać od jednego elementu do wszystkich elementów z wyjątkiem jednego lub składać się z dowolnej liczby elementów z tego zakresu. 3. Po zdefiniowaniu populacji i określeniu wielkości próby należy wybrać taki schemat doboru próby, który gwarantuje jej reprezentatywność. Próba jest reprezentatywna wtedy, kiedy analizy przeprowadzone na danych z próby dają wyniki równoważne tym, jakie otrzymano by, analizując całą populację. Badacze korzystają z losowych schematów doboru próby najczęściej wtedy, gdy potrafią określić prawdopodobieństwo włączenia każdego elementu populacji do próby. W ramce na stronie 192 przedstawiliśmy podsumowanie czterech podstawowych schematów lo-1 sowania — indywidualnego nieograniczonego, indywidualnego systematycznego. I warstwowego i grupowego. 4. Określenie wielkości próby zależy bezpośrednio od wartości standardowej błędu pomiaru i od szerokości przedziału ufności określonego przez badacza. Pflm dział ufności może być skrajnie wąski, gdy badacz decyduje się na ponoszenie »n sokiego ryzyka popełnienia błędu, lub bardzo szeroki, jeżeli chce, aby ryzyko pf pełnienia błędu było minimalne. 5. W badaniach sondażowych, obok błędu losowania, mamy do czynienia z dem spowodowanym nieudzielaniem odpowiedzi przez respondentów. Brak od] wiedzi może być spowodowany odmową, nieobecnością, przeoczeniem kategi odpowiedzi itp. Brak odpowiedzi może się przyczyniać do popełniania istotni błędu w trakcie analizowania wyników. Jeżeli procent udzielonych odpowiedzi niski, to badacze powinni stosować którąś ze wspomnianych technik rekompem wania. ¦ Podstawowe terminy błąd standardowy 209 losowanie warstwowe 202 błąd wynikający parametr 193 z braku odpowiedzi 214 podstawa doboru próby 195 dobór losowy 198 podzbiór 208 dobór nielosowy 198 populacja 193 jednostka doboru próby 194 próba 193 losowanie grupowe 204 próba reprezentatywna 197 losowanie indywidualne przedział ufności 211 nieograniczone 200 statystyka 193 losowanie systematyczne 202 216 ¦ Pytania sprawdzajgce 1. Dlaczego opisując populację, można korzystać z danych uzyskanych z badania próby? Wymień podstawowe rodzaje prób i podaj przykłady. 2. Czym się różni losowy dobór próby od nielosowego doboru próby? Omów zalety i wady każdego z tych sposobów. Jaki typ problemów społecznych nadaje się do analizowania przy wykorzystaniu jednego i drugiego sposobu pobierania próby? 3. Omów podstawowe rodzaje losowego doboru próby. Omów ich wady i zalety i wyjaśnij, w jaki sposób można pobierać próbę, wykorzystując każdy z tych sposobów. 4. Omów ideę błędu losowania. W jaki sposób — wykorzystując błąd losowania — można kostruować przedziały ufności dla wartości oszacowanych na podstawie danych z próby? Podaj przykład, w jaki sposób te informacje mogą wpłynąć na oczekiwane wyniki sondaży? 5. Jakie czynniki mogą spowodować powstanie nielosowego błędu pomiaru w badaniach sondażowych? ¦ Literatura dodatkowa Brzeziński J. (1997). Metodologia badań psychologicznych, wyd. 2, Warszawa: Wyd. Nauk. PWN. Sieczkowski J. (1995). Metoda reprezentacyjna w badaniach zjawisk ekonomiczno-społecznych, War-cawa-Kraków: Wyd. Nauk. PWN. CZĘSC III ZBIERANIE DANYCH Rozdział 9 Metody obserwacyjne Triangulacja 222 Rola obserwacji 223 Rodzaje zachowań 225 Zachowania niewerbalne 225 Zachowania przestrzenne 225 Zachowania parajęzykowe 226 Zachowania językowe 227 Określanie czasu obserwacji i rejestrowanie danych 227 Wnioskowanie 229 Rodzaje obserwacji 230 Obserwacja kontrolowana 230 Eksperymenty laboratoryjne 230 Realizm eksperymentalny i życiowy 232 Źródła stronniczości w eksperymencie laboratoryjnym 233 Rejestrowanie wyników obserwacji 235 Eksperyment terenowy 235 Podsumowanie 237 Podstawowe terminy 238 Pytania sprawdzające 238 Literatura dodatkowa 239 Zarówno przemysł perfumeryjny, jak i nowa dziedzina zwana aromatoterapią są oparte na założeniu, że ludzie mają pozytywny stosunek do przyjemnych zapachów. Jednakże niewielu zastanawiało się, w jaki sposób zapachy wpływają na nasze uczucia czy działania. Problematyką tą zajęli się Robert Baron i Marna Bronfen1. W swych ostatnich badaniach usiłowali odpowiedzieć na pytanie, czy wprowadzanie przyjemnych zapachów w miejscu pracy przyczynia się do redukowania stresu i tym samym zwiększa wydajność pracowników. Baron i Bronfen stworzyli dwie kontrolowane sytuacje, w których manipulowali zadaniem, zapachem i nagrodą. Badanie to ujawniło dwa problemy metodologiczne, z którymi musi się zetknąć każdy badacz. Po pierwsze, czy w warunkach laboratoryjnych daje się stworzyć realistyczne warunki eksperymentalne, tzn. czy osoby badane spostrzegają sytuację eksperymentalną jako realistyczną i sensowną. I po drugie, czy sytuację eksperymentalną cechuje realizm życiowy. Czy zawiera ona takie elementy, jakie można znaleźć w codziennym życiu? Innymi słowy, jaki jest związek pomiędzy sytuacją laboratoryjną a życiem i czy rodzaj tego związku może wpłynąć na trafność wniosków wyprowadzanych przez badacza? Rozdział ten rozpoczniemy od omówienia czterech sposobów zbierania danych, z jakimi możemy się zetknąć w naukach społecznych, oraz przedstawimy ideę tńangulacji — metody polegającej na wykorzystywaniu danych otrzymywanych w różny sposób w celu przetestowania danej hipotezy. Następnie omówimy, kiedy i jak stosować metodę obserwacji w badaniach społecznych. Dalej przedstawimy rodzaje zachowań, jakie badacze obserwują, oraz zaprezentujemy strategie prowadzenia obserwacji bezpośredniej i sposoby rejestracji otrzymanych danych. Rozdział zakończymy omówieniem obserwacji kontrolowanej prowadzonej w warunkach laboratoryjnych i w terenie. Kiedy już zdecydujemy, co i jak chcemy badać, przechodzimy do etapu zbierania danych. W naukach społecznych dane otrzymujemy, rejestrując wyniki dotyczące badanego zjawiska. Możemy wyróżnić cztery podstawowe metody zbierania danych: techniki obserwacyjne, badania sondażowe, wtórną analizę danych oraz badania jakościowe. Badacze stosują wiele różnych konkretnych metod, gromadząc dane w każdy z tych sposobów. Najbardziej rozpowszechnione metody omówiliśmy w kolejnych rozdziałach. Jednak już teraz chcemy podkreślić, że każdy spośród tych czterech sposobów ma nie tylko swoje unikatowe zalety, lecz także wewnętrzne ograniczenia. I tak na przykład, jeżeli badacz prosi respondenta o wskazanie najbardziej wpływowego członka w swojej grupie pracowniczej (badania sondażowe), to otrzymane dane mogą znacznie odbiegać od danych, jakie uzyskano by z bezpośredniej obserwacji. Przykład ten wskazuje na fakt istnienia pewnej „specyficzności danej metody" w każdym ze sposobów zbierania danych wykorzystywanych Robert A. Baron, Marna I. Bronfen (1994), A Whiff of Reality: Empirical Evidence Concerning iheEffects ofPleasant Fmgrances on Work-Related Behavior, „Journal of Applied Social Psychology", 24. s. 1179-1203. 221 przez naukowców. Dlatego też, gdy tylko to możliwe, korzystają oni z technl triangulacji metod, tzn. stosują więcej niz jeden sposób zbierania danych w cd przetestowania tej samej hipotezy. ¦ Triangulacja W naukach społecznych dane uzyskuje się w sytuacjach sformalizowanych i nil sformalizowanych. Dotyczą one zachowań lub reakcji werbalnych (ustnych lubpi-l semnych) i niewerbalnych. Połączenie dwóch typów sytuacji i dwóch rodzajowi akcji pozwala na wyróżnienie czterech podstawowych metod zbierania danych: ml tod obserwacyjnych, badań sondażowych (wywiady bezpośrednie i badania kw tionariuszowe, tak jak przedstawiono to w rozdziale 10 i 11), wtórną analizę da™ (na przykład analiza istniejących dokumentów omówiona w rozdziale 13) i badani jakościowe (zaprezentowane w rozdziale 12). Na jednym krańcu znajdują się ofl tody stosowane przez badaczy wtedy, gdy są oni zainteresowani badaniem zacni wań niewerbalnych w sytuacjach niesformalizowanych (np. obserwacja uczesał cząca będąca forma badań jakościowych), a na drugim krańcu metody stosowali w badaniu zachowań werbalnych (ustnych lub pisemnych) w sytuacjach sformall zowanych (np. eksperymenty laboratoryjne i kwestionariusze ustrukturowane). I Jak już wspomnieliśmy wcześniej, każda z wymienionych metod zbierania dal nych ma określone zalety, lecz również i wewnętrzne ograniczenia. Na przyklał jeżeli obserwujemy zachowania w trakcie ich trwania (obserwacja bezpośredni* to możemy nie dostrzec przyczyn ich pojawiania się (a te można zidentyfikow na podstawie odpowiedzi udzielonych w ustrukturowanym kwestionariuszu). Podobni* prosząc respondentów, aby nam słownie opowiedzieli o swoich zachowania* (przeprowadzanie wywiadu), nie mamy żadnej gwarancji, że ich rzeczywistej chowanie (poznane na podstawie obserwacji uczestniczącej lub na podstawieistnifl jących zapisów) jest identyczne z zachowaniem deklarowanym. Na przykładw hi daniach, w których celem było określenie trafności odpowiedzi udzielonych przefl matki objęte opieką społeczną na pytania wywiadu dotyczącego głosowania, Canł Weiss stwierdziła: Na pytania dotyczące głosowania i rejestracji 827r matek objętych opie łeczną odpowiedziało dokładnie. Szesnaście procent zgłosiło nie istniejącąB jestrację, a 2% nie podało faktu rzeczywistej rejestracji. Wielkość i kierund zniekształceń odpowiadają tym, jakie zostały stwierdzone w badaniach nad W nością samoopisów zachowań wyborczych, przeprowadzonych na dużych M pulacjach osób należących do klasy średniej2. Istnieje duża rozbieżność pomiędzy zachowaniami werbalnymi ludzi a ich rzeczjl wistymi zachowaniami zarówno w zakresie zachowań wyborczych, jak i innych a chowań. Na wyniki badań wpływa do pewnego stopnia natura zastosowanej meto(| I 2 Carol Weiss (1968), Validity ofWelfare Mother's Intemiew Responses. ..Public Opinion Quartaj ly", 32, s. 622-633. 222 zbierania danych. Wyniki, które w dużej mierze zależą od wykorzystanej metody, mogą się okazać raczej artefaktami (tj. efektami zastosowanej metody analizy danych—por. niżej i rozdział 5) niż faktami empirycznymi. Według Donalda Fiskego: Wiedza w naukach społecznych jest rozdrobniona; składa się z oddzielnych części [...] Odseparowanie czy specyficzność tych części wiedzy jest konsekwencją nie tylko różnych przedmiotów poszukiwań, ale również specyficzności metody. Każda metoda tworzy jedną podstawę poznania, jeden z odróżnialnych sposobów poznania1. Aby zminimalizować stopień wpływu specyficzności określonych metod na konkretne dziedziny wiedzy, badacz może wykorzystać dwie metody zbierania danych do przetestowania tej samej hipotezy. Jest to istota metody triangulacji. I tak na przykład, oprócz ustrukturowanego kwestionariusza można zastosować wywiad głęboki, przeanalizować istniejące dokumenty albo dokonać obserwacji w terenie. Jeżeli dane otrzymane za pomocą różnych metod są stałe, to trafność tych danych zdecydowanie wzrasta. Wykorzystywana jako strategia badawcza, metoda triangulacji pozwala badaczom przezwyciężyć „osobiste uprzedzenia i ograniczenia wynikające z przyjęcia jednej metodologii. Dzięki łączeniu różnych metod w jednym badaniu badacze mogą częściowo pokonać brak dokładności wynikający z zastosowania jednej tylko metody i przeprowadzenia badań tylko przez jednego badacza"4. I Rola obserwacji Nauki społeczne wyrastają z obserwacji. Politycy obserwują między innymi zachowania osób pełniących różne funkcje polityczne; antropolodzy obserwują zachowania rytualne w prostych społecznościach; psychologowie społeczni obserwują interakcje w małych grupach. W pewnym sensie każde badanie w naukach społecznych rozpoczyna się i kończy empiryczną obserwacją. Podstawową zaletą obserwacji jest jej bezpośredniość. Pozwala badaczom na studiowanie zachowań w trakcie ich trwania. Badacz nie musi pytać ludzi o ich własne zachowania i działania innych. Może po prostu obserwować zachowania poszczególnych osób. To z kolei pozwala badaczowi na zbieranie danych bezpośrednich i zapobiega oddziaływaniu czynników stojących pomiędzy nim a przedmiotem badań. Na przykład zaburzenia pamięci mogą istotnie wpłynąć na wypowiedzi ludzi dotyczące ich przeszłych zachowań, podczas gdy w metodzie obserwacji czynnik pamięci nie ma żadnego znaczenia. Co więcej, podczas gdy inne metody zbierania danych mogą wprowadzić element sztuczności do sytuacji badania, to dane zbierane za pomocą obserwacji opisują obserwowane zjawisko tak, jak przebiega ono w naturalnych warun- 1 Donald W. Fiske (1986), Specificity of Method and Knowledge in Social Science, w: Donald W. fisie. Richard A. Shweder (red.), Metalherapy in Social Science, Chicago: University of Chicago Press, $.62. 'Norman K. Denzin (1986), The Research Act: A Theoretical Introduction to Sociological Me-**fe. Englewood Cliffs. N.J.: Prentice-Hall, s. 236. 223 k a c h. Wywiad na przykład jest formą interakcji pomiędzy dwiema osobami. Jako I taki staje się źródłem specyficznych problemów związanych z brakiem zgody col do roli, jaką odgrywa badacz i respondent. W takiej sytuacji respondent może się 1 zachowywać niestandardowo (por. rozdział 10). Zmienne tego typu można wyeli-l minować w badaniach obserwacyjnych, zwłaszcza wtedy, kiedy osoba badana nie I jest świadoma tego, że jest obserwowana, lub kiedy przyzwyczaja się do obserwal torą i nie postrzega go jako intruza. Niektóre badania koncentrują się na tych osobach badanych, które nie potrafił! sformułować odpowiedzi słownej lub nie potrafią sensownie zdawać relacji o sobjB samych. Na przykład w większości badań nad dziećmi badacze powinni stosofl^ metodę obserwacji, ponieważ dziecku trudno jest stosować introspekcję, werbalizł wać i pozostawać aktywnym w długo trwających zadaniach. David Riesman i Jeafl ne Watson w bardzo ciekawych badaniach dotyczących uspołecznienia dziecka pol sługiwali się metodą obserwacji, ponieważ dziecko „nie włada językiem pozwalł jącym na omawianie spotkań towarzyskich, nie zna słów pozwalających opisyw™ strony interakcji inaczej jak »byli dobrzy lub źli« i nie potrafi odpowiedzieć napjfl tanie »Co robisz, aby się zabawić?«5 Badacze mogą również stosować metody obserwacyjne wtedy, kiedy ludzie nie mają ochoty na opisywanie siebie samych za pomocą słów. Obserwacja w porółB naniu z przekazami słownymi wymaga mniejszego zaangażowania osób badanydB Co więcej, dzięki obserwacji badacze mogą określać trafność przekazów słown™ przez porównywanie ich z rzeczywistym zachowaniem. I wreszcie, ponieważ w H daniach obserwacyjnych relacja pomiędzy daną osobą a jej środowiskiem niejea zakłócana, badacz może obserwować wpływ środowiska na badane osoby. To zł ułatwia analizę kontekstualnych podstaw zachowania. Należy pamiętać, że obserwacja może przyjmować wiele postaci. Może < legać na prostym obserwowaniu codziennych doświadczeń, a także może się j giwać tak skomplikowaną aparaturą jak lustro weneckie (jednostronne) czy kai wideo. Ta wielorakość technik sprawia, że obserwacja staje się dogodną metodąd wielu celów badawczych. Badacze stosują metody obserwacyjne w badaniach ( serwacyjnych po to, aby uzyskać dane, które staną się podstawą sformułowanial potez badawczych. Mogą je również wykorzystywać do zbierania dodatkowych d nych pomocnych przy interpretowaniu wyników otrzymanych za pomocą innyi metod lub jako podstawową metodę zbierania danych w badaniach opisowych. Obserwacja zatem jest techniką bardzo zróżnicowaną. Może być przeprowat na w warunkach naturalnych lub w laboratorium, pozwalając na badanie takich z wisk jak schematy uczenia się w rzeczywistych sytuacjach życiowych (np. wl szkolnej czy na boisku) lub w kontrolowanych warunkach eksperymentalnych, nocześnie metody obserwacyjne są bardzo elastyczne. Niektóre zależą jedynie o postępu w badanej dziedzinie. Inne mogą być wysoce specyficzne i operow wcześniej zaprojektowanymi ustrukturowanymi narzędziami dla wąsko ok nych potrzeb. Badacze mogą sami stać się członkami obserwowanej grupy (obi wacja uczestnicząca); mogą być postrzegani jako członkowie grupy, lecz mogąl ograniczać swoją aktywność; mogą przyjąć rolę obserwatora, nie będąc człon 5 David Riesman, Jeanne Watson (1964), The Sociability Project: A Chronicie of Fmstrutimt Achievement, w: Phillip E. Hammond (red.), Sociologist at Work, New York: Basic Books. s. 313. 224 obserwowanej grupy czy wreszcie ich obecność w ogóle może nie być dostrzegana poobserwowane osoby. Tak czy inaczej, jakikolwiek byłby cel badania czy zastosowana metoda obserwacji, badacz musi umieć odpowiedzieć na trzy podstawowe pytania, aby mieć gwarancję, że otrzymane przez niego dane są danymi systematycznymi i sensownymi, tj. musi wiedzieć, co chce obserwować, kiedy obserwować i jak rejestrować dane oraz jaki stopień interpretacji wyników jest wymagany od obserwatora. I Rodzaje zachowań Pierwszym istotnym pytaniem jest pytanie o to, co należy obserwować. Przypuśćmy, że interesujemy się badaniem związków pomiędzy frustracją i agresją i że hipotetycznie zakładamy, iż frustracja prowadzi do agresji. Aby przetestować tę hipotezę, musimy dokonać obserwacji zarówno zjawiska agresji, jak i frustracji. Aby obserwacja taka była możliwa, musimy wcześniej sformułować jasne i wyraźne definicje operacyjne tych dwóch zmiennych. Pomiar tych zmiennych może obejmować zachowania niewerbalne, przestrzenne, parajęzykowe i językowe6. Zachowania niewerbalne Zachowania niewerbalne to „ruchy ciała wykonywane przez organizm" i „będące ekspresją motoryczną [...] inicjowaną przez różne części ciała"7. Mimika twarzy na przykład wyraża emocje takie, jak: strach, zdumienie, gniew, niesmak czy smutek. Zachowania niewerbalne są intensywnie analizowane w naukach społecznych iokazaty się trafnym wskaźnikiem procesów społecznych, politycznych i psychologicznych. Zdaniem Paula Ekmana obserwowanie zachowań niewerbalnych pozwala uzyskać dane, które można wykorzystać do „potwierdzania, zaprzeczania lub zastępowania przekazów słownych, jak też do uwypuklania określonych słów, do podtrzymywania kanału komunikacji, odzwierciedlania zmian w powiązaniach pomiędzy konkretnymi przekazami słownymi i określania odczuć danej osoby w stosunku do wypowiedzianych przez nią słów"8. Dlatego badacze często analizują zachowania niewerbalne jako sposób na określanie trafności innych wypowiedzi udzielonych przez respondentów w sytuacjach badawczych. Zachowania przestrzenne Zachowania przestrzenne to działania jednostki zmierzające do strukturahzacji przestrzeni, która ją otacza. Na przykład ludzie podchodzą lub odsuwają się od innych osób czy obiektów; utrzymują małą lub dużą odległość. Zakres, częstość i re- 'Przykład ten pochodzi z pracy Karla E. Weicka (1985), Systematic Obsewational Methods, w: Ganlner Lindzey. Elliot Aronson (red.), The Handbook ofSocial Psychology, wyd. 3, New York: Random House. 'Paul Ekman (1957), A Methodologlcal Discussion ofNonverbal Behavior, .Journal of Psycholo- U 14. 136. 8 Paul Ekman (1965), Communication through Nonverbal Behavior: A Source of Information aboM herpersonal Relationship, w: Silvan S. Tomkins, Caroll E. Izard (red.), Affect, Cognition, and Perso-iialil>-, New York-. Springer, s. 441; Pau\ Ekman, W. Eńesen (\969), The Repertoire oj Nonverbal Be-mior: Categories, Origins, U sagę and Coding, „Semiotica", 1, s. 1-20. 225 zultaty takich ruchów dostarczają danych istotnych do realizacji wielu celów bada# czych. Naruszenie naszej przestrzeni osobistej powoduje, że czujemy napięcie i 1( Psychologiczne oznaki stresu to szybsza reakcja galwaniczna skóry, wzrost tętn i ciśnienia krwi9. Badacze uważają te reakcje za wskaźniki kulturowo zorientowł nych norm społecznych i włączają je w badania dotyczące zachowań interpersoi nych występujących w różnych warunkach fizycznych, np. w tłumie. Na przykład można określić różne sposoby wykorzystywania przestrzeni ofl czającej ludzi w trakcie nawiązywania przez nich kontaktów z innymi osobami. Ka^ kultura tworzy niepisany kodeks postępowania regulujący to, jak blisko dni| osoby możemy się znaleźć. Mieszkańcy Ameryki Południowej tworzą mniejs przestrzeń niż na przykład mieszkańcy Ameryki Północnej, Niemiec czy Ang| Zróżnicowanie kulturowe przestrzeni osobistej może mieć istotne znaczenie dla ki turowo heterogenicznych społeczeństw czy miast. Osoba niemieckiego pochodź nia może czuć się niezręcznie, wchodząc w interakcję z mieszkańcem Ameryki Bj łudniowej ze względu na trudności w określeniu satysfakcjonującej przestrzeni terpersonalnej między nimi. Może dojść do nieporozumień między nimi, ponic jeden drugiego może postrzegać jako osobę niegrzeczną. W rzeczywistości ol próbują ustalić właściwą przestrzeń, która dałaby się zaakceptować z punktu wi nia ich kultur. Co więcej, normy dotyczące przestrzeni osobistej mogą być zróżnicowane w ramach jednej kultury. Aiello i Thompson ustalili na przykład, w młodszym wieku czarni wchodzą w bliższe interakcje niż biali. Z kolei doi czarni zachowują większy dystans niż dorośli biali10. Zachowania parajęzykowe Słowa oraz kontekst językowy to tylko niewielki fragment dającego się obsen wać zachowania. Pozatreściowe aspekty zachowania takie, jak: szybkość mów nia, głośność, tendencja do przerywania, specyficzne akcentowanie stanowią isto ne źródło danych, określane generalnie jako dodatkowe zachowania werbalne 1 zachowania parajęzykowe. Aktualnie stosowany termin „język ciała" odnosił zasadniczo do tego samego zjawiska. Naukowcy w wielu badaniach udokumentowali znaczenie parajęzyka w zacbi waniu ludzi. Na przykład parametry głosu takie jak wysokość są dobrą miarą s nów emocjonalnych". Z kolei przeciętny czas trwania spontanicznej mowy \ra wraz ze wzrostem wielkości grupy12. Częstość przerywania odzwierciedla różi w poczuciu własnej siły. Ludzie wyrażają emocje bierne takie jak smutek, mów wolno, ciszej i niżej, emocje czynne zaś mówiąc szybciej, głośniej i wyżej, kłady te są jedynie ilustracją możliwości wykorzystania zachowań parajęzykow do analizowania zachowania ludzi. Wskazują na potencjalną istotność tego ty chowania dla wielu celów badań społecznych. 9 S. Worchel, C. Teddlie (1976), The Experience of Crowding: A Two-Factor Theory. Joui Personality and Social Psychology", 34, s. 30-40. 10 A.J. Aiello, E.D. Thompson (1980), Personal Space, Crowding, and Spatial Behavior inaC tural Context, w: I. Altman i in. (red.), Humań Behavior and Environment, New York: Plenum I 1' William F. Soskin, Paul E. Kauffman (1961), Judgement ofEmotion in Word-free Voice i „Journal of Communication", 11, s. 73-80. 12 William F. Soskin, John P. Vera (1963), The Study of Spontaneous Talk, w: Roger C. (red.), The Stream of Humań Behavior, Norwalk Conn.: Appleton & Lang. 226 Zachowania językowe Zachowania językowe odnoszą się do obserwowanej treści wypowiedzi i różnorodnych właściwości komunikacji werbalnej. Badanie tych właściwości jest istotne zpunktu widzenia wielu celów badawczych. Badacze szeroko wykorzystywali mia-ty zachowań werbalnych, szczególnie w badaniach nad interakcjami społecznymi. Robert Bales na przykład opracował znany system kodowania procesów interakcji zachodzących w grupie pracującej nad rozwiązaniem określonych problemów. System Balesa, tzw. analiza procesu interakcji (API) składa się z 12 typów niezależnych zachowań, które można wykorzystywać do kodowania i analizowania interakcji wewnątrz grupy (por. przykład 9.1). Osoby badające kultury polityczne mogą lównież wykorzystywać zachowania językowe do analizowania zarówno stylów przewodzenia, jak i różnych subkultur. Rodzaje zachowań ¦ Zachowania niewerbalne: ruchy ciała takie jak wyraz twarzy. ¦ Zachowania przestrzenne: zabiegi podejmowane przez ludzi, a dotyczące strukturowania przestrzeni, która ich otacza, takie jak kontrolowanie wielkości przestrzeni osobistej. ¦ Zachowania parajęzykowe: formalne aspekty mowy takie, jak szybkość mówienia czy tendencja do przerywania. ¦ Zachowania językowe: treść mowy i strukturalne charakterystyki mówienia. I Określanie czasu obserwacji i rejestrowanie danych Dmgie podstawowe pytanie dotyczące badań obserwacyjnych dotyczy określania czasu obserwacji oraz sposobu rejestrowania danych obserwacyjnych. Nie można oczywiście przeprowadzić niezliczonej liczby obserwacji — badacz musi określić, kiedy ma dokonać obserwacji. Jednym z możliwych rozwiązań tego problemu jest przestrzeganie czasowego terminarza dokonywania obserwacji. Tworzenie takie-goterminarza polega na wybieraniu jednostek obserwacji w różnym czasie. Technika ta zapewnia reprezentatywność działań, które mają ciągły charakter. Aby z kolei zagwarantować reprezentatywność określonej populacji zachowań, badacz określa jednostki obserwacji w sposób systematyczny. Na przykład dokonując podziału próby ze względu na dzień tygodnia i godzinę dnia, badacz może dokonywać obserwacji w czasie losowo wybranych 15 minut w każdej godzinie. Inną użyteczną procedurą jest losowanie jednostek, znane też jako rejestrowanie próbek zachowań. W tym przypadku badacz wybiera jedną jednostkę i rejestruje wszystkie zachowania i zdarzenia dotyczące tej jednostki. Na przykład może wybrać jedno dziecko i zarejestrować wszystkie przypadki agresji fizycznej pomiędzy tym dzieckiem i innymi dziećmi w klasie, w określonym przedziale czasu. W każdych kolejnych 30 minutach zostanie wybrane i będzie obserwowane inne dziecko. Pełen zbiór zebranych danych będzie odzwierciedlał zachowanie wszystkich dzieci w klasie. 227 Przykład 9.1 API — kodowanie kategorii o 5 E >> S •* o. - fi fil 1. Okazuje solidarność, podkreśla czyjąś pozycję, udziela pomocy, nagradza. 2. Rozładowuje napięcie, żartuje, śmieje się, okazuje zadowolenie. 3. Zgadza się, okazuje bierną akceptację, okazuje zrozumienie, podziela zdanie innych, podporządkowuje się. 4. Udziela wskazówek, wskazuje kierunek rozwiązania, zgadzając się na autonomiczne postępowanie innych osób. 5. Wyraża opinie, ocenia, analizuje, wyraża uczucia, życzenia. 6. Przekazuje wiadomości, informuje, powtarza, wyjaśnia, potwierdza. 1 -•a S a 5 C S °- fi •2, u S S E >> V m 8 g o _* a, - = c D 7. Prosi o wskazówki, informację, powtórzenie, potwierdzenie. o. Prosi o opinię, ocenę, analizę, wyraża uczucia. 9. Prosi o wytyczne, pokazanie kierunku, wskazanie ewentualnych sposobów postępowania. 10. Nie zgadza się, odrzuca w sposób bierny, formalizuje, odmawia pomocy. 11. Okazuje napięcie, prosi o pomoc, usuwa się. 12. Przejawia antagonizm, podważa pozycję innej osoby, broni się lub domaga dla siebie uznania. Klucz: a. Zagadnienia związane z orientacją d. Zagadnienia związane z decyzją b. Zagadnienia związane z oceną e. Zagadnienia związane z napięciem c. Zagadnienia związane z kontrolą f. Zagadnienia związane z integracją Na podstawie: Robert F. Bales (1976). Interaction Process Analysis, Unwersity of Chicago Press; za zgodą University of Chicago hfl Tworząc czasowy terminarz dokonywania obserwacji, badacz musi jednoczesna opracować system kodowania, który będzie wykorzystywany przy rejestrowaniu obserwacji. Aby przełożyć zachowania o charakterze ciągłym na zbiór danych mających charakter ilościowy i dających się wyrazić w postaci liczbowej, badacz mmi najpierw pokategoryzować dane i przyporządkować każdej kategorii odpowiedni 228 kod. Taki system kodowania można skonstruować, stosując albo podejście dedukcyjne, albo podejście indukcyjne. Stosując podejście dedukcyjne, badacz rozpoczy-| na od sformułowania definicji pojęciowej, określa wskaźniki obserwowanego zachowania, a następnie dokonuje standaryzacji i walidacji tak powstałego narzędzia. W tym podejściu badacz przyporządkowuje obserwacje do wcześniej zdefiniowanych kategorii w czasie dokonywania obserwacji. Z kolei przeciwnie, podejście indukcyjne wymaga, aby na pierwszym etapie zbierania danych badacz określił wskaźniki i odsunął formułowanie definicji do czasu zidentyfikowania schematu czy wzorca. Każde podejście jest na swój sposób ryzykowne. W podejściu dedukcyjnym trudno przewidzieć, czy sformułowana definicja pojęciowa jest precyzyjna. Z drugiej strony, podejście indukcyjne (empiryczne) stwarza trudności w interpretowaniu zebranych obserwacji (por. rozdział 14). Dobrym sposobem zmniejszenia takich kłopotów jest połączenie tych dwóch podejść. Zdaniem Karla Weicka: idealny porządek zdarzeń powinien wyglądać następująco: obserwator rozpoczyna od podejścia empirycznego, zbiera obszerne dane dotyczące zdarzeń naturalnych, z danych tych wyprowadza określone pojęcia, a następnie dokonuje kolejnej obserwacji, bardziej specyficznej i wprost dotyczącej wyprowadzonych pojęć13. Niezależnie od tego, czy badacz wykorzystuje podejście dedukcyjne czy indukcyjne, kategorie, do których badacz zalicza swoje obserwacje, muszą spełniać określone kryteria. Skonstruowany system kategoryzowania musi: ograniczać obserwacje do jednego segmentu lub aspektu [...] zachowania i tworzyć taki skończony zbiór kategorii, aby każda obserwacja mogła zostać zaklasyfikowana do jednej i tylko jednej kategorii14. Mówiąc krótko, kategorie muszą być wyraźne, wyczerpujące i wzajemnie rozłączne. Szersze omówienie problemu kategoryzowania czytelnik znajdzie w rozdziale 14). I Wnioskowanie Trzecie podstawowe pytanie dotyczące ustrukturowanych badań owacyjnych dowozy zakresu interpretacji wymaganej od obserwatora. Większość danych zebranych za pomocą obserwacji wymaga interpretacji. Badacz obserwujący określone działanie czy zachowanie musi przetworzyć zebrane obserwacje i wyciągnąć wnioski, czy zachowanie to jest wskaźnikiem określonej zmiennej. Niektóre systemy obserwacji wymagają niewielkiego stopnia interpretacji, na przykład rejestrowanie bezpośrednich aktów zachowania takich, jak: „zadaje pytanie", „sugeruje kierunek działania", „przerywa innemu członkowi grupy". Wiele zachowań jednakże wymaga większego stopnia interpretacji. Załóżmy, że badacz obserwuje zachowanie osoby dorosłej, która bije dziecko. Musi on dokonać wyboru, czy zachowanie to odzwier- "Wekk, SystematicObservationalMethods, s. 102. "Donald M. Medley. Harold E. Mitzel (1963), Measuring Classroorn ^'»&TT °".* " L w: Nathaniel L. Gage (red.), Handbook of Research on Teaching, Skolae, 111, Rand McNally, s. 298. 229 ciedla „agresję", „zachowanie agresywne", „wrogość", „przemoc" czy jakąś iii zmienną. Trafność wyciąganych wniosków zależy w ogromnym stopniu od kompd tencji obserwatora. Zakładając, że pozostałe warunki pozostają takie same, dobffl przygotowany obserwator wyprowadzi prawdopodobnie bardziej rzetelne wniosl Aby zwiększyć rzetelność wnioskowania, badacze opracowują specjalne progfll my ćwiczące umiejętność obserwania w różnych sytuacjach badawczych. Zazwi czaj taki progam rozpoczyna się od wyłożenia teorii i hipotez badawczych sforrai łowanych w ramach danego problemu oraz rodzaju kategorii i systemu kodowani skonstruowanych po to, aby można było rejestrować obserwacje. Kiedy osoB szkolone potrafią już tworzyć pytania, ćwiczą one zastosowanie systemu kategon w rzeczywistych sytuacjach życiowych. Dopiero po takim cyklu szkolenia osoby te mogą przystąpić do rzeczywistego zbierania danych. ¦ Rodzaje obserwacji Biorąc pod uwagę zakres, w jakim decyzje dotyczące zachowania, określania czał obserwacji, sposobu rejestrowania i wnioskowania są systematycznie podejmowana wyróżniamy obserwację kontrolowaną i nie kontrolowaną. Obserwację kontrolo! waną charakteryzują jasne i wyraźne decyzje dotyczące tego, co, gdzie i kiedy ni być obserwowane. Dla obserwacji nie kontrolowanej natomiast charakterystyce jest znacznie mniejsza systematyczność i większa płynność. W wypadku obserwacl kontrolowanej punkty czasowe są zazwyczaj określane, zanim rozpocznie się obsei wację. W wypadku obserwacji nie kontrolowanej zaś takie punkty czasowe są rzadko wyznaczane. Wybór pomiędzy obserwacją kontrolowaną i nie kontrolowaną zależ! w dużej mierze od problemu badawczego i przyjętego schematu badania, tj. badacze I stosują częściej obserwację kontrolowaną wraz z planami eksperymentalnymi, rza-l dziej natomiast w wypadku planów preeksperymentalnych i badań jakościowydi W tym rozdziale omówimy systemy obserwacji kontrolowanej, natomiast systenfl obserwacji nie kontrolowanej (badania jakościowe) przedstawimy w rozdziale Ul ¦ Obserwacja kontrolowana Obserwację kontrolowaną można przeprowadzić zarówno w laboratorium, ja i podczas badań terenowych. W obu sytuacjach badacz — wykorzystując którysl / licznych planów eksperymentalnych i rejestrując dane z obserwacji —chciaM wnioskować o związkach przyczynowo-skutkowych, maksymalizując przy tjfl kontrolowanie zmiennych zewnętrznych i wewnętrznych. U Eksperymenty laboratoryjne Eksperyment laboratoryjny stanowi najbardziej kontrolowaną metodę zbierania ¦ nych w naukach społecznych. Polega on na tworzeniu takich warunków sytuacji warunków laboratoryjnych, które mogą być regulowane pr/e/ badacza, tj. nastwol rżeniu kontrolowanej sytuacji badawczej. Warunki laboratoryjne pozwalają nał 230 miłowanie określonych cech środowiska naturalnego oraz na manipulowanie jednym lub więcej elementami (zmiennymi niezależnymi) po to, aby obserwować po- wstsły efekt Eksperyment Solomona Ascha nad wpływem grupy jest klasycznym przykładem eksperymentu laboratoryjnego. Celem Ascha było zbadanie, jakie czynniki społeczne i osobowościowe sprawiają, że jednostka poddaje się lub stawia opór naciskowi grupy w sytuacji, w której zachowanie grupy jest sprzeczne z faktami. Asch wypracował procedurę umieszczania danej osoby w sytuacji skrajnego braku zgody z rówieśnikami. Opracował tez metodę pomiaru powstających relacji pomiędzy tymi osobami. W jednym z eksperymentów zadaniem ośmiu osób było porównanie długości danej linii z trzema innymi liniami o nierównej długości, a następnie głośne wypowiedzenie własnej oceny. W jednym z testów badana osoba zderzała się nagle? przeciwnym zdaniem pozostałych siedmiu osób, które Asch wcześniej poinstruował, aby udzielały odpowiedzi niezgodnych z prawdą. Błąd większości byt oczywisty i wahał się w zakresie od 1/2 cala do 1 i 3/4 cala. Ósma osoba badana znalazła się zatem w sytuacji, w której cała grupa jedno-myślnie przeciwstawiała się temu, co ta osoba widziała. Osoba ta, określana jako osoba te s to w a. była rzeczywistym obiektem badań. Asch wykorzystywał również srupę kontrolną, w której błędy popełniane przez większość w sytuacji ekspe-rymentalnej były wprowadzane w innym porządku. Jednym z interesujących wyników tego eksperymentu było wyraźne przesunięcie się osób badanych w kierunku większości w grupie eksperymentalnej: Jedna trzecia wszystkich ocen [dokonanych przez osoby testowe] w grupie eksperymentalnej była błędna i identyczna lub zgodna z kierunkiem nieprawidłowych ocen podawanych przez większość. Wynik ten nabiera szczególnego znaczenia w świetle zaobserwowanego braku błędów w grupie kontrolnej . Eksperyment Ascha jest dobrym przykładem korzyści, jakie daje eksperyment laboratoryjny: pozwala na dokładną kontrolę czynników zewnętrznych i wewnętrznych i dostarcza wyraźnych dowodów na rzecz związków przyczynowo-¦skutkowych. Asch wyeliminował efekty oddziaływania wielu zmiennych, które mogłyby spowodować, ze osoby testowe poddawały się lub opierały naciskowi grupy. W ten sposób zwiększył prawdopodobieństwo tego, że obserwowane różnice zostały spowodowane przez zmiany celowo wprowadzone w procedurze eksperymentalnej. Co więcej, Asch mógł w sposób jednoznaczny okreshc, coj^Powodowa-loprzesuniecie opinii osób testowych w kierunku opinii większości, pon ewaz oso bikie kontrolował i manipulował zmienną niezależną tj ™d™°™°™^™ z grupy, które przedtem poinformował, kiedy mają udzielać ^^^ ~ powiedzi. 1 dalej, Asch różnicował postępowanie ^™nt*ln^2 Lk tematyczny, poprzez precyzyjne definiowane ważnych rożnie. Wreszcie^ Asch skonsLwał eksperyment w taki sposób, który pozwolił mu na ^^ryw^ efektu spowodowanego postępowaniem eksperymentalnym: osoby testowe musiały - So,omon E. Asch (.958), Effects of Group Pressure upon ^f^^^J^ L w: Eleanor Maccoby. Theodore Newcomb, Eugen Hartley (red.), Readmgs m Socud Psychology, New York: Rinehart i Winston. s. 177. 231 głośno podać swoje oceny. Zmuszone do podania własnej opinii i zajmując pozycję vis-a-vis swoich rówieśników, osoby testowe nie mogły uniknąć dylematu stworzonego przez sytuację eksperymentalną. Złożoność eksperymentu Ascha może służyć jedynie jako skromna ilustracjij możliwości, jakie stwarza eksperyment. Eksperymenty laboratoryjne, w zależności od problemu badawczego i pomysłowości badacza, rzeczywiście różnią się złoża nością i planami postępowania. Badacze muszą opracować zbiór procedur dobra oddających ich sposób konceptualizacji problemu badawczego, a także pozwalających na przetestowanie sformułowanych hipotez. Ten wymóg z kolei wymusza* wencję w tworzeniu narzędzi pomiarowych oraz konieczność określania sposobu oddziaływania narzędzia na zachowania uczestników eksperymentu. Innymi słów eksperymentator musi skonstruować taką sytuację, w której manipulowanie zmiel nymi niezależnymi staje się sensowne, a otrzymane wyniki są trafne i rzetelne. Realizm eksperymentalny i życiowy Ponieważ sytuacja laboratoryjna nie odzwierciedla rzeczywistej sytuacji życiowa można zadać pytanie o znaczenie sytuacji kreowanej w eksperymencie laboratora nym. W eksperymencie Ascha osoby testowe postawione naprzeciwko swoich ¦ wieśników dokonywały, poza wszystkim, oceny wyraźnego, fizycznie istniejącej zadania (ocena długości linii). W codziennym życiu jednakże sytuacja, w którejjH dnoznaczne informacje płynące z naszych zmysłów zostaną skonfrontowane z jefl nomyślną, odmienną opinią równieśników, jest mało prawdopodobna. Ten problem sprawił, że naukowcy rozróżniają dwa znaczenia nadawane pojęcil realizmu sytuacji eksperymentalnej16. W pierwszym znaczeniu eksperyment jestfl alistyczny, jeżeli sytuacja eksperymentalna jest traktowana przez uczestników eka perymentu jako rzeczywista, tzn. jeżeli ich angażuje i na nich oddziałuje. Tenł d/aj realizmu jest zazwyczaj określany jako realizm eksperymentalny*. WekspB rymencie Ascha osoby testowe przejawiały oznaki napięcia i lęku. Reagowały ¦ sytuację tak, jak gdyby była ona dla nich tak rzeczywista jak każde wydarzeniepł za laboratorium. Drugie znaczenie pojęcia „realizm" jest związane z zakresem, w jakim zdarzenia zachodzące w sytuacji laboratoryjnej zachodzą w rzeczywistym życiu. Ten typił alizmu nazywa się realizmem życiowym. Eksperyment, który cechuje wysokił alizm życiowy i niski realizm eksperymentalny, nie musi koniecznie dawać ba dziej znaczących wyników niż eksperyment, który cechuje niski realizm życiwB i wysoki realizm eksperymentalny. Gdyby Asch obserwował oddziaływania inter-l personalne w życiu rzeczywistym, prawdopodobnie sytuacja badawcza nie pozwł lałaby na obserwowanie nacisku grupy na jednostkę w takiej czystej postaci, fl więcej, gdybyśmy nawet założyli, że taką sytuację można stworzyć, to ze względB na to, że badacz nie mógłby kontrolować wpływu czynników zewnętrznych i wfl * Zamiast terminu „realizm eksperymentalny" Aronson wprowadził termin „realizm psychologio-ny". Por. E. Aronson, T.D. Wilson, R.M. Akert (1997), Psychologia społeczna. Serce i umysł, PoznB Zysk i S-ka Wydawnictwo, s. 63 (przyp. red. nauk.). 16 Przedstawiona argumentacja została oparta na pracy Elliota Aronsona, Marilynn B. BreweriJi mesa Carlsmitha (1985), Experimentation in Social Psychology, w: Gardner Lindzey, Elliot AroM (red.), Handbook of Social Psychology, wyd. 3, New York: Random House, s. 481-483. 232 iiętrznych, otrzymane wyniki byłyby niejasne i niekonkluzywne. Dlatego też bacz, starając się stworzyć dwa typy realistycznych warunków, wywołuje w ramach lacji eksperymentalnej efekty mające większe znaczenie i tym samym zwiększa iiość wewnętrzną eksperymentu. —dła stronniczości w eksperymencie laboratoryjnym Eksperymenty laboratoryjne, niezależnie od zalet, mają też określone ograniczenia. Można je podzielić na trzy grupy: stronniczość wynikającą ze wskazówek sugerujących, zawartych w samej sytuacji eksperymentalnej, stronniczość wynikającą z nieintencjonalnych wpływów eksperymentatora oraz artefakty pomiarowe. (Wskazówki sugerujące. Ze stronniczością, której źródłem są wskazówki sugerujące, zawarte w sytuacji eksperymentalnej, mamy do czynienia wówczas, kiedy osoby badane zdają sobie sprawę, że znajdują się w sytuacji eksperymentalnej, są świadome, że są obserwowane, i sądzą, że oczekuje się od nich określonych reakcji. Tym samym mogą one reagować bezpośrednio na inne czynniki niż manipulacja E' erymentalna. Ich reakcje mogą odzwierciedlać to, jakie zachowania — ich iem — ma w zamierzeniu wywołać manipulacja eksperymentalna. Nawet wte-7,bdy eksperymentator zapewnia, że nie ma dobrych i złych reakcji, osoby badane mogą nadal sądzić, że oczekuje się od nich określonych zachowań i starać się spełnić te oczekiwania17. Osoby badane mogą również rozszyfrować hipotezę badawczą i zareagować tak, by zadowolić eksperymentatora. Jednym ze sposobów przeciwdziałania tak rozumianej stronniczości jest stworzenie sytuacji eksperymentalnej, w której osoba badana ma mniejszą świadomość, że jest obserwowana. Inną strategią jest omówienie z osobami badanymi ogólnych, zamiast szczegółowych, celów badawczych. Istotą tej metody jest stworzenie warunków, w których osoba badana chcąca modyfikować swoje zachowanie, aby wesprzeć albo zaprzeczyć hipotezie badawczej, nie wpływała w sposób systematyczny na wyniki badania dotyczące prawdziwej hipotezy badawczej18. Stronniczość eksperymentatora. Zachowanie eksperymentatora, które nie jest zamierzoną manipulacją eksperymentalną, a które tak czy inaczej wpływa na osoby badane, określa się jako stronniczość eksperymentatora lub efekt oczekiwań eksperymentatora. Eksperymentator może bowiem w sposób niezamierzony przekazywać swoje oczekiwania co do zachowania osób badanych, ujawniając na przykład oznaki napięcia czy ulgi lub potakując, kiedy padnie odpowiedź. Robert Rosenthal i jego zespół stwierdzili, że gdy ośmiu na dwunastu eksperymentatorów posługujących się tą samą metodyką otrzymało stronnicze dane od pierwszych dwóch osób badanych (współpracujących z Rosenthalem i jego zespołem), to dane te wpłynęły na wyniki zebrane później od prawdziwych osób badanych. Czterej eksperymentatorzy, którzy od pierwszych dwóch osób badanych otrzymali dane potwierdzające ich hipotezę, otrzymali od nic nie wiedzących osób badanych, udzie- " M.T. Orne (1969), Demand Characteristics and the Concept ofQuasi-controls, w: Robert Rosen-thal. R.L. Rosnow (red.). Artifacts in BehavioraI Research, Orlando, Fla.: Academic Press. 11 Petne omówienie metod redukujących stronniczość można znaleźć w pracy Aronsona i in., Ex- pirimentation in Social Psychology. 233 r łających odpowiedzi w dalszej kolejności, dane jeszcze silniej potwierdzające tę ¦ potezę. Natomiast czterej eksperymentatorzy, którzy od podstawionych osób badanych otrzymali dane nie potwierdzające ich hipotezy, otrzymali od nic nie wiedzących osób badanych dane, które jeszcze bardziej nie potwierdzały tej hipotea Z kolei porównawcza grupa eksperymentatorów, którzy testowali wyłącznie nic nie wiedzące osoby badane, otrzymała wyniki mieszczące się pomiędzy wynikami otrzymanymi przez poprzednie dwie grupy. Dlatego autorzy tych badań wyciągni wniosek, że pierwsze wyniki stronniczo wpływają na otrzymywane później dana Stronniczość eksperymentora jest zatem wynikiem motywacji badaczy. Posługując się magnetofonem, kamerą telewizyjną czy innymi zautomatyzowani mi technikami w celu zminimalizowania interakcji pomiędzy eksperymentatorem i osobami badanymi, można wyeliminować przekazywanie oczekiwań i w ten spon zminimalizować niezamierzoną stronniczość eksperymentatora. Można również laguj dzić efekty stronniczości, wykorzystując eksperymentatorów mających różne oczekiwania co do wyników badań. W jednym z projektów badawczych włączono oczekiwania dotyczące efektów manipulowania zmiennymi w schemat eksperymentalii Badacze oceniali wówczas, czy ich własne, różne oczekiwania dawały w efekcie różne wyniki20. Innym zalecanym postępowaniem pozwalającym zredukować stroi niczość eksperymentatora jest wykorzystywanie więcej niż jednej osoby obserwują* czy zbierającej wyniki. Technika ta zmniejsza efekty oddziaływania cech osobowo* badacza, jego cech fizycznych i subtelnych różnic w traktowaniu osób badanychl Trzy źródła stronniczości w badaniach eksperymentalnych ¦ Wskazówki sugerujące: wtedy, kiedy osoba badana wie, że uczestniczy w eksperymencie i stara się zareagować w sposób, jakiego, jej zdaniem, eksperymentator oczekuje. ¦ Stronniczość eksperymentatora: wtedy, kiedy eksperymentator niezamie-rzenie przekazuje swoje oczekiwania osobom badanym. ¦ Artefakty pomiarowe: stosowane procedury pomiarowe mogą być dla osób badanych źródłem wskazówek dotyczących tego, o co właściwie chodzi w eksperymencie. Instrumenty pomiarowe takie, jak kamera czy arkusze testowe również mogą uwrażliwić osoby badane i spowodować efekt stronniczości. Artefakty pomiarowe. Pomiar jest decydującą częścią postępowania badawczega W eksperymencie laboratoryjnym, w którym efekty oddziaływania zmiennej niezaj leżnej mogą być niewielkie, krótkie i czułe, niezbędne jest dokonanie precyzyjnej! 19 Robert Rosenthal i in. (1963), The Effects ofEarly Data Returns on Data Subsequently ObUÓm by Outcome-biased Experimenters, „Sociometry", 26, s. 487-493. 20 J. Merrill Carlsmith, Barry E. Collins, Robert L. Helmreich (1966), Studies in Forced ComplĄ ce: I. The Effect of Pressure for Compliance on Attitude Change Produced by Face-to-Face RolePIm ing and Anonymous Essay Writing, „Journal of Personality and Social Psychology", 4, s. 1-13. 234 Lr, Co więcej, procedury pomiarowe nie są mezalezne ^^™*Z ^stepowania badawczego. Procedury pormarowe mogą ^°^^T^h Serpretacje danych, ponieważ mogą być źródłem wskazówek "P^^g^ eksperymentu, co sprawia, ze osoby badane mają mozhwosc wywarcia pożądanego "niety pomiarowe same mogą być uwrażliwiające w tympensieże mogą zmieniać mierzone zjawisko. Na przykład, jeżeli badacze ^^^JJ "^erę do rejestrowania danych, to osoby badane mogą się zachowywać ™^2VlTn2-a zmiennych niezależnych, zanim upłynie T^^S^L^^S Sm wpłynąć na zmienną zależną, lub po tym, jak ich efekt ^^^^ samym ukrywając ich rzeczywisty efekt. W swoim J"™^™*^™^-landi jego zespół stwierdzili, ze skompromitowani ™w%™J^TailTte-miast na przekonania swoich słuchaczy, natomiast istotny efekt by zauważany piero miesiąc później, jeśli słuchacze nie przypomnieli sobie zrodła . Rejestrowanie wyników obserwacji reiestro- Przedstawiona wyżej dyskusja powinna uwrażliwić nas na ^^nTslt^y-warna wyników obserwacji. Obserwacje przeprowadzane w laboratormm są zapisy wane natychmiast, w trakcie sesji eksperymentalnej. ^^^1^1 to co sie działo często wykorzystuje się pomoce mechaniczne takie, jak kamera id SySra Siwi magnetofon i telewizja. Następnie= wyodrębmo^e jednostki obserwacji klasyfikuje się zgodnie z dobrze ^^^^T^^Z. syftkacyjnym, takim jak na przykład przedstawiony na rycin e ™-™^™L nemo następować w trakcie sesji eksperymentalnej, jeżeli sy tern zapsywam danvch został wcześniej przygotowany i przetestowany. ^^^^^0 gotowanym systemem zapisywania i odpowiednio trenując ^^Sorów Lmum ograniczamy stopień niezbędnej interpretacji ze strony obserwatorów. I Eksperyment terenowy Podstawowa różnicą pomiędzy eksperymentem ^^W™*^™^ terenowym jest - odwołując się do samych terminów - rodzą^ ^acJi ekspery ^ mentalnej. W eksperymencie laboratoryjnym badacz }™Wj™^™^^ w sytuac i, która symuluje określone cechy środowisk a naftimtaega Jymczas we sperymencie terenowym, ze względu na to, ze badanie odbywaj^J° wisku naturalnym, badacz manipuluje jedną lub więcej zm ennymi meza ezny w warunkach, które są na tyle kontrolowane, na ile ^^^JJZLi,-schematu badawczego różnica}V^^^lX^^^^^ mi terenowymi nie jest ostra (por. rozdział 5). lrudnosci , i ¦ u««W H Kellev (1953), Communication and Persuation, New :l Carl I. Hovland, Irving/L. Jams, Harold H. Reney u*-«* Haven. Conn.: Yale UnWersity Press. 235 ków wewnętrznych i zwłaszcza czynników zewnętrznych są jednak zdecydowanie większe w przypadku eksperymentów terenowych. Ciekawym przykładem eksperymentu terenowego jest często cytowane badanie przeprowadzone przez Piliavina, Rodin i Piliavin nad zachowaniami nastawionymi na pomaganie innym — altruizmem22. Autorzy ci przeprowadzili eksperyment te-1 renowy, aby zbadać wpływ wielu zmiennych na zachowania nastawione na pomaganie innym, traktując pociągi ekspresowe linii New York Eight Avenue Independent Subway jako laboratorium na kółkach. Cztery zespoły studentów, składające się z ofiary, osoby modelującej i dwóch obserwatorów, inscenizowały standardowe sytuacje zasłabnięcia, różniące się typem ofiary (chora lub pijana), rasą ofiary (czarna lub biała) i obecnością lub nieobecnością osoby modelującej. Zebrane dane doty-l czyły liczby i rasy przypadkowych świadków, chęci do niesienia pomocy (lub odroczenia takiej reakcji), rasy osoby pomagającej, liczby osób pomagających, opusz-1 czania „krytycznego obszaru" i spontanicznych komentarzy. Na rycinie 9.1 zilust-1 rowaliśmy sytuacje aranżowane w tym eksperymencie terenowym. obserwator 2 -. połączenie | wagonów obszar sąsiedni drzwi wyjściowe obszar krytyczny drzwi wyjściowe obserwator 1 drzwi wyjściowe drzwi wyjściowe drzwi do następnego wagonu przedział dla obsługi pociągu Ryc. 9.1. Plan eksperymentu terenowego Badacze otrzymali następujące wyniki: (1) osoba wyraźnie chora ma większe szanse otrzymania pomocy niż osoba, która wydaje się pijana; (2) rasa ofiary miała niewielki wpływ na rasę osoby pomagającej, z wyjątkiem sytuacji, kiedy ofiara była pijana; (3) mężczyźni zdecydowanie chętniej udzielali pomocy niż kobiety: (4) im dłużej, bez zaoferowania pomocy, trwała sytuacja niebezpieczna, tym bardziej było prawdopodobne, że ktoś po prostu opuści obszar niebezpieczeństwa. W tym badaniu badacze wykorzystywali głównie metodę obserwacji systematycznej w sytuacji naturalnych zdarzeń. Eksperymentatorzy nie kontrolowali sytuacji. a w celu zbadania zachowań przypadkowych świadków i sprawdzenia, czy są one nastawione na pomaganie innym w szerokim kontekście nie kontrolowanej sytuacji występującej w pociągu, wprowadzili systematyczne zróżnicowanie, tj. różne zachowanie osób współpracujących w tworzeniu eksperymentu. Badacze prowadzący eksperymentalne badania terenowe mogą zatem tworzyć 22 Irving M. Piliavin, Judith Rodin, Jane Allyn Piliavin (1969), Good Samaritanism: An Unda* ground Phenomenon?, „Journal of Personality and Social Psychology", 13, s. 289-299. 236 różne sytuacje eksperymentalne, a także wprowadzać zróżnicowanie eksperymentalne do naturalnie dziejących się sytuacji. W drugim wypadku badacze nie manipulują bezpośrednio zmienną niezależną, ale raczej — odwołując się do badanego pojęcia teoretycznego — określają bodźce odzwierciedlające to pojęcie w sytuacji naturalnych zdarzeń. Jak podkreślaliśmy wcześniej, podstawową zaletą eksperymentów terenowych jest to, że umożliwiają one badanie złożonych interakcji, procesów i zmian w naturalnym otoczeniu. Ich podstawowa słabość dotyczy problemu kontroli: eksperymentatorzy nie mogą kontrolować wewnętrznych i zewnętrznych źródeł trafności w tak systematyczny sposób jak w eksperymencie laboratoryjnym. Poważnym problemem jest tez samowybieranie się osób badanych i powszechny brak możliwości zastosowania techniki randomizacji. Często jako jeden ze sposobów określania wpływu zmiennych nie kontrolowanych przeprowadza się badanie pilotażowe. Badanie pilotażowe pozwala badaczowi upewnić się, że osoby badane nie różnią się w sposób systematyczny ze względu na jakiś istotny czynnik inny niż ich reakcja w badanym procesie przyczynowo-skutkowym23. W eksperymentach terenowych istotne też są zagadnienia natury etycznej. Czy jest rzeczą etyczną stawianie niewinnych, przypadkowych świadków w sytuacji, w której ktoś słabnie i wydaje się poważnie chory? W eksperymencie laboratoryjnym prawa jego uczestników są zagwarantowane przez wyrażenie przez nich zgody i udzielenie informacji po zakończeniu eksperymentu: osoby badane są świadome tego. ze biorą udział w eksperymencie. Nawet wtedy, kiedy osoby badane biorące udziat w eksperymencie nie mają żadnych informacji o celach eksperymentu, wiedzą, że zostaną o nim poinformowane po zakończeniu badań. W eksperymencie terenowym osoby często nie są świadome tego, że biorą udział w badaniu. W takich sytuacjach obowiązkiem badacza jest upewnienie się, że dobra osobiste osoby, która stalą się uczestnikiem badania, nie zostały naruszone i że nie będzie się ona czuła zakłopotana i zestresowana. (Sposoby ochrony dóbr osobistych i zapewnienia poufności omówiliśmy w rozdziale 4). I Podsumowanie 1. Obserwacja jest uważana za prototypową metodę stosowaną w naukach społecznych. Jeżeli chcemy zrozumieć, wyjaśnić i przewidzieć to, co istnieje, możemy to po prostu obserwować. Jeżeli jednak nasze wyniki mają być systematyczne, to obserwacja musi zostać przeprowadzona tak, aby spełnione zostały trzy zasadnicze jej warunki: musimy odpowiedzieć na pytanie, co chcemy obserwować, gdzie i kiedy chcemy obserwować i jaki stopień interpretacji wyników wymagany jest od obserwatora. 2. Problem badawczy wymaga, po pierwsze i przede wszystkim, określenia, jakie zachowanie ma być obserwowane: niewerbalne, przestrzenne, parajęzykowe czy językowe. 3. Sposób prowadzenia obserwacji jest podstawowym zagadnieniem problemu 23 Opis innych metod wykorzystywanych w celu minimalizowania problemu obniżenia trafności można znaleźć u Aronsona i in., Experimentation in Social Psychology. 237 badawczego i planu badawczego. Gdy celem badań jest eksperymentalne sprawdzenie hipotezy badawczej, jednostki obserwacji są wyraźnie definiowalne. Sytuacja badawcza jest ustalona — laboratorium lub badania w terenie. Czas obserwacji zo-1 staje określony, a dokonywane obserwacje są systematycznie rejestrowane. Zastosowane procedury powinny wymagać tylko tyle interpretacji, ile to niezbędne. Przykładem takiej procedury jest obserwacja kontrolowana. Rejestrując i kategoryzując dokonane obserwacje, badacze stosują metodę triangulacji, tj. posługują siei dwiema lub więcej metodami zbierania danych dotyczących tego samego zjawiska, I aby zwiększyć trafność otrzymanych wyników. 4. Użytecznym rozróżnieniem jest podział na realizm eksperymentalny — stopień, w jakim sytuacja eksperymentalna jest traktowana przez osoby badane jako rzeczywista, oraz realizm życiowy — stopień podobieństwa sytuacji eksperymen-1 talnej do świata rzeczywistego. W badaniach eksperymentalnych możemy się spot-1 kać z systematyczną stronniczością, która może być wynikiem wskazówek sugeni- j jących, stronniczości eksperymentatora lub artefaktów pomiarowych. 5. Eksperyment terenowy jest wyzwaniem dla badaczy ze względu na trudności j związane z kontrolowaniem sytuacji eksperymentalnej (środowiska naturalnego| doborem osób badanych i manipulowaniem zmienną niezależną. Podstawow problemem są zagadnienia natury etycznej, jako że osoby badane nie są świadom tego, że biorą udział w eksperymencie. Podstawowe terminy artefakty pomiarowe 234 czasowy terminarz 227 eksperyment terenowy 235 losowanie jednostek 227 obserwacja kontrolowana 230 obserwacja nie kontrolowana 230 realizm eksperymentalny 232 realizm życiowy 232 stronniczość eksperymentatora 233 triangulacja 222 wskazówki sugerujące 233 zachowania językowe 227 zachowania niewerbalne 225 zachowania parajęzykowe 226 zachowania przestrzenne 225 Pytania sprawdzajqce 1. Dlaczego badacze wybierają metodę triangulacji? Czy triangulacja jest ważniejsza w kontrolowanej sytuacji badawczej czy w badaniach terenowych?! 2. Wymień różne cele badawcze i dostosuj do nich — właściwe twoim zdaniem — formy obserwacji. Uzasadnij swój wybór. 3. Opisz podstawowe techniki określania czasu obserwacji i rejestrowania j wyników. 4. Omów zalety i wady eksperymentu laboratoryjnego i eksperymentu terem wego jako sposobów na przeprowadzanie obserwacji. 5. Omów korzyści i wady eksperymentu terenowego. 238 I Literatura dodatkowa AronsonE., Wilson T.D., Akert R.M. (1997), Psychologia społeczna. Serce i umysł, Poznań: Zysk i S-ka | Wyd. Mayntz R.. Holm K., Hubner P. (1985), Wprowadzenie do metod socjologii empirycznej, Warszawa: PWN. OmeM.T. (1991), Eksperyment psychologiczny z punktu widzenia psychologii społecznej ze szczególnym uwzględnieniem wpływu zmiennych sugerujących hipotezę i ich implikacji, w: J. Brzeziński, J. Siuta (red.), Społeczny kontekst badań psychologicznych i pedagogicznych. Wybór tekstów, Poznań: Wyd. Nauk. UAM. OmeM.T. (1993), Komunikowanie się w sytuacji eksperymentalnej: dlaczego jest istotne, jak jest oceniane i jakie ma znaczenie dla trafności ekologicznej, w: J. Brzeziński (red.), Psychologiczne i psy-chometryczne problemy diagnostyki psychologicznej, Poznań: Wyd. Nauk. UAM. Rosemhal R. (1991), O społecznej psychologii samospetniającego się proroctwa. Dalsze dane potwierdzające istnienie efektów Pigmaliona i mechanizmów pośredniczących w ich występowaniu, w: I. Brzeziński, J. Siuta (red.), Społeczny kontekst badań psychologicznych i pedagogicznych. Wybór tekstów, Poznań: Wyd. Nauk. UAM. Rosemhal R. (1991), Oczekiwania interpersonalne. Skutki przyjętej przez badacza hipotezy, w: J. Brzeziński, J. Siuta (red.), Społeczny kontekst badań psychologicznych i pedagogicznych. Wybór tekstów, Poznań: Wyd. Nauk. UAM. SzustrowaT. (red.) (1987), Swobodne techniki diagnostyczne. Wywiad i obserwacja, Warszawa: Wyd. UW. Rozdział 10 Badania sondażowe Ankiety pocztowe 242 Zalety ankiety pocztowej 242 Wady ankiety pocztowej 242 Czynniki wpływające na odsetek odpowiedzi w badaniach pocztowych 244 Ocena odsetka odpowiedzi 248 Wywiad osobisty 249 Wywiad według ustrukturowanego planu 249 Wywiad zogniskowany 251 Wywiad nieukierunkowany 251 Wywiad osobisty a ankieta pocztowa 254 Zalety wywiadu osobistego 254 Wady wywiadu osobistego 254 Zasady prowadzenia wywiadu 256 Sondowanie 257 Wywiad telefoniczny 258 Porównanie trzech metod prowadzenia badań sondażowych Wnioski 262 Podsumowanie 263 Podstawowe terminy 264 Pytania sprawdzające 264 E-mail (poczta elektroniczna) staje się coraz popularniejszą metodą komunikowanm się stron posiadających dostęp do komputera wyposażonego w modem. Informacje i wiadomości przesyłane za pomocą poczty elektronicznej docierają do adresata wciągu kilku minut zamiast dni, jak to się dzieje w wypadku konwencjonalnej poczty, a jej użytkownicy mogą — po rozsądnych kosztach — przesyłać ^ puk. o dużej objętości. Badacze szukający nowych metod prowadzenia badan sondażowych mogą w najbliższym czasie potraktować e-ma,l jako alternatywę dla tradycyjnej poczty i telefonicznych badań sondażowych. Profesor Samuel Brown z uniwersytetu w Fordham przeanalizował możliwości wykorzystania e-mailu jako metody zbierania danych w badaniach sondażowych . Wystał, przyjąwszy przybrane nazwisko i przedstawiając się jako student poszukujący informacji dla potrzeb pracy seminaryjnej, wiadomość skierowaną do 150 subskrybentów e-ma.lowych mieszkających w Abilene, w stanie Teksas. I chociaż wybrał Abilene po prostu dlatego, że miasto to znajdowało się na czele alfabetycznej listy miast, to Brown opisał je jako miasto „idealne i poprosił jego mieszkańców o wyrażenie opinii na jego temat. Brown był nieco zaskoczony reakcją na przesłaną przez siebie wiadomość. Niektórzy z potencjalnych respondentów skontaktowali się bowiem z lokalną gazetą, aby przekazać informację, ze Abilene zostało uznane za idealne miasto. Kiedy gazeta sprawdziła wiarygodność badacza, okazało się, że taki student w ogóle nie istnieje i Brown został rozszyfrowany. Brown ogłosił, że - tak czy inaczej - otrzymał JU odpowiedzi na postawione pytanie i ma zamiar namówić swoich studentów socjologii do przeprowadzenia e-mailowych badań sondażowych. W tym rozdziale omówimy zalety i wady tradycyjnych metod przeprowadzania badań sondażowych. Po przeczytaniu tego rozdziału czytelnik powinien przeanalizować zalety i wady poczty elektronicznej jako metody zbierania danych. ?D adacze prowadzący badania w ramach nauk społecznych mogą wykorzystać D którąś spośród trzech metod zbierania danych sondażowych: ankietę pocztową, wywiad bezpośredni i wywiad telefoniczny. W tym rozdziale przeanalizujemy działania, jakie należy podjąć, prowadząc trzy różne rodzaje badan sondażowych oraz omówimy zalety i wady każdego z nich. Zakończymy porównaniem tych metod Zbieranie danych za pomocą metody obserwacji jest możliwe wówczas kiedy badane zjawisko jest bezpośrednio obserwowalne. Nie wszystkie zjawiska jednak można bezpośrednio obserwować: bardzo często badacze muszą zbierać dane, pytając ludzi mających określone doświadczenia o odtworzenie tych doświadczeń. Fa-miętając o ograniczeniach budżetu i możliwościach zespołu badawczego, badacz musi określić metodę zbierania danych, która dostarczy mu możliwie pełnych, odpowiedzi udzielonych przez osoby, w stosunku do których można założyć, ze mają interesujące nas doświadczenia. Odpowiedzi tworzą zbiór danych wykorzystywanych jako podstawa weryfikowania hipotez badawczych. ' Richard Perez-Pena (1994), ProfessorS Plan Blackfires: E-Mail Project Was Hoax, „New York Times". Juty 11, s. B2. 241 ¦ Ankiety pocztowe Ankieta pocztowa jest metodą zbierania danych bez pośrednictwa ankietera. W pewnych warunkach i dla określonych celów badawczych może się ona okazać użyteczna. Jak w przypadku każdej metody ankieta pocztowa ma i wady. i zalety. Zalety ankiety pocztowej 1. Niski koszt. Ekonomia jest jedną z najbardziej oczywistych zalet ankiet poj cztowych. Ankieta pocztowa nie wymaga bowiem wyszkolonego zespołu ankieterów. Jej koszty ograniczają się do kosztów planowania, doboru próby, powielania. wysyłania i dostarczenia kopert zwrotnych opatrzonych znaczkiem pocztowym, Przetwarzanie i analizowanie danych jest również zazwyczaj łatwiejsze i tańsze niż w innych metodach stosowanych w badaniach sondażowych. Niższe koszty badań za pomocą ankiety pocztowej są szczególnie wyraźne wtedy, gdy badana populacja jest rozproszona na dużym obszarze geograficznym. W takich warunkach koszty i przeprowadzenia wywiadów bezpośrednich byłyby wygórowane, a ankieta pocztowa wydaje się tu jedynym rozsądnym rozwiązaniem. 2. Obniżenie błędu stronniczości. Posługiwanie się ankietą pocztową obniża błąd stronniczości, którego źródłem mogą być indywidualne cechy ankieterfł i zróżnicowanie ich umiejętności. Sytuacja wywiadu bezpośredniego jest najeżona niebezpieczeństwami stronniczego zbierania danych, wynikającego z charakteru™ terakcji pomiędzy ankieterem i respondentem. Można uniknąć tych pułapek, stosfl jąc właśnie ankietę pocztową. 3. Większa anonimowość. Nieobecność ankietera również przyczynia się dd zwiększenia poczucia przez respondenta anonimowości. Gwarancja anonimowo™ jaką daje ankieta pocztowa, jest szczególnie ważna, gdy pytania sondażowe dotm kwestii drażliwych, takich jak na przykład zachowania seksualne czy molestował dzieci. Badane osoby chętniej odpowiadają na pytania drażliwe, gdy nie musząpł rżeć w oczy ankieterowi czy bezpośrednio komuś odpowiadać. 4. Udzielanie przemyślanych odpowiedzi i możliwość konsultacji. Ankieta! pocztowa jest również preferowaną metodą zbierania danych wtedy, gdy udzielona I odpowiedź powinna być raczej przemyślana (a nie natychmiastowa) lub gdy udzfl lenie odpowiedzi wymaga odwołania się do dokumentów osobistych lub przep™ wadzenia konsultacji z innymi osobami. 5. Dostępność. Ankieta pocztowa umożliwia przeprowadzenie badań na szerokim obszarze geograficznym po minimalnych kosztach. Kiedy badania sondażoł wymagają zbadania populacji rozproszonej na dużym obszarze geograficzny™ przeprowadzenie wywiadu osobistego wymagałoby wysokich opłat za koszty fH droży i pochłonęłoby dużo czasu. Wady ankiety pocztowej 1. Wymaga prostych pytań. Badacze mogą stosować ankietę pocztową jtll narzędzie zbierania danych jedynie wtedy, gdy pytania są na tyle prosto formulB wane, że mogą być zrozumiane jedynie na podstawie wydrukowanej instrukcji i ofl jaśnień. 2. Brak możliwości sondowania. Odpowiedzi muszą być traktowane jako I ostateczne. Badacz nie ma żadnej możliwości sondowania osoby badanej, zanial 242 * me padnie ostateczna odpowiedź, wyjaśniania odpowiedzi niejasnych czy oceny zachowania niewerbalnego. 3. Utrata kontroli nad tym, kto udziela odpowiedzi. Badacz nie ma możliwości kontrolowania środowiska respondenta. Stąd nie może być pewny, że ankietę wypełniała właściwa osoba. Ankietę mógł bowiem wypełnić ktoś inny niż wytypowany respondent. 4. Niski odsetek odpowiedzi. Ostatnią wadą ankiet pocztowych — i prawdopodobnie najpoważniejszym problemem —jest trudność w uzyskaniu odpowiednio wysokiego odsetka odpowiedzi. Odsetek odpowiedzi to procent respondentów w próbie, którzy zwrócili wypełnione ankiety. W wypadku wielu badań pocztowych uzyskany odsetek odpowiedzi jest znacznie niższy niż przy wywiadach osobistych. Typowy odsetek odpowiedzi w wywiadach osobistych wynosi około 95%, podczas gdy w badaniach pocztowych waha się w granicach od 20 do 40%. Badacze, którzy posługują się ankietą pocztową, muszą niemal zawsze zmierzyć się zproblemem oszacowania wpływu braku odpowiedzi na końcowe wyniki. (Odsetek odpowiedzi odgrywa istotną rolę wtedy, kiedy chcemy uogólniać wyniki — por. rozdział 19). Osoby, które nie udzieliły odpowiedzi, są zazwyczaj inne niż osoby udzielające odpowiedzi. Często są to osoby gorzej wykształcone, mające kłopoty ze zrozumieniem pytań, osoby starsze, nie potrafiące sformułować odpowiedzi lub osoby bardzo ruchliwe, które trudno jest zlokalizować. Tym samym grupa respondentów nie jest dobrą reprezentacją zdefiniowanej wyjściowo przez badacza populacji. Jest to z całą pewnością źródłem stronniczości badania. Zalety i wady ankiety pocztowej Zalety ¦ Niskie koszty w porównaniu z innymi metodami. ¦ Obniżenie błędu wynikającego ze stronniczego wpływu cech ankietera lub stosowanych przez niego technik. ¦ Ankiety zapewniają respondentom wysoki stopień anonimowości. Jest to szczególnie ważne w wypadku pytań dotyczących drażliwych tematów. ¦ Respondenci mają czas, aby się zastanowić nad odpowiedzią i odwołać do innych źródeł. ¦ Ankiety pozwalają na zbadanie, po niskich kosztach, prób osób rozproszonych na dużym obszarze geograficznym. Wady ¦ Ankieta wymaga prostych, łatwo zrozumiałych pytań i czytelnych instrukcji. ¦ Ankieta nie zapewnia badaczom możliwości sondowania respondentów, aby uzyskać dodatkowe informacje lub wyjaśnić odpowiedź. ¦ Badacze nie mogą kontrolować, kto wypełnia ankietę. ¦ Odsetek odpowiedzi jest niski. 243 Czynniki wpływające na odsetek odpowiedzi w badaniach pocztowych Badacze stosują liczne strategie pozwalające przezwyciężyć trudności w zapewnie-H niu sobie odpowiedniego odsetka odpowiedzi w ankietach pocztowych, a także po-1 zwalające zwiększyć odsetek odpowiedzi. Sponsoring. Sponsorowanie badań ankietowych wywiera istotny wpływ na respon-1 dentów, często motywując ich do wypełnienia ankiety. Dlatego badacze powinni I umieszczać informacje o sponsorze, najlepiej w postaci listu dołączonego do ankiet™ Sponsorowanie wpływa na odsetek odpowiedzi, gdyż przekonuje respondentów o\(m galnosci badań i ich wartości oraz wpływa na spostrzegane przez nich sankcje z pol wodu nieudzielenia odpowiedzi. I tak na przykład w USA Bureau of the Censi« (Główny Urząd Statystyczny) odnotował aż 95% odpowiedzi w badaniach dotyczjł cych zdrowia Amerykanów (National Health Interview Survey), gdyż badania te byljfl sponsorowane przez rząd — co gwarantowało legalność i sugerowało sankcje -a sam problem zdrowia jest ważny dla opinii publicznej. Z drugiej strony można wskazać na badania, w których odsetek odpowiedzi nie przekraczał 5c/c2. Generalnie rzecz biorąc, ankiety sponsorowane przez rząd dają znacznie większy odsetek odpowiedzi niż ankiety rozsyłane przez mało znane organizacje handlowe. Zachęcanie do odpowiadania. Badacze, którzy wykorzystują ankietę pocztowi muszą przekonywać respondentów, że powinni oni uczestniczyć w badaniach przez wypełnienie ankiety i jej zwrot. Można zastosować kilka metod. Metody te różnią się stopniem skuteczności. Jedną z nich jest odwoływanie się do dobrej woli li spondentów i informowanie, że badacz potrzebuje ich pomocy. Na przykład studeł prowadzący badania do pracy seminaryjnej może wspomnieć, że jego stopień zależy od odpowiedzi udzielonych w ankiecie3. Inną, szeroko stosowaną metodą jest oferowanie respondentom nagrody w postał ci upominku lub pewnej kwoty pieniędzy. Oferując pieniądze, można jednak spotj kać się z oburzeniem ze strony niektórych respondentów, którzy mogą sądzić, a ich czas jest tak mało wart dla badacza, iż mogą w ogóle nie udzielić odpowiedzij Najczęściej jednak respondenci traktują nagrodę jako symboliczny gest i wspótpnj cują, ponieważ uważają, że badanie jest tego warte. Jeszcze inną zachętą jest dołączanie do ankiety listu od profesjonalnych instytucja w którym popierają one prowadzone badania, a także zamieszczanie ogłoszeń o puN likacji wyników badań w profesjonalnych wydawnictwach. Jednakże najbardziej skul teczną strategią jest —jak się wydaje — odwoływanie się do altruistycznych postał respondentów i przekonywanie ich o znaczeniu prowadzonych badań. Poniżej zamiej szczamy przykład listu, który został dołączony do ankiety i w którym jego autaj podkreślał wagę badań i potencjalny wkład respondenta do ich powodzenia: Jak Państwo wiedzą, przyjmowanie do pracy w służbach publicznych jest jednym z elementów strategii władz federalnych, stanowych i lokalnych; strategii, Floyd J. Fowler, Jr. (1989), Suryey Research Methods, Newbury Park, Calif.: Sagę, s. 4 Kenneth D. Bailey (1987), Methods of Social Research, New York: Free Press, s. 156. Ibidem, s. 157. 244 której celem jest rozwiązanie problemu zatrudnienia i dochodów osób bezrobotnych, znajdujących się w ekonomicznie niekorzystnej sytuacji. Nie ma wątpliwości, że taki program powinien być wdrożony w całym kraju [...] Prawdopodobnie są Państwo również świadomi tego, że program przyjmowania do pracy w służbach publicznych budzi kontrowersje i że jego dalsze losy są zagrożone. Jedną z przyczyn, dla których program ten okazał się tak kontrowersyjny, jest brak systematycznych badań nad jego korzyściami, zarówno dla konkretnych osób, jak i dla społeczeństwa. Ze względu na to, że taka ocena ma ogromne znaczenie dla Państwa, zwracam się z prośbą, aby poświęcili Państwo tej ankiecie należytą uwagę i z góry dziękuję za współpracę5. Wygląd ankiety i sposoby jej wysyłania. Projektowanie ankiety pocztowej wymaga podjęcia wielu decyzji dotyczących rodzaju druku, koloru, długości oraz rodzaju listu towarzyszącego. Większe nakłady poświęcone na wygląd ankiety i rodzaj druku Inp. papier wysokiej jakości) zwrócą się w postaci wyższego odsetka odpowiedzi. Nie zaleca się stosowania nietypowej kolorystyki, ponieważ może to wywołać negatywny efekt6. List towarzyszący. Kolejnym czynnikiem, jaki należy wziąć pod uwagę przy projektowaniu ankiety, jest list towarzyszący. List towarzyszący musi odnieść pożądany skutek w przekonywaniu respondentów, że powinni wypełnić ankietę i ją odesłać. Powinien zatem zawierać dane identyfikujące sponsora, wyjaśnić cel badań, przekonać respondenta do powodów, dla których powinien wypełnić ankietę oraz zapewnić goocałkowitej anonimowości zebranych danych. Badacz wybiera list formalny lub osobisty. Badania wykazały, że osobista forma listu przyczynia się do uzyskania większego odsetka odpowiedzi, niż obserwuje się to w przypadku listu formalnego. Sposób wysyłania. Ważna jest decyzja dotycząca sposobu wysłania ankiety. Ankiety, do których nie dołączono kopert zwrotnych, wracają bardzo rzadko.Trudno bowiem oczekiwać od respondenta, że nie tylko wypełni ankietę, ale jeszcze znajdzie kopertę i pójdzie na pocztę, aby kupić i nakleić na niego znaczek. Dlatego rutynowo dołącza się do ankiety własnoręcznie zaadresowaną kopertę z naklejonym znaczkiem. (Koperta wyglądająca jak oficjalne pismo urzędowe zmniejsza odsetek odpowiedzi). Czas wysyłania. Czas wysyłania okazał się również czynnikiem wpływającym na odsetek odpowiedzi. I tak na przykład, ponieważ latem i w okresie wakacyjnym odsetek odpowiedzi jest mniejszy, nie zaleca się wysyłania ankiet w tym czasie. Metoda kompletnego planu. Ostatnio badacze zwiększają ilość zebranych danych w badaniach pocztowych, stosując tzw. metodę kompletnego planu (TDM — total design method). Jest to zbiór wystandaryzowanych, kolejno realizo- Mickey L. Burnim (1978), An Evaluation of the Public Sernice Employment Projects in Florida Created under Tille VI of the Comprehensive Employment and Training Act of 1973, Tallahassee: Florida Department of Community Affairs, s. 164. 'Pamela L. Arleck, Robert B. Settle (1985), The Survey Research Handbook, Homewood. 111.: Irwin. 245 wanych procedur7, które można podzielić na dwie grupy: konstruowanie kwestio-1 nariusza i wdrażanie badania. Zasady obowiązujące przy konstruowaniu kwestionariuszy metodą TDM don czą zwracania szczególnej uwagi na takie szczegóły, jak: wygląd zewnętrzny kol perty zawierającej ankietę, wygląd pierwszej strony ankiety, porządek pytań. Bada-1 cze stosujący metodę TDM starają się uczynić wszystko, aby koperta zawierającB ankietę wyróżniała się spośród poczty „śmieciowej" (reklamowej). Procedura TDM dotycząca wdrażania badania polega przede wszystkim na prm pominaniu. Najbardziej popularną metodą przypominania jest wysyłanie przypS minającej pocztówki do tych respondentów, którzy nie odpowiedzieli w ciągu pieni I szego tygodnia po wysłaniu ankiety. Następnie, pod koniec trzeciego tygodni I wysyła się drugi list przypominający i nowy egzemplarz ankiety wraz z kopertą zwid ną. Po siedmiu tygodniach do wszystkich respondentów, którzy się jeszcze nie zwali, można wysłać kolejny list — najlepiej polecony — z nowym egzempl ankiety. Skuteczność metody przypominania przetestowano na dużej próbie, reprezen tywnej dla populacji czterech stanów. W tabeli 10.1 przedstawiono średnie i skumulowane odsetki odpowiedzi otrzymane na końcu każdego etapu procedury pi pominania. Otrzymane wyniki wskazują na istotność procedury wieloetapow przypominania. Widać wyraźnie, że każdy kolejny etap — przy bardzo racjo nym rozłożeniu kosztów — zwiększa istotnie odsetek odpowiedzi. Kartki poc we, najtańszy sposób przypominania, są wysyłane do największej liczby osób.I' polecone, najdroższy sposób wysyłki, są rozsyłane do najmniejszej liczby o I rzeczywiście „dysponując rozbudowaną metodologią badań pocztowych, pozwala w sposób stały zapewnić sobie wysoki odsetek odpowiedzi, niewielką li bę zwrotów można wyjaśnić tylko tak, jak się wyjaśnia nieadekwatny wybór czy wybór złej statystyki"8. Ostatnio pojawiły się też dane na temat specyficzn znaczenia korzystania z listów poleconych9. Konieczność podpisania dowodu d czenia przesyłki może być odbierana przez respondentów jako forma przym a gdy respondent musi pójść na pocztę, aby odebrać ankietę, jego koszty cz~" i pieniężne mogą być jeszcze większe. Dlatego jako alternatywną formę prz mnienia można zastosować przypomnienie telefoniczne, które tak samo skutec zmniejsza liczbę braku odpowiedzi jak list polecony. Chociaż metoda przypominania jest ważnym mechanizmem zwiększania odpowiedzi, stwarza jednak wiele problemów. Po pierwsze, ponieważ listy p minające i ankiety wysyła się jedynie do tych respondentów, którzy nie odpo dzieli, trzeba zidentyfikować wszystkich respondentów, a zatem anonimowość dania nie może być zachowana. Można obejść tę trudność, zapewniając respo tów, że ich odpowiedzi będą ściśle poufne. Innym ograniczeniem jest to, że 7 Donald A. Dillman (1983), Mail and Other Self-administered Questionnaires, w: Peter H. James D. Wright, Andy B. Anderson (red.), Handbook of Sumey Research, Orlando, Ha.: A Press; Anton J. Nederhof (1988), Effects of a Finał Telephone Reminder and Questionnaire Co sign in Mail Sumey s, „Social Science Research", 17, s. 353-361. 8 Donald A. Dillman, James A. Christensen, Edward H. Carpenter, Ralph M. Brooks (197 creasing Mail Questionnaire Response: A Four-State Comparison, „American Sociological R 39, s. 755. 9 Nederhof, Effects, s. 354. 246 wiedzi otrzymywane po kolejnych przypomnieniach są gorszej jakości. Istnieje duże prawdopodobieństwo, że osoby, które nie odpowiedziały za pierwszym razem, mogą podejść do badania mniej poważnie i zwrócić niekompletnie wypełnioną ankietę, czy też ich odpowiedzi mogą być nierzetelne. Można oszacować to źródło bledu. porównując odpowiedzi osób, które odpowiedziały natychmiast., z odpowiedziami osób, które zwróciły ankietę po jednym lub po kilku kolejnych przypomnieniach1". Tabela 10.1. Średnie i skumulowane odsetki odpowiedzi otrzymane po czterech turach wysyłki kwestionariusza Wysyłka Czas Średni Skumulowany odsetek odsetek odpowiedzi odpowiedzi [%] [*] 23,8 23,8 18,2 42,0 17,0 59,0 13,4 72,4 1. Pierwsza wysyłka tydzień 1 -.Przypomnienie za pomocą kartki pocztowej tydzień 2 3. Pierwsza powtórna wysyłka kwestionariusza tydzień 3 4. Druga powtórna wysyłka kwestionariusza tydzień 7 Napodstawie pracy Donalda A. Dillmana. Jamesa A. Chrislensena, Edwarda H. Carpentera. Ralpha M. Brooksa (1974), lncreasing Mail ifitilionnaire Response: A Four-State Comparison, „American Sociological Review", 39, s. 755; oraz pracy Donalda A. Dillmana, D.E. M(x>rj 11983). lmpro\inf> Response Ratę to Mail Suneys: Results from Five Surveys, przedstawionej na zjeździe American Association tor Public Opinion Research, Hershey. Pa. Dobór respondentów. Dobór respondentów jest w dużej mierze wyznaczony naturą badania i charakterystycznymi cechami populacji. Badacz, chcąc zwiększyć odsetek odpowiedzi, dobierając respondentów, nie może zrobić wiele więcej, jak zdefiniować populację. Pewne cechy przyszłych respondentów są jednak powiązane z niskim odsetkiem odpowiedzi. Pamiętając o tym, można jednak zdecydować, czy w ogóle warto rozpoczynać badania za pomocą ankiet pocztowych, czy też warto zastosować inne techniki zwiększające odsetek odpowiedzi. Najbardziej istotnym parametrem, jaki badacz powinien wziąć pod uwagę przy doborze respondentów, jest homogeniczność lub heterogeniczność badanej grupy. Grupa heterogeniczna składa się z osób, które różnią się między sobą w określony sposób, co może wpłynąć na badane zjawisko. Na przykład grupa heterogeniczna może się składać z osób o różnym pochodzeniu etnicznym, różnej rasie, dochodach czy mieszkających na obszarach miejskich lub wiejskich. Grupy homogeniczne natomiast składają się z osób o podobnych cechach. Grupy heterogeniczne są zazwyczaj wykorzystywane w badaniach opinii wyborczych, podczas gdy w badaniach bardziej wyspecjalizowanych ankiety kieruje się do wybranych grup osób, na przykład lekarzy, prawników, pracowników administracji miejskiej, profesorów uniwersytetów czy członków lokalnej izby handlowej. Uzyskany odsetek odpowiedzi w grupach wyselekcjonowanych jest zazwyczaj wyższy niż dla populacji generalnej ze względu na to, iż członkowie tych grup chętniej identyfikują się z celami badań i dlatego chętniej udzielają odpowiedzi. Można wskazać także na inne cechy — oprócz wymienione- 1 Fowler, Survey Research Methods, s. 54. 247 go wyżej podziału — związane z różnicami w odsetkach odpowiedzi. Respondenci lepiej wykształceni częściej wypełniają i odsyłają ankiety. Zainteresowanie cza znajomość tematyki badań jest inną ważną cechą determinującą odsetek zwrotów. I wreszcie, wyspecjalizowani fachowcy to osoby odpowiadające znacznie częściej w porównaniu z przedstawicielami innych grup zawodowych. W tabeli 10.2 uporządkowaliśmy omówione do tej pory procedury ze względni na ich skuteczność w zwiększaniu odsetka odpowiedzi. Odpowiednie rangi zostaB ustalone na podstawie wyników wielu badań, w których analizowano potencjał wzrost ogólnej liczby zwróconych ankiet przy zastosowaniu wybranej procedury. Dla ostatnich trzech procedur nie udało sie określić takich rang. Tabela 10.2. Techniki zwiększania odsetka odpowiedzi Ranga Metoda (od najwyższej do najniższej) Przypominanie 1 Zachęcanie 2 Sponsorowanie 3 List wprowadzający 4 Metoda zwrotu — Format — Dobór respondentów — Warunki optymalne Więcej niż jedno przypomnienie. W procedurze prz minania można wykorzystać telefon. Ankiety zapewniające otrzymanie gratyfikacji pieni dają lepsze wyniki niż ankiety nie zapewniające I tyfikacji. Należy jednak wziąć pod uwagę badaną popul i rodzaj ankiety. Odwoływanie się do osób, których znają respondenci, i najlepsze wyniki. Odwoływanie się do postaw altruistycznych wydaje sied najlepsze wyniki. Zwyczajnie zaadresowana koperta z naklejonym i daje lepsze rezultaty niż koperta wyglądająca jak < pismo urzędowe. Estetycznie wyglądająca strona tytułowa, tytuł wywol zainteresowanie i atrakcyjny format kolejnych stron s • Analfabeci powinni zostać wykluczeni z badań. • Zainteresowanie lub znajomość tematu badań jest g nym czynnikiem zwiększającym odsetek odpo* • Im lepiej wykształcone są osoby badane, tym \ jest zwrot ankiet. • Wyspecjalizowani fachowcy chętniej odsyłają a Na podstawie: Delbert C. Miller (1991), Handbook of Research Design and Social Measurement, wyd. 5, Newbury Park. Calif.:! Pamela L. Alreck, Robert B. Settle (1985), The Survey Research Handbook, Homewood, III.: Irwin; Francis J, Yammarino, Siei Skinner, Terry L. Childers (1991), Understanding Mail Survey Response Behayior: A Meta-Analysis, „Public Opinion Ouarterly",! s. 613-639. Ocena odsetka odpowiedzi Jaki odsetek odpowiedzi można zaakceptować w badaniach za pomocą ankie cztowej? Większość badaczy stara się zwiększyć odsetek odpowiedzi poprzez ? korzystywanie jednej lub wszystkich strategii wyżej omówionych. Jednak mirt wysiłków w badaniach pocztowych na ogół nie przekracza się progu 50% oti nych ankiet. Brak odpowiedzi jest tu poważnym problemem, jako że osoby i 248 . powiadające różnią się w sposób istotny od osób, które udzieliły odpowiedzi. Wykazano na przykład, że ankiety pocztowe adresowane do populacji generalnej sprzyjają błędnemu zawyżaniu poziomu wykształcenia: osoby lepiej wykształcone szybciej odpowiadają na ankiety pocztowe". Tym samym błąd wynikający z braku odpowiedzi może ograniczyć możliwości uogólniania wniosków na całą populację. Napytanie dotyczące tego, jaki jest akceptowalny odsetek odpowiedzi, nie daje się tatwo odpowiedzieć, ponieważ naukowcy nie zgadzają się co do wielkości standardowego, minimalnego odsetka odpowiedzi. Na przykład w badaniach sondażowych zleconych przez władze federalne oczekuje się odsetka odpowiedzi większego niż 15%. I podczas gdy organizacje akademickie zajmujące się badaniami sondażowymi uzyskują zazwyczaj taki odsetek odpowiedzi, większość nieznanych organizacji uzyskuje znacznie mniejszy procent zwrotów. Na koniec warto podkreślić, że istnieją dane świadczące o tym, iż można poprawić odsetek odpowiedzi, zwiększając standaryzację procedury przypominania12. Badania sondażowe stały się ostatnio szeroko wykorzystywanym sposobem prowadzenia badań nie tylko przez organizacje badawcze czy marketingowe, ale też przez wtadze państwowe i lokalne. Niektórzy mieszkańcy, chociaż przekonani o istotności celu badań, mogą się znaleźć w sytuacji, w której muszą zadecydować, jakie i ile ankiet spośród tych, które otrzymują w ciągu roku, zasługuje na odpowiedź. Satyryczny przykład ankiety przedstawiony w przykładzie 10.1 jest próbą uwrażliwienia osób, które nurtuje ten problem. ¦ Wywiad osobisty Wywiad osobisty to sytuacja bezpośredniej relacji interpersonalnej, w której osoba prowadząca wywiad zadaje respondentowi pytania opracowane w taki sposób, aby udzielone odpowiedzi pozostawały w związku z hipotezą badawczą. Pytania, sposób ich formułowania i ich kolejność to struktura kwestionariusza. Wywiad według ustrukturowanego planu Najmniej elastyczną formą wywiadu osobistego jest wywiad według ustrukturowanego planu. W wywiadach prowadzonych według planu liczba zadawanych pytań oraz sposób ich formułowania są identyczne dla wszystkich respondentów. Osoba prowadząca wywiad nie powinna zatem przeformułowywać pytań czy wyjaśniać, czego one dotyczą, gdy respondent prosi o wskazówki. W wywiadzie ustruk-turowanym zaś każdego ankietera obowiązuje ta sama kolejność zadawania pytań. W wywiadzie prowadzonym według ustrukturowanego planu łączy się oba te elementy. Badacze posługują się wywiadem prowadzonym według ustrukturowanego planu wtedy, gdy chcą mieć pewność, że zróżnicowanie odpowiedzi można przypisać rzeczywistym różnicom pomiędzy respondentami a nie różnicom między ankieterami. Metoda ta pozwala na zmniejszenie ryzyka uzależnionego od sposobu formułowania pytań. Wywiad prowadzony według ustrukturowanego planu oparty |ostrzegać badaczy 10 prestiżu. I tak na ający tam Papuasi ią niektórych prze-bardzo niekorzyst-jlacją, szczególnie ludzie. żęły się pojawiać m rządu i innych my52. Problem ten eh grup znajdują-yczne i społeczne. o propozycji sfor-20 publikacją, jakościowe bada-ałoby się uzyskać ze mamy niewiele "nogą służyć jako ciowycb. Osoby, wiedzialnie, aby nego narzędzia. lanych w grupie iralnych warun- erenowymi, jest acz stara się zo-kty z badanymi iczącym w gru-wator uczestni- czący ukrywa swoją tożsamość i nie ujawnia celu badań, podczas gdy obserwator jako uczestnik ujawnia swoją obecność w badanej grupie. 3. W przebiegu badań terenowych można wyróżnić następujące, rozłączne etapy: wybór tematu badawczego, wybór terenu badania i uzyskanie do niego dostępu, nawiązanie kontaktów z członkami grupy, szukanie osób dostarczających rzetelnych informacji oraz opuszczanie terenu i wreszcie analiza danych. 4. Celem badań terenowych jest tworzenie bazowej teorii za pomocą metody analizy indukcyjnej. Badacz — na podstawie danych — tworzy szersze kategorie, a następnie — na podstawie relacji pomiędzy tymi kategoriami — buduje hipotezy. Uwzględnianie przypadków pozytywnych i negatywnych sprawia, że zarówno kategorie, jak i hipotezy są w trakcie badań rewidowane i przeformułowywane. 5. W badaniach terenowych występują problemy natury zarówno etycznej, jak i politycznej. Pierwszy problem dotyczy potencjalnego oszukiwania; szczególnie prawdopodobnego w badaniach, w których badacz utajnia swoją tożsamość. Innym problemem etycznym są nieprzewidywane konsekwencje badań. Osoby badane mogą postrzegać badaczy terenowych jako źródło dóbr materialnych, koneksji politycznych i społecznego prestiżu; źródło nie mające nic wspólnego z samym procesem badawczym czy celem badań. ¦ Podstawowe terminy analiza indukcyjna 313 badania terenowe 299 informator 309 obserwacja uczestnicząca 300 Pytania sprawdzające obserwator w pełni uczestniczący 300 przypadek negatywny 312 teoria bazowa 313 uczestnik jako obserwator 303 1. Omów podstawowe różnice pomiędzy badaniami jakościowymi i ilościowymi. 2. Porównaj i wymień różnice pomiędzy rolą obserwatora w pełni uczestniczącego a rolą obserwatora jako uczestnika. 3. Opisz trudności związane z uzyskiwaniem dostępu do miejsca badań. 4. Na czym polega analiza indukcyjna? 5. Jakie podstawowe problemy natury etycznej i politycznej wiążą się z badaniami terenowymi? ¦ Literatura dodatkowa Denzin N.K., Lincoln Y.S. (1997), Wkraczanie na pole badań jakościowych. Wprowadzenie do podręcznika, „Acta Universitatis Nicolai Copernici: Socjologia Wychowania", t. XIII, s. 4-47. Lutyński J. (1994), Metody badań społecznych. Wybrane zagadnienia (red., wstęp, opracowanie K. Lu-tyńska), Łódź: ŁTN. Nowak S. (red.) (1965), Metody badań socjologicznych. Wybór tekstów, Warszawa: PWN. Sutek A., Nowak K., Wyka A. (red.) (1989), Poza granicami socjologii ankietowej, Warszawa: Wyd. UW. Rozdział 13 Wtórna analiza danych Dlaczego wtórna analiza danych? 322 Powody natury ogólnej 322 Powody natury metodologicznej 323 Powody natury ekonomicznej 324 Opinia publiczna i polityka społeczna: przykład 324 Ograniczenia wtórnej analizy danych 325 Spis ludności 326 Spis ludności w Stanach Zjednoczonych 327 Błędy popełniane w spisach ludności 328 Dane uzyskane ze spisu ludności 329 Inne dane zbierane przez urząd statystyczny 330 Szukanie danych wtórnych 331 Pomiary nieinwazyjne 333 Obserwacja prosta 333 Dokumenty archiwalne 335 Dokumenty oficjalne 335 Dokumenty osobiste 338 Analiza treści 341 Zastosowania analizy treści 342 Jednostki i kategorie 344 Podsumowanie 346 Podstawowe terminy 348 Pytania sprawdzające 348 Literatura dodatkowa 348 Sztuka czasem towarzyszy nauce, jak na przykład w powieści Umberto Eco Wahadło Foucaulta1. Jacopo Belbo, ekscentryczny, ale i intrygujący wydawca, uciekając, aby ratować własne życie, prosi swojego przyjaciela Casaubona o pomoc. Opisując owe niezwykłe i niepokojące wydarzenia, w których Belbo bierze udział, Eco — włoski profesor lingwistyki — opisuje główne postacie powieści, łącząc elementy fantastyki z podstawowowymi zasadami empirycznej metodologii analizy treści. W poszukiwaniu informacji prowadzi on Casaubona przez tomy starożytnych tekstów, w postaci zarówno biografii, jak i plików komputerowych, których kody wejściowe muszą być złamane. Casaubon szuka powtarzających się wyrażeń, wspólnych tematów jak i wzmianek o konkretnych wydarzeniach. Jak każdy dobry naukowiec zajmujący się naukami społecznymi sprawdza zgodność wykorzystywanych źródeł z faktami historycznymi i stawianymi przez siebie hipotezami, prowadzony chęcią rozwiązania zagadki i udzielenia pomocy przyjacielowi. W tym rozdziale zetkniemy się z rzeczywistością empiryczną i przedstawimy zasady prowadzenia systematycznej wtórnej analizy danych. Rozpoczniemy od przedstawienia powodów coraz częstszego wykorzystywania danych wtórnych. Następnie wskażemy na zalety i wewnętrzne ograniczenia wtórnej analizy danych. Dalej omówimy podstawowe źródła danych wtórnych, w tym dane pochodzące ze spisu ludności, specjalnych sondaży, prostej obserwacji i wreszcie dane archiwalne. Na koniec przedstawimy analizę treści jako metodę systematycznej analizy danych pochodzących z zapisów archiwalnych, dokumentów i gazet. Metody zbierania danych, które omówiliśmy do tej pory, pozwalają na uzyskiwanie danych pierwotnych. Dane takie zbiera się w warunkach sztucznych lub naturalnych (np. w czasie eksperymentu terenowego), w których osoby badane są często nieświadome, że są badane, i w których badacz zbiera dane osobiście lub przy pomocy wytrenowanych obserwatorów czy ankieterów. Coraz częściej jednak badacze korzystają z danych zebranych już przez innych badaczy dla celów innych niż te przez nich realizowane. Wtórna analiza danych odwołuje się zatem do wyników uzyskanych na podstawie analizy danych zebranych przez innych. Na przykład w naukach społecznych badacze posługują się danymi ze spisów ludności przeprowadzanych przez rząd dla celów administracyjnych czy publicznych, aby — między innymi — zbadać strukturę gospodarstw domowych, rozkład dochodów i wydatków, wzorce imigracji i migracji, cechy charakterystyczne grup rasowych i etnicznych, zmiany w strukturze rodziny, strukturę zawodów, mobilność społeczną oraz cechy obszarów wiejskich, miejskich i metropolii. Dane zbierane przez Instytut Gallupa czy inne instytucje prowadzące sondaże ogólnokrajowe były wykorzystywane do badania wielu problemów, takich jak zmiany opinii publicznej, postawy polityczne czy schematy głosowania oraz ich determinanty. 1 Umberto Eco (1988), Wahadło Foucaulta, tłum. Adam Szymanowski, Warszawa: PIW. 321 ¦ Dlaczego wtórna analiza danych? Wtórna analiza danych ma bogatą tradycję intelektualną w naukach społecznych. Emil Durkheim analizował oficjalne dane statystyczne dotyczące samobójstw w różnych obszarach i stwierdził, że odsetek samobójstw w krajach protestanckich jest wyższy niż w krajach katolickich2. Karol Marks wykorzystywał oficjalne statystyczne dane ekonomiczne, aby uzasadnić swoją tezę o „walce klas" i koncepcję ekonomicznego determinizmu3. Max Weber studiował oficjalne założenia ideologiczne wczesnych kościołów protestanckich, a także analizował inne dokumenty historyczne po to, aby podważyć tezę Marksa i uzasadnić, że to raczej religia, a nie determinizm ekonomiczny jest źródłem zachowań społeczno-politycznych4. W naukach społecznych coraz częściej korzysta się z danych zebranych przez różnych badaczy czy instytucje, realizując cele badawcze odmienne od pierwotnych powodów zbierania tych danych. Biorąc pod uwagę zwłaszcza badania sondażowe, Norval Glenn zauważył, że właśnie zachodzi niemal rewolucyjna zmiana w badaniach sondażowych. Jeszcze niedawno dane z sondaży były analizowane przede wszystkim przez osoby prowadzące te sondaże. Teraz zaś obserwuje się silną tendencję do rozdzielania planu sondażu od analizy danych. Można sobie wyobrazić czas, kiedy niektórzy badacze prowadzący badania sondażowe będą się specjalizować w tworzeniu planów takich badań, a inni w przeprowadzaniu analiz danych pochodzących z tych badań5. Istnieją trzy podstawowe powody, dla których rośnie zainteresowanie wykorzystywaniem danych wtórnych. Są to powody natury ogólnej, metodologicznej i ekonomicznej. Powody natury ogólnej Z ogólnego punktu widzenia dane wtórne mogą być jedynymi dostępnymi danymi dla określonych problemów badawczych. Historycy społeczni i polityczni, na przykład, muszą polegać niemal wyłącznie na danych wtórnych. W badaniu bardziej współczesnej problematyki —jak podkreśla to Herbert Hy-man — badacz korzysta z szerokiego zakresu materiałów dotyczących różnych obszarów i wieków, co sprzyja większej rozpiętości i większemu pogłębieniu analizy, niż byłoby to możliwe w przypadku wykorzystania danych pierwotnych pochodzących z pojedynczego projektu badawczego6. Dzięki źródłom wtórnym możemy lepiej zrozumieć kontekst historyczny. Analizując dane zebrane w różnym czasie i dotyczące podobnej problematyki, możemy również opisać i wyjaśnić zmiany. Na 2 Emil Durkheim (1966), Suicide, New York: Free Press (wyd. 1 — 1897). 3 Karol Marks (1965), Kapitał, Warszawa: Książka i Wiedza. 4 Max Weber (1994), Etyka protestancka w duchu kapitalizmu, tłum. Jan Miziński, Lublin: test. 5 Norval D. Glenn (1978), The General Social Surveys: Editorial Introduction to a Symposium, „Contemporary Sociology", 7, s. 532. 6 Herbert H. Hyman (1987), Secondary Analysis ofSample Surveys, Middletown, Conn.: Wesleyan University Press, rozdz. 1. 322 przykład Międzyuniwersytecki Zespół ds. Badań Politycznych i Społecznych (In-teruniversity Consortium for Political and Social Research — ICPSR) przy uniwersytecie w Michigan dysponuje danymi z sondaży przedwyborczych w Stanach Zjednoczonych, począwszy od 1952 roku7. Naukowcy wykorzystali te dane, aby opisać i wyjaśnić stabilność i zmianę ideologii, zaufanie, identyfikację z partią i zmiany głosowania w czasie. Dane wtórne można również wykorzystywać do celów porównawczych. Porównania wewnątrz i pomiędzy narodami i społeczeństwami mogą zwiększyć zakres generalizacji, jak też tworzyć dodatkowy kontekst. I tak na przykład ICPSR posiada dane z badań dotyczących wyborów w demokracjach europejskich. Ponieważ w badaniach tych mierzono wiele zmiennych podobnych do tych uwzględnianych w badaniach amerykańskich, taka baza danych umożliwia analizowanie problemów porównawczych, np. uczestnictwo w życiu politycznym oraz strukturę konfliktów czy porozumień, i to zarówno w aspekcie narodowym, jak i międzynarodowym. Hyman twierdzi, biorąc szczególnie pod uwagę badania sondażowe, że: Wtórna analiza wielu porównywalnych ze sobą badań sondażowych, przeprowadzonych w różnym czasie, stwarza nietypową możliwość dokonania empirycznego opisu długofalowych zmian, a także zbadania, jak różnią się określone zjawiska, biorąc pod uwagę zróżnicowane warunki w ramach jednego społeczeństwa (łub kilku społeczeństw) w różnym czasie8. Powody natury metodologicznej Można wskazać wiele zalet wtórnej analizy danych. Po pierwsze, dane wtórne — jeżeli są rzetelne i dokładne — stwarzają możliwość replikacji. Wyniki badań cieszą się większym zaufaniem, jeżeli powtórzyły się w wielu badaniach. Zamiast osobistego prowadzenia wielu badań badacz może — w połączeniu z własnymi danymi — wykorzystać dane zebrane przez innych. Po drugie, dostępność danych zbieranych w różnym czasie pozwala na stosowanie longitudinalnych planów badawczych. Można znaleźć podstawowe dla siebie dane w badaniach prowadzonych wiele lat temu i następnie starać się zlokalizować podobne dane w badaniach prowadzonych bardziej współcześnie. I rzeczywiście, kiedy badacze chcą porównywać zebrane przez siebie dane pierwotne z danymi zebranymi wcześniej, muszą z konieczności iść ścieżką wytyczoną przez badania oryginalne. Po trzecie, analiza danych wtórnych może poprawić jakość pomiaru przez rozszerzanie zakresu zmiennych niezależnych uzwględnionych w procesie operacjonalizacji pojęć. Odwołując się do słów Hymana, osoba dokonująca analizy danych wtórnych musi przeanalizować szeroki zakres szczegółowych wskaźników, różnorodne zachowania czy postawy [...] Ma większe szanse na bardziej wyczerpujące zdefiniowanie pojęcia, może bowiem o nim myśleć nie tylko w mniej zwyczajowy sposób, ale analizować je na wszystkie nietypowe sposoby9. 7 Warren E. Miller i in. (1980), American National Elections Studies Data Sourcebook, 1952-1978, Cambridge, Mass.: Harvard University Press. 8 Hyman, Secondary Analysis, s. 17. 9 Ibidem, s. 24. 323 Po czwarte, korzystanie z danych wtórnych zwiększa wielkość próby, jej reprezentatywność i liczbę obserwacji prowadzących do szerszych wniosków. I wreszcie, danymi wtórnymi można się posługiwać w metodzie triangulacji, zwiększając w ten sposób trafność wyników uzyskanych na podstawie analizy danych pierwotnych. Powody natury ekonomicznej Badania, w których się zbiera dane pierwotne, to przedsięwzięcia bardzo kosztowne. Badanie sondażowe przeprowadzone na próbie ogólnokrajowej liczącej od 1500 do 2000 osób może kosztować około 200 000 dolarów, a nawet więcej*. Jest to suma niedostępna — bez pomocy ze strony sponsorów wspomagających badania — dla profesorów uniwersytetów, niezależnych badaczy czy studentów ostatnich lat studiów. Korzystanie z już istniejących danych jest zdecydowanie tańsze niż zbieranie nowych danych. ¦ Opinia publiczna i polityka społeczna: przykład Jaki efekt, jeżeli w ogóle, wywiera opinia publiczna na politykę rządu? Aby odpowiedzieć na tak istotne pytanie, Benjamin Page i Robert Shapiro przeanalizowali kilkaset badań sondażowych przeprowadzonych na narodowej próbie Stanów Zjednoczonych, między rokiem 1935 a 1979, przez Instytut Gallupa, Narodowe Centrum Badania Opinii Publicznej (National Opinion Research Center) oraz Centrum Badań Politycznych (Center for Political Studies Survey) przy uniwersytecie w Michigan10. Stworzyli oni zbiór składający się z 3319 pozycji kwestionariuszowych dotyczących preferencji politycznych, z których około 600 powtarzało się w identycznej formie, dwa lub więcej razy w czasie objętym badaniami. Autorzy zidentyfikowali następnie każdy przypadek, w którym wystąpiła istotna zmiana opinii z jednego sondażu na drugi (6% lub więcej w próbach liczących 1500 osób, z prawie jednakowym rozproszeniem opinii). W sumie znaleźli oni 357 przypadków zmian preferencji politycznych Amerykanów, obejmujących szeroki zakres problemów dotyczących polityki, wydatków, regulacji prawnych, handlu i działań militarnych". Dla każdego przypadku zmiany opinii Page i Shapiro zmierzyli wskaźniki dotyczące prowadzonej polityki, biorąc pod uwagę okres, którego początek przypadał na dwa lata przed czasem, kiedy odbyły się sondażowe badania opinii publicznej, a koniec cztery lata po ostatnim sondażu. Posługując się tymi dwoma zbiorami danych, autorzy zakodowali dane świadczące o zgodności i braku zgodności pomiędzy przypadkami zmiany opinii i wskaźnikami dotyczącymi polityki. Na podstawie analizy danych stwierdzili duży stopień zgodności pomiędzy zmianami polityki * W Polsce cena badania sondażowego przeprowadzonego na losowej próbie imiennej liczącej 1500 osób kształtuje się na poziomie 120 000 zł. Sam koszt uzyskania próby to 5000-6000 zł (przyp. red. nauk.). 10 Benjamin I. Page, Robert Y. Shapiro (1983), Ęffects of Public Opinion on Policy, „American Political Science Review", 77, s. 175-190. 11 Ibidem, s. 189. 324 a zmianami opinii publicznej, w trakcie badanej przez nich połowy wieku. Co więcej, zgodność zdarzała się częściej wtedy, gdy istniało dość czasu, aby w procesie podejmowania decyzji mogły zostać uwzględnione zmiany opinii publicznej. Autorzy postawili wniosek, że „opinia publiczna — jakiekolwiek byłyby jej źródła i cechy — jest czynnikiem rzeczywiście wpływającym na politykę Stanów Zjednoczonych". ¦ Ograniczenia wtórnej analizy danych Podobnie jak w przypadku innych metod zbierania danych wtórna analiza danych również ma swoje ograniczenia. Największym problemem wtórnej analizy danych jest to, że często jedynie w przybliżeniu odpowiadają one danym, jakie badacz chciałby wykorzystać w procesie testowania hipotez. Istnieje nieunikniona przepaść pomiędzy danymi pierwotnymi, które badacz zbiera osobiście dla określonego celu badawczego i z określonych powodów, a danymi zbieranymi dla innych celów. Różnice te mogą dotyczyć wielkości próby, planu badawczego, sposobu formułowania pytań, szczegółów dotyczących planu wywiadu i techniki jego przeprowadzania oraz sposobu tworzenia sytuacji badania laboratoryjnego. Drugi problem związany z korzystaniem z danych wtórnych jest związany z dostępem do tych danych. Chociaż w archiwach przechowuje się tysiące badań, to można mieć trudności ze znalezieniem tych, które dotyczą badanych zmiennych. Czasami potrzebne dane mogą być niedostępne, ponieważ pierwszy badacz ich nie ujawnił. Nie ma bowiem obowiązku udostępniania danych na rzecz ich wtórnej analizy. Dlatego problem ten często dopinguje badaczy do twórczego wykorzystywania własnych umiejętności w poszukiwaniu właściwych danych wtórnych i mierzonych zmiennych. Trzeci problem dotyczący wtórnej analizy danych może się pojawić wtedy, gdy badacz nie dysponuje wystarczającymi informacjami o tym, w jaki sposób dane zostały zebrane. Informacje te są niezbędne do określenia potencjalnych źródeł stronniczości, błędów czy kłopotów związanych z trafnością wewnętrzną czy zewnętrzną. ICPSR radzi sobie z takimi problemami, dzieląc dane na cztery klasy ze względu na liczbę informacji, udokumentowanie i wkład pierwotnych autorów badań w procedurę standaryzacji i sprawdzania danych (por. przykład 13.1). Przykład 13.1 Klasy danych tworzone przez ICPSR Ostatnio ICPSR, aby opisać stopień przetworzenia danych w trakcie procesu ich zbierania, stosuje dwa systemy. Pierwszy, przedstawiony poniżej, polega na kategoryzowaniu zbiorów ze względu na stopień przetworzenia oryginalnych danych przez ICPSR. Drugi system, wdrożony w 1992 roku, zastępuje system klasyfikowania danych kodami opisującymi odrębne kroki podejmowane przy przetwarzaniu danych, czy to przez ICPSR czy przez głównych badaczy lub osoby tworzące dane. Wszystkie zbiory stworzone przez ICPSR są sprawdzane w celu stwierdzenia, czy dane są dobrze udokumentowane i czy informacje, które powinny zostać tajne — takie jak nazwiska czy daty — zostały zabezpieczone przez ich ujawnieniem. Dostępna jest także książka kodowa zawierająca dane bibliograficzne oraz materiały opisujące sposób zbierania danych. 325 Kategoria I Zbiory danych kategorii I zostały sprawdzone, poprawione — jeżeli to konieczne — i sformatowane według wskazówek ICPSR. W celu zwiększenia ich użyteczności i dostępności dane te — po konsultacji z badaczem — mogą zostać przekodowane lub przeorganizowane. Dostępna jest książka kodowa w wersji, która może być odczytana przez komputer. Książka ta w pełni dokumentuje dane i czasami zawiera statystyki opisowe, takie jak częstości czy średnie. Dane kategorii I są często dostępne w różnych formatach i wiele zbiorów danych kategorii I jest dostępnych w formatach wymaganych przez pakiety statystyczne SAS i SPSS. Kategoria II Badania kategorii II zostały sprawdzone i sformatowane według wskazówek ICPSR. Usunięto większość kodów nienumerycznych. Wiele badań zaliczonych do tej klasy jest dostępnych w różnych formatach, często odpowiadających formatom danych w pakietach SAS i SPSS. Wszelkie osobliwości danych zostały uwzględnione w dokumentacji. Kategoria III Badania zaliczone do kategorii III zostały sprawdzone przez pracowników ICSPR pod względem właściwej liczby rekordów dla każdego przypadku i właściwego — zgodnie z książką kodową — określenia danych. Często dla zbiorów tych dostępne są dane częstościowe. Rozbieżności w danych, które są znane, oraz inne problemy (jeżeli występują), są przekazywane użytkownikom w chwili udostępniania danych. Kategoria IV Badania zaliczone do kategorii IV są rozprowadzane w takiej postaci, w jakiej badacz przekazał je ICPSR. Dokumentacja badań kategorii IV jest powieleniem oryginalnie otrzymanych materiałów. Na podstawie: Inter-university Consortium for Political and Social Research (1994), Guide to Resources and Ser\'tces, 1994-1995, Ann Arbor: University ot' Michigan, Institute for Social Research, Center for Political Studies, s. xxiii. ¦ Spis ludności Spis ludności polega na zbieraniu danych demograficznych, opisujących populację na dokładnie zdefiniowanym terytorium, przeprowadzanym na zlecenie agencji rządowych, w określonym czasie i w regularnych odstępach. Spis ludności, czy inaczej enumeracja populacji, powinien zasadniczo być uniwersalny i obejmować każdą osobę żyjącą na wytypowanym obszarze12. Istnieją dane wskazujące na to, że początki spisów ludności sięgają 3800 roku p.n.e. w Babilonii, 3800 roku p.n.e. w Chinach i 2500 roku p.n.e. w Egipcie. Znane są także dane na temat enumeracji populacji w starożytnej Grecji i Rzymie, a także w państwie Inków. Współczesne spisy ludności rozpoczęły się od spisu przeprowadzonego w 1666 roku w Kanadzie i w roku 1790 w Stanach Zjednoczonych. Od tego czasu w obu państwach co dziesięć lat przeprowadza się spisy ludności13. Podstawowym powodem, dla którego zaczęto enumerować populację zarówno w czasach historycznych, jak i współczesnych, była chęć uzyskania danych, które by ułatwiły działania rządu dotyczące polityki wewnętrznej w dziedzinie podatków, poboru do wojska, celowości pomocy udzielanej przez rząd czy wykorzystywania urzędników. Zakres współczesnych spisów ludności coraz bardziej się poszerza, 12 William Peterson (1975), Population, New York, Macmillan. 13 Mortimer Spiegelman (1968), Introduction to Demography, Cambridge, Mass.: Harvard Univer-sity Press. 326 a zebrane dane mogą dostarczać informacji wykorzystywanych w badaniach prowadzonych przez rząd, przemysł czy społeczności akademickie14. Spis ludności w Stanach Zjednoczonych Pierwszy spis ludności został przeprowadzony w Stanach Zjednoczonych w roku 1790 przez urzędników pod nadzorem Thomasa Jeffersona. W roku 1902 Kongres powołał stałe biuro ds. spisu ludności, Urząd Statystyczny (Bureau of the Census), które dzisiaj odpowiada za dokonywanie enumeracji populacji co dziesięć lat. Ponadto Urząd Statystyczny prowadzi wiele dodatkowych badań sondażowych dotyczących populacji: gospodarki mieszkaniowej i budownictwa, handlu i przemysłu, federalnych, stanowych i lokalnych rządów oraz handlu zagranicznego. Urząd Statystyczny zainicjował lub uczestniczył w tworzeniu wielu innowacji technicznych i rozwijaniu metod statystycznych. Do najbardziej istotnych należą metody pobierania próby zwiększające zakres spisów; tworzenie pierwszego komputera do masowego przetwarzania danych i — bardziej współcześnie — stworzenie zintegrowanego systemu kodowania geograficznego (TIGER — Typologically Integrated Geographic Encoding and Referencing). TIGER to skomputeryzowana baza danych geograficznych, dostarczająca informacji opartych na współrzędnych i dotyczących cyfrowej mapy zawierającej granice obszarów politycznych i statys-fycznych (wraz z ich kodami) dla terytorium całych Stanów Zjednoczonych wraz z wszystkimi podległymi terytoriami. Użytkownicy mogą niezależnie otrzymać dane ze spisu i inne dane statystyczne i mogą włączyć je do bazy danych TIGER. Wówczas baza ta, wyposażona w odpowiedni software, pozwala na tworzenie nowych granic obszarów politycznych czy administracyjnych, wytyczanie obszarów o wysokim zagrożeniu przestępczością czy określanie przewidywanego wzrostu populacji w określonych okręgach sądowniczych15. Spis ludności i gospodarstw domowych przeprowadzany co dziesięć lat nazywany jest pełnym spisem ludności i powinien objąć każde gospodarstwo domowe w państwie. W spisie dziesięcioletnim używa się dwóch kwestionariuszy: krótkiej formy, która pozwala zbierać podstawowe informacje demograficzne o każdym członku gospodarstwa domowego oraz zawiera kilka pytań na temat samego gospodarstwa; długiej formy, która dodatkowo zawiera pytania na temat statusu socjoekonomicznego oraz mieszkania. Pełen spis ludności jest przeprowadzany przy użyciu krótkiej formy. W próbie pobranej z populacji, zawierającej około 17% wszystkich badanych gospodarstw domowych, stosuje się dodatkowo długą wersję kwestionariusza. W kwietniu 1990 roku, to jest w czasie ostatniego pełnego spisu ludności przeprowadzonego w Stanach Zjednoczonych, długą wersję kwestionariusza rozesłano do 17,7 milionów gospodarstw spośród pełnej ich liczby stanowiącej około 106 milionów gospodarstw. Pełen spis ludności populacji Stanów Zjednoczonych jest niezbędny, gdyż na podstawie otrzymanych statystyk wyznacza się proporcjonalnie liczbę miejsc przyznawaną każdemu stanowi w Izbie Reprezentantów. Co więcej, fundusze federalne przeznaczane dla władz stanowych i lokalnych są rozdzielane na podstawie danych 14 Ibidem. 15 Więcej informacji można znaleźć w: TIGER: The Coast-to-Coast Digital Map Data Base, Washington, D.C: U.S. Department of Commerce, Bureau of the Cenus, November 1990. 327 spisu dziesięcioletniego. Ponadto jedynie pełen spis ludności może dostarczyć danych o małych obszarach geograficznych takich jak małe miasta czy kwartały spisowe — najmniejsze obszary geograficzne, dla których zbiera się dane spisowe. Ponieważ jednak pełen spis ludności jest bardzo kosztowny, a jego przeprowadzenie jest technicznie bardzo skomplikowane, więc wykorzystuje się go do gromadzenia podstawowych informacji. Stosuje się również pobieranie próby z populacji (pytania zadawane są wówczas jedynie części populacji objętej sondażem). W porównaniu z pełnym spisem ludności ma ono wiele zalet. Badanie takie jest bardziej ekonomiczne, bardziej skuteczne i szybsze. Pozwala zmniejszyć czas pomiędzy terminem przeprowadzenia badań a opublikowaniem jego wyników. Co więcej, posługiwanie się próbami umożliwia Urzędowi Statystycznemu rozszerzyć zakres i stopień szczegółowości zbieranych danych w odniesieniu do aspektu mieszkaniowego i statusu wynikającego z zatrudnienia. Ponadto niektóre z sonadaży przeprowadzonych na próbach przez Urząd Statystyczny zostały zaprojektowane w celu uzyskania informacji o postawach społeczeństwa dotyczących różnych spraw. Dane ze spisu ludności są zazwyczaj grupowane w dwie wiązki geograficzne: jednostek politycznych (takich jak stany, hrabstwa czy okręgi kongresowe) oraz obszarów statystycznych, które są obszarami definiowanymi w celach statystycznych, głównie na podstawie kryteriów geograficznych. Do najbardziej powszechnych obszarów statystycznych należą metropolitalne obszary statystyczne (MSA — Metropolitan Statistical Areas), miejsca objęte spisem (CDP — Census Designated Pla-ces) oraz ścieżki spisowe. MSA są definiowane jako jedno hrabstwo (lub więcej), cechujące się dużym skupieniem populacji i okolicznych społeczności, które pozostają ze sobą w ścisłej interakcji16. Wytyczone CDP to gęsto zaludnione okręgi, które nie mają własnych, prawnie określonych władz17. Ścieżki spisowe to małe, definiowane na poziomie lokalnym, obszary statystyczne w okręgach metropolitarnych i niektóre hrabstwa, których przeciętna populacja waha się w granicach 400018. Błędy popełniane w spisach ludności Współczesne spisy ludności stanowią ważne źródło rzetelnych informacji statystycznych. Mogą się w nim jednak zdarzyć błędy, zatem użytkownicy muszą być świadomi metodologicznych ograniczeń tych danych. Dane ze spisu ludności mogą być źródłem dwojakiego rodzaju błędów: błędów zakresu i błędów treści. Błędy w zakresie oznaczają, że dana osoba lub grupa osób nie zostały w ogóle policzone lub zostały policzone dwukrotnie. Podwójne dane stanowią mniejszy problem niż ich brak. Zjawisko niedoszacowania populacji od dawna znajduje się w centrum zainteresowania osób, które zwyciężyły w wyborach, badaczy i opinii publicznej, ponieważ osoby, które nie zostały ujęte w spisie (a zwłaszcza grupy takie, jak bezdomni czy migrujący pracownicy), tracą szansę na znalezienie swojej reprezentacji w rządzie narodowym, stanowym czy lokalnym. Jedna z kategorii osób, które nie zostały ujęte w spisie, składa się z ludzi, których nie można było zlokalizować ze względu na brak stałego adresu. Inną katego- 16 Na podstawie: Census '90 Basics (1985), Washington, D.C.: U.S. Department of Commerce, Bu-reau of the Census, December, s. 5. 17 Ibidem. 18 Ibidem. 328 rię tworzą osoby, które nie chcą zostać znalezione, jak na przykład nielegalni mieszkańcy. W takim przypadku Urząd Statystyczny ma trudności z oszacowaniem błędu, ponieważ nielegalni mieszkańcy nie zostaną ujawnieni także w innych oficjalnych rejestrach, na przykład w dokumentach posiadanych przez administrację, a wykorzystywanych do weryfikowania statystyk spisu. Błędy treści pojawiają się wtedy, kiedy otrzymane informacje zostały nieprawidłowo zarejestrowane lub stabularyzowane. Pomijając błędy wynikające z braku uwagi, błędy treści zdarzają się dlatego, gdyż osoby badane często udzielają błędnych odpowiedzi na pytania mierzące status społeczny. Na przykład w konsekwencji wprowadzających w błąd odpowiedzi badani mogą zostać źle zaklasyfikowani do grup o wysokich czy niskich dochodach czy do grup o różnym stopniu wykształcenia. Błędy takie mogą w dużym stopniu wpływać na trafność wyników badań, a w konsekwencji mieć znaczenie dla prowadzonej polityki wewnętrznej. Dane uzyskane ze spisu ludności Dane uzyskane ze spisu ludności są dostępne w Urzędzie Statystycznym w różnych formatach: drukowanych raportów, taśm magnetofonowych, mikrofisz, a ostatnio także w postaci CD-ROM-ów. Drukowane raporty statystyczne są wygodne i od razu dostępne. Dane w takich raportach są przedstawiane w postaci tabel zawierających określone zbiory danych dla określonych obszarów geograficznych. Raporty te przedstawiają dane w różnym porządku. Niektóre przedstawiają informacje dla wszystkich poziomów: państwa jako całości, stanów, metropolii, obszarów miejskich, miast i hrabstw. Część zatytułowana „The Smali Area" zawiera dane dia kwartałów i ścieżek spisowych. Część dotycząca osób badanych przedstawia dane dla wybranych osób na poziomie ogólnokrajowym. Części raportu dotyczące osób badanych zawierają głównie dane dotyczące gospodarstw domowych i problemów populacyjnych. Każda publikacja koncentruje się jednak na wybranym aspekcie zdefiniowanych ogólnie obszarów. Na przykład raport zatytułowany „Droga do pracy: Ścieżki komunikacyjne w metropolii" {Journey to Work: Metropolitan Community Flows) zawiera statystyki dotyczące lokalnych i ogólnokrajowych schematów podróżowania dla każdej z metropolii Stanów Zjednoczonych, a także informacje o miejscach pracy i zamieszkania pracowników. Inny raport „Związki między dziećmi a dorosłymi" (Living Arrangements ofChildren and Adults), użyteczny w badaniach amerykańskich gospodarstw domowych, gromadzi dane na temat relacji pomiędzy dziećmi a dorosłymi na poziomie ogólnokrajowym. Informacje te podawane są dla dzieci w różnych grupach wiekowych, z uwzględnieniem ich relacji z głową domu i stanu cywilnego rodziców. Dla użytkowników potrzebujących bardziej szczegółowych danych czy danych dla mniejszych obszarów geograficznych, a także statystyk, które są rozrzucone po różnych raportach, Urząd Statystyczny przygotowuje dane na taśmach komputerowych w dwóch formach: Summary Tape Files (STFs), które zawierają zebrane w tabelach znacznie bardziej szczegółowe dane niż prezentowane w drukowanych raportach, oraz Public-Use Microdata Sample Files (PUMS) zawierające dane dla niewielkich prób nie identyfikowanych gospodarstw domowych i zawierające wszystkie dane spisu zebrane dla każdej osoby w gospodarstwie domowym. Pliki PUMS pozwalają użytkownikom na przygotowywanie indywidualnych tabel prostych i tabel krzyżowych na podstawie wybranych pytań kwestionariusza spisowego. 329 Ma to ogromne znaczenie dla naukowców potrzebujących bardziej pogłębionych danych19. Mikrofisze zawierające statystyki dla zbiorów kwartałów spisowych począwszy od spisu z 1980 roku, również są dostępne. Mikrofisze zawierają zbiory tabel dla kwartałów definiowanych w pliku STF IB. W roku 1990 cały kraj po raz pierwszy został podzielony na „kwartały". Zwiększyło to liczbę kwartałów z 2,5 miliona (w roku 1980) do ponad 7 milionów (w roku 1990), dla których Urząd Statystyczny zbiera teraz dane. Koszty i przechowywanie takiej ilości danych w wersji drukowanej są niewyobrażalne20. Płyta kompaktowa, czyli CD-ROM, rodzaj dysku optycznego czy laserowego to najbardziej współczesna technika gromadzenia danych. Na jednym, 4 i 1/4 calowym dysku może się zmieścić zawartość około 1500 dyskietek 5 i 1/4 cala lub 3 do 4 taśm wysokiej gęstości21. Specjalne urządzenia peryferyczne pozwalają na korzystanie z CD-ROM-ów w komputerach osobistych. Ze względu na nieocenioną wygodę w ich stosowaniu można oczekiwać, że coraz więcej danych spisowych będzie dostępnych w tej formie. Inne dane zbierane przez urzqd statystyczny Chociaż spis powszechny odbywający się co dziesięć lat jest podstawowym źródłem informacji o populacji Amerykanów, to nie jest w stanie dostarczyć informacji na każdy interesujący temat. Ponadto dla wielu potrzeb dane te mogą się okazać nieaktualne już za kilka lat. Dlatego też urząd statystyczny przeprowadza dodatkowe specjalne spisy i sondaże na mniejszych próbach. Niektóre z nich, które mogą być przydatne dla badaczy w naukach społecznych, przedstawiamy poniżej. Aktualny sondaż populacji (CPS — Current Population Survey). Aktualny sondaż populacji to sondaż przeprowadzany co miesiąc na wylosowanej próbie z populacji Stanów Zjednoczonych rozumianej nieinstytucjonalnie (tj. z wyłączeniem żołnierzy, więźniów czy osób przewlekle chorych). Jego podstawowym celem jest dostarczenie statystyk dotyczących bezrobocia i aktualnych informacji na temat danych osobowych osób zatrudnionych, takich jak: płeć, wiek, rasa, stan cywilny i rodzinny oraz wykształcenie. Sondaż taki dostarcza również informacji na inne tematy, które okresowo są dodawane do podstawowej listy problemów objętych sondażem. Urząd statystyczny publikuje wiele raportów opartych na tych danych pod wspólnym tytułem Current Population Reports. Sondaż dotyczący amerykańskich gospodarstw domowych (AHS — American Housing Survey). Co dwa lata, jako część programu AHS, urząd statystyczny przeprowadza badania ankietowe na próbie respondentów ze wszystkich gospodarstw domowych w całych Stanach Zjednoczonych. Sondaż dotyczący amerykańskich gospodarstw domowych zawiera pogłębione dane na temat warunków mieszkania, powodów wybrania danego mieszkania, oceny usług w^ektorze publicznym i ogólnej jakości życia w najbliższej okolicy. Sondaż ten pozwala na badanie zmian wy- 19 Ibidem, s. 13. 20 Ibidem, s. 16. 21 Ibidem. 330 mkających ze strat w substancji mieszkaniowej, nowego budownictwa, mobilności mieszkaniowej i charakterystyk demograficznych badanych osób22. Sondaż na temat wydatków konsumentów (Consumer Expenditure Survey). Sondaże na temat wydatków konsumentów zostały przygotowane w celu monitorowania zmian w cenach. Dane z tych sondaży mają podstawowe znaczenie dla pomiaru wielkości inflacji w Stanach Zjednoczonych i jej wpływu na koszty utrzymania. Dane z tych sondaży są również wykorzystywane przez Biuro Pracy (Bureau of Labor Statistics) do uaktualniania ukazującego się co miesiąc „Consumer Price Index" (CPI). Sondaż na temat wydatków konsumentów jest przeprowadzany w trzech formach: wywiadu kwartalnego, sondażu dzienniczkowego i sondażu w miejscach sprzedaży. Wywiad kwartalny (The Quarterly Interview Survey) jest przeprowadzany co miesiąc w postaci wywiadu w gospodarstwach domowych. Dostarcza danych na temat kosztów utrzymania poniesionych w ciągu trzech miesięcy przed wywiadem23. Sondaż dzienniczkowy (The Diary Survey) również przeprowadzany co miesiąc dostarcza danych na temat kosztów utrzymania osób mieszkających stale w danym gospodarstwie domowym przez kolejne dwa tygodnie24. Informacje zapisywane są w specjalnym dzienniczku — stąd nazwa sondażu. Przeprowadzany co rok sondaż w miejscach sprzedaży (Point of Purchase Survey) pozwala na zidentyfikowanie rodzaju sklepów i innych punktów, które konsumenci najczęściej odwiedzają, dokonując zakupów dóbr i usług. Jest on szczególnie użyteczny do analizowania trendów ekonomicznych i planowania działań reklamowych. Urząd statystyczny publikuje również wiele użytecznych przewodników. Podstawowym przewodnikiem po danych uzyskanych ze spisu w roku J 990 jest 1990 Census User's Guide. Z kolei Census and Kom jest comiesięczną gazetką adresowaną do użytkowników danych, natomiast Census Catalog and Guide publikuje wyczerpującą listę wszystkich nowych publikacji, plików komputerowych, nietypowych tabel i wszystkich innych oferowanych przez urząd produktów. Obok głównego biura, które mieści się w Waszyngtonie, Urząd Statystyczny ma dwanaście filii w całych Stanach Zjednoczonych, w których pracują specjaliści udzielający odpowiedzi przez telefon, osobiście lub drogą pocztową. Zbiory danych mogą być nabywane przez uniwersytety, główne biblioteki miejskie i inne duże instytucje prowadzące badania. ¦ Szukanie danych wtórnych Biorąc pod uwagę, że w Stanach Zjednoczonych i na świecie przeprowadzono tysiące badań, powstaje oczywiste pytanie: W jaki sposób można precyzyjnie zlokalizować dane, które są nam potrzebne? William Trochim jest autorem następujących wskazówek dla osób poszukujących danych25: 22 Na podstawie: Census Suryeys: Measuring America, Washington, D.C.: U.S. Department of Commerce, Bureau of the Census, December, 1985, s. 6. 23 Ibidem, s. 12. 24 Ibidem. 25 William M.K. Trochim (1981), Resources for Locałing Public and Private Data, w: Robert F. Boruch (red.), Reanalyzing Program Evaluations, San Francisco: Jossey-Bass, s. 57-67. 331 1. Określ swoje potrzeby: sprawdź indeksy rzeczowe w materiałach archiwalnych i określ odpowiednie podstawowe słowa. 2. Zaznajom się: przeszukaj indeksy, katalogi i dane archiwalne, a także informacje publikowane przez różne instytucje, które mogą posiadać interesujące dane. 3. Nawiąż pierwsze kontakty: przede wszystkim nawiąż kontakty z osobami I znającymi materiały archiwalne i zdobądź informacje na temat korzystania I z tych danych. 4. Nawiąż kolejne kontakty: poproś profesjonalistów o zweryfikowanie uzyskanych informacji i naucz się, w jaki sposób należy oficjalnie poprosić o udostępnienie danych. 5. Sprawdź dostępność: zdobądź informacje na temat ewentualnych trudności, jakie mogą stwarzać osoby posiadające dane. 6. Przeprowadź analizę podstawową i analizy dodatkowe: po przeprowadzeniu podstawowej analizy postaraj się — jeżeli to konieczne — o dodatkowe dane. Podstawowymi źródłami informacji dla analityków poszukujących danych wtórnych są katalogi, przewodniki, spisy danych archiwalnych i danych posiadanych przez instytucje wspomagające badaczy. Do użytecznych katalogów danych archiwalnych należą: Statistics Sources (wyd. 17 — P. Wasserman (red.), 1994) oraz Research Centers Directory (wyd. 14 — A.M. Palmer (red.), Detroit: Gale Research Co., 1989). Głównymi przewodnikami po rządowych bazach danych są natomiast: A Frameworkfor Planning U.S. Federal Statistics i The Directory ofCom-puterized Data Files and Related Software, oba tytuły opublikowane przez U.S. Department of Commerce, a także Federal Information Sources and Systems: A Directory for the Congress. Zespół ICPSR przy uniwersytecie w Michigan i Ośrodek Ropera przy uniwersytecie w Connecticut dysponują największymi archiwami danych wtórnych w Stanach Zjednoczonych. ICPSR publikuje co roku Guide to Resources and Services („Przewodnik po źródłach i usługach")- Do innych ważnych instytucji należą: Biuro Stosowanych Badań Społecznych (Bureau of Applied Social Research) przy uniwersytecie Columbia, Laboratorium Nauk Politycznych, Archiwum dla Nauk Społecznych (Laboratory for Political Research, Social Science Data Archive) przy uniwersytecie w Iowa, Krajowy Ośrodek Badania Opinii (National Opinion Research Center — NORC) przy uniwersytecie w Chicago oraz Europejskie Stowarzyszenie Ośrodków Dystrybucji Informacji Naukowych (European Association of Scientific Information Dissemination Centers)26. Źródła, które wymieniliśmy, to jedynie maleńka cząstka z przeogromnej obfitości dostępnych baz danych i opublikowanych źródeł informacji. Ciągle rosnąca ich liczba i jakość wymaga, aby studenci i badacze byli w stałym kontakcie z ośrodkami zajmującymi się dystrybucją informacji, a mieszczącymi się przy uniwersytetach, biurach rządowych czy innych instytucjach. 26 Por. także ibidem, s. 65 oraz Catherine Hakim (1982), Secondary Analysis in Social Research: A Guide to Data Sources and Methods with Examples, Boston: Allen & Unwin. 332 ¦ Pomiary nieinwazyjne Pomiar nieinwazyjny, znany także pod nazwą pomiaru niereaktywne-go to każda metoda zbierania danych, która wyłącza badacza z badanych interakcji, zdarzeń czy zachowań. I tak na przykład studiowanie powszechnie dostępnych dokumentów archiwalnych jest pomiarem nieinwazyjnym, ponieważ badacz nie ma żadnego wpływu na warunki, w jakich zostały zebrane te dane. Pomiary nieinwazyjne pozwalają na uniknięcie kontaminacji danych, która może się pojawić, gdy badacz i osoby badane spotykają się w czasie gromadzenia danych. Kiedy pomiar jest nieinwazyjny, osoba badana „nie jest świadoma tego, że jest poddawana pomiarowi, i istnieje niewielkie niebezpieczeństwo, że akt pomiaru jako taki będzie wymuszał zmiany zachowania lub będzie się przyczyniać do grania roli, zmieniając w ten sposób dane"27. Pomiary takie obejmują działania od analizowania prywatnych i publicznych archiwów do prostej obserwacji ludzi podczas pracy czy zabawy, od analizy ścieżek fizycznych do wymyślnej obserwacji. Na przykład ślady (i znaki) fizyczne są wytyczane bez wiedzy osób je tworzących o przyszłym ich wykorzystaniu przez badaczy. Eugene Webb i współautorzy wprowadzili rozróżnienie na dwie klasy znaków fizycznych: pomiary erozji i pomiary przyrostu28. Pomiary erozji dotyczą znaków zostawianych po użyciu jakiegoś obiektu. Na przykład stopień zużycia książek w bibliotece może być wskaźnikiem ich popularności, a liczba kilometrów znajdujących się na licznikach samochodów patrolowych może być wskaźnikiem aktywności jeżdżących nimi policjantów. Badacz może zatem porównać złożony przez policjantów raport z liczbą przejechanych przez nich kilometrów. Pomiary przyrostu obejmują znaki zostawiane przez ludzi w trakcie ich działań. W tym przypadku badacz analizuje pozostałości będące efektem jakiegoś ludzkiego zachowania. Na przykład ilość kurzu na urządzeniach może być potraktowana przez badaczy jako wskaźnik częstości korzystania z nich. Podobnie badacz może oszacować popularność różnych stacji radiowych, zapisując, na której stacji ustawione były odtwarzacze samochodowe, gdy samochód został oddany do serwisu. Zarówno czas potrzebny do ich zebrania, jak i wątpliwa jakość danych sprawiają, że analiza śladów jest problematyczna. A co jeszcze ważniejsze, w wielu przypadkach badacz nie otrzymuje wystarczających informacji o populacji, którą poddano pomiarowi; informacji pozwalających na dokonywanie trafnych generalizacji. Obserwacja prosta Obserwacja prosta to inny przykład pomiaru nieinwazyjnego. Stosowana jest w sytuacji, „w której osoba obserwująca nie ma żadnej kontroli nad objętymi pomiarem zachowaniami czy znakami i pełni funkcję biernego i nie ingerującego w sytuację badawczą obserwatora29. Chociaż badacze dokonujący prostych obserwacji posługują się w każdym względzie metodologią innych metod obserwacyjnych, to prosta obserwacja jest niezależną metodą, ponieważ badacz nie interwe- Eugene J. Webb i in. (1981), Nonreactive Measures in the Social Sciences, Boston: Houghton Mifflin, s. 175. 28 Ibidem, s. 35-52. 29 Ibidem, s. 112. 333 niuje w procesie tworzenia danych (w odróżnieniu od metodologii obserwacji w sytuacji eksperymentalnej, która została opisana w rozdziale 8). Możemy wyróżnić cztery typy prostej obserwacji: obserwację zewnętrznego wyglądu ciała i obserwację znaków fizycznych, analizę zachowań ekspresyjnych, analizę zajmowanych pozycji fizycznych oraz obserwację zachowań językowych. Obserwacja zewnętrznego wyglądu ciała i obserwacja znaków fizycznych. Ten rodzaj prostej obserwacji polega na rejestrowaniu zewnętrznego wyglądu ciała i elementów fizycznych traktowanych jako wskaźniki czy znaki wzorcowych zachowań lub postaw. Przykładami takich znaków są: tatuaże, fryzury, ubranie, elementy zdobiące (np. biżuteria). Na przykład zmiana wykorzystywanych znaków może zostać potraktowana jako pomiar zmian społecznych, ponieważ może to być wskaźnik osiedlania się w sąsiedztwie grup imigrantów. Analiza zachowań ekspresyjnych. Drugim rodzajem prostej obserwacji jest analizowanie ekspresji. Obserwacja koncentruje się na autoekspresji i interpretacji zachowań ekspresyjnych jako wskaźników interakcji społecznych. Za pomocą języka ciała ludzie komunikują wiele uczuć, a także norm społecznych. Obserwatorzy rejestrują, jak blisko ludzie stoją obok siebie, jak często patrzą na siebie, jak często siebie dotykają. Badacze rejestrujący mimikę twarzy i ruchy ciała stają wobec podstawowego problemu: co oznaczają różne gesty. Na przykład uśmiech może być oznaką ulgi lub szczęścia. Określenie znaczenia poszczególnych gestów zarówno dla osoby, która jest ich źródłem, jak i dla osoby, która je odbiera, w ramach kontekstu, w jakim występują, należy do badacza. Te same ruchy w różnych sytuacjach mogą bowiem oznaczać różne emocje. Analiza zajmowanych pozycji fizycznych. Podstawowym celem analizy zajmowanych pozycji fizycznych jest badanie sposobów, w jaki ludzie poruszają się w naturalnie powstającej przestrzeni społecznej. Na przykład obserwatorzy polityki wewnętrznej Związku Radzieckiego rejestrowali — przed upadkiem imperium rosyjskiego — kto stoi obok kogo na trybunie honorowej w czasie pochodu w dniu Święta Pracy na placu Czerwonym. Innym przykładem jest protokół —jego reguły w sposób istotny instytucjonalizują fizyczne oznaki statusu. Dlatego badacz, analizując zmiany statusu społecznego czy politycznego, powinien być wrażliwy na zróżnicowanie dystansu, w jakim stoją w stosunku do siebie liderzy życia politycznego. Obserwacja zachowań językowych. Czwarty rodzaj prostej obserwacji dotyczy obserwowania prowadzonych rozmów i wzajemnych związków pomiędzy sposobami mówienia po to, aby je przyporządkować do kategorii społecznych. Analiza taka łączy badanie zajmowanych pozycji i zachowań ekspresyjnych. W swojej popularnej książce Deborah Tannen wykorzystuje analizę zachowań językowych do badania, w jaki sposób strukturalizowane i podtrzymywane są związki między ludźmi. Opierając się na dokładnym obserwowaniu prowadzonych rozmów, stwierdziła ona, że mężczyźni są bardziej wrażliwi na „przekaz", tj. bezpośrednie znaczenie tego, co jest mówione. Kobiety zaś są bardziej wrażliwe na „metaprzekazy", tj. in- 334 formacje pośrednio zawarte w tym, co zostało powiedziane; informacje dotyczące postaw wobec tego, co jest mówione, i postaw wobec ludzi, którzy mówią i słuchają30. Problemy związane z prowadzeniem prostej obserwacji. Podstawową zaletą prostej obserwacji jest to, że badacz nie jest odpowiedzialny za sposób strukturalizacji sytuacji, w jakiej dokonywana jest obserwacja, i sam nie jest spostrzegany. Dzięki temu można wyeliminować potencjalne źródła stronniczości (por. rozdział 5 i 9). Jednak z obserwacją prostą również związane są określone problemy. Po pierwsze, zarejestrowane obserwacje mogą nie reprezentować całej populacji, tym samym ograniczając zakres możliwych generalizacji. Po drugie, zbyt aktywny czy zbyt angażujący się obserwator może być źródłem stronniczości. Stronniczość ta może być rezultatem nieintencjonalnych i nie kontrolowanych zmian w sposobie prowadzenia obserwacji. Po trzecie, nawet jeżeli obserwator pozostanie nie zauważony, to sytuacje dostępne prostej obserwacji muszą być sytuacjami publicznymi, co ogranicza zakres dostępnych obserwacji zachowań. Po czwarte, większość obserwacji zebranych za pomocą metody prostej obserwacji nie prowadzi w sposób automatyczny do bezdyskusyjnych wniosków: „Dane [...] nie pozwalają stwierdzić dlaczego, lecz jedynie pozwalają określić powiązania"31. Ta wieloznaczność ogranicza możliwości stosowania prostej obserwacji i trafność interpretacji jej wyników, i to nawet wtedy, kiedy obserwowane sytuacje można łatwo zreplikować. ¦ Dokumenty archiwalne Dokumenty archiwalne to kolejne źródło nieinwazyjnych danych. Dane te pochodzą z różnych źródeł, na przykład danych aktuarialnych, dokumentów sądowych i wyborczych, dokumentów rządowych, należących do mass mediów i dokumentów osobistych (takich jak biografie, pamiętniki czy listy). Niektóre z tych dokumentów zostały opracowane w celu ich szerokiego wykorzystania, inne przygotowano jedynie z myślą o badaniach naukowych. Zatem badacze prowadzący badania w naukach społecznych mają do dyspozycji ogromną liczbę gotowych do wykorzystania dokumentów archiwalnych, dostępnych zarówno publicznie, jak i prywatnie. Dokumenty oficjalne Dokumenty oficjalne można podzielić na cztery kategorie. Do pierwszej grupy należą dane aktuarialne, które zawierają dane o cechach demograficznych populacji, takie jak statystyki urodzin i śmierci czy statystyki dotyczące ślubów i rozwodów. Do grupy drugiej należą rejestry sądowe i inne dokumenty oficjalne, na przykład wyroki sądowe, działania legislacyjne, głosy oddane podczas głosowania, decyzje dotyczące budżetu itp. Do grupy trzeciej należą dokumenty rządowe i quasi-rządo-we takie, jak statystyki dotyczące przestępczości, dane dotyczące programów pomocy społecznej, dokumenty szpitalne i raporty meteorologiczne. Grupa czwarta to artykuły czy informacje o aktualnych wydarzeniach zamieszczane w gazetach i in- "' Deborah Tannen (1999), Ty nic nie rozumiesz! Kobieta i mężczyzna w rozmowie, ttum. Agnieszka Sylwanowicz, Poznań: Zysk i S-ka Wydawnictwo. " Webb i in., Nonreactive Measures, s. 127. 335 ne informacje przekazywane przez mass media. Wszystkie te dokumenty były wykorzystywane jako źródło danych w licznych badaniach naukowych. Dane aktuarialne. Większość społeczeństw gromadzi dane dotyczące urodzin, śmierci, ślubów i rozwodów. W naukach społecznych korzysta się z takich danych zarówno w celach opisowych, jak i przy wyjaśnianiu. Russell Middleton, na przykład, badał poziom płodności, analizując dwa zbiory danych: dane dotyczące płodności przedstawiane w opowiadaniach publikowanych w czasopismach oraz rzeczywiste dane dotyczące płodności w latach 1916, 1936 i 1956. Middleton pierwszy oszacował wskaźnik płodności, opisując wielkość fikcyjnych rodzin, których losy śledził w ośmiu amerykańskich czasopismach. Kiedy porównał te wartości z danymi populacyjnymi dla tych samych lat, okazało się, że dane fikcyjne wykazują taką samą zmianę w wielkości rodziny, jaką wykazała analiza rzeczywistych danych dotyczących populacji Stanów Zjednoczonych32. Lloyd Warner w swoich badaniach dotyczących śmierci i związanych z nią ceremonii w dużych miastach amerykańskich wykorzystał liczne oficjalne dokumenty. Aby ustalić społeczną historię śmierci, analizował oficjalne dokumenty pogrzebowe. Ustalił, że struktura społeczna miasta jest odzwierciedlana na cmentarzach. Na przykład ojcowie byli najczęściej chowani w centrum rodzinnego grobu, a nagrobki mężczyzn były większe niż nagrobki kobiet. Co więcej rodziny, które podniosły swój status społeczny, przeniosły groby swoich najbliższych z cmentarza o mniejszym prestiżu na cmentarz o większym prestiżu33. Rejestry sądowe i inne dokumenty oficjalne. Politolodzy często wykorzystują statystyki dotyczące głosowania, aby badać zachowania wyborcze. Zbiory takie jak A Review ofthe Elections ofthe World wydawane co dwa lata przez Institute of Electoral Research w Londynie i kolejne tomy America at the Polis: A Handbook of American Presi-dential Election Statistics, 1920-1965 pod redakcją Richarda M. Scammona (Salem, N.H.: Ayer, 1976), a także Kennedy to Clinton, 1960-1992, autorstwa Alice V. McGillivray i Richarda M. Scammona (Washington, D.C.: Congressional Quarterly Inc., 1994) dostarczają bardzo użytecznych danych na temat głosowania. The Congressional Quarterly Almanac dostarcza informacji na temat Kongresu Stanów Zjednoczonych, łącznie z danymi dotyczącymi wykształcenia członków Kongresu, a także informacje na temat podstawowych aktów ustawodawczych czy obecności na posiedzeniach. Z kolei w książce World Handbook of Political and Social Indicators (New Haven, Conn.: Yale University Press, 1983) Charles L. Taylor i David Jodice przedstawili ponadnarodowe dane dla 148 polityków, takie jak: poparcie elektoratu, liczbę rozruchów, jaką zanotowano w ciągu roku, liczbę nie planowanych zmian w rządzie i nierównomiemości podziału dochodów. Natomiast Harold W. Stanley i Richard G. Niemi w pracy Vital Statistics on American Politics (wyd. 3, Washington, D.C.: Congressional Quarterly Inc., 1991) przedstawiają dane w postaci szeregów czasowych na temat instytucji politycznych, opinii publicznej i polityki rządu. 32 Russell Middleton (1960), Fertility Values in American^Magazine Fiction, 1916-1956, „Public Opinion Quarterly", 24, s. 139-143. /^ 33 Lloyd W. Warner (1965), The Living and the Dead: A Study ofthe Symbolic Life of Americans, New Haven: Conn.: Yale University Press. 336 Publikacja The Congressional Record zawiera informacje, które można wykorzystać do badania zachowań nie tylko członków Kongresu, ale również osób spoza Kongresu. Na przykład powszechną praktyką wśród członków Kongresu jest publikowanie w The Congressional Record wystąpień odzwierciedlających ich poglądy. Eugene Webb w jednym z pierwszych badań felietonistów politycznych wykorzystał zawarte tam dane do analizowania konserwatyzmu i liberalizmu wśród felietonistów w Waszyngtonie. Webb określił pozycję każdego członka Kongresu na wymiarze konserwatyzm-liberalizm, kierując się wynikami ich głosowań, jakie zostały opublikowane przez dwie opozycyjne grupy: Conservative Americans for Constitutional Actions oraz Liberał Committee on Political Action, należący do związków zawodowych AFL-CIO. Następnie porangował felietonistów ze względu na średni wynik, jaki uzyskali członkowie Kongresu, którzy opublikowali swoje artykuły w The Record^. Dokumenty rządowe. Podobnie jak analiza urodzeń i śmierci może dostarczać interesujących danych, również analiza dokumentów rządowych i quasi-rządowych może być sposobem zbierania danych. I tak na przykład Lombroso interesował się, jakie czynniki (obok czynników ekonomicznych i osobowych) wpływają na twórczość naukową. Wykorzystał on dokumenty rządowe do zbadania wpływu pogody i pory roku na twórczość naukową. Po stworzeniu próby składającej się z 52 odkryć naukowych w dziedzinie medycyny, chemii i matematyki określił porę roku, w której zostały one dokonane. Okazało się, że 22 ważnych wynalazków dokonano wiosną, 15 jesienią, 10 latem i 5 zimą35. Budżety miast stanowią bogate źródło danych dla wielu badań z dziedziny nauk społecznych. Robert Angell wykorzystał takie dane w swoich unikatowych badaniach poświęconych integracji moralnej w amerykańskich miastach. Skonstruował on „wskaźnik pomocy społecznej", obliczając wydatki per capita na pomoc społeczną. Miarę tę połączył ze „wskaźnikiem przestępczości" opartym na danych FBI, tworząc globalny „wskaźnik integracji"36. Dane na temat budżetu zostały wykorzystane jako wskaźniki aktywności w zakresie polityki społecznej. Wydatki budżetu to dane na temat „kto otrzymuje co" z funduszy publicznych, wpływy zaś pokazują, „kto za to płaci". Co ważniejsze, mechanizm budżetu może zostać wykorzystany do oceny programów rządowych, ich kosztów, powiązania ze źródłami finansowymi, wybierania pomiędzy alternatywnymi wydatkami i określania finansowego wysiłku, jaki włożył rząd w rozwój tych programów. W klasycznym dziś badaniu Otto Da-vis, M.A.H. Dempster i Aaron Wildavsky badali w kolejnych okresach budżet federalny i wskazali na dwie zmienne, które mogą wyjaśniać corocznie większy podział budżetu: 1. Coroczne zapotrzebowanie na pieniądze z budżetu wynika ze stałego procentu przyznawanego przez Kongres w minionych latach oraz komponentu losowego w danym roku; 34 Eugene J. Webb (1963), How to Tell a Columnist, „Columbia Journalism Review", 2, s. 20. 35 Webb i in., Nonreactive Measures, s. 72. 36 Robert C. Angell (1951), The Morał Integration of American Cities, „American Journal of So-ciobiology", 57, s. 1-140. 337 2. Na przyznane w określonym roku przez Kongres pieniądze składają się: stały procent złożonego zapotrzebowania w danym roku oraz składowa odzwierciedlająca różnicę pomiędzy Kongresem a instytucją składającą zapotrzebowanie, jaka wystąpiła w poprzednim roku37. Mass media. Mass media tworzą najłatwiej dostępny zbiór danych. Mass media rejestrują werbalne zachowania ludzi, a badacze analizują te zachowania i testują twierdzenia ogólne. Metoda analizy treści, którą skrótowo przedstawiamy niżej, pozwala badaczom na szerokie stosowanie mass mediów jako podstawowego źródła danych. Badania wykorzystujące dane z mass mediów mogą być bardzo różnorodne38. Przedstawimy tu tylko jeden przykład. Giną Daddario analizowała opisy i komentarze sprawozdawców sportowych wygłaszane podczas komentowania dyscyplin kobiecych na olimpiadzie zimowej w 1992 roku. Otrzymane przez nią wyniki wskazują, że styl komentarzy oraz język ukazują atletycznie zbudowaną kobietę raczej jako postać odpowiadającą wizerunkowi idealnej kobiety niż osobę, która uprawia sport, i to niezależnie od pokazujących się na ekranie zdarzeń czy działań wymagających siły fizycznej i zaprzeczających stereotypowemu obrazowi kobiecości. Na koniec stwierdziła ona, że nieadekwatne odwoływanie się do kobiecości w kometarzach sportowych wpływa na marginalizację sportów kobiecych39. Dokumenty osobiste Do dokumentów osobistych jest znacznie trudniej dotrzeć niż do dokumentów oficjalnych. Mimo to mogą one stanowić wartościowe źródło danych dla tych wszystkich badaczy, których interesuje indywidualny punkt widzenia na określone sytuacje czy wydarzenia. Do dokumentów osobistych zaliczamy autobiografie, pamiętniki, opowiadania, listy itp. Autobiografie to najczęściej spotykane dokumenty osobiste. Można w nich znaleźć własną interpretację doświadczeń autora. Pamiętniki (dzienniki) mają charakter bardziej spontaniczny, gdyż zazwyczaj autor czuje się mniej związany pewnego rodzaju misją, która często wyznacza sposób pisania autobiografii. Zarówno autobiografie, jak i pamiętniki są pierwotnie przeznaczane dla jednej osoby — autora. Z kolei listy są własnością dwóch stron — autora i odbiorcy — i często są wyrazem związków zachodzących między nimi40. Te trzy rodzaje dokumentów osobistych koncentrują się na osobistych doświadczeniach autorów i są wyrazem ich osobistych refleksji. Najczęściej powstają z własnej inicjatywy autora. Jednym z podstawowych problemów związanych z korzystaniem z dokumentów osobistych jest pytanie dotyczące ich autentyczności. Zazwyczaj spotyka się dwa rodzaje nieautentycznych dokumentów: dokumenty, które stworzono w celu świadomego oszustwa, oraz dokumenty, które nieświadomie źle zinterpretowano. Dokumenty najczęściej fałszuje się z chęci zdobycia prestiżu lub nagrody material- 37 Otto A. Davis, M.A.H. Dempster, Aaron Wildavsky (1966), A Theory of Budgetary Process, „American Political Science Review", 60, s. 529-547. 38 Liczne badania z wykorzystaniem danych pochodzących z mass mediów można znaleźć w pracy Webb i in., Nonreactive Measures. 39 Giną Daddario (1994), Chilly Sciences ofthe 1992 Winter Games: The Mass Media and the Mar-ginalization of Female Athletes, „Sociology of Sport Journal", 11, s. 275-288. 40 Norman K. Denzin (1989), The Research Act: A Theoretical Introduction to Sociological Me-thods, wyd. 3, Englewood Cliffs, N.J.: Prentice Hall, rozdział 8. 338 nej. Osoby dobrze znające życie danej osoby mają większą szansę na sprzedanie domniemanej biografii jakiemuś wydawnictwu. Taki los spotkał jedno ze znanych wydawnictw, które w 1972 roku kupiło fałszywą biografię ekscentrycznego milionera Howarda Hughesa. Aby ustrzec się przed zakupem fałszywych dokumentów, można zastosować jedną z następujących procedur. Po pierwsze, należy dokładnie zbadać autorstwo dokumentu. Po drugie, należy ustalić datę pochodzenia dokumentu i zweryfikować inne daty, o których jest mowa w tym dokumencie. Na przykład, jeżeli autor dokumentu opisuje konkretne wydarzenie, powiedzmy powódź, to można sprawdzić autentyczność tego wydarzenia, odwołując się do innych źródeł, chociażby do informacji, jakie w tym czasie znalazły się w prasie. Jeżeli autor opisuje wydarzenie, które nie wystąpiło w czasie, w którym dokument prawdopodobnie został napisany, to mamy podstawy wątpić w jego autentyczność. Drugi rodzaj braku autentyczności jest znacznie trudniejszy do wykrycia. Chociaż dokumenty nie muszą być fałszywe, mogą nie przedstawiać prawdy z następujących powodów: autorzy listów, pamiętników czy autobiografii mogą nie pamiętać dokładnie faktów, mogą się starać zadowolić lub rozbawić swoich czytelników, wyolbrzymiając to, co opisują, lub też mogą się czuć zobowiązani do bycia w zgodzie z obowiązującymi społecznymi normami i tym samym przedstawiać nieco zniekształcony obraz rzeczywistości. Stuart Chapin twierdzi, że każdy badacz, zanim uzna jakiś dokument za autentyczny, powinien najpierw odpowiedzieć na następujące pytania41: 1. Co autor rozumie przez konkretną wypowiedź? Czy faktyczny sens tej wypowiedzi jest inny od sensu literackiego? 2. Czy wypowiedź została sformułowana w dobrej wierze? Czy autorem kierowało uczucie sympatii czy antypatii? Może próżność? A może opinia publiczna? 3. Czy wypowiedź jest precyzyjna? Czy może autor był złym obserwatorem, ponieważ nie był całkowicie sprawny umysłowo lub cierpiał na jakąś chorobę psychiczną? Czy mógł się znaleźć w określonym czasie i miejscu, aby zaobserwować to, co opisuje? Czy był nonszalancki? Czy był obojętny? Kiedy badacz odpowie na te pytania, zdobędzie wskazówki pozwalające mu lepiej ocenić zebrane dokumenty i wybrać tylko te, do których można mieć zaufanie. Autobiografie. Unikatowość autobiografii polega na tym, że opisują one życie i doświadczenia danej osoby, w postaci nieskażonej interpretacjami opisywanych wydarzeń dokonywanymi przez inne osoby. Dzięki temu badacz może poznać cudze życie w jego naturalnym przebiegu, poprzez bezpośredni opis wolny od zniekształcających wpływów. Gordon Allport wprowadził rozróżnienie na trzy typy autobiografii, z których każdy może być wykorzystywany do realizacji innych celów badawczych42. Pierwszy to autobiografia pełna obejmująca całe życie danej osoby, począwszy od 41 Stuart F. Chapin (1979), Field Work and Social Research, New York: Ayer, s. 37 (wyd. 1 — 1920). 42 Gordon W. Allport (1941), The Use of Personal Documents in Psychological Research, New York: Social Science Research Council. 339 najwcześniejszych wspomnień, i obejmująca większość jej przeżyć. Przykładem pełnej autobiografii jest spisana przez Hellen Keller historia jej życia jako osoby niewidomej i głuchoniemej. Drugim rodzajem autobiografii jest autobiografia tematyczna, w której autor koncentruje się na jakimś aspekcie swojego życia. Edwin Sutherland, na przykład, analizował tylko jeden aspekt życia profesjonalnego złodzieja: Zasadniczą część tej książki stanowi opis złodziejskiego fachu dokonany przez osobę, która przez ponad dwadzieścia lat uprawiała tę profesję. Opis ten uzyskano w następujący sposób: najpierw złodziej napisał około dwóch trzecich objętości, realizując tematy i odpowiadając na pytania, które zostały przeze mnie przygotowane; następnie spędziliśmy około dwunastu tygodni, dyskutując przez siedem godzin tygodniowo o tym, co napisał. Po każdej takiej konferencji zapisywałem dosłownie wszystko, co on powiedział w trakcie naszej rozmowy43. Trzecim rodzajem autobiografii jest autobiografia redagowana, będąca książkową wersją czyichś wspomnień. Badacz wybiera z niej opis tylko takich doświadczeń, które mają związek z jego problemem badawczym. Redagując materiał zebrany w autobiografii, badacz klasyfikuje i strukturalizuje to, co zostało napisane, aby materiał dobrze ilustrował przyjęte hipotezy badawcze. Pamiętniki. Pamiętnik to najbardziej bezpośrednia relacja z życia jego autora. Pisane w czasie, kiedy określone wydarzenia się działy, przekazują informacje o tym, co się wydarzyło, bez zniekształceń spowodowanych pamięcią. Ludzie piszący dzienniki nie obawiają się zazwyczaj reakcji opinii publicznej, dlatego piszą o wszystkim, co się zdarzyło i co ich zdaniem ma znaczenie. Pamiętniki (dzienniki) również można podzielić na trzy grupy. Do pierwszej należą tzw. pamiętniki osobiste. Są to regularne zapiski subiektywnych odczuć i wrażeń, prowadzone przez dłuższy czas. Drugi rodzaj, wspomnienia, są raczej mniej osobiste i pisane są w stosunkowo krótkim czasie. Mają one charakter sprawozdania z indywidualnych przeżyć. I wreszcie trzeci rodzaj, terminarze, również mają charakter mało osobisty i zawierają zapis wydarzeń, spotkań, wizyt i innych sytuacji, które nastąpiły w określonym czasie. Terminarz nie zawiera zazwyczaj subiektywnej oceny sytuacji, w jakiej odbyło się wydarzenie. Niektórzy badacze w naukach społecznych uważają pamiętniki osobiste za użyteczne źródło danych, ponieważ zawierają one opis autentycznych wrażeń, i to zapisywanych w dłuższym okresie. Na przykład w biografii poety Dylana Thomasa znalazł się fragment jego pamiętników zawierający notatki na temat tworzonych utworów, uwagi na temat jego pozycji finansowej oraz komentarze dotyczące jego stosunków ze światem artystycznym44. Pamiętnik osobisty zawiera nie tylko chronologiczny opis wrażeń danej osoby zapisywanych przez dłuższy czas, ale również pozwala na porównywanie różnych okresów z życia jego autora i wychwytywanie ciągłości i zmian. Edwin H. Sutherland (1988), The Profesional Thief, Chicago: University of Chicago Press, s. v. Bill Read (1964), The Days ofDylan Thomas, New York: MacGraw-Hill. 340 Listy. Historycy i krytycy literaccy, odtwarzając życie jakiejś postaci historycznej czy literackiej, w dużej mierze korzystają z listów. Jedną z najwcześniejszych prób wykorzystania listów jako źródła danych w badaniach naukowych była praca Williama Thomasa i Floriana Znanieckiego nad polskimi chłopami, którzy wyemigrowali do Stanów Zjednoczonych. Autorzy zebrali listy przesyłane pomiędzy Polską aStanami Zjednoczonymi w latach 1901-1914 i potraktowali je jako źródło danych w badaniu problemu emigracji społeczności etnicznej. Listy te pozwoliły na zbadanie, między innymi, osobowości ich autorów oraz rodzaju związków, jakie były utrzymywane pomiędzy nimi a osobami, które zostały w starym kraju45. Miary nieinwazyjne wykorzystywane w analizie danych wtórnych ¦ Wskaźniki fizyczne. Znaki zużycia obiektu (miary erozji) lub rzeczy (materiały) pozostawione przez populację (miary przyrostu). ¦ Obserwacja prosta. Obserwacja prowadzona bez ingerowania w sytuacje obserwowanych osób. Do obserwacji prostej zalicza się obserwację wyglądu zewnętrznego ciała i znaków fizycznych, zachowań ekspresyjnych, zajmowanych pozycji fizycznych i obserwację zachowań językowych. ¦ Dokumenty archiwalne. Dane zebrane z takich źródeł jak dane aktuarial-ne, rejestry sądowe i dokumenty polityczne, dokumenty rządowe, medialne i dokumenty osobiste. ¦ Analiza treści Dane otrzymane ze źródeł archiwalnych, dokumentów i z mass mediów są często analizowane w sposób systematyczny przez badaczy. Listy, dzienniki, artykuły z gazet, zapisy spotkań i reportaże na żywo (jak w przypadku zimowej olimpiady z 1992 roku, o czym wspominaliśmy wyżej), filmy oraz widowiska radiowe i telewizyjne to źródła danych wykorzystywanych w analizie treści — metodzie analizowania danych, ale też metodzie ich zbierania. Zamiast bezpośredniego obserwowania zachowań ludzi lub zadawania im pytań dotyczących tych zachowań można wykorzystać kopie tego, co ludzie wytworzyli, i zadać pytania dotyczące tych zapisów. Podstawą wnioskowania jest treść przekazu. I tak na przykład John Naisbitt w swojej pracy Megatrendy analizował bieżące prądy w zakresie ekonomii, działań społecznych i polityki po to, aby na tej podstawie przewidywać przyszłe trendy i kierunki46. W swoim badaniu zastosował analizę treści do ponad 2 milionów artykułów o lokalnych wydarzeniach, opublikowanych w lokalnych gazetach w ca- 45 William I. Thomas, Florian Znaniecki (1976), Chłop polski w Europie i Ameryce, t. 1-5, tłum. Anna Bartkowicz, Maryla Metelska, Endla Oengo-Knoche, Irena Wyrzykowska, Warszawa: Ludowa Spółdzielnia Wydawnicza. 46 John Naisbitt (1997), Megatrendy. Dziesięć nowych kierunków zmieniających nasze życie, tłum. Paweł Kwiatkowski, Poznań: Zysk i S-ka Wydawnictwo. 341 łym kraju w okresie dwunastu lat. Naisbitt stwierdził, między innymi, że pięć stanów (Kalifornia, Floryda, Waszyngton, Kolorado i Connecticut) to stany, w których zaszło najwięcej zmian o charakterze społecznym. Analiza treści — definiowana swobodnie — to „każda technika wyprowadzania wniosków na podstawie systematycznie i obiektywnie określanych cech przekazu"47. Obiektywność tej metody wynika z przestrzegania przez wszystkich badaczy tych samych, jasno określonych reguł gwarantujących, że różni badacze uzyskają takie same rezultaty z analizowania takich samych przekazów czy dokumentów. Zatem w systematycznej analizie treści „włączanie i wyłączanie treści odbywa się zgodnie z określonymi kryteriami selekcji. Wymóg ten eleminuje takie analizy, w których uwzględnia się jedynie te materiały, które potwierdzają hipotezę badacza"48. Zastosowania analizy treści Chociaż najczęściej przeprowadza się analizę treści na przekazach słownych, to można ją wykorzystywać w sytuacjach, kiedy szuka się odpowiedzi na pytania dotyczące innych aspektów komunikacji. Harold Lasswell tak określił podstawowe pytania stawiane przez badaczy: „Kto, co mówi, do kogo i z jakim skutkiem?" Badacz może więc analizować przekaz, aby sprawdzić hipotezę dotyczącą cech tekstu — tego, co zainspirowało komunikat — oraz skutków komunikacji. Te trzy wymiary różnią się ze względu na rodzaj analizowanych danych, uwzględnionych wymiarów komunikacji oraz zastosowanych planów badawczych. Analiza treści jest stosowana najczęściej wtedy, gdy trzeba opisać cechy przekazu. Na przykład wczesne badania dotyczące zmian rewolucyjnych i tworzenia się relacji interpersonalnych polegały na badaniu symboli politycznych. W badaniach tych plany badawcze były dobierane tak, aby można było sprawdzić hipotezę o „światowej rewolucji" za pomocą określania sposobów posługiwania się symbolami wyrażającymi podstawowe cele i wartości współczesnej polityki. W jednym z badań poddano analizie artykuły wstępne opublikowane w najbardziej prestiżowych gazetach wydawanych w Stanach Zjednoczonych, w Anglii, Francji, Niemczech i w Związku Radzieckim, w okresie od 1890 do 1949 roku. Artykuły, które się ukazały pierwszego i piętnastnego każdego miesiąca, zostały zakodowane ze względu na obecność w nich 416 podstawowych symboli. Symbole te obejmowały 206 terminów geograficznych, takich jak nazwy państw i organizacji międzynarodowych i 210 terminów ideologicznych, takich jak równość, demokracja i komunizm. Kiedy pojawiał się dany symbol, osoby kodujące punktowały go jako obecny i zaliczały związane z nim postawy do jednej z trzech kategorii: aprobaty, dezaprobaty i stanowiska neutralnego. Aby prześledzić, co się znajdowało w centrum zainteresowania i jakie wokół tego tworzyły się postawy, autorzy badań przeanalizowali dane pochodzące z 19 553 artykułów wstępnych50. Analiza treści to technika, którą można stosować również do analizowania in- 47 Ole R. Holsti (1968), Content Analysis, w: Gardney Lindzey, Elliot Aronson (red.), The Hand-book of Social Psychology, Reading Mass.: Addison-Wesley, s. 601. Przedstawione niżej opracowanie oparte jest właśnie na tej pracy. 48 Ibidem, s. 598. 49 Harold D. Lasswell (1965), Detection: Propaganda Detection and the Courts, w: Harold D. Lasswell i in. (red.), The Language ofPolitics: Studies in Quantitative Semantics, Cambridge, Mass.: MIT Press, s. 12. 50 Ithiel de Sola Pool (1981), Symbols of Democracy, Westport, Conn.: Greenwood Press (wyd. 1 — 1952). 342 nych danych niż dane werbalne. Philip White i James Gillett przeanalizowali 916 reklam opublikowanych w popularnym magazynie poświęconym kulturystyce, a zatytułowanym „Flex". Celem badania było określenie podstawowych tematów komunikacji. Wyróżniono następujące tematy: ukazywanie czytelnika jako osobę gorszą (43% treści), obietnice przemiany (64,5% treści) i przedstawianie muskularnego ciała jako dominującego obrazu męskości (70,6%). Następnie, aby wyjaśnić otrzymane wyniki, badacze odwołali się do modeli kulturowych i ideologicznych. Stwierdzili, że takie reklamy zastępują rzeczywistość emocjami i że dla czytelników tego magazynu męska muskulatura jest symbolem wyższości mężczyzn i formą kompensacji ograniczonych przywilejów w innych obszarach. Ten proces z kolei podtrzymuje ideologię męskości, w której cechy biologiczne są podstawą różnic w społeczno-kulturowym i ekonomicznym znaczeniu płci51. Drugim obszarem zastosowań analizy treści — kto, co mówi, dlaczego i do kogo —jest analiza tekstu pod kątem wyprowadzania wniosków o nadawcy komunikatu, jego poprzednikach i przyczynach sformułowania tego komunikatu. Bardzo dobrze znanym przykładem określania tożsamości nadawcy jest praca Frederica Mostellera i Davida Wallace'a nad autorstwem numerów 49-58, 62 i 63 „Federalist Papers". Mosteller i Wallace rozpoczęli od analizy następujących zbiorów dokumentów: tych, o których wiadomo było, że zostały napisane przez Madisona, napisanych przez Madisona lub Hamiltona oraz napisanych przez obu. Po przeanalizowaniu potwierdzonego zbioru dokumentów badaczom udało się wyodrębnić słowa, którymi niezależnie posługiwali się obaj autorzy. I tak na przykład Hamilton — w odróżnieniu od Madisona — miał tendencję do posługiwania się słowem „dosyć". Mosteller i Wallace wykorzystali następnie owe różnicujące słowa kluczowe — w połączeniu z innymi terminami — do określenia autorstwa spornych dokumentów. Otrzymane rezultaty wyraźnie potwierdziły tezę, że ich autorem był Madison52. Ustalenia te pomogły rozwiązać pytania natury historycznej dotyczące intelektualnego wkładu do Konstytucji. Analiza treści była również wykorzystywana do wyprowadzania wniosków o elementach kultury i zmianach kulturowych. David McClelland sprawdzał swoją teorię „potrzeby osiągnięć", analizując treść dzieł literackich, które ukazały się w różnych krajach. Według McClellanda osoba z wysoką potrzebą osiągnięć to osoba pragnąca sukcesu, niekonformistyczna, lubiąca zadania zawierające element ryzyka. Wynikiem świadczącym o potrzebie osiągnięć będzie zatem „suma obrazów czy idei osiągnięć", jaką można znaleźć w dziełach literackich należących do określonej kultury. McClelland sformułował następującą hipotezę: „Społeczeństwo, do którego należy stosunkowo duży procent osób z wysokim wynikiem w zakresie potrzeby osiągnięć, będzie posiadało silną klasę przedsiębiorców, aktywnych zwłaszcza w dziedzinie biznesu, dzięki czemu będzie ono coraz silniejsze i bardziej wpływowe". Aby sprawdzić tę hipotezę, dokonał punktacji wybranych dzieł literackich pochodzących z różnych okresów cywilizacji greckiej53. 51 Philip G. White, James Gillett (1994), Reading the Muscular Body, A Critical Decoding of Ad-vertisements in Flex Magazine, „Sociology of Sport Journal", 11, s. 18-39. 52 Frederic Mosteller, David L. Wallace (1964), Inference and Disputed Authorship: The Federalist, Reading, Mass.: Addison-Wesley. 51 David C. McClelland (1966), The Use of Measures of Humań Motivation in the Study ofSociety, w: John W. Atkinson (red.), Motives in Fantasy, Action and Society, New York: Van Nostrand, s. 518. 343 Trzecim podstawowym zastosowaniem analizy treści jest wyprowadzanie wniosków na temat skutków, jakie dany przekaz wywiera na jego odbiorę. Badacz określa skutki przekazu A na B, analizując treść przekazu ze strony B. Można też badać efekty komunikacji, analizując inne elementy zachowania odbiorcy. Podsumowując, analiza treści pomaga określić istotne zmienne niezależne dotyczące zachowania odbiorcy w procesie komunikowania się. Trzy zastosowania analizy treści ¦ Opis cech przekazu. ¦ Wyprowadzanie wniosków o nadawcy przekazu, jego poprzednikach lub przyczynach sformułowania przekazu. ¦ Wyprowadzanie wniosków o skutkach, jakie dany przekaz wywiera na jego odbiorców. Jednostki i kategorie Analiza treści to interakcja dwóch procesów: określania cech treści, które badacz chce mierzyć, i wykorzystania reguł, które badacz musi zastosować, aby ustalić i zapisać cechy analizowanego tekstu. Kategorie wykorzystywane do kodowania treści różnią się ze względu na rodzaj danych i stawiane cele badawcze. Zanim omówimy ogólne procedury konstruowania takich kategorii, przedstawimy pojęcie jednostki analizy wykorzystywanej w badaniach i wprowadzimy rozróżnienie pomiędzy jednostką analizy a jednostką kontekstu. Jednostka analizy jest to najmniejszy element treści, który występuje w przekazie. Jednostką kontekstu natomiast jest większy fragment treści, który można analizować w trakcie charakteryzowania jednostek analizy. Jednostkami analizy mogą być pojedyncze terminy. Aby jednak można było określić, czy terminy te mają zabarwienie pozytywne, badacz musi przeanalizować całe zdanie (jednostkę kontekstu), w którym znajduje się to słowo. Zatem analizując dany termin (i go kodując), badacz bierze pod uwagę całe zdanie. Można wyróżnić pięć podstawowych kategorii jednostek analizy: słowa czy terminy, tematy, postacie, akapity i pozycje. Słowo to najmniejsza jednostka, najczęściej też wykorzystywana w badaniach. Kiedy jednostką analizy jest słowo, sporządza się listę częstości pojawiania się określonych słów lub terminów. Dla wielu celów badawczych użyteczną jednostką analizy jest temat, zwłaszcza w badaniach nad propagandą, w badaniach postaw, wyobrażeń czy wartości. W najprostszej postaci temat jest prostym zdaniem, tj. zdaniem zawierającym podmiot i orzeczenie. Ponieważ w większości tekstów tematy można określić w członach zdań lub akapitach, badacz musi więc określić, co ma brać pod uwagę osoba kodująca wykorzystująca temat jako jednostkę analizy. Na przykład osoba kodująca może zapisywać jedynie pierwszy temat pojawiający się w danym akapicie lub też każdy temat pojawiający się w tekście. W niektórych badaniach jednostką analizy są postacie. Wówczas badacz ustala liczbę osób pojawiających się w tekście, a nie liczbę słów czy tematów. Taki wybór pozwala na analizowanie cech osobowości postaci przedstawianych w różnych tekstach. 344 Akapit jest rzadko stosowaną jednostką analizy ze względu na jego złożoność. Osoby kodujące mają zazwyczaj trudności w klasyfikowaniu i kodowaniu licznych i zróżnicowanych elementów znajdujących się w pojedynczym paragrafie. Pozycją jest z kolei cala, wykorzystywana przez badacza praca. Pozycją może być cała książka, artykuł, przemówienie itp. Analiza całych pozycji jest szczególnie przydatna, gdy zróżnicowanie w ramach poszczególnych pozycji jest niewielkie i nieistotne. Arykuły gazetowe mogą na przykład zostać podzielone według ich tematyki na artykuły kryminalne, dotyczące rynku pracy czy sportu. Na koniec jednostki analizy zostają poklasyfikowane na kategorie. Konstruowanie kategorii, jak wskazuje Bernard Berelson, jest najważniejszym etapem analizy treści: To, czy analiza treści kończy się powodzeniem czy niepowodzeniem, zależy od zastosowanych kategorii. Prowadzone badania okazały się owocne w takim zakresie, w jakim wykorzystane kategorie były jasno sformułowane i dobrze przystawały do badanego problemu i analizowanej treści. Badania z wykorzystaniem analizy treści, oparte na doraźnie formułowanych podstawach, bez jasno określonego problemu badawczego i z niejasno sformułowanymi kategoriami prawie na pewno okażą się nieistotne z punktu widzenia ich wkładu do nauki [...] Ponieważ kategorie są istotą badań, analiza treści nie może być lepsza od systemu stosowanych przez siebie kategorii54. W analizie treści najczęściej stosuje się następujące kategorie55: Kategorie typu „co zostało powiedziane" Przedmiot: Czego dotyczy komunikat? Kierunek: W jaki sposób przedmiot został przedstawiony (pozytywnie czy negatywnie)? Podstawy: Na jakich podstawach dokonano klasyfikacji? Wartości: Jakie wartości, cele czy pragnienia zostały ujawnione? Metody: Za pomocą jakich metod można osiągnąć cele? Cechy: Za pomocą jakich cech opisuje się ludzi? Aktor: Kto podejmuje określone działania? Autorytet: W czyim imieniu formułowane są określone wypowiedzi? Początek: Gdzie rozpoczął się komunikat? Mieisce: Gdzie przebiegają określone działania? Konflikt: Jakie są źródła i poziomy konfliktu? Zakończenie: Czy konflikty kończą się szczęśliwie, bez rozwiązania czy tragicznie? Czas: Kiedy określone działanie nastąpiło? Kategorie typu „jak to zostało powiedziane" Formy lub rodzaje komunikacji: W jaki sposób przekazano komunikat (radio, gazeta, rozmowa, telewizja itp.)? Forma wypowiedzi: Jaka jest gramatyczna czy syntaktyczna forma wypowiedzi? Środki: Jakie wykorzystano środki retoryczne lub perswazyjne? 54 Bernard Berelson (1971), Content Analysis in Communication Research, New York: Hafner, s. 147. 55 Holsti, Content Analysis. 345 Kategorie muszą być powiązane z celem badania, muszą być wyczerpujące i wzajemnie rozłączne. Dzięki temu, że kategorie są wyczerpujące, każda jednostka analizy może zostać gdzieś zaklasyfikowana. Warunek wzajemnej rozłączności oznacza natomiast, że żadna jednostka analizy nie może zostać zaliczona do więcej niż jednej kategorii w ramach danego systemu (por. rozdział 14). Badacz musi również wyraźnie określić kryteria zaliczania określonych jednostek analizy do każdej z kategorii. W ten sposób możliwa staje się replikacja, czyli podstawowe wymaganie obiektywnej i systematycznej analizy treści. Większość z badań wykorzystujących analizę treści to badania mniej czy bardziej ilościowe. Aby analiza ilościowa była możliwa, należy zastosować jeden z poniższych systemów enumeracji: 1. System czasowo-przestrzenny oparty na pomiarach przestrzeni (na przykład szerokości kolumny tekstu) lub wykorzystujący jednostki czasu (na przykład liczbę minut poświęconych określonej wiadomości nadanej przez radio). Ten system pozwala opisać względne znaczenie różnych kategorii w analizowanym materiale. 2. System oparty na występowaniu cech, w którym osoby kodujące poszukują materiału świadczącego o obecności pewnych cech. Wielkość jednostki kontekstowej wyznacza częstotliwość, z jaką powtarzające się jednostki analizy pozostające blisko siebie będą niezależnie liczone. 3. System częstościowy, w którym zlicza się każde pojawienie się określonej cechy. 4. System oparty na analizowaniu stopnia nasilenia, który jest generalnie stosowany w badaniach dotyczących postaw i wartości. Metody kwantyfikacji w badaniu stopnia nasilenia polegają na konstruowaniu skal (por. rozdział 18). Na przykład posługując się techniką porównywania par opracowaną przez Thurstone'a, można określić, która para wskaźników nasilenia lokuje się wyżej na skali postaw. Otrzymane oceny są następnie wykorzystywane do konstruowania kategorii, do których zaliczane będą jednostki analizy56. ¦ Podsumowanie 1. Wtórna analiza jest przeprowadzana na danych zebranych przez inne osoby. W niektórych badaniach dane wtórne mogą stanowić jedyne dostępne źródło danych. Można je również wykorzystywać do celów porównawczych. Wtórna analiza danych ma wiele zalet: stwarza możliwość replikacji badań, umożliwia stosowanie longitudinalnych planów badawczych, może poprawić pomiar niektórych zmiennych i często umożliwia zwiększenie wielkości badanej próby. Uzyskanie danych wtórnych jest zdecydowanie mniej kosztowne w porównaniu z danymi pierwotnymi. 56 Najbardziej współczesnym kierunkiem rozwoju analizy treści jest tworzenie programów komputerowych pozwalających na przeprowadzanie różnorodnych operacji stosowanych w analizie tekstu. Omówienie tego problemu wykracza poza zakres tej książki, ale osobom zainteresowanym polecamy pracę Roberta F. Webera (1990), Basic Content Analysis, Thousand Oaks, Calif.: Sagę. 346 2. Szeroko stosowanym źródłem danych wtórnych są dane statytystyczne, zwłaszcza pochodzące ze spisów ludności przeprowadzanych przez rząd dla potrzeb administracyjnych i publicznych. Dane ze spisu ludności są wykorzystywane do określania, między innymi, struktury gospodarstw domowych, badania cech charakterystycznych sąsiedztwa i rodzajów problemów mieszkaniowych, czy też struktury rodziny. Drukowane raporty statystyczne, czyli pierwotne źródło danych spisowych, są łatwo dostępne i wygodne w użyciu. Dla użytkowników, którzy potrzebują bardziej szczegółowych danych lub danych opracowanych dla mniejszych obszarów geograficznych niż w drukowanych raportach, Urząd Statystyczny rozprowadza dane również w postaci taśm magnetofonowych. Urząd Statystyczny zaczyna też do tego celu wykorzystywać CD-ROM-y. 3. Miary nieinwazyjne to kolejne źródło danych oddzielające badacza od badanej przez niego populacji. W trakcie dokonywania pomiarów nieinwazyjnych osoby badane nie zdają sobie sprawy, że uczestniczą w badaniu, i w związku z tym istnieje małe prawdopodobieństwo, że akt pomiaru jako taki będzie wymuszał zmiany zachowania osób badanych lub będzie się przyczyniać do grania przez nich jakiejś roli, zmieniając dane. Omówiliśmy trzy źródła danych nieinwazyjnych: ślady fizyczne, obserwację prostą i materiały archiwalne. 4. Ludzie zostawiają za sobą ślady fizyczne, nie myśląc, że kiedyś mogą zostać one wykorzystane przez badaczy. Podstawowe dwie kategorie śladów fizycznych stanowią miary erozji i miary przyrostu. Miary erozji to znaki świadczące o stopniu zużycia obiektów, stanowiące wskaźniki aktywności populacji. Na miary przyrostu składają się natomiast rzeczy i materiały pozostawione przez populację. 5. O obserwacji prostej mówimy wtedy, gdy obserwator nie kontroluje badanego zachowania i sam nie jest spostrzegany w trakcie dokonywania obserwacji. Możemy wyróżnić cztery rodzaje obserwacji prostej: obserwację wyglądu zewnętrznego ciała i znaków fizycznych, obserwację zachowań ekspresyjnych, obserwację zajmowanych pozycji fizycznych i obserwację zachowań językowych. 6. Inną grupę miar nieinwazyjnych stanowią dane uzyskane na podstawie analizy materiałów i dokumentów archiwalnych. Dane tego typu można otrzymać, analizując tak różnorodne źródła, jak dane aktuarialne, rejestry sądowe i dokumenty polityczne, dokumenty rządowe, dane z mass mediów czy wreszcie dokumenty osobiste takie, jak autobiografie, dzienniki i listy. Podstawowym problemem związanym z analizowaniem dokumentów osobistych jest problem ich autentyczności. Badacze muszą określić, czy opisane przez autora wydarzenia zostały przez niego świadomie lub nieświadomie błędnie przedstawione. 7. Analiza treści pozwala badaczom na prowadzenie systematycznej analizy danych uzyskanych ze źródeł i dokumentów archiwalnych. Zamiast bezpośredniego obserwowania ludzkich zachowań, czy też pytania o nie, badacz może się odwołać do tego, co ludzie mają sobie do powiedzenia i zadać pytania dotyczące treści takich komunikatów. Procedura analizy treści to interakcja dwóch procedur: określania przez badaczy cech analizowanego materiału i wyszukiwanie tych cech w badanym tekście. Oczywiście kategorie będące podstawą kodowania treści różnią się w zależności od natury problemu badawczego i wykorzystanych danych. 347 ¦ Podstawowe terminy analiza treści 342 miejsca objęte spisem 328 analiza zajmowanych pozycji obserwacja prosta 333 fizycznych 334 pełny spis 327 autentyczność 338 pomiar erozji 333 dane aktuarialne 336 pomiar nieinwazyjny 333 jednostka analizy 344 pomiar przyrostu 333 jednostka kontekstu 344 ścieżki spisowe 328 metropolitalne obszary statystyczne 328 ¦ Pytania sprawdzajgce 1. Jakie są korzyści wynikające z wtórnej analizy danych? 2. Zaproponuj problem badawczy i określ, w jaki sposób można otrzymać odpowiadające twoim hipotezom dane wtórne. 3. Zdefiniuj podstawowe rodzaje danych pochodzących ze spisu ludności i wskaż cele badawcze, dla których są one najbardziej odpowiednie. 4. Wyjaśnij różnice w metodologii badań za pomocą obserwacji prostej i obserwacji w warunkach eksperymentalnych. 5. Omów podstawowe problemy metodologiczne związane z analizą treści i przedstaw sposoby ich rozwiązania. ¦ Literatura dodatkowa Lutyński J. (1994), Metody badań społecznych. Wybrane zagadnienia (red., wstęp, opracowanie K. Lu- tyńska). Łódź: ŁTN. Mayntz R., Holm K., Hubner P. (1985), Wprowadzenie do metod socjologii empirycznej, Warszawa: PWN. Rzepa T. (red.) (1993), O biografii i metodzie biograficznej, Poznań: NAKOM. Sulek A. (1990), W terenie, w archiwum i w laboratorium. Studia nad warsztatem socjologa, Warszawa: Wyd. UW. Sułek A., Nowak K., Wyka A. (red.) (1989), Poza granicami socjologii ankietowej, Warszawa: Wyd. UW. Włodarek J., Ziółkowski M. (red.) (1990), Metoda biograficzna w socjologii, Poznań: PWN. 33 otrzymać odpisu ludności ednie. prostej i ob- analizą treści icowanie K. Lu-;nej, Warszawa: oga, Warszawa: 'arszawa: Wyd. 'WN. CZĘSC IV PRZETWARZANIE I ANALIZOWANIE DANYCH Rozdział 14 Przygotowanie i analiza danych Schematy kodowania 352 Reguły kodowania 352 Konstruowanie zeszytów kodowych 357 Rzetelność kodowania i rzetelność sposobów wprowadzania danych 359 Rzetelność kodowania 359 Sposoby wprowadzania danych 361 Przeglądanie i czyszczenie danych 363 Wykorzystywanie komputerów w naukach społecznych 365 Rodzaje komputerów 365 Komputery pracujące w sieci 366 Podsumowanie 366 Podstawowe terminy 367 Pytania sprawdzające 367 Ćwiczenia komputerowe 367 Literatura dodatkowa 368 Urząd statystyczny potrzebował około siedmiu łat, aby opracować i stabelaryzować dane zebrane w czasie dziesiątego spisu ludności przeprowadzonego w 1880 roku. Zanim pracę tę ukończono dziesięć lat później, posiadane informacje były już w zasadzie zbyt przestarzałe, aby można je było wykorzystać dla celów polityki podatkowej czy ocenić na ich podstawie preferencje polityczne. Stało się jasne, że Urząd Statystyczny musi opracować nowe techniki, aby dane dotyczące populacji Amerykanów były szybciej dostępne. Herman Hollerith, pracownik Urzędu, skonstruował elektryczną maszynę liczącą, która w 1890 roku — w czasie jedenastego spisu ludności — umożliwiła opracowanie i stabelaryzowanie danych w ciągu dwóch i pół roku. Urządzenie Holleritha „rejestrowało dane dzięki wykorzystaniu prądu elektrycznego, który przełączał proste, podobne do zegara urządzenie liczące. Kiedy prąd przepływał przez otwór w kartoniku nie przewodzącym prądu, elektromagnes aktywował licznik impulsów"'. Teraz, kiedy Urząd Statystyczny przygotowuje się do dwudziestego drugiego spisu ludności, który ma być przeprowadzony w 2000 roku, elektryczna maszyna licząca Holleritha wydaje się reliktem przeszłości. W roku 1890 urządzenie Holleritha mogło na przykład przetworzyć od 10 000 do 20 000 kart dziennie, podczas gdy aparatura komputerowa, którą dzisiaj dysponuje Urząd Statystyczny, może przetworzyć około miliona danych w ciągu minuty. Historia ta pokazuje, jak bardzo — w porównaniu ze spisem z 1890 roku — zostały udoskonalone metody opracowywania i analizowania danych. W tym rozdziale przedstawimy powszechnie stosowane współczesne metody wstępnego opracowywania i kodowania danych. Omówimy metody kodowania dedukcyjnego — gdy zasady kodowania są wyprowadzane z teorii — oraz indukcyjnego — gdy źródłem budowanych kategorii są dane — a także przedstawimy zasady kodowania oraz zasady tworzenia zeszytów kodowych. Przeanalizujemy również problem rzetelności kodowania i wskażemy, za pomocą jakich metod można tę rzetelność zwiększyć. Na koniec opiszemy różne sposoby kodowania oraz omówimy wykorzystanie komputerów w procesie przechowywania, przetwarzania i analizowania zbiorów danych. Dane wykorzystywane współcześnie są prawie zawsze kodowane, przechowywane, wyszukiwane i analizowane za pomocą systemów komputerowych. Bez względu na to, czy korzysta się z komputerów osobistych, minikomputerów czy komputerów profesjonalnych, logika zbierania i opracowywania danych jest podobna. W rozdziale tym przedstawimy też najczęściej spotykane metody przetwarzania danych w procesie kodowania i tworzenia zeszytów kodowych. Przyporządkowanie kodów liczbowych zebranym danym zwiększa możliwości wykorzystania komputerów w procesie ich wyszukiwania i analizowania. 1 George E. Biles, Alfred A. Bolton, Bernadettę DiRe (1989), Herman Hollerith: Inventor, Manager, Entrepreneur — A Centennial Remembrance. „The Journal of Management", 15, s. 603-615. 351 ¦ Schematy kodowania Jak przekonaliśmy się w rozdziale 6, pomiar polega na tworzeniu zasad przyporządkowywania liczb obserwacjom. Przyporządkowanie może być całkowicie arbitralne (jak w przypadku zmiennych nominalnych), czy też może odzwierciedlać uporządkowanie danych porządkowych lub interwałowych. Liczba przypisana obserwacji nazywana jest kodem. Wszystkim przypadkom lub jednostkom spełniającym te same warunki przypisuje się te same kody. Na przykład, jeżeli kod „1" oznacza „kobietę", to kodując dane dla zmiennej płci, należy przyporządkować 1 wszystkim kobietom. Znaczenie każdego kodu powinno zostać objaśnione w zeszycie kodowym, który należy dołączyć do każdego zbioru danych. W tej części omówimy, w jaki sposób badacze przypisują kody zgromadzonym danym. Kody mogą być również wykorzystywane do grupowania danych dotyczących określonego pojęcia. Przypuśćmy, że badacz zebrał informacje dotyczące zawodów kilkuset osób badanych. Poniżej pokazujemy przykład listy zarejestrowanych zawodów: Prawnik Fryzjer Stolarz Makler Operator dźwigu Weterynarz Pielęgniarka Sezonowy pracownik rolny Pracownik szczebla kierowniczego Inżynier Elektryk Pracownik agencji reklamowej Zanim dane te będzie można przeanalizować, należy poszczególne zawody pogrupować w kategorie. Poniżej przedstawiamy jeden z możliwych sposobów klasyfikacji zawodów: 1. Wolne zawody i osoby zatrudnione na szczeblu kierowniczym: prawnik, weterynarz, pracownik szczebla kierowniczego, inżynier. 2. Pracownicy techniczni i sprzedawcy: pracownik agencji reklamowej, makler. 3. Pracownicy sektora usług i robotnicy wykwalifikowani: fryzjer, stolarz, operator dźwigu, pielęgniarka, elektryk. 4. Robotnicy niewykwalifikowani: sezonowy pracownik rolny. Ten system kategoryzowania zawodów uwzględnia poziom dochodów, prestiż oraz wykształcenie i pozwala badaczom na posługiwanie się w analizach czterema dobrze zdefiniowanymi kategoriami zawodów, zamiast kilkunastoma konkretnymi zawodami. Systemy kategorii, takie jak wyżej przedstawiony, wykorzystywane w procesie klasyfikowania odpowiedzi czy zachowań odnoszących się do pojedynczej pozycji kwestionariusza lub pojedynczej zmiennej, nazywane są schematami kodowania. Poniżej omawiamy zasady konstruowania takich schematów. Reguły kodowania Ponieważ kodowanie jest procesem przyporządkowywania danych do zdefiniowanych wcześniej kategorii, więc pierwszym etapem kodowania jest nadanie intuicyjnego znaczenia wykorzystywanym liczbom. Na przykład wyższe wyniki powinny nej 28 być w nie „2 ry na la pa 352 otrzymywać wyższe kody niż wyniki niższe. Zasadę tę najłatwiej ukazać na danych interwałowych. Osobie starszej od innej osoby należy przypisać wyższy kod dla zmiennej wieku. Osoba mająca 28 lat powinna intuicyjnie otrzymać kod dla wieku równy 28. Osoba mająca 46 lat powinna zatem otrzymać wyższy kod niż osoba 28-letnia — być może 46, gdyby kodowanie odbywało się w latach. Nawet wtedy, gdy kategorie wieku mają charakter porządkowy, wyższa wartość kodowa powinna być związana z wyższym wiekiem. Na tym właśnie polega nadawanie intuicyjnego znaczenia. W przypadku niektórych zmiennych (zmiennych nominalnych) trudno intuicyjnie uzasadnić wybrany sposób przypisywania liczb. Osoba, której przypisano kod t2" dla zmiennej płci (kobiety) nie „ma" więcej płci w porównaniu z osobami, którym przypisano kod „1" (mężczyźni). Co więcej, to, czy przypiszemy im 6 i 4 lub nawet 4 i 6, nie ma żadnego znaczenia. Aby jednak zapewnić rzetelność systemu kodowania, będziecie prawdopodobnie chcieli ograniczyć numery kodowe do liczb rozpoczynających się od 0 i zwiększających się o jeden dla każdej następnej kategorii. Przypisywanie kolejnych wartości liczbowych, począwszy od 0 czy 1, pozwala minimalizować ryzyko opuszczenia jakichś kategorii w trakcie kodowania (por. paragraf zatytułowany „Przeglądanie i czyszczenie danych" dalej w tym rozdziale). Teoria i kodowanie dedukcyjne. Intuicja badacza to jeden z kilku czynników istotnych w procesie podejmowania decyzji dotyczących kodowania. Należy również uwzględnić teorię, zasadę wzajemnego wykluczania się, zasadę wyczerpywalności oraz problem szczegółowości. Badacze angażujący się w badania ilościowe najczęściej testują hipotezy wyprowadzone z teorii. Dlatego też system kodowania, jakim się posługują, powinien być powiązany z teorią, którą zamierzają potwierdzić lub sfalsyfikować. Analiza teorii pozwala badaczowi określić typ odpowiedzi, jakich może oczekiwać od osób badanych. Wiele badanych problemów to problemy wielowymiarowe wymagające stworzenia niezależnych kategorii dla każdego wymiaru. Na przykład badacz zainteresowany badaniem liberalizmu może wnioskować na podstawie teorii, że jest to zjawisko wielowymiarowe. Osoba, którą można określić jako liberalną w sprawach społecznych (np. ktoś, kto przyznaje kobietom prawo do kontroli urodzin), może nie być człowiekiem liberalnym w sprawach finansowych (np. ta sama osoba może uważać, że rząd nie powinien dofinansowywać środków antykoncepcyjnych). W tym przypadku wysoki wynik dla zmiennej liberalizmu społecznego nie będzie korelował z wysokim wynikiem dla zmiennej liberalizmu finansowego. Badacz powinien zatem stworzyć kategorie zarówno dla zmiennej liberalizmu społecznego, jak i dla zmiennej liberalizmu finansowego. Rzeczywiste kategorie, które badacz tworzy, muszą się wzajemnie wyłączać i być wyczerpujące. Oznacza to, że każda odpowiedź może zostać zaliczona tylko do jednej kategorii (rozłączność) i że każda musi zostać zaliczona do jakiejś kategorii (wyczerpywalnośc). Badacze muszą się również upewnić, że wybrane przez nich kategorie nie są zbyt szerokie, a ważne różnice nie uległy zatarciu (szczegółowość). Rozłączność. Zgodnie z regułą rozłączności opracowane dla każdej zmiennej kategorie powinny być tak zaprojektowane, aby każdy przypadek czy jednostka analizy mogły być zaliczone do jednej i tylko jednej kategorii. Rozważmy na przykład następujące kategorie opisujące warunki mieszkaniowe studentów: 353 1) mieszka w domu studenckim, 2) mieszka z rodzicami, 3) mieszka poza miasteczkiem uniwersyteckim, 4) mieszka z małżonkiem. Kategorie te nie wyłączają się wzajemnie, ponieważ studenci, którzy mieszkają ze swoimi rodzicami, najczęściej mieszkają poza miasteczkiem uniwersyteckim, a studenci mieszkający ze współmałżonkiem mogą mieszkać zarówno w domu studenckim, jak i poza miasteczkiem uniwersyteckim. Respondenci mogą zatem mieć kłopot z wyborem tej kategorii, którą powinni zaznaczyć, a osoby mieszkające w takich samych warunkach mogą wybrać różne kategorie. Cel badań oraz teoria, z której wyprowadzono pytania badawcze, pomagają dookreślić wybrane kategorie. Jeżeli chcemy się dowiedzieć, czy studenci pozostający pod kontrolą dorosłych, pod kontrolą częściową lub bez żadnej kontroli ze strony dorosłych różnią się ze względu na ich funkcjonowanie akademickie, to możemy zastosować następujące kategorie: 1) mieszka z rodzicami (kontrola dorosłych), 2) mieszka w domu studenckim (częściowa kontrola), 3) mieszka poza miasteczkiem uniwersyteckim albo samodzielnie, albo z przyjaciółmi, albo z małżonkiem (bez kontroli). Wyczerpywalność. Reguła wyczerpywalności nakazuje, aby liczba kategorii byta wystarczająca i obejmowała wszystkie możliwe odpowiedzi respondentów —każda odpowiedź czy zachowanie powinno zostać sklasyfikowane bez nadmiernego rozszerzania kategorii „inne". Teoria i znajomość badanej próby pomagają badaczom spełnić warunek wyczerpywalności. Przykładem braku wyczerpywalności jest popularna klasyfikacja stanu cywilnego na cztery kategorie: „żonaty/zamężna", „stanu wolnego", „rozwiedziony(a)", „wdowiec/wdowa". Ponieważ respondenci mieszkający razem i nie będący w formalnym związku nie mogą się zaliczyć do żadnej z tych kategorii, zatem warunek wyczerpywalności nie jest w tym przypadku spełniony. Gdyby badana próba składała się jedynie z uczniów szkół średnich, to ten schemat kodowania nie tylko nie byłby wyczerpujący, ale przede wszystkim byłby niemeryto-ryczny (zmienna stałaby się stałą), gdyż wszyscy uczniowie byliby stanu wolnego. Szczegółowość. Szczegółowość kategorii wykorzystanych w schemacie kodowania zależy od pytania badawczego, można jednak i tu sformułować pewne zasady ogólne. Po pierwsze, jeżeli masz wątpliwości, dodaj następną kategorię. Możesz zawsze rozdzielić kategorie, uogólniając odpowiedzi (por. dodatek A, w którym przedstawiono przykład takiego właśnie zabiegu przy wykorzystaniu pakietu statystycznego SPSS). Nie możesz jednak podzielić odpowiedzi zakodowanych na zbyt ogólnym poziomie. Po drugie, teoria i twoja wiedza na temat badanego obszaru i badanej próby również może zostać wykorzystana przy określaniu poziomu szczegółowości kategorii. Zadawanie lekarzom pytania o to, czy ich zarobki mieszczą się w następujących kategoriach: poniżej 5000$, od 5000$ do 10000$, od 10000$ do 15 000$, od 15 000$ do 20000$ i powyżej 20000$, jest bez sensu, ponieważ taki poziom szczegółowości kategorii jest dobry w wypadku badania ludzi biednych. 354 Kodowanie dedukcyjne pozwala badaczom na wykorzystanie teorii w procesie konstruowania kategorii, zanim zbadają oni danym narzędziem próbę respondentów. Badacze wykorzystujący kodowanie dedukcyjne często przeprowadzają badanie wstępne na małej próbie osób pochodzących z interesującej ich populacji, aby tak zmodyfikować kategorie wyprowadzone z teorii, by odpowiadały one badanej populacji. Pytania zamknięte są przykładem wstępnego kodowania, w którym odpowiedzi są bezpośrednio przekładane na kategorie. Kodowanie indukcyjne. Kiedy badanie ma charakter eksploracyjny lub kiedy brak jest teorii pozwalającej badaczowi wyciągnąć wnioski na temat spodziewanych odpowiedzi osób badanych, właściwą metodą może być kodowanie indukcyjne. W kodowaniu indukcyjnym badacz tworzy schemat kodowania na podstawie reprezentatywnej próbki odpowiedzi na dane pytanie (zwłaszcza pytania otwarte), na podstawie danych z dokumentów lub danych zebranych w trakcie obserwacji uczestniczącej (por. rozdział 12). Gdy badacz zbuduje już schemat kodowania, to wykorzystuje go do pozostałych danych. Weźmy dla przykładu odpowiedzi na pytanie mające mierzyć reakcje kobiet na przemoc ze strony męża2: Jeżeli mężczyzna stosuje przemoc fizyczną wobec swojej żony, to co, Twoim zdaniem, kobieta powinna zrobić? 1. Powinna pozostać w domu i starać się rozwiązać problem. 2. Powinna wyprowadzić się z domu. 3. Powinna zadzwonić do instytucji zajmującej się tego typu problemami i poprosić o pomoc. 4. Powinna zadzwonić na policję. 5. Powinna uzyskać czasowy nakaz aresztowania męża. 6. Powinna zadzwonić do swoich przyjaciół lub krewnych po pomoc. 7. Inne rozwiązanie (jakie?)............................................................. 8. Nie wiem/odmowa odpowiedzi. 9. Pytanie opuszczone. W indukcyjnym schemacie kodowania odpowiedzi, które pojawiły się najczęściej, zostają włączone do schematu kodowania wykorzystywanego do analizowania danych. W przykładzie przedstawionym wyżej odpowiedzi od 1 do 6 zostały wybrane na tyle często, aby mogły stworzyć niezależne kategorie. Odpowiedzi od 7 do 9 zostały wzięte pod uwagę po wygenerowaniu pierwszych kategorii. W ostatecznym schemacie kodowania wszystkie odpowiedzi rzadziej spotykane będą zaliczane do kategorii „inne". Nie zawsze łatwo jest zidentyfikować kategorie, a skonstruowanie pełnego schematu kodowania może zabrać wiele czasu. Badacz tak długo przegląda dane oraz tworzone kategorie, aż będą one dobrze odpowiadać ogólnemu celowi badania. Paul Lazarsfeld oraz Alan Barton, analizując ogólne zasady kodowania, jako przykład takich zasad wykorzystali niektóre schematy kodowania, które zastosowano w klasycznym dziś badaniu The American Soldier3. Aby określić, jakie czynniki " Na podstawie: Spouse Abuse in Texas: A Study oj Woman 's Attiludes and Experiences, Huntsville, Texas: Criminal Justice Center, 1983. 3 Paul F. Lazarsfeld, Alan Barton (1951), Qualitative Measurement in the Social Sciences: Clas- 355 pozwalają przezwyciężyć stres wynikający z walki, osoby badające amerykańskich żołnierzy stworzyły — na podstawie zebranych odpowiedzi — wstępną listę kategorii: 1. Nacisk ze strony formalnego autorytetu. 2. Umiejętności przewodzenia (np. zachęcanie). 3. Grupa nieformalna: a) wsparcie emocjonalne, b) kodeks zachowania, c) zapewnianie rzeczywistego bezpieczeństwa i siły. 4. Przeświadczenie o roli wojny i niebezpieczeństwie ze strony wroga. 5. Chęć wygrania wojny jako warunek powrotu do domu. 6. Modlitwa i osobiste przekonania. Owe wstępne kategorie pozwoliły badaczom sklasyfikować dane surowe i w sposób istotny zmniejszyć liczbę analizowanych odpowiedzi. Gdy jednak zauważyli, że sankcje formalne są bardziej skuteczne wówczas, kiedy nakładają się na nie sankcje ze strony nieformalnej grupy i sankcje wewnętrzne, wprowadzili dalsze modyfikacje. I odwrotnie, na normy tworzone przez grupę nieformalną wpływają zarówno sankcje formalne, jak i sumienie jednostki. Badacze — na tej podstawie — przeanalizowali wszystkie odpowiedzi i otrzymali dodatkowe informacje, które stały się powodem zmodyfikowania schematu odpowiedzi (tabela 14.1). Przedstawione niżej odpowiedzi odpowiadają zmodyfikowanym kategoriom opisanym w tabeli 14.1: 1. Biorę udział w walce, bo jeżeli przestanę, to zostanę ukarany. 2. Biorę udział w walce, bo jest to obowiązek wobec mojego kraju, armii i rządu; jeżeli przestanę, to będzie źle. 3. Biorę udział w walce, bo jeżeli przestanę, to stracę szacunek moich przyjaciół. 4. Biorę udział w walce, ponieważ pozostawienie przyjaciół jest złe. 5. Należy dbać o przyjaciół nawet wtedy, gdy oznacza to złamanie rozkazów, a nawet wtedy, gdy oni nie dbają o ciebie. 6. Należy dbać o przyjaciół nawet wtedy, gdy wiąże się to ze złamaniem rozkazów, gdyż pozostawienie ich jest złe. 7. Walczę, ponieważ wierzę w demokrację i nienawidzę faszyzmu. Podstawową zaletą podejścia indukcyjnego jest jego elastyczność i szeroki zakres, co umożliwia badaczom generowanie wyjaśnień otrzymanych wyników. Co więcej, pozwala na stosowanie różnych schematów kodowania do tych samych danych i często umożliwia tworzenie nowych kategorii. Wadą tej metody są trudności w opanowaniu ogromnej liczby szczegółów pojawiających się w trakcie prób wyjaśniania danych. Czasami osoba kodująca nie zna dostatecznie kontekstu badania, by zdecydować, które szczegóły są nieistotne, aby można je było wyeliminować. sifwation, Typologies, and Indices, w: Daniel Lerner, Harold D. Lasswell (red.), The Policy Sciences, Stanford, Calif.: Stanford University Press, s. 160; Samuel A. Stouffer (1965), The American Soldier, New York: Wiley. 356 Tabela 14.1. Sposób, w jaki normy wpływają na zachowania w trakcie walki Normy tworzone przez autorytety formalne Źródło norm Kanały Bezpośrednie: (a) sankcje formalne (b) sankcje wewnętrzne Via normy grupowe: (a) sankcje ze strony grupy nieformalnej (b) sankcje wewnętrzne Normy tworzone przez grupy nieformalne (a) sankcje ze strony grupy formalnej (b) sankcje wewnętrzne Normy jednostkowe (a) sankcje wewnętrzne Na podstawie: Paul F. Lazarsfeld, Alan Barton (1951), Qualitative Measurement in rhe Social Sciences: Classifacation, Typologies, and Indices. w: Daniel Lerner, Harold D. Lasswell (red.), The Policy Sciences, Stanford, Calif.: Stanford University Press, s. 161. Przedruk za zgodą autorów. Reguły kodowania ¦ W przypadku zmiennych dających się uporządkować liczby kodujące powinny mieć intuicyjny sens — na przykład wyższe liczby kodujące powinny zostać przypisane wyższym wynikom. ¦ W kodowaniu dedukcyjnym kategorie powinny zostać powiązane z teorią będącą inspiracją badań. Kodowanie dedukcyjne jest najczęściej stosowane w badaniach ilościowych. W badaniach jakościowych natomiast, tworząc teorię podstawową, badacze zazwyczaj stosują schematy indukcyjne. ¦ Kategorie kodujące muszą być wzajemnie rozłączne — każdy wynik może wpadać tylko do jednej kategorii i niewiele wyników powinno zostać zaliczonych do kategorii „inne". ¦ Kategorie muszą być na tyle specyficzne, aby pozwalały wychwycić różnice wtedy, gdy posługujemy się najmniejszą możliwą liczbą kategorii (kryterium szczegółowości). ¦ Konstruowanie zeszytów kodowych Kiedy opracujemy już schemat kodowania dla każdej z badanych zmiennych, należy przedstawić skompilowane informacje na temat tego schematu w zeszycie kodowym. Zeszyty kodowe różnią się szczegółami, jednakże wszystkie dobre zeszyty kodowe zawierają informacje na temat nazwy lub numeru zmiennej, schematu kodowania oraz kodów oznaczających brak danych. Zeszyt kodowy jest dla osób kodujących rodzajem przewodnika. Osoby te przekładają dane surowe na dane wejściowe wykorzystywane w późniejszych analizach statystycznych. Są one również 357 pomocą dla autora badań oraz dla innych badaczy analizujących później ten zbiór danych. Zeszyty kodowe opracowane dla badań mających postać sondażu często zawierają wykorzystywane pytania sondażowe. W przykładzie 14.1 przedstawiamy fragment zeszytu kodowego wykorzystanego w sondażu na temat ubóstwa przeprowadzonego w Cleveland. Przykład 14.1 Przykład zeszytu kodowego: Cleveland Poverty Survey Nazwa zmiennej Numer kolumny nr ident. Numer identyfikacyjny o.b. 1 -3 Zakoduj faktyczny numer (001-528) Ql Najwyższa ukończona klasa 4 1 = 1-8 2 = 9-11 3= 12 4= 13-15 5= 16 6= 17+ Q4 Płeć 7 1 = mężczyzna 2 = kobieta Q5 Tygodniowe zarobki aktualne/ostatnia praca 8-11 Podać liczbę dolarów Q6 Liczba godzin pracy tygodniowo aktualnie/ostatnia praca 12-13 Podać liczbę godzin Q7 Ogólny stan zdrowia 14 1 = znakomity 2 = bardzo dobry 3 = dobry 4 = przeciętny 5 = slaby 9 = nie wiem/brak odpowiedzi Q8 Wykształcenie jako sposób na awans 15 1 = całkowicie się zgadzam 2 = zgadzam się 3 = trochę się zgadzam 4 = trochę się nie zgadzam 5 = nie zgadzam się 6 = całkowicie się nie zgadzam 9 = nie wiem/brak odpowiedzi Q9 Umiejętność czytania 16 1 = znakomita 2 = dobra 3 = przeciętna 4 = słaba 9 = nie wiem/brak odpowiedzi 358 Zauważmy, że każda zmienna uwzględniona w przykładzie 14.1 ma swoją nazwę (np. Ql), skrót treści pytania, zastosowany schemat kodowania (wartości liczbowe), numery kolumn, określenie wartości odpowiadających brakującym danym i wszystkie specyficzne zasady kodowania dla każdej zmiennej. Programy komputerowe wymagają wprowadzenia danych w postaci odpowiedniego arkusza danych. Zmienne są ustawiane w kolumnach, a kolejne przypadki w wierszach. Wymieniony w przykładzie 14.1 numer kolumny informuje o tym, w której kolumnie znajdują się dane dotyczące określonej zmiennej. Każdy badacz — na podstawie informacji zawartych w zeszycie kodowym — powinien umieć zrekonstruować zbiór danych. Rzetelność kodowania i rzetelność sposobów wprowadzania danych Kiedy zeszyt kodowy został już opracowany, należy „zakodować" dane, czy też przetworzyć je tak, aby mogły być wprowadzone do komputerowego programu statystycznej analizy danych. Na przykład należy przełożyć zakreśloną odpowiedź w kwestionariuszu na właściwą kolumnę czy „pole" odpowiadające zmiennej (i zdefiniowanej w książce kodowej). Osobą kodującą może być sam badacz, student lub osoba wynajęta specjalnie do tego celu. Dane surowe można wprowadzać do programu komputerowego na różne sposoby. Po omówieniu rzetelności związanej z osobą kodującą przedyskutujemy problem rzetelności różnych sposobów wprowadzania danych: arkuszy danych, kodowania na marginesie kartki, skanowania optycznego oraz bezpośredniego wprowadzania danych. Rzetelność kodowania Badania, w których korzystano z dobrze opracowanych zeszytów kodowych, zastosowano standaryzowane pytania zamknięte oraz zatrudniono dobrze wytrenowane osoby kodujące, ujawniają mniej problemów związanych z rzetelnością osób kodujących niż badania, w których osoby kodujące muszą samodzielnie podejmować decyzję o tym, jakie kody należy przyporządkować określonym odpowiedziom. Jednym z największych problemów tego typu badań jest upewnienie się, że osoba kodująca wprowadza właściwy kod do odpowiedniej kolumny. Standardową procedurą jest wyrywkowe sprawdzanie pracy każdego kodującego, aby sprawdzić, czy nie pracują oni niedbale. Sposoby wprowadzania danych, które omówimy niżej, są źródłem różnych problemów dotyczących rzetelności związanej z osobami kodującymi dane. Osoby kodujące częściej odwołują się do własnych sądów, gdy klasyfikują odpowiedzi udzielone na pytania otwarte lub gdy opracowują nieustrukturowany materiał. Jeżeli reguły klasyfikowania odpowiedzi nie odnoszą się wyraźnie do klasyfikowanego materiału, to różne osoby kodujące mogą w różny sposób klasyfikować te same odpowiedzi. W takim wypadku proces kodowania staje się nierzetelny, a problem ten jest tak poważny jak przy braku rzetelności obserwatorów czy ankieterów. I rzeczywiście faza kodowania danych jest najczęściej największym źródłem błędów. Aby zwiększyć rzetelność kodowania, należy dbać, aby stosowane schematy kodowania były tak proste, jak to tylko możliwe. Należy też odpowiednio przygotować osoby kodujące. Najprostszą metodą jest porównanie efektów pracy dwóch lub więcej osób kodujących i ustalenie przyczyn wszystkich rozbieżności. Przykład instrukcji dla osób kodujących wpływającej na rzetelność ich działań przedstawiamy w przykładzie 14.2. W instrukcji tej można znaleźć odpowiedź na wszystkie pytania, które mogą 359 się pojawić w trakcie przygotowywania danych do obróbki komputerowej. Jeżeli osoby kodujące nanoszą kody bezpośrednio na arkusz pomiarowy, to warto w tym celu używać czerwonego ołówka, aby odróżnić znaki kodowe od innych uwag znajdujących się na arkuszu. Gdy trzeba będzie poprawić błędy popełnione w trakcie kodowania, znaki naniesione ołówkiem można wymazać. Zielonym długopisem zaleca się natomiast nanosić uwagi dotyczące badań, aby odróżnić je od uwag poczynionych przez ankieterów czy osoby kodujące. Osoby kodujące nie powinny nigdy wymazywać uwag poczynionych przez ankieterów, gdyż są one niezbędne przy sprawdzaniu poprawności kodowania. Jeżeli osoba kodująca ma trudności w zinterpretowaniu odpowiedzi, to może postawić specjalny znak zwracający uwagę osoby kontrolującej, aby to ona podjęła decyzję dotyczącą właściwego kodu. Przykład 14.2 Ogólna instrukcja kodowania A. Znaki kodowe należy nanosić czerwonym ołówkiem. B. Nie wolno wymazywać żadnych znaków ani komentarzy naniesionych przez osoby przeprowadzające wywiad. Jeżeli trzeba poprawić kwestionariusz, to należy przekreślić błędny kod. Nie wolno zamazywać tego, co zostało wcześniej napisane. Należy pamiętać, że uwagi napisane zielonym kolorem są uwagami naniesionymi przez instytucję organizującą badania. C. Każda kolumna musi mieć swój kod, lecz nie może mieć więcej niż jeden kod. D. Dotyczy pytań oznaczonych jako problem: instrukcja ta dotyczy pytań, w których mogą się pojawić problemy dotyczące kodowania. Osoby kodujące otrzymają niewielkie karteczki, które należy przykleić na tej stronie, na której wystąpią takie problemy. Osoby kodujące mogą w len sam sposób zaznaczyć wszystkie miejsca w kwestionariuszu, w których brak jest jakichś informacji, są one niejasne i wymagają sprawdzenia przez osobę kontrolującą. E. Dotyczy pytań oznaczonych jako lista: należy sporządzić listę wszystkich odpowiedzi zaliczonych do kategorii „inne" i przedstawić w dosłownym brzmieniu wszystkie komentarze dotyczące takich odpowiedzi. Dla każdego pytania trzeba sporządzić oddzielną listę. Jeżeli dla jednego pytania przewidziano więcej niż jeden kod, to należy sporządzić oddzielną listę dla każdego kodu. U góry każdej listy należy napisać numer badania, numer pytania, numer kolumny i numer kodu, dla którego sporządza się listę. W większości sondaży sporządza się listy dla wszystkich odpowiedzi typu „inne, jakie?" F. Brak odpowiedzi (bo) i „odmowę" odpowiedzi należy kodować za pomocą cyfry 9 w kolumnie zawierającej jedno pole, za pomocą liczby 99 w kolumnie zawierającej dwa pola itd. Kategorię bo koduje się wówczas, gdy respondent nie udzielił żadnej odpowiedzi, ankieter przeoczył pytanie lub wtedy, gdy udzielona odpowiedź jest zbyt wewnętrznie sprzeczna lub niejasna, aby ją zakodować, lub wtedy, gdy trzeba wprowadzić jakiś kod, aby przejść dalej. Dopuszcza się uznanie BO dla każdego pytania, z wyjątkiem tych, które zostały wymienione w zeszycie kodowym (np. pytania o płeć czy rasę). G. Kategoria „nie dotyczy" (ndt) jest kodowania jako 0, co oznacza „pominięcie" lub „pytanie puste" dla osób kodujących. Kategorię ndt koduje się wówczas, gdy nie planuje się zadania danego pytania (np. ze względu na sposób przechodzenia od pytania do pytania). H. Kategoria „nie wiem" (nw) nie ma swojego wcześniej zapisanego kodu, dlatego należy ją kodować za pomocą cyfry 8 w kolumnie zawierającej jedno pole, za pomocą liczby 98 w kolumnie zawierającej dwa pola, za pomocą liczby 998 w kolumnie zawierającej trzy pola itd. Jeżeli kategoria nw została wymieniona wśród innych odpowiedzi przewidzianych dla danego pytania, to kategorii tej nie należy odrębnie kodować. Na podstawie: National Opinion Research Center, University of Chicago, General Social Survey, 1972-1989: Cumulative Codebook (Storrs, Conn.: Roper Center for Public Opinion Research, 1989). 360 W niektórych sytuacjach nie da się zakodować odpowiedzi. W przykładzie 14.2 proponujemy, aby osoby kodujące sporządzały listę odpowiedzi — dosłownie zapisanych — na wszystkie te pytania, dla których nie opracowano specyficznych kodów. Na przykład możemy być zainteresowani tym, jakie konkretnie odpowiedzi ludzie traktują jako „inne" i dlatego do kwestionariusza można wprowadzić pytanie „inne, jakie?" Jeżeli osoba kodująca przydziela kody, kierując się jedynie rodzajem kategorii, to informacje szczegółowe znikną. Osoby kodujące muszą wiedzieć, jakich kodów należy używać w przypadku różnego typu braku odpowiedzi. W przykładzie 14.2 uwzględniono trzy rodzaje braku odpowiedzi: 1) respondent odmówił udzielenia odpowiedzi, 2) pytanie nie odnosi się do respondenta, 3) respondent nie zna odpowiedzi na pytanie. Instrukcja kodowania dokładnie określa, jakie kody liczbowe lub literowe powinny zostać przydzielone w każdym przypadku. W interpretacjach odpowiedzi czynionych przez respondentów i osoby, które ją kodują, mogą się pojawić różnice. W literaturze problem ten jest rzadko omawiany. Pojawił się w badaniach Kennetha Kammeyera i Juliusa Rotha poświęconych ocenie zgodności znaczenia, jakie nadają odpowiedzi respondent i osoba kodująca4. Zbadali oni, w jaki sposób zakodowaliby swoje odpowiedzi sami respondenci, dysponując zbiorem kategorii dostarczonych przez badacza. Gdyby respondenci grali również rolę osób kodujących, to czy kody przypisane przez nich różniłyby się od kodów przypisanych przez inne osoby, czy zakodowaliby je tak samo? Kammeyer i Roth poprosili 64 studentów college'u o wypełnienie kwestionariusza zawierającego pytania zarówno zamknięte, jak i otwarte. Następnie każda osoba badana niezależnie zakodowała swój kwestionariusz oraz kwestionariusze innych osób badanych. Dalej dla każdej osoby badanej badacze porównali sposób kodowania własnego kwestionariusza i kwestionariuszy wypełnionych przez innych. Porównanie to ujawniło, że osoby kodujące inaczej rozumiały odpowiedź niż respondent, co prowadziło do niewłaściwej interpretacji rzeczywistych postaw respondentów. Kierunek odchylenia zależał od treści pytania. Im mniej ustrukturowane było pytanie, tym większa była różnica pomiędzy interpretacją dokonaną przez respondenta i osobę kodującą. Wyniki te zwracają uwagę na ważny problem kodowania materiału nieustrukturowanego. Jest oczywiste, że taka forma stronniczości może zniekształcać wyniki dotyczące związków pomiędzy badanymi zmiennymi. Sposoby wprowadzania danych Arkusze wprowadzania danych. Dawniej przenoszono dane, odpowiednio perforując specjalne karty komputerowe. Osoby kodujące posługiwały się arkuszami wprowadzania danych, które były papierową formą kart perforowanych i pozwalały na zapisywanie danych w kolumnach określonych w zeszytach kodowych. Osoby perforujące karty przenosiły następnie te dane na karty. Chociaż dzisiaj nie posługujemy się już takimi kartami, to posługiwanie się jakąś formą arkuszy wprowadzania danych — zwłaszcza w wypadku złożonych kwestionariuszy czy danych pochodzących z różnych źródeł — może okazać się użyteczne. Osoby kodujące mogą korzystać z arkuszy kalkulacyjnych, w których przypadki wprowadza się w wier- 4 Kenneth C.W. Kammeyer, Julius A. Roth (1971), Coding Response to Open-ended Questions, w: Herbert L. Costner (red.), Sociological Methodology, San Francisco: Jossey-Bass. 361 szach, a zmienne w kolumnach. Większość programów statystycznych wymaga danych przygotowanych właśnie w ten sposób i są one dużym ułatwieniem dla osób wprowadzających dane. Posługiwanie się arkuszami wprowadzania danych wymaga jednak wielokrotnego przeglądania danych, co zwiększa możliwość złego ich wprowadzenia i tym samym może zmniejszyć ich rzetelność. Kodowanie na marginesie. Kodowanie na marginesie jest jednym ze sposobów wyeliminowania arkuszy wprowadzania danych. W metodzie tej osoby kodujące przenoszą informacje z kwestionariusza bezpośrednio na wolne miejsca na marginesie arkusza z pytaniami. Na rycinie 14.1 numer kolumny dotyczącej każdej zmiennej umieszczono z prawej strony kartki i oznaczono „tylko dla celów badawczych". Gdy dane kodujemy na marginesie, osoby wprowadzające dane do komputera przenoszą je bezpośrednio do bazy danych. W tym wypadku rzetelność się zwiększa, ponieważ osoby kodujące pracują bezpośrednio na kwestionariuszu i wprowadzając dane, nie muszą wyszukiwać właściwych kolumn, jak w przypadku arkuszy wprowadzania danych. Skanowanie optyczne. Osoby kodujące mogą również przenieść dane na specjalne arkusze nadające się do skanowania (jak wykorzystywane w egzaminach testowych). Skaner czyta znaki naniesione czarnym ołówkiem i automatycznie tworzy plik danych. Metoda ta zwiększa rzetelność, ponieważ eliminuje błędy wynikające z ręcznego wprowadzania danych. Trzeba jednak pamiętać, że źle zaprojektowane arkusze do skanowania mogą utrudniać przestrzeganie prawidłowej kolejności wprowadzania danych. Ponieważ skanowanie optyczne stało się powszechne, a procedura wypełniania takiego arkusza jest prosta, można prosić respondentów, aby sami zaznaczali swoje odpowiedzi bezpośrednio na takim arkuszu. Dla każdego narzędzia pomiarowego należy zaprojektować odpowiedni arkusz do skanowania, aby ułatwić respondentom udzielanie odpowiedzi na pytania sondażowe. Bezpośrednie wprowadzanie danych. Prawdopodobnie najważniejsze innowacje w kodowaniu pojawiły się wraz z możliwościami bezpośredniego wprowadzania danych. Istnieją dwie formy bezpośredniego kodowania danych: kodowanie z kwestionariusza i kodowanie w trakcie wywiadu telefonicznego. W obu formach wykorzystuje się programy komputerowe, w których każde zadawane pytanie jest wyświetlane na ekranie monitora i wymaga wprowadzenia odpowiedzi przez osobę kodującą. Materiał kodowany z kwestionariusza musi być wyświetlony, aby mieć pewność, że opuszczone odpowiedzi również mają swój kod na wejściu. Następnie koduje się odpowiedzi. Po wprowadzeniu danych dla każdego przypadku komputer automatycznie dodaje te informacje do pliku z danymi surowymi. Metoda ta również zmniejsza liczbę osób kolejno zajmujących się danymi, co wpływa na zwiększenie rzetelności. Wywiad telefoniczny ze wspomaganiem komputerowym (Computer-Assisted Telephone Interviewing — CATI) to wysoce rozwinięty system w ogromnym stopniu redukujący błędy złego kodowania. Osoby prowadzące wywiad czytają pytania bezpośrednio z ekranu monitora i wprowadzają odpowiedzi w chwili ich udzielania. 362 Jeżeli osoba kodująca wprowadzi niewłaściwy kod (wartość, której nie ma w spisie kodów dla danego pytania), to program domaga się wpisania właściwej wartości. W zależności od odpowiedzi na pytanie filtrujące CATI przechodzi automatycznie do właściwych pytań i osoba prowadząca wywiad nie musi przeglądać kolejnych danych w poszukiwaniu odpowiedniego pytania. Taki program nie tylko zwiększa rzetelność kodowania, lecz również sprawia, że respondenci nie muszą odpowiadać na pytania, które ich nie dotyczą. Ulepszenie technologii CATI wpłynęło na poprawienie odsetka odpowiedzi, zwiększyło łatwość stosowania, zwiększyło rzetelność danych i rzetelność procesu kodowania, a tym samym przyczyniło się do istotnego zmniejszenia liczby sondaży pocztowych. Przeglądanie i czyszczenie danych Przeglądanie i poprawianie danych to bardzo ważne etapy w procesie przetwarzania danych. Powinny one zawsze poprzedzać analizę zebranych informacji. Przeglądanie danych odbywa się zarówno w czasie trwania, jak i po zakończeniu fazy kodowania. Osoby kodujące przeglądają dane, sprawdzając, czy nie popełniono błędów lub czy jakieś dane nie zostały opuszczone. Dane przegląda się również wtedy, gdy chcemy się upewnić, czy wszystkie arkusze kwestionariusza wypełniono jak należy. Jednakże podstawowa procedura przeglądania danych — zwłaszcza w wypadku dużych sondaży — jest przeprowadzana przez osoby kontrolujące, które w ten sposób sprawdzają każdy kwestionariusz, oceniają rzetelność wywiadów, a także szukają braku zgodności w udzielonych odpowiedziach. Krajowy Ośrodek Badania Opinii (National Opinion Research Center) prowadzący ogólne sondaże społeczne wymaga od osób kontrolujących sprawdzania, czy wszystkie pytania filtrujące zostały poprawnie wypełnione i czy pozostałe dane są zgodne z utworzonym w ten sposób wzorcem wypełniania kwestionariusza. Jeżeli na pytanie filtrujące udzielono więcej niż jednej odpowiedzi lub jeżeli pytanie filtrujące pozostawiono puste, to osoba kontrolująca musi określić, jakie należy przydzielić kody. Czyszczenie danych to procedura polegająca na sprawdzaniu poprawności i kompletności danych oraz poprawianiu błędów i niespójnych kodów. Większość dużych zbiorów danych można wyczyścić, stosując specjalne programy komputerowe, które sprawdzają logiczną zgodność danych dla określonych wcześniej kodów5. Chociaż na wiele pytań udziela się niezależnych odpowiedzi, a odpowiedzi te są niezależnie kodowane, wiele pytań jest ze sobą powiązanych i odpowiedzi na te pytania również powinny być ze sobą powiązane. Na przykład, jeżeli respondent nie ma dzieci, to wszystkie pytania dotyczące dzieci powinny zostać zakodowane jako BO (brak odpowiedzi) albo powinny pozostać puste. Podobnie, jeżeli respondent podający, że ma pięć lat, informuje również, że ma dwoje dzieci, to świadczy to o błędzie w danych. Inną funkcją procedury czyszczenia danych jest wykrywanie nieprawidłowych kodów. Jeżeli pytanie „Czy wierzysz w życie po śmierci?" można zakodować jako 1 dla „tak", 2 dla „nie", 8 dla „nie potrafię się zdecydować" i 9 dla „brak odpowiedzi", to każdą wartość spoza tego zbioru należy traktować jako nieprawidłową. 5 Na przykład: Winona Ailkins (1975), EDIT: The NORC Cleaning Program: A Program to De-vełop Seąuential Files, Chicago: National Opinion Research Center. 363 THE UNIVERSITY OF WISCONSIN-MILWAUKEE College of Letters and Science Department of Political Science Tylko dla celów badawczjd Nr 2183 Badanie dotyczące wolności obywatelskich INSTRUKCJA: Dla każdego z niżej wymienionych pytań prosimy wybrać odpowiedź, która najbardziej odpowiada Pana(i) poglądom na dany temat i postawić krzyżyk w odpowiedniej kratce. Nie ma tu ani „dobrych", ani „złych" odpowiedzi — dlatego prosimy odpowiadać na każde pytanie szczerze. Proszę odpowiadać na pytania w takiej kolejności, w jakiej zostały one umieszczone w arkuszu. Jeżeli Pan(i) chciałbyś ałaby) przekazać dodatkowe uwagi na temat któregoś z pytań lub poruszanych tematów, to prosimy skorzystać z wolnego miejsca znajdującego się na końcu kwestionariusza. Państwa uwagi pomogą nam lepiej zrozumieć tak złożony problem, jakim są wolności obywatelskie — z góry serdecznie dziękujemy za współpracę. Chcielibyśmy rozpocząć od zadania kilku pytań dotyczących Państwa kontaktów z American Civil Liberties Union -Amerykańską Unią Praw Obywatelskich. ¦ (ACLU), czyh la. Od ilu lat jest Pan(i) członkiem ACLU?........lat Ib. Dlaczego wstąpiła) Pan(i) do ACLU? Czy istniały jakieś specjalne powody, które skłoniły Pana(ią) do wstąpienia do tej organizacji? ? specjalne powody.....Jakie?.............................................................. D brak specjalnych powodów ? nie pamiętam ............................................................. 1 c. Czy aktywnie działa Pan(i) w Związku? Na przykład, czy wziął(ęła) Pan(i) udział w którejś z wymienionych aktywności: a. Dofinansowywanie Związku (niezależnie od składek członkowskich).............. b. Pisanie listów do władz Związku ........................................ c. Pełnienie jakiejś funkcji we władzach Związku ............................. d. Uczęszczanie na lokalne spotkania Związku................................ e. Czytanie biuletynów i pism wydawanych przez ACLU......................... f. Pisanie listów do przedstawicieli władz w imieniu ACLU......................., g. Uczęszczanie na przyjęcia i imprezy dobroczynne organizowane przez ACLU....... h. Zgłaszanie się na ochotnika do prac w Związku (np. pełnienie funkcji asystenta, odbieranie telefonów.................................................. i. Uczestniczenie w sprawach sądowych wytoczonych z ramienia ACLU............. Id. ACLU publikuje wiele specjalistycznych biuletynów i magazynów, które nie docierają do wszystkich członków Związku. Chcielibyśmy się dowiedzieć, czy dostał(a) Pan(i) którąś z tych publikacji, a jeżeli tak, to jak często znajduje Pan(i) czas na ich przeczytanie? Proszę postawić znak x w odpowiednim miejscu. Tak Nie Nie pamiętam ? ? D D D ? D ? D D ? D a D a a ? 0 D ? D D ? D D ? D a. Civil Liberties Review.............. b. Children's Rights Report............ c. First Principles.................... d. Notes from the Women's Rights Project e. Civil Liberties Alert................ f. The Privacy Report................ g. Civil Liberties.................... Otrzymuję tę publikację, Otrzymuję tę ale zazwyczaj publikację mam zbyt mato Nie otrzymuję i zazwyczaj ją czasu, aby ją tej publikacji czytam przeczytać Nie wiem ? D ? ? ? ? ? ? D D ? ? ? D D ? ? D D ? n ? D ? n ? ? D 1 e. Biorąc pod uwagę okres swojego członkostwa, jak ocenia Pan(i) stanowisko, jakie ACLU zajmuje w najważniejszych sprawach? D zawsze się z nim zgadzam D zazwyczaj się z nim nie zgadzam ? nie wiem D czasami się z nim zgadzam D nigdy się z nim nie zgadzam 2a. Zawsze znajdą się ludzie, których poglądy przez innych ludzi są traktowane jako niebezpieczne. Na przykład ludzie, którzy występują przeciwko każdej religii i każdemu kościołowi. Tak Nie Nie mam zdani; a. Gdyby taka osoba chciała wygłosić przemówienie przeciwko religii i kościołom dla Pana(i) społeczności, to czy otrzymałaby pozwolenie?.................... D D ? b. Czy taka osoba otrzymałaby pozwolenie na zorganizowanie marszu przeciwko religii i kościołom?.................................................. c. Czy taka osoba mogłaby wykładać na uniwersytecie lub college*u?............. d. Gdyby ktoś z Pana(i) społeczności zażądał usunięcia z biblioteki książki napisanej przeciwko religii i kościołom, której autorem jest ta osoba, to czy popierałby(łaby) Pan(i) tę decyzję?................................................... ? a a a a D Ryc. 14.1. Kodowanie na marginesie kwestionariusza Źródło: Przedruk za zgodą Greewood Publishing Group, Inc., Westport, CT, z pracy Jamesa L. Gibsona i Richarda D. Binghama (1985), Civil Liberties and the Nazis, New York: Praeger Publishers. Najprostszą procedurą sprawdzenia, czy pojawiły się nieprawidłowe kody, jest wygenerowanie rozkładu częstości kodów dla każdej zmiennej (por. rozdział 15). Tę metodę poprawiania danych przedstawiamy również w dodatku A. I Wykorzystywanie komputerów w naukach społecznych W dzisiejszych czasach każdy poznał możliwości stosowania komputerów w różnych dziedzinach życia. W naukach społecznych z komputerów zaczęto korzystać już dziesiątki lat temu. W tym czasie wydatnie zmieniła się technologia komputerowa, lecz istota stosowania komputerów dla potrzeb badań pozostała nie zmieniona. Komputery to narzędzia ułatwiające magazynowanie danych, przetwarzanie ich, a także umożliwiające szybki do nich dostęp i łatwiejszą analizę zbiorów danych. Kiedy zrozumiemy istotę metod badawczych i poznamy elementy statystyki, możemy wykorzystać komputery do obliczania odpowiednich statystyk i korzystać z wydruku rezultatów. Pamiętajmy jednak, że to badacz musi dostarczyć prawidłowych i rzetelnych danych, wybrać metody statystyczne właściwe dla zrealizowanego poziomu pomiaru i poprawnie zinterpretować otrzymane rezultaty. Rodzaje komputerów Do analizowania danych w naukach społecznych stosuje się trzy rodzaje komputerów: duże komputery stacjonarne, minikomputery i komputery osobiste (PC). Duże komputery to jednostki, które jednocześnie są w stanie sprostać potrzebom wielu użytkowników. Jednostka centralna tak organizuje pracę, aby jak najwięcej użytkowników mogło z niej korzystać w każdym czasie. Komputery stacjonarne czytają również magnetyczne taśmy danych przesyłane przez użytkowników dużych baz danych. Międzyuniwersytecki Zespół ds. Badań Politycznych i Społecznych przy uniwersytecie w Michigan to największa składnica danych wykorzystywanych w naukach społecznych. Oprócz danych pochodzących z badań naukowych ośrodek ten gromadzi również dane zebrane przez takie firmy badające opinie, jak: Roper, Harris czy Krajowy Ośrodek Badania Opinii. Dane te są podstawą wielu projektów badawczych. Ponieważ komputery stacjonarne są również wyposażone w podstawowe pakiety statystyczne wykorzystywane do analizowania danych w naukach społecznych, więc indywidualni badacze oraz studenci nie muszą kupować pakietów statystycznych. Minikomputery również są wyposażone w pakiety statystyczne, z których może korzystać wielu użytkowników, jednak nie są w stanie przyjąć tylu użytkowników jak duży komputer. Terminale i połączone w sieci komputery osobiste (PC) stwarzają dostęp do programów i plików danych w zminiaturyzowanej wersji w porównaniu z dużymi komputerami. Instytucje zajmujące się tworzeniem oprogramowania statystycznego stworzyły wersje podstawowych, od lat używanych w naukach społecznych programów statystycznych, dla użytkowników komputerów osobistych. Statistical Package for the Social Sciences (SPSS) — opisany w dodatku A — posiada wersję na PC. Tworzy się również programy przeznaczone specjalnie dla użytkowników komputerów osobistych. Ponieważ można dokonywać transferu danych pomiędzy większością programów statystycznych, użytkownicy komputerów osobistych sami mogą wybrać pakiet statystyczny, z którego najlepiej im się korzysta. 365 Podstawowa różnica pomiędzy komputerami osobistymi i innymi komputerami polega na tym, że PC są „samowystarczalne". Większość profesjonalnych wersji pakietów statystycznych przeznaczonych na PC wymaga jedynie twardego dysku i odpowiedniego koprocesora. I chociaż komputery osobiste nie muszą być połączone z dużym komputerem czy z minikomputerem, można podać wiele zalet wynikających z ujęcia komputerów osobistych w sieć. Komputery pracujqce w sieci Nie tak dawno badacze musieli wybrać albo sposób (duży komputer, minikomputer lub PC), za pomocą którego mogli przetwarzać dane, albo zmuszeni byli sami uczyć się wielu różnych systemów. Modemy stworzono po to, aby ludzie mogli regularnie korzystać z linii telefonicznych w celu połączenia swoich terminali z dużymi jednostkami centralnymi. W czasach pierwszych modemów transmitowanie danych wymagało specjalnych linii. Dzisiaj można równocześnie przesyłać dane i rozmawiać przez telefon. Modemy dla tego typu linii znajdują się zazwyczaj wewnątrz telefonu. Dzisiaj, aby połączyć się z jednostką centralną, nie trzeba specjalnego terminalu. Aby połączyć jeden komputer z drugim, konieczne jest jedynie odpowiednie oprogramowanie i szybki modem. Badacze mogą bez trudu przesyłać informacje z własnego PC do jednostki centralnej oraz odbierać informacje z jednostki centralnej i przekazywać je do własnego PC. Począwszy od roku 1970, zaczęto stosować lokalne sieci komputerowe (Local Area Networks — LAN), aby połączyć stacje robocze z centralnym systemem komputerowym. Partnerzy pracujący w sieci korzystają z tej samej linii przesyłania danych i w tym samym czasie tylko jeden komputer może przesyłać dane poprzez sieć. Niewielka szybkość transmisji danych w pierwszych sieciach sprawiała, że sieci szybko się blokowały i były niewydolne. Nowsze technologie pozwalają na szybszą transmisję danych i zmniejszyły zatory powstające w sieci. Sieci multimedialne tworzone w latach dziewięćdziesiątych łączą przekaz dźwięku, danych i obrazu. Komputery można łączyć za pomocą specjalnego oprogramowania. Wyniki analiz statystycznych generowanych przez jeden program mogą być wczytywane przez procesor tekstów innego programu, a ten ostatni może służyć do pisania raportów. Niektóre starsze programy wymagają przekonwertowania danych na bardziej ogólny format, zanim zostaną one przeczytane przez inny program i czasami graficzna strona danych może ulec zmianie. Istnieje wiele specjalistycznych pakietów programów przeznaczonych do specjalnych celów. Pakiety takie umożliwiają bezpośrednie wczytywanie danych przez każdy program z pakietu. Ponieważ konwersja danych nie jest już tu potrzebna, format graficzny danych pozostaje nie zmieniony. ¦ Podsumowanie 1. Przetwarzanie danych to procedura łącząca etap zbierania danych i etap analizy danych. Polega ona na przekształcaniu zebranych informacji w kody, które można poddać analizie. Na pierwszym etapie procedury przetwarzania danych badacze dokonują klasyfikacji zebranych informacji na mniejszą liczbę kategorii, aby uprościć i ułatwić analizę danych. Taki system klasyfikowania danych nazywa się schematem kodowania. 366 2. Schemat kodowania powinien być powiązany zarówno z teorią, jak i z celem badań, który decyduje o tym, jakie kategorie powinny zostać uwzględnione. Innym wymogiem dotyczącym schematu kodowania jest warunek wyczerpywalności i wzajemnej rozłączności, co oznacza, że każda obserwacja powinna być zaklasyfikowana do jakiejś kategorii, lecz żadna nie może zostać zaklasyfikowana do więcej niż jednej kategorii. Badacze posługują się schematami kodowania, aby przekształcić dane na taki format, jaki nadaje się do komputerowej analizy danych. Sposób przekształcania jest zazwyczaj opisany w zeszycie kodowym, w którym znajdują się zarówno informacje na temat kodów, jak i instrukcje dotyczące kodowania. 3. Do opracowywania danych surowych można zastosować wiele różnych narzędzi ułatwiających późniejsze kodowanie, m.in.: arkusze wprowadzania danych, kodowanie na marginesie arkusza, skanowanie optyczne i bezpośrednie wprowadzanie danych. Wybór metody zależy od formatu badań i dostępnego instrumentarium technicznego. Każda metoda ma swój wpływ na rzetelność kodowania. Ogólnie rzecz biorąc, im mniej kolejnych przekształceń, tym dane są bardziej rzetelne. W wywiadzie wspomaganym komputerowo, ze względu na kodowanie odpowiedzi w chwili ich udzielania, rzetelność danych jest bardzo wysoka. 4. W naukach społecznych od wielu lat korzysta się z komputerów. Postęp techniczny w tej dziedzinie jest ogromny i studenci mogą się zetknąć z dużymi komputerami stacjonarnymi, z minikomputerami oraz z komputerami osobistymi. Ważną innowacją w tej dziedzinie jest tworzenie bogatego oprogramowania komputerowego, a także możliwość łączenia komputerów w sieć. ¦ Podstawowe terminy arkusze wprowadzania danych 361 przeglądanie danych 363 bezpośrednie wprowadzanie danych 362 rozłączność 353 czyszczenie danych 363 schemat kodowania 352 duży komputer 365 skanowanie optyczne 362 kod 352 szczegółowość 354 kodowanie dedukcyjne 354 wyczerpywalność 354 kodowanie indukcyjne 355 zeszyt kodowy 357 kodowanie na marginesie 362 ¦ Pytania sprawdzajgce 1. Omów różnicę pomiędzy indukcyjnym i dedukcyjnym schematem kodowania. 2. Jakie są podstawowe kryteria schematu kodowania? 3. Opisz kolejne kroki procesu określania rzetelności kodowania. 4. Jakie znasz różne sposoby przekształcania danych? ¦ Ćwiczenie komputerowe Posługując się arkuszem wprowadzania danych lub wprowadzając dane bezpośrednio do programu SPSS (np. korzystając z modułu REVIEW w SPSS/PC+ lub NEW-DATA), wprowadź następujące dane: 367 NR IDENT. STAN 001 WI 002 WI 003 WI 004 OH 005 OH 006 OH 007 CA 008 CA 009 CA 010 CA STANOWISKO dyrektor burmistrz burmistrz burmistrz burmistrz dyrektor dyrektor dyrektor dyrektor burmistrz POPULACJA 68 000 42 860 285 000 573 803 29386 88421 436 798 55 390 125 800 3134 388 BUDŻET/1000$ 2685 3489 42 330 88 677 1483 7456 72 698 6331 55 896 90444 wac swój plik danych. Dla wszystkich ™i™„ h ' Z d°kiadntej wyspecyfiko- CIES i wyczyść swój zbtór d^^S^^^Tf105"011 FREQUEN' A, s. 517-528). y ' P°szukuJ3c Wedow w kodowaniu (por. dodatek ¦ Literatura dodatkowa Wywiał J. (1994), Przykłady wnioskowania statystycznego za pomocą komputerowego pakietu SPSS, Warszawa: Wyd. PLJ. Stanisz A. (1998), Przystępny kurs statystyki w oparciu o program STATISTICA PL na przykładach z medycyny, Kraków: StatSoft Polska Sp. z o.o. STATISTICA PL (1997), Poradnik użytkownika, t. I: Ogólne konwencje i statystyki 1; t. II: Grafika; t. III: Statystyki //, Kraków: StatSoft Polska Sp. z o.o. Rozdział 15 Rozkład jednej zmiennej Rola statystyki 371 Rozkłady częstości 371 Rozkład częstości dla zmiennych interwałowych 372 Rozkład procentowy 373 Graficzna prezentacja rozkładów 375 Wykres kołowy 375 Wykres słupkowy 376 Histogram 378 Miary tendencji centralnej 379 Wartość modalna 379 Mediana 380 Inne miary położenia 382 Średnia arytmetyczna 383 Porównanie mody, mediany i średniej 385 Podstawowe miary rozproszenia 386 Miara zróżnicowania jakościowego 387 Rozstęp i rozstęp ćwiartkowy 390 Miary rozproszenia oparte na średniej 391 Wariancja i odchylenie standardowe 391 Wariancja i odchylenie standardowe dla danych pogrupowanych Odchylenie standardowe — zalety i zastosowania 394 Współczynnik zmienności 394 Rodzaje rozkładów częstości 396 Krzywa normalna 397 Wyniki standardowe 398 Podsumowanie 400 Podstawowe terminy 401 Pytania sprawdzające 401 Ćwiczenia komputerowe 403 Literatura dodatkowa 403 W jaki sposób zmiany ekonomiczne kształtują życie kobiet? Po II wojnie światowej, wspólnym wysiłkiem rządów Porto Rico i Stanów Zjednoczonych, Porto Rico zostało uprzemysłowione. Transformacja kraju rolniczego w kraj nisko płatnych usług i przemysłu fabrycznego zwiększyła zapotrzebowanie na pracę kobiet i zmniejszyła zapotrzebowanie na pracę mężczyzn. Barbara Zsembik i Chuck Peek starali się zbadać potencjalne przyczyny, dla których zamężne Portorykanki powszechnie podejmowały płatną pracę w okresie dwunastu miesięcy od urodzenia swojego pierwszego dziecka1. Zauważyli, że począwszy od roku 1950, Portorykanki coraz więcej inwestowały we własne wykształcenie, co przyczyniło się do ponoszenia większych kosztów przez te kobiety, które zrezygnowały z pracy, aby wychowywać dzieci. Aby stwierdzić, czy inwestowanie w daną formę kształcenia jest różne u kobiet i u mężczyzn, badacze porównali przeciętny poziom wykształcenia mężczyzn i kobiet, obliczając dla każdej grupy średnią liczbę lat poświęconą na naukę. Okazało się, że kobiety przeznaczyły średnio 11,74 lat na zdobywanie formalnego wykształcenia, podczas gdy mężczyźni 11,84 lat. Można zatem sądzić, że zarówno Portorykanki, jak i Portorykańczycy poświęcają podobną liczbę lat na zdobycie wykształcenia. Aby sprawdzić, czy niemal jednakowe średnie wynikały z podobnych rozkładów, badacze obliczyli odchylenia standardowe — pokazujące, jaki jest stopień rozproszenia wyników wokół średniej — dla obu rozkładów. Otrzymana wartość odchylenia standardowego wynosiła 3,69 dla kobiet i 3,71 dla mężczyzn. Rozkłady wyników były zatem również do siebie podobne. W rozdziale tym opiszemy, jakie są podstawowe charakterystyki jednej zmiennej, czyli inaczej rozkładu jednozmiennowego. Rozpoczniemy od zdefiniowania rozkładu częstości, za pomocą którego badacze strukturalizują swoje dane dla potrzeb analizy statystycznej. Następnie skoncentrujemy się na miarach tendencji centralnej i miarach rozproszenia, które są wykorzystywane do opisania takiego rozkładu. Na koniec zajmiemy się ogólnym kształtem rozkładu, zwracając szczególną uwagę na krzywą normalną. Począwszy od roku 1950, wszystkie dyscypliny w ramach nauk społecznych zaczęły intensywnie wykorzystywać statystykę, która się stała istotnym elementem tych nauk. Bez statystyki nie moglibyśmy poznać wzorców ani stałych elementów badanych zjawisk. Metody statystyczne są niezbędne, aby ustrukturalizować dane, przedstawić ważne informacje w klarowny sposób oraz opisać i zinterpretować dane w taki sposób, aby łatwiej było ocenić nasze hipotezy. Słowo „statystyka" ma dwojakie znaczenie. Chociaż najczęściej wiąże sieją z liczbami — na przykład dochodami per capita czy ze średnią liczbą rzutów do celu — to jest to również dziedzina nauki. Tutaj rozumieć ją będziemy w drugim znaczeniu i przedstawimy podstawowe jej zastosowania w naukach społecznych. 1 Barbara A. Zsembik, Chuck W. Peek (1994), The Effect of Economic Restructuring on Puerto Rican Women's Labor Force Participation in the Formal Sector, „Gender and Society", Vol. 8, Nr 4, s. 525-540. 370 I Rola statystyki Statystyka dostarcza metod opisu i analizy danych oraz metod umożliwiających podejmowanie decyzji czy inaczej wnioskowania o zjawisku reprezentowanym przez dane. Metody należące do pierwszej kategorii znane są jako statystyka opisowa, należące zaś do drugiej kategorii składają się na wnioskowanie statystyczne. Statystyka opisowa umożliwia opracowanie i ustrukturalizowanie danych w skuteczny i sensowny sposób. Dostarcza narzędzi pozwalających na opisanie dużych zbiorów danych i zredukowanie otrzymanych informacji do czytelnej formy. Wnioskowanie statystyczne pozwala podejmować decyzje na podstawie układu danych. Badacze posługują się wnioskowaniem statystycznym, aby stwierdzić, czy otrzymane dane są zgodne z teorią i postawionymi hipotezami. Możemy na przykład założyć, że robotnicy są bardziej konserwatywni niż pracownicy szczebla kierowniczego. Aby stwierdzić, czy hipoteza ta jest prawdziwa, możemy zapytać robotników i kierowników o ich poglądy polityczne. Następnie wykorzystamy metody statystyki opisowej, aby porównać obie grupy, a metody wnioskowania statystycznego, aby określić, czy zaobserwowane różnice są zgodne z naszymi oczekiwaniami. Zarówno statystyka opisowa, jak i wnioskowanie statystyczne pomaga naukowcom w budowaniu wyjaśnień złożonych zjawisk społecznych dotyczących związków pomiędzy zmiennymi. Statystyka dostarcza narzędzi analizowania, reprezentowania i interpretowania tych związków. ¦ Rozkłady częstości Po zakodowaniu i przygotowaniu danych do obróbki komputerowej można przystąpić do ich analizy. Pierwszym zadaniem badacza jest skonstruowanie rozkładu częstości, aby określić układ danych dla każdej ze zmiennych zależnych i niezależnych wykorzystanych w badaniu. (Używamy zamiennie słów: reakcje, odpowiedzi, obserwacje, przypadki, działania i zachowania). Rozkład częstości jednej zmiennej, znany jako jednozmiennowy rozkład częstości, jest rozkładem pokazującym liczbę obserwacji w każdej kategorii tej zmiennej. Na przykład, aby określić, jaki jest układ odpowiedzi dla takiej zmiennej jak „przekonania religijne", można policzyć, ilu respondentów określiło się jako protestanci, katolicy, żydzi, muzułmanie itd. Aby skonstruować rozkład częstości, należy jedynie sporządzić listę kategorii zmiennej i policzyć liczbę obserwacji wpadających do każdej kategorii. W tabeli 15.1 przedstawiliśmy przykład standardowej postaci jednozmiennowego rozkładu częstości. Tabela składa się z pięciu wierszy, z których pierwsze cztery to kategorie zmiennej (wymienione w kolumnie po lewej stronie). W kolumnie po prawej stronie podano liczbę obserwacji wpadających do każdej kategorii. Liczba ta nazywana jest częstością i jest zazwyczaj opisywana małą literą/. Ostatni wiersz (oznaczony jako AO pokazuje sumę wszystkich częstości. Jeżeli kategorie są wzajemnie rozłączne, tzn. każda obserwacja została sklasyfikowana tylko jeden raz, to ogólna liczba wszystkich częstości jest równa ogólnej liczbie obserwacji w próbie. 371 Tabela 15.2. Rozkład częstości przypadków przemocy wobec dzieci w roku 1992 Kategoria / Przemoc fizyczna 212281 Przemoc seksualna 129982 Zaniedbanie 449442 Ogółem 791705 Na podstawie: Alison Landes, Jacquelyn Quiram, Nancy R. Jacobs (red.) (1995), Child Abuse: Belraying a Trust, Wyle. Texas: Information Plus, s. 33. Porządek, w jakim badacz wymienia kategorie zmiennej w rozkładzie częstości określany jest przez poziom pomiaru danych. Jak pisaliśmy w rozdziale 7, mamy cztery rodzaje poziomu pomiaru danych: nominalny, porządkowy, interwałowy i ilorazowy. Na każdym poziomie kategorie muszą być wzajemnie rozłączne i wyczerpujące. Na nominalnym poziomie pomiaru kategorie są jedynie nazwami nie implikującymi żadnego porządku. Płeć, pochodzenie etniczne, preferencje religijne to przykłady zmiennych nominalnych. Na poziomie porządkowym możemy już kategorie uporządkować od najwyższych do najniższych lub odwrotnie. Kategorie te nie odzwierciedlają jednak tego, jak dalece się różnią między sobą. Na poziomie interwałowym i stosunkowym kategorie zmiennej odzwierciedlają zarówno porządek, jak i wielkość różnic pomiędzy kategoriami. Jedyną różnicą pomiędzy interwałowym i ilorazowym poziomem pomiam jest rzeczywisty punkt zerowy skali ilorazowej, który pozwala powiedzieć na przykład, że jedna kategoria jest dwa razy większa niż inna. W przypadku zmiennych nominalnych można sporządzić listę kategorii w dowolnym porządku. Na przykład w przypadku zmiennej „płeć" zarówno kategoria „mężczyzna", jak i „kobieta" może się pojawić pierwsza. Ponieważ jednak kategorie zmiennej porządkowej reprezentują określony porządek, powinny być wymienione w porządku rosnącym lub malejącym. Weźmy dla przykładu rozkład częstości przedstawiony w tabeli 15.2, który dotyczy rządowych danych na temat przemocy wobec dzieci. Zmienna „przemoc wobec dzieci" została podzielona na następujące kategorie: „fizyczna", „seksualna" i „zaniedbanie". Rozkład częstości dla zmiennych interwałowych Kiedy przedstawiamy zmienne interwałowe w postaci rozkładu częstości, musimy najpierw podjąć decyzję dotyczącą liczby kategorii, które zastosujemy, i określić punkty odcięcia pomiędzy nimi. Ponieważ zmienne interwałowe to zazwyczaj zmienne ciągłe, więc podział na rozłączne kategorie ma zazwyczaj charakter arbitralny. Na przykład wiek możemy podzielić na kategorie, licząc je co rok, co dwa lata czy co pięć lat. Podobnie, na wiele sposobów możemy poklasyfikować dochody. Stosowane przedziały są zazwyczaj jednakowej szerokości, jednak sama szerokość zależy od liczby obserwacji i celu badania. Im większa liczba obserwacji, tym szerszy przedział. Jednakże zbyt szerokie kategorie powodują, że w efekcie tracimy dużo szczegółowych informacji. Ogólna zasada, której warto tu przestrzegać, mówi, że przedział nie powinien być tak szeroki, aby różnica pomiędzy dwoma po- labela 15.1. Ogólna forma jednozmiennowego rozkładu częstości Kategoria Częstość (/) I / II / III / IV / Ogółem N 372 miarami, które do niego wpadają, miała istotne znaczenie. Na przykład, jeżeli badamy rozwój poznawczy i uważamy, że różnica jednego roku w wieku badanych osób nie ma znaczenia, lecz różnica dwóch lat jest już istotna, to powinniśmy wybrać przedziały 1-2, 3-4, 5-6. W tabeli 15.3 przedstawiliśmy przedziały i częstości dla hipotetycznej populacji. Tabela 15.3. Rozkład częstości wielkości rodzin Wiek w latach / Granice dokładne Środek przedziału (*) 1-2 6 0,5-2,5 1,5 3-4 4 2,5-4,5 3,5 5-6 10 4,5-5,6 5,5 7-8 3 6,5-8.5 7,5 W dwóch kolumnach znajdujących się po prawej stronie podano granice przedziałów i środki przedziałów. Posługujemy się dokładnymi wartościami granic, aby pokazać, że zmienna ma charakter ciągły — jest to istotne wymaganie w przypadku niektórych technik graficznego przedstawiania danych i analizy statystycznej danych. Środek przedziału jest pojedynczą wartością, za pomocą której możemy opisać każdy przedział i można ją wykorzystywać w obliczeniach statystycznych. Dokładne granice to granice zmiennej interwałowej obejmujące połowę jednego roku więcej dodaną do każdej ze stron przedziału. Szerokość przedziału w jest różnicą dokładnych wartości granic przedziału: w=U-L, gdzie U oznacza górną granicę, a L dolną. Szerokość dla ostatniego przedziału z tabeli 15.3 wynosi: 2 = 8,5-6,5. Środek każdego przedziału (oznaczony jako x) to pojedyncza wartość reprezentująca cały przedział. Uzyskuje się ją, dodając połowę szerokości przedziału do jego dolnej granicy: x=l + wl2. Zatem dla drugiego przedziału klasowego z tabeli 15.3 środek przedziału wynosi: x = 2,5 + 2/2 = 3,5. Rozkład procentowy Przedstawienie danych w postaci rozkładu częstości dla jednej zmiennej jest zaledwie pierwszym krokiem analizy. Częstości trzeba teraz zamienić w takie miary, 373 które mają znaczenie interpretacyjne. Sam rozkład częstości nie ma znaczenia interpretacyjnego — musi zostać porównany z innymi rozkładami. Można na przykład ocenić, czy 2000 zarejestrowanych demokratów to istotna liczba jedynie w stosunku do mieszkańców pewnej społeczności, w stosunku do wszystkich zarejestrowanych wyborców, w stosunku do liczby zarejestrowanych republikanów czy w stosunku do liczby zarejestrowanych demokratów w innych okręgach. Aby ułatwić porównania, można przekształcić częstości w proporcje procenty. Proporcje otrzymamy, dzieląc częstość danej kategorii przez ogólną liczbę odpowiedzi. Kiedy pomnożymy je przez 100, proporcja staje się procentem. Proporcje wyraża się symbolicznie jako f/N, a procenty jako f/Nx 100. Zarówno proporcje, jak i procenty odzwierciedlają względną wagę określonej kategorii rozkładu. Na przykład względna waga kategorii „przemoc fizyczna" z tabeli 15.2 jest wyrażana proporcją 212281/791705 = 0,268 lub w postaci procent 212281/791 705 x 100 = 26,8%. Dane te wskazują, że przynajmniej jedno dziecko na dwoje, które doświadcza przemocy, doświadcza przemocy fizycznej. Tabela 15.4. Klasa społeczna — rozkład danych: populacja białych (częstości bezwzględne i procenty) KJasa społeczna / Procent Klasa wyższa 25 5 Klasa średnia 221 48 Klasa robotnicza 201 43 Klasa niższa 16 4 Ogółem (N) 463 100 Zródlo: General Social Survey, 1988-1991. Proporcje i procenty pozwalają na porównanie dwóch lub więcej rozkładów częstości. Weźmy na przykład przedstawiony w tabelach 15.4 i 15.5 rozkład danych dotyczących klasy społecznej czarnych i białych respondentów. Dane te zostafy uzyskane w Generalnym Sondażu Społecznym — GSS (1988-1991). (Więcej infor- Tabela 15.5. Klasa społeczna — rozkład danych: populacja czarnych (częstości bezwzględne i procenty) Klasa społeczna f Procent Klasa wyższa 14 7 Klasa średnia 82 39 Klasa robotnicza 93 44 Klasa niższa 22 10 Ogółem (N) 211 100 Zródlo: General Social Survey, 1988-1991. 374 macji na temat Generalnego Sondażu Społecznego można znaleźć w dodatku A). Chociaż liczba osób należących do klasy pracującej jest większa w przypadku białych niż czarnych respondentów (201 w stosunku do 93), to bezpośrednie porównanie częstości bezwględnych prowadzi do błędu, gdyż różna jest liczba respondentów JV w każdej z populacji. Aby ocenić względną wagę każdej z klas w każdym z rozkładów, trzeba przekształcić częstości na procenty. Dane procentowe pokazują, że nasze pierwsze wrażenie wypływające z oceny częstości bezwględnych było błędne. Klasa pracująca jest niemal jednakowa w każdej z populacji — 43% w populacji białych i 44% w populacji czarnych. Nowe dane sprawiają, że porównania między populacjami stają się łatwiejsze. I Graficzna prezentacja rozkładów Rozkład częstości jest sposobem prezentacji danych w społeczności badaczy — czasami również dla opinii publicznej. Niektórzy mają jednak kłopoty z czytaniem i rozumieniem danych tabelarycznych. Graficzna prezentacja danych jest alternatywną metodą przedstawiania informacji wyrażonych w postaci rozkładu częstości. Posługując się wykresami graficznymi, można przekazywać informacje w bardziej skuteczny sposób. Najczęściej wykorzystywanymi rodzajami wykresów graficznych są: wykres kołowy, wykres słupkowy i histogram. Zarówno wykres kołowy, jak i słupkowy można stosować do przedstawiania danych nominalnych i porządkowych. Dla danych interwałowych używa się histogramu. Wykres kołowy Wykres kołowy obrazuje różnice pomiędzy częstościami czy procentami uzyskanymi dla zmiennych nominalnych i porządkowych, wyrażając je w postaci części koła. Poszczególne segmenty, aby je wyodrębnić, są albo w różnym stopniu zacienio-wane, albo różnie zakreskowane. Ich suma wynosi 100% lub jest równa ogólnej liczbie obserwacji. Jeden wykres kołowy może być wykorzystywany do reprezentowania pojedynczego rozkładu — dwa lub więcej do porównywania rozkładów. Jeżeli chcemy podkreślić jakiś rodzaj danych, to możemy „wyciąć" jeden z segmentów wykresu, aby w ten sposób zwrócić na niego uwagę. W tabeli 15.6 przedstawiliśmy rozkład częstości opinii na temat wydatków rządowych przeznaczonych na opiekę nad dziećmi pochodzącymi z biednych rodzin oraz dziećmi, których rodzice pracują. Dane te świadczą, że ludzie chętniej popierają wydatki rządu przeznaczone dla dzieci biednych (16% odpowiedzi w kategorii „znacznie więcej" i 45% odpowiedzi w kategorii „więcej") niż dla dzieci, których rodzice pracują (11% odpowiedzi w kategorii „znacznie więcej" i 26% odpowiedzi w kategorii „więcej"). Na wykresie kołowym na rycinie 15.1 przedstawiono te same informacje co w tabeli 15.6. Zauważmy, że części odpowiadające kategoriom „znacznie więcej" i „więcej" zostały wycięte, aby uwypuklić różnice pomiędzy poparciem dla wydatków rządu w obu grupach. Wykres kołowy umożliwia szybkie dostrzeżenie różnic między grupami bez konieczności analizowania rozkładu częstości. 375 Tabela 15.6. Opinie dotyczące wydatków rządu dla dzieci Dzieci Dzieci Rząd powinien z biednych rodzin rodziców pracujących % % Znacznie zwiększyć wydatki 16 11 Zwiększyć 45 26 Zostawić je bez zmian 33 39 Zmniejszyć 5 16 Znacznie zmniejszyć wydatki 1 8 Ogółem 100 100 Źródło: General Social Survey, 1991. Znacznie zwiększyć 16% Zwiększyć Zwiększyć 26% Znacznie zmniejszyć 1% Zmniejszyć 5% Zostawić je bez zmian 33% Opinie dotyczące poziomu wydatków dla dzieci z biednych rodzin Opinie dotyczące poziomu wydatków dla dzieci rodziców pracujących Ryc. 15.1. Opinie dotyczące wydatków rządu na pomoc dla dzieci z biednych rodzin i dla dzieci rodziców pracujących Wykres słupkowy Podobnie jak wykres kołowy, wykres słupkowy jest narzędziem przedstawiania danych nominalnych i porządkowych. W odróżnieniu od wykresu kołowego na wykresie słupkowym można jednocześnie przedstawić więcej niż jeden rozkład częstości. Wykres słupkowy tworzy się, nanosząc kategorie zmiennej na osi poziomej i rysując — dla każdej kategorii — prostokąty o jednakowej szerokości. Wysokość każdego prostokąta jest proporcjonalna do liczby lub procentu przypadków w tej kategorii. Wykres słupkowy można konstruować albo poziomo, albo pionowo. Na rycinie 15.2 przedstawiliśmy wykres pionowy. Wykres poziomy jest konstruowany w ten sam sposób, lecz kategorie zmiennej są umieszczane na osi pionowej, a prostokąty rysuje się poziomo. 376 zbyt małe wystarczające Postawy wobec wydatków zbyt duże Ryc. 15.2. Postawy wobec wydatków rządu na pomoc społeczną i zasiłki Tabela 15.7. Opinie dotyczące wydatków rządu na pomoc społeczną i zasiłki Wydatki rządu Pomoc społeczna Zasiłki % . % Zbyt małe 54,7 23,5 Wystarczające 41,0 36,9 Zbyt duże 4,3 39,6 Ogółem 100 100 Źródło: General Social Survey, 1991. W tabeli 15.7 przedstawiliśmy rozkład częstości postaw wobec wydatków rządu przeznaczanych na pomoc społeczną i zasiłki. Rozkład częstości odpowiedzi dla zmiennej „pomoc społeczna" pokazuje, że większość respondentów popiera ten sposób pomocy ze strony rządu (jedynie 4,3% respondentów uważa, że pomoc ta jest zbyt duża). Rozkład częstości dla drugiej zmiennej („zasiłki") pokazuje natomiast, że opinie ludzi są tu bardziej wyrównane i że wiele osób zaakceptowałoby cięcia rządu w tym zakresie (aż 39,6% uważa, że wydatki te są za duże). Na rozkładzie słupkowym na rycinie 15.2 zobrazowano odmienne postawy wobec wydatków rządu na pomoc społeczną i zasiłki. Przylegające do siebie dwa prostokąty reprezentują dwie zmienne — pomoc społeczną i zasiłki. Zauważmy, że prostokąty reprezentujące różne zmienne są ukazane kontrastowo, co ułatwia porównania i każda kategoria zmiennej „postawa wobec wydatków" obejmuje dwa prostokąty. 377 Histogram Histogramami posługujemy się po to, aby graficznie przedstawić rozkład częst dla zmiennej interwałowej i stosunkowej. Histogram przypomina wykres słupko jednak bez przerw pomiędzy kolejnymi prostokątami. Prostokąty są umieszc jeden po drugim, aby pokazać, że zmienna ma charakter ciągły, a interwały -w miejsce rozłącznych kategorii — są umieszczane wzdłuż osi poziomej. Wysokość prostokątów histogramów odzwierciedla procent lub częstość w danym interwale. W odróżnieniu od wykresu słupkowego histogram nie pozwala na przedstawienie informacji dotyczących więcej niż jednego rozkładu. W tabeli 15.8 i na rycinie 15.3 przedstawiono rozkład zgonów z powodu AIDS, jaki zanotowano wiatach 1982-1991 w różnych grupach wiekowych. Tabela 15.8. Rozkład danych dotyczących liczby zgonów z powodu AIDS w latach 1982-1991 Procent zgonów z powodu AIDS wieK % Poniżej 13 1 13-29 19 30-39 45 40-49 23 50-59 8 60 i więcej 4 Ogółem 100 Źródło: Statistical Abslracl, 1992. poniżej 13 13-29 30-39 40-49 50-59 60 i więcej wiek Ryc. 15.3. Rozkład danych dotyczących liczby zgonów z powodu AIDS w latach 1982-1991 Źródło: United States Bureau of the Census: Statistical Abstracts oflhe United States: 1992, Washington. DC., 1992. 378 I Miary tendencji centralnej Jeżeli wymagany jest jedynie skrótowy opis wyników, to nie ma konieczności przedstawiania całego rozkładu. Gdybyśmy — opisując poziom wykształcenia Amerykanów — posłużyli się rozkładem częstości, byłoby to raczej mało efektywne. Zamiast tego można podkreślić, że większość Amerykanów ma wykształcenie średnie i że bredni poziom wykształcenia w Stanach Zjednoczonych to dwanaście lat nauki. W większości rozkładów zebrane obserwacje mają tendencję do gromadzenia się wokół centralnej wartości. Na przykład, rozkład dochodów można scharakteryzować za pomocą najczęściej powtarzającej się wartości lub średnich dochodów. Podobnie rozkład opinii również ma tendencję do skupiania się wokół pewnego zakresu. Cecha ta sprawia, że cały rozkład można przedstawić za pomocą jednej wartości zamiast rozbudowanej tabeli. Zatem porównanie dwóch rozkładów staje się znacznie łatwiejsze. Na przykład można porównać przeciętne dochody w Stanach Zjednoczonych z przeciętnymi dochodami w Wielkiej Brytanii, czy też porównać przeciętne wyniki w teście inteligencji studentów w Rosji z przeciętnymi wynikami studentów amerykańskich. Miary statystyczne odzwierciedlające „typowe" czy „przeciętne" charakterystyki rozkładu częstości nazywane są miarami tendencji centralnej. Naukowcy najczęściej posługują się trzema miarami: wartością modalną, medianą i średnią arytmetyczną. Wartość modalna Wartość modalna to kategoria lub obserwacja, która w rozkładzie powtarza się najczęściej. Stosowana jest jako miara tendencji centralnej przeważnie w stosunku do zmiennych nominalnych. Określa się ją, znajdując tę kategorię, do której wpada największa liczba przypadków. Rozważmy na przykład rozkład częstości w kategoriach religijnych przedstawiony w tabeli 15.9. Rozkład ten składa się z pięciu kategorii. Pierwsza kategoria, protestanci, jest najbardziej dominująca, dlatego ta kategoria jest wartością modalną naszego rozkładu. Tabela 15.9. Rozkład częstości w kategoriach religijnych Kategorie religijne / Protestanci 62 Katolicy 52 Żydzi 10 Muzułmanie 12 Buddyści 2 Ogółem (AO 138 Większość rozkładów to rozkłady jednomodalne, tzn. zawierające tylko jedną kategorię, w której mieści się większość przypadków. Czasami jednak rozkład jest dwumodalny, tj. zawiera dwie takie kategorie. Z sytuacją taką mamy najczęściej do 379 ryla- czynienia wówczas, gdy rozkład opisuje dwie populacje. Na przykład rozkład wzro- j stu jest dwumodalny, łączy bowiem dane zarówno dla kobiet, jak i dla mężczyzn. Każda płeć natomiast jest charakteryzowana przez inną typową wartość wzrostu. | Zaletą wartości modalnej jest łatwość jej określania na podstawie rozkładu częstości. Może zatem być stosowana jako pierwszy i szybki wskaźnik tendencji centralnej rozkładu. Chociaż wartość modalną można bardzo łatwo określić, trzeba jednak pamiętać, że jest to wskaźnik bardzo wrażliwy. Jej pozycja może się przesuwać wraz ze zmianami sposobu kategoryzacji zmiennej. Dlatego nie jest to stabilna miara tendencji centralnej. Mediana Mediana to miara pozycyjna dzieląca rozkład na dwie równoliczne części. Definiowana jest jako wartość rozkładu, która znajduje się dokładnie w połowie pomiędzy najmniejszą i największą wartością rozkładu. Na przykład w szeregu 1, 3, 4. 6, 7 mediana wynosi 4. Medianę można obliczyć jedynie dla tych danych, które dadzą się uporządkować, dlatego można ją stosować dla danych porządkowych i wyższych. Medianę oblicza się z danych nie pogrupowanych poprzez znajdowanie środkowej obserwacji. Przy nieparzystej liczbie przypadków medianą jest (N+ l)/2 obserwacja, gdzie N oznacza liczbę przypadków. Rozważmy następujący zbiór dziewięciu obserwacji: 6,9, 11, 12, 16, 18,21,24,30 T mediana Piąta obserwacja [(9+ l)/2] dzieli ten zbiór na połowy. Medianą zatem jest piąta obserwacja w szeregu, a jej wartość wynosi 16. W przypadku zbioru parzystego mediana mieści się w środku pomiędzy dwoma środkowymi obserwacjami i oblicza się ją jako średnią z N/2 i zV/2 + 1 obserwacji. Na przykład w zbiorze obserwacji: 1, 3, 4, 5, 6, 7, 8, 9 T mediana medianą jest średnia wartości czwartej (8/2) i piątej (8/2+1) obserwacji, tj. (5 + 6)/2 = 5,5. Dla danych pogrupowanych medianę oblicza się, dokonując interpolacji wewnątrz przedziału zawierającego środkową obserwację. Wzór pozwalający znaleźć medianę jest następujący: Md=L + /V(0,5) - cl poniżej / w, (15.1) gdzie Md — mediana, L — dolna granica przedziału zawierającego medianę, c/poniżej — skumulowana suma częstości poniżej przedziału zawierającego medianę, 380 /— częstość przedziału zawierającego medianę, w — szerokość przedziału zawierającego medianę, N — ogólna liczba przypadków. Tabela 15.10. Hipotetyczny rozkład wieku dla 134 przypadków Dokładne granice Częstość Procent Wiek przedziałów / skumulowana cf skumulowany c 1-10 0,5-10,5 10 10 7 11-20 10,5-20,5 12 22 16 21-30 20,5-30,5 17 39 29 31-40 30,5-40,5 21 60 45 41-50 40,5-50,5 25 85 63 51-60 50,5-60,5 20 105 78 61-70 60,5-70,5 18 123 92 71-80 70,5-80,5 11 134 100 N 134 134 Aby zilustrować sposób obliczania mediany z danych pogrupowanych, posłużymy się danymi przedstawionymi w tabeli 15.10, w której przedstawiono rozkład wieku dla 134 osób. Dane te zostały podzielone na osiem grup o szerokości 10 lat. Ponieważ mamy 134 obserwacje (7V= 134), więc medianą będzie wartość sześćdziesiątej siódmej obserwacji [134(0,5) = 67]. W kolumnie, w której przedstawiono częstości skumulowane, możemy odczytać, że poniżej przedziału 41-50 znajduje się 60 obserwacji, a sam przedział 41-50 zawiera jeszcze 25 obserwacji. Sześćdziesiąta siódma obserwacja będzie się zatem znajdowała w tym przedziale. Aby ustalić, ile dokładnie wynosi mediana, musimy określić, jaki wiek odpowiada siódmemu przypadkowi w tym przedziale. Te siedem przypadków to 7/25 = 28% wszystkich przypadków w tym przedziale. Ponieważ szerokość przedziału wynosi 10, przeto należy dodać 28% z 10 (2,8) do dolnej granicy przedziału zawierającego medianę. Mediana wynosi zatem 40,5 + 2,8 = 43,3. Poniższe równanie obejmuje wszystkie te kroki: 10 = 40,5+ (—ll0 = 40,5 + 2,8=:43,3- Bardzo często chcemy raczej znaleźć przedział, w którym znajduje się mediana, niż określić jej dokładną wartość. Aby wyznaczyć taki przedział, możemy wykorzystać skumulowany rozkład częstości. W tabeli 15.10 zostały również przedstawione skumulowane dane procentowe. Chcąc znaleźć przedział mediany, należy określić, w jakim przedziale znajduje się 50% skumulowanych obserwacji. Przedział wiekowy 31-40 zawiera 45% skumulowanych obserwacji, a przedział wiekowy 41-50 63%, dlatego też 50% skumulowanych obserwacji musi znajdować się w przedziale 41-50. Md = 40,5 + 134(0,5) - 60 25 381 Tabela 15.11. Mediana lat nauki Biali Czarni Mężczyźni Mieszkańcy ośrodków miejskich 12,1 8,7 Mieszkańcy dzielnic podmiejskich 12,1 9.7 Mieszkańcy okręgów wiejskich 12,3 8,9 Kobiety Mieszkanki ośrodków miejskich 12,1 10,5 Mieszkanki dzielnic podmiejskich 12,3 10,7 Mieszkanki okręgów wiejskich 11,8 8,0 Tabela 15.11, podająca dane obrazujące poziom wykształcenia dla dwunastu grup, jest przykładem wykorzystania mediany. Badacze porównali medialne wy- i kształcenie obliczone dla każdej grupy. Mediana jest sposobem przedstawienia danych dotyczących wykształcenia dla każdej z dwunastu populacji w postaci jednej wartości. Na przykład 50% białych mężczyzn mieszkających na wsi uczyło się przynajmniej przez 12,3 roku, podczas gdy mediana dla czarnych mężczyzn mieszkających na wsi wynosi tylko 8,9 roku. Inne miary położenia Czasami warto znaleźć wartości, które dzielą rozkład nie na dwie, lecz na trzy, cztery lub dziesięć grup. Na przykład dział przyjęć uniwersytetu, który zdecydował przyjąć jedną czwartą spośród wszystkich kandydatów, będzie zainteresowany wyodrębnieniem grupy 25% osób, które na egzaminie wstępnym uzyskały najwyższe oceny. Mediana zatem to specyficzny przypadek ogólniejszego zbioru miar położenia, nazywanych centylami. N-ty centyl to liczba, poniżej której znajduje się n procent przypadków i powyżej której znajduje się (100-«) przypadków. Mediana jest więc równa 50 centylowi. Innymi słowy jest to liczba, powyżej której i poniżej której znajduje się 50% obserwacji. Wspomniany dział przyjęć uniwersytetu będzie chciał wiedzieć, ile wynosi 75 centyl, nazywany również kwartylem górnym {Q}). Kwartyl górny jest to punkt, powyżej którego znajduje się 25% wyników. Równanie (15.1) można tak przekształcić, aby pozwalało na obliczenie wartości 75 centyla, 25 centyla (nazywanego też kwartylem dolnym Q,) czy na przykład 10 centyla (D,). Aby przekształcić to równanie, wystarczy wstawić odpowiednią proporcję przypadków, która nas interesuje, i określić przedział, w którym znajduje się wynik naszych poszukiwań. Przedstawione niżej równania (15.2)-(15.4) pozwalają na obliczenie Qu Q3 i Dx: Q,=L + /V(0,25) - c/pc / w, (15.2) 382 e3=i+ JV(0,75) ~ c/pt / w, (15.3) D,=L + M0,10)-c/pc ./' w. (15.4) Na przykład na podstawie danych z tabeli 15.10 można obliczyć 10 centyl: D, = 10,5 + 134(0,10)- 10 12 l^-|l Średnia arytmetyczna Średnia arytmetyczna jest najczęściej stosowaną miarą tendencji centralnej. Chociaż zarówno wartość modalna, jak i mediana są traktowane jak wartości przeciętne, to średnia arytmetyczna jest tym, co większość ludzi rozumie przez to pojęcie. Kiedy mówimy o średnich wynikach w teście czy o średnim wzroście zawodowego koszykarza, zazwyczaj mamy na myśli średnią arytmetyczną. Średnia arytmetyczna jest miarą, którą można stosować dla danych interwałowych, a określenie jej wartości wymaga obliczeń matematycznych. Jest ona również wykorzystywana jako podstawa konstruowania innych miar statystycznych. Średnia arytmetyczna jest definiowana jako suma wszystkich obserwacji podzielona przez ich liczbę. W zapisie symbolicznym średnia arytmetyczna to X = ^1 N ' (15.5) gdzie X — średnia arytmetyczna, Lx — suma wszystkich obserwacji, N — liczba obserwacji. Dla następujących danych: 6, 7, 12, 11, 10, 3, 4, 1 średnia arytmetyczna X wynosi zatem: 54/8 = 6,75. Obliczając średnią z rozkładu częstości, nie trzeba dodawać do siebie wszystkich wartości. Wystarczy przypisać każdej kategorii właściwą wagę, mnożąc ją przez częstość, i zastosować następujące równanie: N (15.6) gdzie EfX — suma wszystkich kategorii pomnożonych przez ich częstość. W tabeli 15.12 przedstawiono dane dotyczące liczby lat nauki dla 34 osób. Średnią liczbę lat nauki możemy obliczyć, stosując równanie (15.6). Aby obliczyć wartość LfX (kolumna 3), pomnożyliśmy wartość każdej kategorii (kolumna 1) przez jej częstość (kolumna 2) i zsumowaliśmy wszystkie iloczyny. Średnia liczba lat nauki wynosi zatem: - 278 X=----=8,18. 34 383 Równanie (15.6) można również stosować dla danych pogrupowanych. Wówczas za środek przedziału przyjmujemy wartość x. Na przykład, obliczając średnią wielkość rodziny dla danych przedstawionych w tabeli 15.13, do obliczeń wykorzystujemy jedynie środek każdego przedziału: - 51 X= — = 2,83. 18 Tabela 15.12. Rozkład lat nauki Liczba lat nauki / & (1) (2) (3) 2 3 6 3 2 6 6 5 30 8 10 80 10 8 80 12 4 48 14 2 28 Ogółem W=34 2!/2r*278 Tabela 15.13. Wielkość rodziny dla wybranej grupy respondentów Wielkość rodziny Środek przedziału / fX 0-2 1 10 10 3-5 4 5 20 6-8 7 3 21 Ogółem /V=18 ZfX=5i W odróżnieniu od wartości modalnej i mediany, obliczając średnią arytmetyczną, uwzględniamy wszystkie wartości rozkładu, co sprawia, że jest ona szczególnie wrażliwa na wartości skrajne. Na przykład, jeżeli jedna osoba na dziesięć zarabia 60000$ rocznie, a pozostałe osoby zarabiają po 5000$, to średnie zarobki w tej grupie wyniosą 10500$. Wartość ta nie jest jednak dobrą reprezentacją tego rozkładu. Średnia arytmetyczna jako miara tendencji centralnej może zatem wprowadzać w błąd, gdy niektóre z wartości w zbiorze danych są bardzo niskie lub bardzo wysokie. Przykład 15.1 ilustruje procedurę obliczania trzech miar tendencji centralnej. 384 Przykład 15.1 Obliczanie trzech miar tendencji centralnej Wartość modalna = kategoria, do której wpada najwięcej przypadków = 9 Każda * reprezentuje jedną obserwację Ogólna liczba przypadków = 39 6 * 8 * * * 9 * * * * 5 4 * * * * * * * * * 3 2 * * * * * * * * * * » * * 1 1 * * * * * * * * * 5 6 7 8 9 10 11 12 13 wartość zmiennej Mediana = punkt środkowy = (N + l)/2 = (39+ l)/2 = 20 5 5 666677777788888888999999999 10 10 10 10 10 11 11 11 12 13 T Punkt środkowy = dwudziesty przypadek = 8 Średnia arytmetyczna = 5x2= 10 6 x 4 = 24 7 x 6 = 42 8 x 8 = 64 9x9 = 81 10 x 5 = 50 11 x3 = 33 12 x 1 = 12 13x1 = 13 329 / 39 = 8,44 (ogółem) (przypadki) (średnia) Porównanie mody, mediany i średniej Wszystkie trzy miary tendencji centralnej można wykorzystywać do opisywania rozkładów jećmozmiermowych. Każda z ruch ma jednak swoje właściwości, które określają i ograniczają ich stosowanie. Wartość modalna wskazuje na ten punkt, który ma największą gęstość, mediana jest środkowym punktem rozkładu, a średnia arytmetyczna to przeciętna wartość wszystkich obserwacji. Dlatego miar tych nie można stosować automatycznie. Skąd zatem badacz wie, kiedy zastosować daną miarę tendencji centralnej? Na to pytanie nie ma prostej odpowiedzi — zależy ona 385 od celu badania. I tak na przykład, jeżeli badacz chciałby poznać przeciętny pozi dochodów całej grupy, aby określić, ile każda z osób zarabiałaby, gdyby wszys mieli jednakowe dochody, to średnia arytmetyczna byłaby tu najbardziej odpowiednia, ponieważ dzięki niej zostałyby uwzględnione zarówno najniższe, jak i najniższe dochody. Jeżeli natomiast urzędnik chciałby się dowiedzieć, która z osób z tej grupy ma prawo do pomocy społecznej, to najlepszą miarą będzie wartość modalna. ponieważ pokaże nam, jakie dochody są najbardziej typowe, a na miarę tę nie wpłyną dochody skrajne. Badacz powinien również wziąć pod uwagę poziom pomiaru analizowanej zmiennej, podejmując decyzję o wyborze miary tendencji centralnej. Wartość modalna można stosować dla wszystkich poziomów pomiaru, lecz dla zmiennych nominalnych, takich jak przynależność partyjna, jest to jedyna poprawna miara. Medianę można wykorzystać dla zmiennych porządkowych takich, jak postawy polityczne, lecz można za jej pomocą opisywać również dane uzyskane na wyższym poziomie pomiaru. Średnią arytmetyczną możemy natomiast zastosować w przypadku danych interwałowych i ilorazowych, takich jak dochody czy wiek. Trzy miary tendencji centralnej ¦ Wartość modalna. Jest to kategoria, do której wpada najwięcej przypadków, lub obserwacja pojawiająca się najczęściej w zbiorze danych. ¦ Mediana. Jest to obserwacja, kategoria lub przedział, który dzieli rozkład na dwie równe części. Aby znaleźć medianę dla nieparzystej liczby danych nie pogrupowanych, należy uporządkować wszystkie obserwacje w porządku rosnącym i znaleźć wynik środkowy. W wypadku parzystej liczby obserwacji mediana znajduje się między dwoma środkowymi wynikami. Aby znaleźć medianę dla danych pogrupowanych, należy wykorzystać równanie (15.1). Mediana jest jednym z przykładów grupy miar nazywanych centylami. Równanie (15.1) można tak przekształcić, aby na jego podstawie obliczać dowolny centyl. Równania (15.2), (15.3) i (15.4) są przykładami takich przekształceń. ¦ Średnia arytmetyczna. Średnia jest równa sumie wszystkich obserwacji podzielonej przez ich liczbę. Równanie (15.5) pozwala obliczyć średnią dla danych nie pogrupowanych, a równanie (15.6) dla danych pogrupowanych. ¦ Podstawowe miary rozproszenia Miary tendencji centralnej pozwalają na ustalenie najbardziej reprezentatywnej wartości rozkładu i pozwalają badaczom na przedstawienie danych w skomasowanej postaci. Jednak nie zawsze miary te dostarczają wszystkich niezbędnych informacji o rozkładzie. Weźmy na przykład pod uwagę następujące dwa rozkłady: 1) 8, 8, 9, 9, 9, 10, 10, 10, 10, 10, 11, 11, U, 12, 12; 2) 4, 5, 6, 7, 8, 9, 10, 10, 10, 11, 12, 13, 14, 15, 16. 386 W obu grupach średnia, mediana i wartość modalna wynoszą dokładnie 10 i możemy opisać oba rozkłady za pomocą którejś z miar tendencji centralnej. Jednakże taki opis może sugerować, że oba rozkłady są takie same, podczas gdy wyraźnie widać, że tak nie jest. W pierwszym rozkładzie uzyskane wartości koncentrują się wokół centralnej wartości, w drugim są zdecydowanie bardziej rozproszone. Pełen opis każdego rozkładu wymaga zmierzenia również stopnia rozproszenia wyników wokół wartości centralnej. (W tym omówieniu będziemy się zamiennie posługiwać terminami „rozproszenie", „rozrzut" i „zmienność"). Rzeczywiste obserwacje są rozproszone wokół wielu wartości i w różnych rozkładach zakres tego rozproszenia jest różny. Dwie klasy mogą na przykład uzyskiwać te same średnie stopnie, jednak jedna z klas może się składać zarówno z dobrych, jak i słabych uczniów, podczas gdy do drugiej mogą chodzić uczniowie przeciętni. Podobnie rozkłady dochodów posiadające tę samą średnią mogą się różnić rozproszeniem obserwacji. W niektórych rozkładach większość dochodów koncentruje się wokół średniej, w innych dochody są bardzo rozproszone. Aby opisać stopień rozproszenia wyników wokół średniej arytmetycznej, posługujemy się tzw. miarami rozproszenia. Z miar tych omówimy miary zróżnicowania jakościowego, rozstęp, odchylenie średnie, wariancję, odchylenie standardowe i współczynnik zmienności. Miara zróżnicowania jakościowego Zakres rozproszenia rozkładu zmiennych nominalnych można oszacować, posługując się wskaźnikiem heterogeniczności, znanym jako miara zróżnicowania jakościowego (1QV). Wskaźnik ten odzwierciedla liczbę różnic pomiędzy kategoriami rozkładu, a jest oparty na liczbie kategorii i ich liczebnościach. Ogólnie rzecz biorąc, im większa liczba kategorii, tym większe są całkowite różnice pomiędzy nimi, a więc tym większy jest stopień zróżnicowania. Zatem im mniejsza liczba kategorii i mniejsze różnice pomiędzy nimi, tym mniejsze zróżnicowanie rozkładu. Weźmy pod uwagę dane dotyczące rasy i pochodzenia etnicznego dla dwóch stanów — Nowy Meksyk i Vermont. Populacja stanu Vermont składa się przede wszystkim (choć nie jedynie) z białych mieszkańców. Z kolei w stanie Nowy Meksyk jedynie około połowy populacji to osoby białe. Część populacji stanowią głównie osoby pochodzenia hiszpańskiego, w mniejszym stopniu amerykańscy Indianie, a także przedstawiciele innych ras. Stopień zróżnicowania zależy od składu „rasowo-etnicznego" danego stanu. Jeżeli większość osób należy do jednej grupy rasowo-etnicznej, to liczba różnic w zakresie rasy będzie stosunkowo niewielka. I odwrotnie, jeżeli większość osób wpada do różnych grup rasowo-etnicznych, to liczba różnic będzie duża. W stanie Vermont zróżnicowanie jest niewielkie, a w Nowym Meksyku duże. Miara zróżnicowania jakościowego oparta jest na stosunku ogólnej liczby różnic w rozkładzie do maksymalnej liczby różnic możliwych dla tego rozkładu. Obliczanie ogólnej Wczby różnic, kty xv\a\eić o%óYcą \\cx\^ różnic &\a danego rozkładu, należy policzyć i zsumować kolejne różnice pomiędzy daną kategorią a każdą pozostałą kategorią. Na przykład w grupie składającej się z 50 osób białych i 50 osób czarnych będziemy mieli 50 x 50 = 2500 różnic rasowych. Z kolei w grupie składającej się z 70 białych i 30 czarnych osób pojawi się 2100 takich różnic, a w grupie składającej się ze 100 białych i żadnej osoby o czarnym kolorze skóry takich różnic będzie 100x0 = 0. 387 Procedurę obliczania ogólnej liczby różnic możemy wyrazić w postaci następu- ! jącego równania: ogólna liczba różnic = Efjj, iźj, (15.7) gdzie /, — liczebność kategorii i,fj — liczebność kategorii j. Na przykład w grupie składającej się z 20 katolików, 30 żydów i 10 muzułmanów wystąpi (2Ox30)ł + (20 x 10) + (30 x 10) = 1100 różnic dotyczących wyznania religijnego. Obliczanie maksymalnie możliwej liczby różnic. Ponieważ każdy rozkład ma różną liczbę kategorii i różna jest ich liczebność, więc wielkość ogólnej liczby zaobserwowanych różnic może zostać zinterpretowana jedynie wtedy, gdy przedstawimy ją na tle maksymalnie możliwej liczby różnic. Porównując zaobserwowaną liczbę różnic z maksymalnie możliwą liczbą różnic, kontrolujemy te czynniki. Z maksymalną liczbą różnic mamy do czynienia wtedy, kiedy liczebności wszystkich kategorii są takie same. Zatem maksymalnie możliwą liczbę różnic obliczamy, przy jmując założenie, że liczebności wszystkich kategorii są identyczne: maksymalnie możliwa liczba różnic =---------- — (15.8) 2 \nj gdzie n — liczba kategorii rozkładu, F — liczebność ogólna. W naszym przykładzie (grupa 20 katolików, 30 żydów i 10 muzułmanów) liczba maksymalnie możliwych różnic wynosi (3x2\ /60V l—J ItJ ¦,m I Miarą zróżnicowania jakościowego jest stosunek ogólnej zaobserwowanej liczby obserwacji do liczby maksymalnie możliwych obserwacji. Innymi słowy: ogólna liczba zaobserwowanych różnic miara zróżnicowania jakościowego =----------------------------------------------, maksymalna możliwa liczba różnic co możemy wyrazić jako: Ififj n(n-l) (FY ' (li9> W powyższym przykładzie miara zróżnicowania wynosi zatem 1100/1200 = 0,92. Miara zróżnicowania jakościowego przyjmuje wartości od zera do jedności. Zero oznacza całkowity brak zróżnicowania, a jeden — maksymalne zróżnicowanie. Miara ta ma wartość zero wtedy, gdy ogólna liczba różnic będzie wynosiła zero. Będzie ona natomiast równa jeden, gdy ogólna liczba zaobserwowanych różnic będzie równa maksymalnie możliwej liczbie różnic. 388 El § 3 5. » "< o a Ł o < (u 5r< O- co — J> >— oj O J> -fc- J> Ul NO H- NOONUtJi.-JJi.ONKi OJ U> K> O <—' -O Ki NO K>00>—'•—'00ONKi00OJO000ON00UiJ>— 4^ O -O VO OJ — On *-* no Ki ON Ki NO OO On J^ONaNJ^KiNOOOUiKiUiKłKiONONOOO 4> h— On -~i _ -o Id o 261 UJ 072 545 372 128 111 to 984 701 911 976 dc g* dc 986 040 dc ON dc 360 283 459 527 762 057 011 799 845 103 360 \ „_ ro 4> KJ K) Ui w OJ DC ksj to to _ DC KJ UJ oc Ui to ment o Ul Ul OJ KJ Ui DC Ui DC KJ sO Ul o Ul DC OJ U) o Oj p dc UJ dc Ui -o O o UJ DC fComm sl W i- h- W J> i-'Ul ONKi-0.-J4^-OKiONOOOOJ>.ONKiUJ K> ¦—'KiKi4>KłUiOO — OO -O, UJ t—» Ut OO Ui UiUiKJNOOOOU»004>--OUiOJ4Ni.UiJ>K> OO NOKiNOO*— 4>ON-J4>OJJ>0—'NOOJUi -Oj Ki - ^ >J W Ni 4> 4i. OO Ki >—'OJ4>4>KiJ>UJONSJOJNO "UJ NO KI NO — O O OnJ>UinOOOOOOJOJ OO Uii— MO OJ i—'-OjUłNOOONOOJUiUiUi-O-O, h- 4^ Ki J> -O Ui OJ Ul UiOOKi-PkUJONi—'Kii— f—UJ-Ojn-UJ -O. OJOOOJJ>—'UiKi — NOJ>Ui--ONOJ>UiWD ^O On 4> oo Ui no -O, Ki OOOJOOOOOO^-NONO ONOOOO>OiOOUiONO-OOKiOON4*OJO Kl i— \OJ>-JJ>-K)KiKiONKiOUJi— OJ — Ui J> po o o p p o o p p p p p p p p p "O "»-* t- V* ">— "to 'Ki "to "oj "oj J> J4> "ui "ui "ui "*On "-J 4>©J>OONOUJOnOOUiNOUJOO<— Ki-JON O 1. I 3- 5' s ° g 3 i. 2- t -< 3 (Cl g ¦ N ¦EL <«" a ¦ 5* s_ S* 3 -5q dii OJ3Z 1 3IUEA< T6'0 (6-Cl) DI i_______• om; -2DII [ IO -ZOUI (8ST -Azjd -BUI rA -Z3IJ i -qoB2 -OJ BI + (oe aidru (Z.'SI -ndS] Na początku tej części przytoczyliśmy przykład dotyczący zróżnicowania raso- I wo-etnicznego w dwóch stanach: Nowy Meksyk i Vermont. Stwierdziliśmy, że zróż-1 nicowanie to jest duże w Nowym Meksyku i małe w stanie Vermont. Aby doklad-nie ocenić zróżnicowanie w tych dwóch stanach, możemy się posłużyć miarą zróż- I nicowania jakościowego. W tabeli 15.14 przedstawiliśmy skład populacji ze wzglę- I du na rasę i pochodzenie etniczne i obliczyliśmy miarę zróżnicowania jakościowe- I go (IQV) dla 17 stanów. W tabeli dane zostały podane w porządku rosnącego zróż- i nicowania. Widać wyraźnie, że w Stanach Zjednoczonych mamy do czynienia z dużym zróżnicowaniem rasowo-etnicznym. Najbardziej zróżnicowanym stanem jes! I Nowy Meksyk, dla którego IQV wynosi 0,70, a najbardziej homogenicznym stanem jest Vermont ze współczynnikiem IQV=0,04. Rozstęp i rozstęp ćwiartkowy Rozstęp jest miarą odległości pomiędzy najwyższym i najniższym wynikiem w rozkładzie. Na przykład w zbiorze wyników: 4, 6, 8,9, 17 rozstęp jest różnicą pomiędzy 17 a 4, czyli wynosi 13 (17 — 4 = 13). Aby obliczyć rozstęp, wszystkie obserwacje muszą zostać uporządkowane pod względem wielkości. Zatem rozstęp 1 można stosować wtedy, kiedy rozkład wyników osiągnął przynajmniej porządkowy I poziom pomiaru. Rozstęp ma szczególne znaczenie, gdy zbyt mała liczba obserwa- I cji może zniekształcić obraz rzeczywistości. Przypuśćmy na przykład, że dwie fab- 1 ryki wypłacają rocznie przeciętnie 15 000$ pensji. Rozstęp jednak jest różny dla I każdej z fabryk. W pierwszej fabryce wynosi 2000$, a w drugiej 9000$. Bez dodatkowych informacji dostarczonych przez rozstęp wyprowadzilibyśmy błędny wnio- I sek, że skala wypłat w obu fabrykach jest taka sama. Rozstęp jest bardzo użytecz- I nym narzędziem szybkiego uzyskiwania informacji o zróżnicowaniu danych, jed- i nak jest to miara bardzo powierzchowna, ponieważ oparta jest tylko na dwóch skrajnych wartościach rozkładu. Jest więc wrażliwa na zmianę wartości tylko jed- I nego z tych wyników. Alternatywną miarą w stosunku do rozstępu jest rozstęp ćwiartkowy będący różnicą pomiędzy dolnym i górnym kwartylem (tj. Qx i Q3). Ponieważ jest to miara i rozproszenia jedynie środkowej części rozkładu, nie jest tak wrażliwa na wyniki j skrajne. Zarówno dolny, jak i górny kwarty/ będą się mniej różnić z rozkładu na I rozkład niż wyniki skrajne. Aby zilustrować sposób obliczania rozstępu między-kwartylowego, wróćmy do przykładu przedstawionego wcześniej w tabeli 15.10. I Dolny kwartyl Qt dla tych danych wynosi 27,76, a kwartyl górny Q3 58,75. Wartości i te obliczyliśmy za pomocą równania (15.2) oraz (15.3). Rozstęp międzyćwiartkowy wynosi zatem 58,75 — 27,76 = 30,99. Rozstęp możemy również obliczyć dla innych miar położenia. Na przykład możemy obliczyć rozstęp pomiędzy 10 centylem i 90 centylem, aby podać wielkość rozproszenia wyników środkowych 80% obserwacji. Ograniczenia. Podstawowe ograniczenie zarówno rozstępu, jak i rozstępu ćwiartkowe- I go wynika z faktu, że miary te oparte są jedynie na dwóch wynikach, a zatem odzwierciedlają zróżnicowanie tylko w pewnej zdefiniowanej części rozkładu. Aby otrzymać bardziej dokładny obraz rozkładu, trzeba się odwołać do rozproszenia wszystkich wyników. Należy więc skonstruować taką miarę, która będzie oparta na rozproszeniu wszystkich wyników rozkładu wokół jakiegoś kryterium. Innymi słowy, badacz musi przyjąć jakąś normę, pozwalającą mu podjąć decyzję, której wartość jest niższa lub 390 wyższa od wartości oczekiwanej. Na przykład określenie dochodów jako „niskie" lub „wysokie" ma sens jedynie w stosunku do określonego kryterium. Dochody ocenione jako wysokie w Indiach będą traktowane jako niskie w Stanach Zjednoczonych. Każda miara tendencji centralnej może służyć jako norma. Można mierzyć rozproszenie wyników wokół wartości modalnej, mediany czy średniej arytmetycznej, jednak średnia arytmetyczna jest miarą najczęściej stosowaną. I Miary rozproszenia oparte na średniej Najprostszym sposobem obliczenia wielkości rozproszenia wyników wokół średniej jest obliczenie odchylenia przeciętnego wyników od średniej: I(X-X) odchylenie przeciętne =------------, gdzie X — każda pojedyncza obserwacja, X — średnia arytmetyczna, N — całkowita liczba obserwacji. Ponieważ suma odchyleń od średniej zawsze równa się zero2, więc odchylenie przeciętne zawsze byłoby zerowe, gdyż tyle wynosiłby mianownik tego wyrażenia. Aby ominąć tę własność średniej, podnosimy każde odchylenie do kwadratu i otrzymujemy wyrażenie na odchylenie standardowe wyników, najczęściej stosowaną miarę rozproszenia stosowaną dla danych interwałowych. Wariancja i odchylenie standardowe Gdy tylko to możliwe, badacze posługują się wariacją i odchyleniem standardowym jako miarami rozproszenia, ponieważ można je później wykorzystywać w bardziej zaawansowanych obliczeniach statystycznych. Wariancję i odchylenie standardowe oblicza się, podnosząc do kwadratu i sumując wszystkie odchylenia, a następnie dzieląc tę sumę przez liczbę obserwacji. Wariancja .v2 zatem3: s2 = i(x-x)2 (1510) N Innymi słowy, od każdego wyniku odejmujemy średnią arytmetyczną, otrzymane różnice podnosimy do kwadratu i dzielimy przez ogólną liczbę obserwacji. Przedstawiony w tabeli 15.15 przykład liczbowy pokazuje kolejne kroki niezbędne do obliczenia wariancji. Po zastosowaniu równania (15.10) do tych danych otrzymamy: , 200 s2 = —- = 40. 2 Na przykład średnia z następujących wartości 2, 4, 6 i 8 wynosi 5. Jeżeli od każdej wartości odejmiemy 5, to otrzymamy —3, —1, 1 i 3. Suma wszystkich tych różnic —(—3) + (—1)+ 1 +3 — wynosi zero. 1 Przedstawione w tym rozdziale wzory na odchylenie standardowe i wariancję to wzory pozwalające obliczyć te parametry w populacji. Odpowiednie wzory dla próby mają w mianowniku (N— 1), zamiast N. 391 Aby obliczyć wariancję, warto skorzystać z wzoru wygodniejszego od wzoru definicyjnego. Wówczas kwadrat średniej arytmetycznej odejmujemy od sumy kwadratów wszystkich wyników podzielonej przez liczbę obserwacji, czyli: s = ^r - OO2. (15.11) Stosując równanie (15.11) do tych samym danych z tabeli 15.15, otrzymamy , 605 s2 = —- - (9)2 = 121 - 81 = 40. Wariancja wyraża przeciętne odchylenie wyników w rozkładzie nie w oryginalnych jednostkach, lecz w jednostkach podniesionych do kwadratu. Możemy rozwiązać ten problem, wyprowadzając pierwiastek kwadratowy z wariancji, a zatem przekształcając wariancję w odchylenie standardowe. Odchylenie standardowe jest miarą rozproszenia wyrażoną w oryginalnych jednostkach. Możemy je wyrazić za pomocą równania (15.12) i (15.13), które odpowiadają równaniom (15.10) i (15.11): s = I(X - Xf —^--------. (15.12) \EX gdzie s oznacza odchylenie standardowe. Dla naszego przykładu wartość odchylenia standardowego obliczonego za pomocą równania (15.12) „/20Ó r— s = "Y------= V40 = 6>3- Dane w tabeli 15.15 przedstawiają nie pogrupowany rozkład częstości zawierający po jednej liczebności dla każdej wartości X. Jeżeli dane w nie pogrupowanym rozkładzie częstości będą zawierać więcej liczebności dla którejś lub dla wszystkich wartości zmiennej X, to obliczając wariancję, możemy się posłużyć następującym wzorem definicyjnym: 2 if(x-x)\ 2 ifx2 (ifxY s =-------------lub s — N N ffi- 392 Tabela 15.15. Obliczanie wariancji X X-X (X-X)2 X2 3 -6 36 9 4 -5 25 16 6 -3 9 36 12 3 9 144 20 11 121 400 Ogółem 200 605 X = 9 Wariancja i odchylenie standardowe dla danych pogrupowanych Jeżeli dane zostały pogrupowane, to do obliczenia wariancji i odchylenia standardowego musimy zastosować inne procedury. Do obliczenia wariancji możemy wówczas wykorzystać równanie (15.14), w którym X oznaczać będzie środek przedziału, a/odpowiadające mu liczebności: s2 =________*L_ (15.14) N Wzór ten zastosowaliśmy do danych z tabeli 15.16 i otrzymaliśmy: (136)2 18496 1094 -------- 1094---------- 20 20 1094-924,8 169,20 „ „ r =-------------------------------------=----------------=--------= 8,46. 20 20 20 20 Wartość odchylenia standardowego otrzymamy, wyciągając pierwiastek kwadratowy z wariancji, czyli z wartości 8,46. Zatem s = ^8,46 = 2,91. Tabela 15.16. Rozkład wieku dla dwudziestu respondentów Środek przedziału Wiek X f X2 jX2 JX 1-3 2 4 4 16 8 4-6 5 3 25 75 15 7-9 8 10 64 640 80 10-12 11 3 121 363 33 Ogółem 20 m2-- = 1094 2yx=136 393 Odchylenie standardowe — zalety i zastosowania Odchylenie standardowe — w porównaniu z innymi miarami rozproszenia — ma wiele zalet. Po pierwsze, jest najbardziej stabilną miarą w próbie (problematykę I próby omówiliśmy w rozdziale 8). Po drugie, ma ważne właściwości matematyczne I umożliwiające obliczanie wartości odchylenia standardowego dla dwóch lub więcej I połączonych grup. Co więcej, właściwości matematyczne odchylenia standardowe- I go sprawiają, że jest to miara wykorzystywana w zaawansowanych obliczeniach I statystycznych, zwłaszcza w dziedzinie statystyki indukcyjnej (omówionej w roz-1 dziale 8 i 19). Ilustracją zastosowania odchylenia standardowego jest następujący przykład. I W tabeli 15.17 przedstawiliśmy dane porównawcze dotyczące odczuwanej satysfakcji I z życia przez mieszkańców różnych państw. Dane te zawierają informacje o śred-1 niej arytmetycznej i odchyleniu standardowym dla zmiennej „satysfakcja z życia", I obliczonych dla różnych państw. Uzyskane średnie są niemal identyczne, co mogłoby sugerować, że w czterech krajach satysfakcja z życia jest podobna. Odchylenia I standardowe w poszczególnych krajach są jednak różne. W Anglii, Niemczech I i Stanach Zjednoczonych odchylenia standardowe są stosunkowo małe, co świad- I czy o tym, że państwa te są homogeniczne ze względu na stopień odczuwanej satys- I fakcji. Innymi słowy, osoby badane otrzymują wyniki bliskie średniemu wynikowi w ich krajach. We Włoszech natomiast odchylenie standardowe jest większe, co I oznacza, że odczuwany stopień satysfakcji reprezentowany przez średnią nie jest podzielany przez wszystkich Włochów. Tabela 15.17. Średnie i odchylenia standardowe wskaźnika satysfakcji z życia dla czterech zachodnich narodowości (dane hipotetyczne) Wielka Brytania Niemcy Włochy Stany Zjednoczone Średnia 6,7 6,7 6,6 6,5 Odchylenie standardowe 1,0 1,2 3,2 1,3 Współczynnik zmienności W przypadkach, w których porównywane rozkłady mają różne średnie, nie możemy porównywać absolutnych wartości odchyleń standardowych. Odchylenie standardowe równe na przykład 2 oznacza co innego, gdy średnia wynosi 6, niż gdy średnia równa się 60. Dlatego należy obliczyć wartość odchylenia standardowego w odniesieniu do średniej rozkładu. Możemy to uczynić, obliczając tzw. współczynnik zmienności, który pozwala poznać względne zróżnicowanie. V = ^, (15.15)1 gdzie V — współczynnik zmienności, i — odchylenie standardowe, X — średnia arytmetyczna. 394 Tabela 15.18. Postawy wobec poparcia aborcji przez władze stanowe (dane hipotetyczne dla czterech stanów) Wisconsin Illinois Alabama Massachusetts Średnia Odchylenie standardowe 5,48 2,9 4,82 2,9 3,67 2,8 5,82 2,7 Miary rozproszenia ¦ Miara zróżnicowania jakościowego. Jest nią wskaźnik heterogeniczności czy homogeniczności populacji. Otrzymuje się go poprzez porównanie ogólnej liczby zaobserwowanych różnic w rozkładzie z maksymalnie możliwą liczbą różnic dla tego rozkładu. Do obliczenia wykorzystuje się równanie (15.7), (15.8) i (15.9). ¦ Rozstęp. Jest to odległość pomiędzy najwyższym i najniższym wynikiem w rozkładzie. Rozstęp może prowadzić do błędów interpretacyjnych, ponieważ uwzględnia jedynie dwa najbardziej skrajne wyniki w rozkładzie. ¦ Rozstęp ćwiartkowy. Jest to różnica pomiędzy dolnym kwartylem (55 centyl) i górnym kwartylem (75 centyl). Ponieważ jest to miara rozproszenia wyników w środkowej połowie rozkładu, przeto wyniki skrajne nie wpływają na wartość rozstępu ćwiartkowego. ¦ Wariancja. Jest to średnia wartość podniesionych do kwadratu odchyleń wyników od średniej. Można ją obliczyć albo za pomocą wzoru definicyjnego, albo prostszych wzorów obliczeniowych. Wybór właściwego wzoru zależy od tego, czy dane zostały pogrupowane, czy są to dane nie pogrupowane i czy dana wartość zmiennej pojawia się więcej niż jeden raz. Wariancję można obliczyć za pomocą równania (15.10), (15.11) i (15.14). ¦ Odchylenie standardowe. Jest równe pierwiastkowi kwadratowemu z wariancji. W odróżnieniu od wariancji odchylenie standardowe wyraża się w oryginalnych jednostkach pomiaru. Możemy je obliczyć, posługując się równaniem (15.12) i (15.13) lub wyciągając pierwiastek kwadratowy z wariancji. W tabeli 15.18 przedstawiliśmy średnie oraz odchylenia standardowe dla danych dotyczących postaw wobec poparcia aborcji przez władze stanowe w czterech stanach. Porównując absolutne wartości odchyleń standardowych, widzimy, że są one prawie identyczne. Istnieją natomiast duże różnice pomiędzy średnimi, co wskazuje na różny stopień poparcia dla aborcji. W stanie Alabama, na przykład, średnia ta jest najmniejsza w porównaniu z innymi stanami, przy prawie identycznym odchyleniu standardowym jak w pozostałych stanach. Przyjmując, że postawy zostały zmierzone na skali od 1 do 10, gdzie 1 oznacza brak poparcia, a 10 silne poparcie dla akceptacji aborcji przez władze stanowe, możemy intuicyjnie sądzić, że odchylenie standardowe równe 2,8 przy średniej 3,67 ma większe znaczenie niż 395 przy średniej 4,82 czy 5,48, ponieważ średnia równa 3,67 odzwierciedla skrajniej-sze postawy niż średnia 4,82 czy 5,48. Aby uwzględnić te rozbieżności, wartości odchyleń standardowych zostały przekształcone we współczynniki zmienności. Wyniki tego przekształcenia podano w tabeli 15.19. Zauważmy, że relatywne zróżnicowanie w stosunku do średniej jest najwyższe w stanie Alabama, co odzwierciedla niższy stopień homogeniczności postaw w stosunku do aborcji. Tabela 15.19. Postawy wobec poparcia aborcji przez władze stanowe (dane hipotetyczne dla czterech stnów) Wisconsin Illinois Alabama Massachusetts Średnia Współczynnik zmienności 5,48 0,53 4,82 0,60 3,67 0,76 5,82 0,46 ¦ Rodzaje rozkładów częstości Dotychczas omawialiśmy możliwości charakteryzowania jednozmiennowego rozkładu częstości za pomocą miar tendencji centralnej i miar rozproszenia. Kolejny etap opisywania danych polega na określaniu ogólnego kształtu ich rozkładu. Rozkłady danych mogą przyjmować różne formy. Mogą mieć mało niskich i mało wysokich wyników, a dużo wyników skoncentrowanych w środku, czy też mało niskich i dużo wysokich wyników. Najprostszym sposobem opisania rozkładu jest jego graficzna prezentacja. Na rycinie 15.4 przedstawiliśmy przykłady rozkładów o różnym kształcie. i Ai ___ Md 25 35 0 X Md 0 Md X a) rozkład symetryczny b) rozkład lewoskośny c) rozkład prawoskośny Ryc. 15.4. Rodzaje rozkładów częstości Wartości zmiennej umieszczamy na osi poziomej, a otrzymane pole powierzchni pod krzywą reprezentuje liczebności. W przykładzie pierwszym liczebność rozkładu w przedziale 25-35 jest reprezentowana przez pole powierzchni tego przedziału. Rozkład przedstawiony na rycinie 15.4a jest symetryczny, tzn. częstości znajdujące się po prawej i lewej stronie rozkładu są identyczne. Gdybyśmy zatem podzielili taki rozkład na pół, to każda połowa byłaby zwierciadlanym odbiciem drugiej. Najczęściej oznacza to, że większość obserwacji jest skoncentrowana w środku rozkładu, a niewiele obserwacji znajduje się na jego krańcach. Wysokość wzrostu mężczyzn jest przykładem rozkładu symetrycznego. Niewielu mężczyzn bowiem to mężczyźni bardzo niscy lub bardzo wysocy, większość jest przeciętnego wzrostu. Bardzo wiele innych zmiennych również ma rozkład normalny i ten kształt rozkładu odgrywa szczególnie ważną rolę we wnioskowaniu statystycznym. 396 W rozkładach niesymetrycznych, czy inaczej rozkładach skośnych natomiast więcej przypadków pojawia się na jednym krańcu rozkładu. Rozkład niesymetryczny, w którym przeważają skrajnie niskie wyniki, jest nazywany rozkładem lewoskośny m (ryc. 15.4b). Jeżeli więcej jest wyników skrajnie wysokich, to jest to rozkład prawoskośny (ryc. 15.4c). Na ogół rozkłady dotyczące dochodów są rozkładami prawoskośnymi — niewiele rodzin zarabia bardzo dużo. Skośność rozkładu można również określać w stosunku do pozycji, jaką zajmują miary tendencji centralnej. W rozkładzie symetrycznym średnia pokrywa się z medianą i wartością modalną. W rozkładzie skośnym można dostrzec różnice pomiędzy tymi miarami. W rozkładzie lewoskośnym średnia przesunie się w kierunku niskich wyników, w rozkładzie prawoskośnym zaś — w kierunku wyników wysokich. Ta właściwość rozkładu skośnego sprawia, że wybór odpowiedniej miary tendencji centralnej jest kwestią podstawową. Ponieważ średnia przesuwa się w kierunku wyników skrajnych, więc nie informuje o typowości i przestaje być miarą użyteczną. Wówczas należy rozważyć możliwość wykorzystania mediany lub wartości modalnej. Krzywa normalna Jedną z form rozkładu symetrycznego, szczególnie istotną w statystyce, jest krzywa normalna (ryc. 15.5). Krzywa normalna ma następujące właściwości podstawowe: 1. Jest symetryczna i gładka. 2. Wartość modalna, mediana i średnia są położone dokładnie w środku rozkładu. 3. Obejmuje nieskończoną liczbę przypadków. 4. Związek pomiędzy liczebnościami a wartościami zmiennej jest wyrażony za pomocą jednego wzoru matematycznego. Najbardziej wyróżniającą właściwością krzywej normalnej jest jednak to, że w każdym rozkładzie normalnym pomiędzy średnią a określoną wartością zmiennej, wyrażoną w jednostkach odchylenia standardowego, znajduje się stała proporcja przypadków. Proporcje te przedstawiliśmy na rycinie 15.5. Średnia arytmetyczna dzieli rozkład dokładnie na dwie połowy. Pomiędzy średnią i jednym odchyleniem standardowym na prawo od niej znajduje się 34,13% przypadków. Tyle samo przypadków znajduje się pomiędzy średnią i jednym odchyleniem standardowym na lewo od niej. Znak plus oznacza, że dana wartość odchylenia standardowego znajduje się powyżej niej; znak minus — że wartość ta znajduje się poniżej średniej. Zatem 68,26% wszystkich obserwacji znajduje się w przedziale pomiędzy X±h; 95,46% wszystkich przypadków w przedziale pomiędzy X±2s; a 99,73% wszystkich przypadków w przedziale pomiędzy X ± 3s. Dla każdego rozkładu normalnego można określić proporcję przypadków znajdujących się w przedziale pomiędzy średnią tego rozkładu a dowolnie wybranym punktem. Na przykład analizując rozkład ilorazów inteligencji, którego średnia wynosi 110, a odchylenie standardowe 10, możemy stwierdzić, że 68,26% wszystkich osób badanych będzie miało IQ mieszczący się w przedziale pomiędzy 110 ±ls, czyli pomiędzy 100 a 110 punktów, a 95,46% osób pomiędzy 90 a 130. 397 y^ es 6S * ^\. — »•« a> m ^, TT ¦' 1 fN 1---------—J ro rO Kendalla 427 Miary siły związku dla danych interwałowych 428 Reguły predykcji 428 Regresja liniowa 429 Kryterium najmniejszych kwadratów 430 Błędy predykcji 433 Współczynnik korelacji według momentu iloczynowego Pearsona (r) 434 Podsumowanie 436 Podstawowe terminy 436 Pytania sprawdzające 436 Ćwiczenia komputerowe 438 Literatura dodatkowa 438 Wyobrażenia na temat seksu są tak stare jak ludzkość, jednakże to, co Amerykanie robią w łóżkach, z kim i jak często, bada się systematycznie dopiero od pięćdziesięciu lat. W roku 1992 zespół badaczy z uniwersytetu w Chicago opublikował rezultaty szerokich badań, które objęły około 3500 Amerykanów w wieku od 18 do 59 lat. Uzyskane dane, opublikowane w pracy Sex in America: A Definitive Survey, świadczą m.in. o tym, że większość Amerykanów żyje w związkach monogamicznych, że 75% osób ma w ciągu roku tylko jednego partnera seksualnego i przeciętnie około trzech partnerów od czasu ukończenia 18 roku życia. Badanie to potwierdziło również, że dzisiejsze nastolatki wcześniej rozpoczynają życie seksualne, a połowa młodzieży zdobywa pierwsze doświadczenia seksualne przed ukończeniem 17 lat1. Wspomniane badanie jest istotne nie tylko dlatego, że opisuje wzorce zachowań seksualnych Amerykanów, ale również dlatego, że analizuje, jak się zmieniają zachowania seksualne zależnie od wieku, rasy czy wyznania religijnego. Potwierdziło na przykład, że mężczyźni częściej niż kobiety myślą o seksie, że mężczyźni i kobiety inaczej rozumieją, co to znaczy dopasowanie partnerów. Praktyki seksualne zależą również od wyznania religijnego: dziewczęta wyznania rzymskokatolickiego są dłużej dziewicami, a osoby pochodzenia żydowskiego mają najwięcej partnerów seksualnych. Badanie różnic w zachowaniach seksualnych mężczyzn i kobiet czy katolików i osób pochodzenia żydowskiego nazywa się analizą dwuzmiennową. Analiza dwuzmiennowa pozwala na badanie związku pomiędzy dwiema zmiennymi. W powyższym przykładzie badacze przeanalizowali związki pomiędzy płcią i praktykami seksualnymi, porównując życie seksualne mężczyzn i kobiet. Zbadali również związki pomiędzy wyznaniem religijnym a praktykami seksualnymi, porównując życie seksualne katolików i żydów (a także innych grup religijnych). W tym rozdziale omówimy pojęcie związku pomiędzy dwiema zmiennymi i opiszemy różne metody badania związku pomiędzy nimi. W pierwszej części ukażemy związek dwóch zmiennych, w drugiej opiszemy miary związku dla zmiennych nominalnych, w trzeciej dla zmiennych porządkowych, a w ostatniej dla zmiennych interwałowych. ¦ Pojęcie zwiqzku między dwiema zmiennymi Każdy wie, co to jest związek dwóch zmiennych. Wiemy, że rzeczy nas otaczające są ze sobą powiązane. Obserwujemy, jak rosną dzieci, jak zwiększa się ich waga; widzimy, że miasta stają się bardziej zanieczyszczone niż okręgi wiejskie i że kobiety zarabiają mniej niż mężczyźni. Każda z tych obserwacji to stwierdzenie związku: pomiędzy wiekiem i wagą, pomiędzy stopniem urbanizacji i zanieczyszczeniem, pomiędzy płcią i zarobkami. ' Robert T. Michael i in. (1994), Sex in America: A Definitive Survey, New York: Little, Brown. 405 Aby można było powiedzieć, że miasta stają się bardziej zanieczyszczone niż okręgi wiejskie, musimy opisać związek pomiędzy urbanizacją i zanieczyszczeniem. Będzie to możliwe jedynie wtedy, gdy pokażemy, że stopień zanieczyszczenia występujący w miastach jest większy niż stopień zanieczyszczenia na wsiach. Innymi słowy, aby stwierdzić, że istnieje związek pomiędzy X i Y, musimy pokazać, że pewne kategorie zmiennej X zmieniają się wraz z pewnymi kategoriami zmiennej Y. Prawidłowość ta, nazywana współzmiennością, jest podstawowym pojęciem definiującym związek czy relację. Pierwszym etapem badania związku pomiędzy dwiema zmiennymi jest skonstruowanie tabeli (rozkładu) dwuzmiennowej. W jaki sposób tworzy się tabelę dla dwóch zmiennych W tabeli dla dwóch zmiennych zestawia się wartości tych zmiennych. Tabela zawiera wiersze i kolumny. Kategorie jednej zmiennej są nazwami wierszy, a kategorie drugiej — kolumn. W kolumnach najczęściej umieszcza się zmienną niezależną (na górze), a w wierszach zmienną zależną (po lewej stronie tabeli). Przykład 16.1 jest ilustracją sposobu konstrukcji tabeli dwuzmiennowej. Najpierw dla szesnastu osób badanych wypisano dane dotyczące ich pici i satysfakcji z pracy. Następnie dane te zliczono i zaklasyfikowano do odpowiednich komórek tabeli 16.1. biorąc jednocześnie pod uwagę ich wartości dla obu zmiennych. Tabela ta jest tabelą 3x2, ponieważ ma trzy wiersze i dwie kolumny reprezentujące zmienną „płeć" i zmienną „zadowolenie z pracy". W czwartym wierszu i w trzeciej kolumnie umieszczono odpowiednie sumy brzegowe. Przykład 16.1 Tworzenie tabeli dla dwóch zmiennych Płeć Satysfakcja z pracy Mężczyźni = M Wysoka = W Kobiety = K Średnia = S Niska = N Nr ident. Pleć Satysfakcja z pracy 1 M W 2 M W 3 K W 4 M ś 5 K N 6 K N 7 K N 8 M Ś 9 M W 10 K ś 11 M w 12 M w 13 M N 14 K Ś 15 K N 16 K W 406 Tabela 16.1. Satysfakcja z pracy a płeć Satysfakcja z pracy Płeć Suma w wierszu mężczyźni kobiety Wysoka Średnia Niska Suma w kolumnie 5 2 1 8 2 2 4 8 7 4 5 16 Współzmienność: przykład Tabele 16.2, 16.3 i 16.4 ilustrują istotę pojęcia współzmienności. Przedstawiliśmy w nich hipotetyczne dane dotyczące dwóch zmiennych: wyznania religijnego i klasy społecznej. Tabela 16.2 przedstawia idealną współzmienność zmiennych: wszyscy katolicy znaleźli się w niższej klasie społecznej, wszyscy żydzi w średniej, a protestanci w wyższej klasie społecznej. Zmienne te są współzmienne, ponieważ kolejnym kategoriom zmiennej „wyznanie religijne" towarzyszy określona kategoria drugiej zmiennej „klasa społeczna". Ten sam schemat powtarza się w tabeli 16.3, jednakże nie w tak doskonały sposób, ponieważ nie wszystkie osoby o określonym wyznaniu religijnym należą do tej samej klasy. Można jednak nadal twierdzić, że większość osób o określonym wyznaniu religijnym należy do określonej klasy społecznej. Kiedy zmienne nie są ze sobą powiązane, mówimy, że są niezależne, tzn. że się nie współzmieniają. Tabela 16.4 jest ilustracją takiego przypadku. Nie ujawnia żadnego określonego wzorca dla jakiejkolwiek grupy religijnej. Katolicy znajdują się zarówno w klasie wyższej, średniej, jak i niższej. Podobnie sytuacja przedstawia się dla żydów i protestantów. Innymi słowy, nie możemy nic powiedzieć o statusie spoleczno-ekonomicznym danej osoby na podstawie jej wyznania religijnego. Tabela 16.2. Klasa społeczna a wyznanie religijne (idealna współzmienność) Przynależność religijna Klasa społeczna katolicy żydzi protestanci Ogółem Wyższa 0 0 8 8 Średnia 0 8 0 8 Niższa 8 0 0 8 Ogółem 8 8 8 24 Tabele 16.2, 16.3 i 16.4 to przykłady rozkładów dwuzmiennowych przedstawionych w formie tabelarycznej. Rozkład dwuzmiennowy składa się z kategorii dla dwóch zmiennych oraz łącznych liczebności w tych kategoriach. Każda tabela składa się z dwóch wymiarów, po jednym dla każdej zmiennej. Każda ze zmiennych została podzielona na określoną liczbę kategorii. Zmienna „klasa społeczna" została na przykład podzielona na trzy kategorie: „wyższa", „średnia" i „niższa", a zmienna „przynależność religijna" ma również trzy kategorie: „katolicy", „żydzi" 407 i „protestanci". Komórki tabeli znajdują się na skrzyżowaniu dwóch kategorii, z których każda należy do innej zmiennej. Liczebności znajdujące się w każdej komórce oznaczają liczbę przypadków posiadających jednocześnie obie cechy. Na przykład w tabeli 16.4 możemy przeczytać, że dwóch katolików należy do klasy wyższej, trzech do klasy średniej i trzech do klasy niższej. Z kolei w grupie osób pochodzenia żydowskiego mamy trzy osoby należące do klasy wyższej, dwie osoby do klasy średniej i trzy do klasy niższej. Wreszcie wśród protestantów trzy osoby należą do klasy wyższej, trzy do średniej i dwie do klasy niższej. Tabela 16.3. Klasa społeczna a wyznanie religijne (umiarkowana współzmienności Przynależność religijna Klasa społeczna katolicy żydzi protestanci Ogółem Wyższa 0 2 6 8 Średnia 1 6 1 8 Niższa 7 0 1 8 Ogółem 8 8 8 24 Tabela 16.4. Klasa społeczna a wyznanie religijne (współzmienność prawie zerowa) Przynależność religijna Klasa społeczna katolicy żydzi protestanci Ogółem Wyższa 2 3 3 8 Średnia 3 2 3 8 Niższa 3 3 2 8 Ogółem 8 8 8 24 Tabelę dwuzmiennową można również przedstawić w postaci zbioru rozkładów jednozmiennowycłr. Dzieląc tabelę według kolumn i wydzielając każdą kolumnę, otrzymaliśmy trzy rozkłady jednozmiennowe odpowiednio dla katolików, żydów i protestantów. Jeżeli porównamy trzy rozkłady jednozmiennowe na przykład z tabeli 16.3, to przekonamy się, że każdy rozkład różni się od pozostałych stopniem rozproszenia danych. W rozkładzie opisującym protestantów większość respondentów mieści się w górnej, skrajnej części rozkładu; w grupie żydów — w środku rozkładu, a w grupie katolików — w jego dolnej części. Ta tendencja jest jeszcze wyraźniejsza w tabeli 16.2 —jest ona bowiem doskonała (tj. wszyscy protestanci należą do klasy wyższej itd.). W tabeli 16.4 z kolei nie ma żadnej szczególnej różnicy pomiędzy trzema rozkładami. Rozproszenie wyników jest w każdym z tych rozkładów identyczne. Badacz może zatem określić wielkość współzmienności dla tabeli dwuzmiennowej, porównując rozkłady jednozmiennowe tworzące tę tabelę. Im większa różnica, tym większy stopień współzmienności dwóch zmiennych. 2 Theodore R. Anderson, Morris Zelditch, Jr. (1968), A Basic Course in Statistics, Fort Worth: Holt, Rinehart i Winston (rozdz. 6). 408 Przedstawianie danych z tabeli dla dwóch zmiennych w postaci procentowej Użytecznym sposobem przedstawiania danych w tabeli dwuzmiennowej ułatwiającym porównywanie rozkładów jednozmiennowych w celu określenia powiązania między nimi jest przedstawianie danych w postaci procentów. Jest ono właściwe dla skali nominalnej, jednak badacze często obliczają procenty również dla danych porządkowych lub interwałowych. W tabeli 16.5 przedstawiono rozkład płci i stanu cywilnego dla osób publicznych. Dane te mają być podstawą do weryfikacji hipotezy, że życie prywatne kobiet pracujących w biurze wyborczym jest inne niż życie prywatne mężczyzn. Tabelę tę zbudowano w sposób konwencjonalny: „płeć" (zmienna niezależna) znajduje się na górze tabeli, a „stan cywilny" (zmienna zależna) po lewej stronie. Każda kategoria płci tworzy rozkład jednozmiennowy, a właściwe dla niej liczebności można przekształcić na procenty, wykorzystując sumy ogólne jako podstawę ich obliczania (tzn. 72 kobiety i 66 mężczyzn stanowią po 100% w swojej kategorii). Procenty te podaliśmy w tabeli 16.6. Następnym krokiem jest porównanie rozkładów jednozmiennowych w celu określenia stopnia korelacji pomiędzy płcią i stanem cywilnym wśród osób publicznych. Procenty obliczamy w kolumnach, natomiast dane porównujemy w wierszach. I tak proporcję zamężnych kobiet porównujemy z proporcją żonatych mężczyzn (68,1% i 89,4%). W tabeli 16.6 przedstawiliśmy wyraźny obraz korelacji: wśród osób publicznych płeć jest związana ze stanem cywilnym. Dla każdej zmiennej otrzymaliśmy inny rozkład jednozmiennowy: kobiety są rzadziej zamężne, są częściej rozwiedzione i są częściej wdowami. Związek pomiędzy płcią a stanem cywilnym ilustruje również rycina 16.1. Tabela 16.5. Rozkład stanu cywilnego względem płci wśród osób publicznych Stan cywilny Kobiety Mężczyźni Zamężne/żonaci Stanu wolnego, nigdy zamężna/żonaty Rozwiedziony(a), w separacji Wdowa/wdowiec Ogółem 49 2 10 11 72 59 2 5 66 Źródło: Susan J. Carroll (1989), The Persona! is Poiitical: The Intersection of Private Lives and Public Roles among Women and Men in Elective and Appointive Office, „Women and Politics", 9, s. 2. Tabela 16.6. Rozkład stanu cywilnego względem płci wśród osób publicznych (w procentach) Stan cywilny Kobiety Mężczyźni Zamężna/żonaty Stanu wolnego, nigdy zamężna/żonaty Rozwiedziony(a), w separacji Wdowa/wdowiec Ogółem 68,1 2,8 13,9 15,3 100 (W =72) 89,4 3,0 7,6 100 (JV=66) 409 rozwiedziony - wdowa stanu wolneqo rozwiedziona sianu woinego żonaty — zamężna mężczyźni kobiety Ryc. 16.1. Stan cywilny a płeć wśród osób publicznych Jeżeli przyjmujemy założenie, że jedna ze zmiennych jest zmienną niezależną, a druga zmienną zależną, to procenty należy obliczyć dla zmiennej niezależnej. Jeżeli płeć potraktowalibyśmy jako zmienną zależną, a stan cywilny jako zmienną niezależną (co raczej nie jest możliwe w naszym przykładzie), to procenty należałoby obliczyć wzdłuż wierszy, a nie wzdłuż kolumn. Wprawy w czytaniu takich tabel można nabyć, analizując przykład 16.2 oraz dodatek A. Przykład 16.2 Zasady czytania tabeli Tabelaryzacja danych jest użytecznym sposobem przedstawiania wyników badań w naukach społecznych. Poniżej przedstawiamy prosty przewodnik mówiący, jak czytać takie tabele. 1. Przeczytaj tytuł. Tytuł zawiera informacje o tym, co zawiera tabela. Tytuł tabeli 16.7 mówi, że tabela ta zawiera dane dotyczące różnic postaw wobec aborcji między kobietami a mężczyznami. 2. Przeanalizuj źródło. Najczęściej informacje dotyczące źródła danych umieszczane są na dole tabeli, jak w tabeli 16.7. Określenie źródła pomoże w ocenie rzetelności danych, a także będzie wskazówką, gdzie szukać innych informacji na dany temat. 3. Określ, w jakim kierunku obliczono procenty. Ten etap jest bardzo ważny i należy go starannie zrealizować. Trzeba mieć pełną jasność, czy procenty obliczono wzdłuż kolumn, wierszy czy na podstawie danych całej tabeli. Należy sprawdzić, czy prezentowana tabela nie jest fragmentem całości i czy w związku z tym przedstawione procenty sumują się do 100%. Kierunek obliczania procentów można ustalić, znajdując miejsce, w którym umieszczono dane w kategorii „ogółem". W tabeli 16.7 procenty obliczono w kolumnach. Z kolei w tabeli 16.8 obliczono je w wierszach. Na rycinie 16.2a i 16.2b przedstawiono proste wykresy słupkowe ilustrujące dwie metody obliczania procentów wykorzystane w tabeli 16.7 i 16.8. 410 Tabela 16.7. Postawy wobec aborcji w grupie mężczyzn i kobiet (w procentach) (na podstawie Generalnego Sondażu Społecznego, 1988-1991) Postawy wobec aborcji Mężczyźni Kobiety Ogółem Obrona życia poczętego Relatywiści Za wolnym wyborem Ogółem 41 37 39 53 54 53 6 9 S 100 100 100 (W =1300) (N= 1600) (A? =2900) Na podstawie: Elizabeth Addel Cook, Ted G. Jeleń, Clyde Wilcox (1992), The Social Bases of Abortion Attitudes, rozdz. 2, w: Between TwoAhsolules: Public Opinions and the Politics of Abortion, Boulder, Colo.: Westview Press. 4. Porównaj. Porównanie różnic w otrzymanych procentach jest szybką metodą oszacowania wielkości związku pomiędzy zmiennymi. Należy zawsze porównywać różnice w kierunku przeciwnym niż sposób obliczania procentów. Jeżeli procenty obliczono w kolumnach, to różnice należy porównywać w wierszach. Procent mężczyzn, którzy są za ochroną życia poczętego, można porównać z procentem kobiet mających taką samą postawę (41 do 37%). Możemy również porównać procent mężczyzn i kobiet przyjmujących postawę relatywistyczną (53 do 54%) lub będących za wolnym wyborem (6 do 9%). Porównując te dane, widzimy, że nie ma różnic w postawach ze względu na płeć. Kobiety i mężczyźni w jednakowym stopniu popierają lub są przeciwko aborcji. Tabela 16.8. Poziom wykształcenia a klasa społeczna (w procentach) Nie ukończona Ukończona Rozpoczęta Ukończona szkoła szkoła i nie ukończona czteroletnia Klasa średnia średnia, ale nie nauka nauka Ogółem społeczna rozpoczęta nauka w college'u w college'u w college'u Wyższa i wyższa średnia 5 15 10 70 100 (TV = 600) Niższa średnia 3 12 36 49 100 (#=420) Klasa pracująca 16 23 41 20 100 (/V=510) W tabeli 16.8 — ponieważ procenty obliczono w wierszach — będziemy porównywać różnice w kolumnach. Na przykład, możemy porównać, jaki procent osób należących do klasy pracującej, niższej średniej i wyższej średniej ukończyło czteroletnią naukę w college'u (20, 49 i 70%). Podobne porównania możemy przeprowadzić dla pozostałych poziomów wykształcenia. Otrzymane dane wskazują, że poziom wykształcenia jest powiązany z przynależnością do klasy społecznej. Czasami, aby uprościć sposób prezentacji, przedstawia się jedynie część tabeli. Tabela 16.9 jest tego przykładem. Dane te pochodzą z raportu Sex in America, o którym wspominaliśmy wcześniej. W tabeli tej przedstawiono dane pozwalające porównać kontakty z tą samą płcią wśród kobiet i mężczyzn. Warto zauważyć, że podane procenty nie sumują się do 100 i można je bezpośrednio porównywać. Dane te ukazują proporcje osób w dwóch kategoriach zmiennej niezależnej (płeć), które udzieliły odpowiedzi wpadających do tej samej kategorii zmiennej zależnej (kontakty seksualne z tą samą płcią). 411 100 80 60 40 20 - za wolnym wyborem relatywizm obrona życia poczętego za wolnym wyborem relatywizm obrona życia poczętego mężczyźni kobiety a. Postawy wobec aborcji a płeć (procenty w kolumnach) klasa pracująca niższa średnia wyższa i wyższa średnia brak szkoły średniej szkoła średnia szkoła średnia nie ukończony college szkoła średnia nie jkonczony college —I— 20 40 nie ukończony college ukończony college ukończony college ukończony college 60 -1 100 b. Wykształcenie a klasa społeczna Ryc. 16.2. Wykres słupkowy dla danych procentowych z tabeli 16.7 i 16.8 Tabela 16.9. Płeć a procent osób deklarujących kontakty lub doświadczenia seksualne z tą samą płcią Pleć Procent osób deklarujących kontakty z tą samą płcią Mężczyźni Kobiety 10,1 (N* 1700) 8,6 (#= 1650) Na podstawie: „New York Times", So, Now We Know What Americans Do in Bed. So? October 9, 1994, s. 3. Na podstawie: Roberta G. Simmons (1968), Basic Principles ofTable Reading, w: Morris Rosenberg (red.), The Logic o/Survey Analysis, New York: Basic Books, s. 251-258. Mediana i średnia arytmetyczna jako miary współzmienności Jeżeli zmienne uwzględnione w rozkładzie dwuzmiennowym są zmiennymi porządkowymi, to jako miarę współzmienności można wykorzystać medianę odpowiednich rozkładów jednozmiennowych, jak to pokazuje tabela 16.10 307 badanych osób sklasyfikowano ze względu na wyznanie religijne i postrzeganą przez nich jakość życia. Zmienna zależna „jakość życia" została umieszczona po lewej stronie tabeli, a poszczególne wyznania religijne tworzą kolejne rozkłady jednozmienno-we. Zmienna „jakość życia" może przybierać wartości od 1 (znakomita) do 4 (bardzo zła). Właściwą miarą tendencji centralnej dla danych porządkowych jest mediana i za jej pomocą możemy przedstawić trzy rozkłady danych — dla katolików, żydów i protestantów. Analizując procenty kumulowane dla każdego rozkładu i znajdując kategorię, w której procent kumulowany jest najbliższy 50%, stwierdzamy, że mediana dla katolików wynosi 2, dla żydów 1 i dla protestantów 2. Na podstawie tych danych możemy wnioskować, że osoby pochodzenia żydowskiego wyżej oceniają jakość swojego życia niż katolicy czy protestanci. Różnica ta jest wskaźnikiem siły związku czy inaczej współzmienności pomiędzy jakością życia a wyznaniem religijnym. Tabela 16.10. Jakość życia a wyznanie religijne Jakość Katolicy Żydzi Protestanci zycia procent procent procent procent kumulowany procent kumulowany procent kumulowany Znakomita 20 20 67 67 22 22 Dobra 55 75 17 84 43 65 Przeciętna 22 97 16 100 29 94 Słaba 3 100 — — 6 100 Ogółem 100 (#=151) 100 (N = 6) 100 (N =150) Na podstawie: Social and Political Survey: Winter 1989, Social Science Research Facility, University of Wisconsin, Milwaukee (nie publikowane). 413 Tabela 16.11. Wyniki testu inteligencji a wiek (dane hipotetyczne) Wyniki testu Wiek inteligencji 6-10 11-15 0-4 10 6 5-9 8 10 10-14 6 7 15-19 4 3 Ogółem 28 26 21-25 1 21 2 23 8 29 10 20 21 93 Tabela 16.12. Średnie ilorazy inteligencji w czterech gru pach wiekowych Grupa wiekowa Średnia 6-10 7,7 11-15 8,3 16-20 9,8 21-25 13,4 Dla zmiennych porządkowych jako podstawę porównań możemy wykorzystać średnią arytmetyczną. W tabeli 16.11 przedstawiliśmy rozkład inteligencji względem wieku. Każda grupa wiekowa tworzy rozkład jednozmiennowy i może zostać opisana za pomocą wartości średniej arytmetycznej. W tabeli 16.12 pokazano średnie arytmetyczne dla każdego rozkładu. Możemy porównać każdą parę średnich. Zauważmy, że wartości średnie rosną wraz z wiekiem, a to pozwala stwierdzić, że „wiek" i „inteligencja" pozostają ze sobą w związku. ¦ Miara zwiqzku Dotychczas ocenialiśmy stopień współzmienności dwóch zmiennych, porównując rozkłady jednozmiennowe, które tworzą tabelę skonstruowaną dla dwóch zmiennych. Istnieją jednak takie techniki statystyczne, które pozwalają ocenić siłę związku pomiędzy zmiennymi na podstawie jednej miary. Miary związku, nazywane współczynnikami korelacji odzwierciedlają siłę i kierunek związku między zmiennymi, a także stopień, w jakim na podstawie wartości jednej zmiennej można przewidywać wartości drugiej zmiennej. Pojęcie przewidywania (predykcji) jest ściśle związane z pojęciem współzmienności. Kiedy dwie zmienne się współzmieniają, to jedną z nich można wykorzystać do tego, aby przewidywać drugą. Jeżeli między dwiema zmiennymi nie ma żadnego związku, to na podstawie informacji dotyczących jednej zmiennej nie można przewidywać drugiej. Raz jeszcze przeanalizujmy tabelę 16.2, 16.3 i 16.4. Przyjmijmy, że nie dysponujemy żadnymi informacjami na temat wyznania religijnego 24 osób i że musimy odgadnąć, do której klasy społecznej należy każda z tych osób. Najlepszą metodą zgadywania jest odwołanie się do kategorii, do której wpada najwięcej przypadków. Analizując wspomniane tabele, widzimy jednak, 414 ze wszystkie zaobserwowane częstości w poszczególnych kategoriach są identyczne. Możemy zatem arbitralnie wybrać jakąkolwiek kategorię. Przypuśćmy, że wybraliśmy klasę średnią jako najbardziej prawdopodobną kategorię opisującą każdą osobę. Ponieważ jednak w każdej tabeli do klasy średniej wpada tylko po 8 przypadków, więc podejmując taką decyzję, popełnimy 16 błędów na 24 podjęte decyzje. Przykład 16.3 Wspótzmienność i predykcja Liczba popełnionych błędów, gdybyśmy uznali, że każda osoba należy do klasy średniej: 16 ¦ Dla tabeli 16.2: Idealna współzmienność Klasa wyższa Predykcja PPPPPPPP Wszyscy protestanci należą do klasy wyższej Liczba popełnionych błędów: 0 Klasa średnia ŻŻŻŻŻŻŻŻ Wszyscy żydzi należą do klasy średniej Liczba popełnionych błędów: 0 Klasa niższa KKKKKKKK Wszyscy katolicy należą do klasy niższej Liczba popełnionych błędów: 0 OGÓLNA LICZBA BŁĘDÓW 0 ¦ Dla tabeli 16.3: Przeciętna współzmienność Klasa wyższa Predykcja ŻŻPPPPPP Wszyscy protestanci należą do klasy wyższej Liczba popełnionych błędów: 2 Klasa średnia KŻŻŻŻŻŻP Wszyscy żydzi należą do klasy średniej Liczba popełnionych błędów: 2 Klasa niższa KKKKKKKP Wszyscy katolicy należą do klasy niższej Liczba popełnionych błędów: 1 OGÓLNA LICZBA BŁĘDÓW 5 ¦ Dla tabeli 16.4: Prawie zerowa współzmienność Klasa wyższa Predykcja KKŻŻŻPPP Wszyscy protestanci należą do klasy wyższej Liczba popełnionych błędów: 5 Klasa średnia KKKŻŻPPP Wszyscy żydzi należą do klasy średniej Liczba popełnionych błędów: 6 Klasa niższa KKKŻŻŻPP Wszyscy katolicy należą do klasy niższej Liczba popełnionych błędów: 5 OGÓLNA LICZBA BŁĘDÓW 16 415 Wyznanie religijne możemy wykorzystać do przewidywania klasy społecznej jedynie wtedy, kiedy zmniejszy to liczbę popełnionych błędów w procesie predykcji. Załóżmy, że przewidujemy, iż wszyscy protestanci należą do klasy wyższej, wszyscy żydzi do klasy średniej, a wszyscy katolicy do klasy niższej. W odniesieniu do tabeli 16.2 nie popełnimy żadnego błędu (wszystkie nasze predykcje będą dokładne), dla danych z tabeli 16.3 popełnimy 5 błędów, a dla tabeli 16.4 — 16 błędów. W przykładzie 16.3 pokazujemy, w jaki sposób można ocenić korzyści wynikające z wykorzystania danych o wyznaniu religijnym do przewidywania klasy społecznej poprzez określanie nowej liczby błędów w stosunku do liczby błędów popełnionych wcześniej. W tabeli 16.2 korzyści są ogromne, albowiem zmniejszenie liczby błędów jest największe (16 - 0= 16). Dla danych z tabeli 16.3 korzyści są znaczne, ponieważ o 11 zmniejszamy liczbę błędów (15 — 5= 11), a dla danych z tabeli 16.4 nie ma żadnych zmian, gdyż liczba błędów nie ulegnie zmianie (16 — 16 = 0). W tym ostatnim przypadku liczba popełnionych błędów wtedy, kiedy przewidujemy przynależność klasową na podstawie wyznania religijnego, jest taka sama jak wtedy, kiedy przyjęlibyśmy, że wszystkie osoby należą do klasy średniej. Proporcjonalne zmniejszenie liczby błędów Siłę związku pomiędzy klasą społeczną a wyznaniem religijnym możemy oszacować, obliczając proporcjonalne zmniejszenie błędu predykcji w sytuacji, gdy jedną zmienną wykorzystujemy do przewidywania drugiej. Proporcjonalne zmniejszenie błędu definiujemy w sposób następujący3: (16.1) gdzie b — wyjściowa liczba błędów (przed zastosowaniem zmiennej niezależnej jako predyktora), a — nowa liczba błędów (po zastosowaniu zmiennej niezależnej jako predyktora). Proporcja ta może przyjmować wartości od 0 do 1 i jest wyrażana w procentach, gdzie 0 oznacza brak redukcji liczby błędów (0%), a wartość 1 oznacza 100-procentowe zmniejszenie liczby błędów predykcji. Posługując się równaniem (16.1), możemy obliczyć proporcjonalne zmniejszenie liczby błędów predykcji dla danych z tabeli 16.2, 16.3 i 16.4: dla tabeli 16.2: 16-0_ 16_ 16-5 11 dla tabeli 16.3: ---------= — = 0,69, 16 16 dla tabeli 16.4: ----------= — = 0. 16 16 ! Mueller i in., Statistical Reasoning in Sociology, s. 248. 416 Analizując otrzymane wyniki, widzimy, że w przypadku tabeli 16.2 mamy do czynienia z całkowitym zmniejszeniem błędu (wartość obliczonego współczynnika ! wynosi 1, co oznacza 100-procentowe zmniejszenie błędu). Wynik ten odzwierciedla idealny związek między dwiema zmiennymi: wyznaniem religijnym i statusem społecznym. Dla danych z tabeli 16.3, gdy wykorzystaliśmy wyznanie religijne jako predyktor statusu społecznego, liczba błędów zmniejszyła się o prawie 70%. Wartość współczynnika wynosi dla tych danych 0,69. Natomiast w przypadku tabeli 16.4 nie mamy żadnych korzyści z oparcia predykcji na wyznaniu religijnym — wartość współczynnika wynosi 0 i oznacza całkowity brak związku między zmiennymi. Odwołując się do tej samej logiki, możemy wyprowadzić dowolną miarę siły związku między zmiennymi, pamiętając, że musi ona być oparta na dwóch regułach: 1) na regule pozwalającej badaczowi przewidywać zmienną zależną (np. przynależność do klasy społecznej) na podstawie zmiennej niezależnej (np. wyznania religijnego); 2) na regule pozwalającej przewidywać zmienną zależną bez odwoływania się do zmiennej niezależnej4. Biorąc pod uwagę powyższe dwie reguły, możemy zdefiniować dowolną miarę związku między zmiennymi w sposób następujący: błąd otrzymany po zastosowaniu reguły 2 — błąd otrzymany po zastosowaniu reguły 1 błąd otrzymany po zastosowaniu reguły 2 Poniżej przedstawimy miary związku między zmiennymi, wyprowadzając je z tej właśnie definicji. Omówimy współczynnik lambda pozwalający mierzyć siłę związku między danymi nominalnymi, współczynnik gamma oraz tau-b Kendalla dla danych porządkowych, a także współczynnik korelacji r Pearsona dla danych interwałowych. I Miary zwigzku dla danych nominalnych Lambda — współczynnik przewidywalności Guttmana Współczynnik korelacji lambda (A), znany również jako współczynnik przewidywalności Guttmana, jest współczynnikiem, który można stosować dla zmiennych nominalnych5. Przypuśćmy, że chcielibyśmy przewidzieć, z którą partią identyfikują się biali Amerykanie nie mieszkający na południu, biorący udział w wyborach lokalnych w 1996 roku. Jedną z możliwości jest zebranie danych o przynależności partyjnej ludzi w 1996 roku i wykorzystanie ich w celach predykcyjnych przy zastosowaniu reguły 2. Jednozmiennowy rozkład danych dotyczących przynależności partyjnej przedstawiliśmy w tabeli 16.13. 4 Herbert L. Costner (1965), Criteria for Measures of Association, „American Sociological Review", 30, s. 344. 5 Louis Guttman (1941), An Outline of the Statistical Theory of Prediction, w: Paul Horst (red.), The Prediction oj PersortoA A.djustment,New YotW. Social Science Research Counci\. 417 Tabela 16.13. Partia, z którą identyfikowali się biali Amerykanie nie mieszkający na południu w roku 1996 (dane hipotetyczne) Partia / Demokraci 126 Niezależni 78 Republikanie 96 Ogółem 300 Najbardziej skutecznym sposobem przewidywania na podstawie przedstawionego rozkładu jest wykorzystanie miary tendencji centralnej. Pozwoli to na dokonanie predykcji z minimalną liczbą błędów. Przynależność partyjna jest zmienną nominalną, dlatego właściwą miarą tendencji centralnej jest w tym przypadku wartość modalna. Ponieważ kategorią, do której wpada najwięcej przypadków, są demokraci (N= 126), przeto najlepszą predykcją jest przyjęcie, iż każda z osób glosujących będzie się identyfikować właśnie z Partią Demokratyczną. W tej sytuacji liczba błędów nie przekroczy 174 (78 osób niezależnych i 96 republikanów). Każdy inny sposób przewidywania będzie prowadzić do większej liczby błędów. Jeżeli zatem chcielibyśmy przewidywać, z którą partią identyfikują się osoby jedynie na podstawie zmiennej zależnej, to jako podstawę przewidywania powinniśmy wybrać tę kategorię, do której wpada najwięcej przypadków. Zgodnie z oczekiwaniami popełnimy 174 błędy na 300 decyzji, tj. 58%. Procent popełnionych błędów możemy zmniejszyć, jeżeli jako podstawę przewidywania (predyktor) wykorzystamy inną zmienną, na przykład to, z którą partią osoby te utożsamiały się w roku 1992. Na tej podstawie możemy skonstruować tabelę dwuzmien-nową (tabela 16.14), w której wszyscy głosujący zostaną sklasyfikowani ze względu na dwie zmienne: to, z którą partią utożsamiały się w roku 1992 i 1996. Posiadając dodatkowe informacje, możemy przewidzieć jeszcze przed wyborami w 1996 roku, z którą partią będą się utożsamiali biali Amerykanie nie mieszkający na południu. Zacznijmy od osób, które w roku 1992 określiły się jako demokraci. Spośród 108 osób 93 ponownie w roku 1996 zadeklarowały się jako demokraci. Ponieważ do tej kategorii wpada najwięcej przypadków, możemy przyjąć, że wszyscy, którzy w roku 1992 zadeklarowali się jako demokraci, tak samo określą się w roku 1996. Przyjmując takie założenie, popełnimy jednak 15 błędów, ponieważ 15 osób ze 108 w roku 1996 określiło się inaczej. Tabela 16.14. Partia, z którą identyfikowali się biali Amerykanie nie mieszkający na południu w roku 1992 i 1996 (dane hipotetyczne) Identyfikacja z partią w roku 1996 Identyfikacja z partią w roku 1992 Ogółem demokraci niezależni republikanie Demokraci 93 27 6 126 Niezależni 15 48 15 78 Republikanie -- 15 81 96 Ogółem 108 90 102 300 418 Spośród 90 głosujących, którzy w roku 1992 określili siebie jako niezależni, 48 zrobiło tak samo w roku 1996. Możemy zatem przyjąć, że każdy, kto określił siebie w roku 1992 jako osobę niezależną, zrobi też tak w roku 1996. Zatem popełnimy 27+14 = 42 błędy (taka liczba osób określiła siebie inaczej w roku 1996). I wreszcie, gdybyśmy założyli, że żadna spośród 102 osób, które w roku 1992 utożsamiały się z Partią Republikańską, nie zmieni zdania w roku 1996, to popełnilibyśmy 15 + 6 = 21 błędów. Ogólna liczba błędów popełnionych przy zastosowaniu reguły 1 wynosi 15+42 + 21 =78 na 300 predykcji, czyli inaczej 26%. Posłużenie się zmienną niezależną jako predyktorem zmniejszyło liczbę błędów predykcji, co wyraża się w wielkości współczynnika korelacji, który możemy obliczyć następująco: liczba błędów otrzymanych po zastosowaniu reguły 1 = 174 liczba błędów otrzymanych po zastosowaniu reguły 2 = 78 , 174-78 X =------------= 0,55. 174 W ten sposób przewidując — na podstawie decyzji podjętych w roku 1992 — z którą partią będą się utożsamiać głosujący w roku 1996, wyeliminowaliśmy 55% błędów. Lambda jest współczynnikiem niesymetrycznym, ponieważ odzwierciedla związek między zmiennymi tylko w jednym kierunku. Bardzo często przedstawia się ją jako km gdzie a określa, że jest to współczynnik niesymetryczny. Wielkość współczynnika A równa 0,55 oznacza siłę związku pomiędzy wyborem partii w roku 1992 i 1996, gdzie decyzje z roku 1992 są traktowane jako zmienna niezależna. Współczynnik korelacji można również obliczyć w przeciwnym kierunku, gdyby decyzje z roku 1996 potraktować jako zmienną niezależną, a te z roku 1992 jako zmienną zależną. Metoda obliczania jest identyczna: obliczamy liczbę błędów, jaką popełnilibyśmy, dokonując predykcji akceptacji danej partii w roku 1992 bez odwoływania się do danych z roku 1996 i odejmujemy od otrzymanej wartości liczbę błędów, jaką otrzymalibyśmy, opierając predykcję na danych z roku 1996. Zmieniając porządek zmiennych, otrzymalibyśmy zatem: , 192-78 X =------------= 0,60. 193 Zauważmy, że lambda obliczona w przeciwnym kierunku ma inną wartość. Wykorzystując dane z 1996 roku do przewidywania, z którą partią utożsamiali się wyborcy w roku 1992, zmniejszyliśmy liczbę błędów predykcji o 60%. Alternatywne metody obliczania \am\Mty. Y^rriod^ «\oxe,«vy tónntwit. o\>Yvcxnjć, posługując się nieco prostszą metodą6: K = ^TT"' (16-3) 1 Linton C. Freeman (1965), Elementary Applied Statistics, New York: Wiley, s. 74. 419 gdzie/ — liczebność modalna w każdej kategorii zmiennej niezależnej, Fd — największa liczebność brzegowa dla zmiennej zależnej, TV — ogólna liczba przypadków. Powtórzmy teraz nasze obliczenia współczynnika korelacji dla danych z roku 1992 i 1996, gdy dane z roku 1992 są traktowane jako zmienna niezależna: Sfi = 93+48 + 81 =222, Fd= 126, N = 300, 222 - 126 96 X. =------------=----= 0,55. 300-126 174 Podsumowując, wielkość współczynnika lambda odzwierciedla proporcjonalne zmniejszenie błędu oszacowania w sytuacji, gdy przechodzimy z reguły 2 na regułę 1. Siła związku pomiędzy zmiennymi odzwierciedla wzrost jakości predykcji wtedy, gdy wprowadzimy drugą zmienną. Lambda przybiera wartości od 0 do 1. Zero oznacza, że nie ma żadnego przyrostu jakości predykcji przy przejściu z jednej reguły na drugą, natomiast wartość równa jeden opisuje sytuację, w której przewidywanie zmiennej zależnej na podstawie zmiennej niezależnej jest całkowicie bezbłędne. Ograniczenia lambdy. Jeśli wszystkie liczebności modalne koncentrują się w jednej kategorii zmiennej zależnej, to współczynnik lambda ma swoje ograniczenia. Lambda będzie zawsze wynosić zero, nawet wtedy gdy dwie zmienne są rzeczywiście powiązane. Na przykład w przypadku rozkładu dwuzmiennowego przedstawionego w tabeli 16.15 widać wyraźnie, że miejsce zamieszkania jest powiązane z samooceną. Większość mieszkańców obszarów wiejskich (75%) ma wyższą samoocenę niż mieszkańcy miast (66%). Ponieważ jednak suma wszystkich liczebności modalnych dla zmiennej „miejsce zamieszkania" (Zft = 300 + 200 = 500) jest równa największej liczebności brzegowej obliczonej dla zmiennej „samoocena" (7^ = 500), zatem wartość lambdy wyniesie zero. Z takim rozkładem możemy się spotkać wtedy, gdy liczebności brzegowe dla zmiennej zależnej są skrajnie nierówne. Nie należy wówczas stosować współczynnika lambda. Tabela 16.15. Miejsce zamieszkania i samoocena Samoocena Miejsce zamieszkania Ogółem okręg wiejski okręg miejski Wysoka Niska Ogółem 300 100 400 200 100 300 500 200 700 420 ¦ Miary zwigzku pomiędzy zmiennymi dla skali porządkowej Jeśli obie zmienne rozkładu dwuzmiennowego są zmiennymi porządkowymi, to konstrukcja miary siły związku między zmiennymi jest oparta na podstawowych własnościach skali porządkowej. Skalę porządkową wykorzystujemy po to, aby uporządkować (porangować) obserwacje ze względu na mierzone zmienne. W przypadku jednej zmiennej jesteśmy zazwyczaj zainteresowani oceną względnych pozycji, jakie zajmują poszczególne jej wartości. Na przykład możemy uporządkować zawody ze względu na prestiż, jaki jest im przypisywany, a studentów ze względu na stopień ich tolerancji politycznej. Tę samą zasadę można zastosować w przypadku dwóch zmiennych. W tej ostatniej sytuacji jesteśmy zainteresowani oceną, czy porządek wartości zmiennych jest taki sam, podobny czy różny. Porównujemy zatem dwie obserwacje i oceniamy, czy obserwacja, która ma wyższą rangę w przypadku jednej zmiennej, ma również wyższą rangę w przypadku drugiej zmiennej. Możemy na przykład sprawdzić, czy uporządkowanie zawodów ze względu na ich prestiż w latach pięćdziesiątych jest podobne do tego, jakie istniało w latach dziewięćdziesiątych, czy osoby o konserwatywnej postawie wobec polityki zagranicznej są równie konserwatywne w sprawach polityki wewnętrznej. Jeśli zebrane dane wykazują ten sam porządek dla obu zmiennych, to mówimy, że związek między nimi jest pozytywny. Natomiast jeśli porządek dla obu zmiennych jest odwrotny, tzn. kiedy ta sama osoba ma wysoką rangę w jednej zmiennej i niską rangę w drugiej, to mówimy, że związek między nimi jest negatywny. Jeżeli zaś uporządkowanie wartości obu zmiennych nie układa się w żaden wzorzec, to mówimy, że zmienne są niezależne. Rozważmy następujący przykład: jeżeli osoby personelu wojskowego wysokiej rangi są bardziej liberalne w sprawach politycznych niż osoby personelu niższej rangi, to możemy powiedzieć, że ranga wojskowa i liberalizm polityczny są pozytywnie powiązane. Gdyby natomiast oficerowie wysokiej rangi byli mniej liberalni, to byłby to związek negatywny. Gdyby zaś część oficerów wysokiej rangi była bardziej liberalna, a część mniej liberalna, to ranga wojskowa i liberalizm byłyby niezależne. Pojęcie pary danych Większość porządkowych miar związku oparta jest na parze jako jednostce analizy i na względnym uporządkowaniu wartości wewnątrz każdej pary. Przypuśćmy, że sześciu oficerów sklasyfikowaliśmy ze względu na ich rangę wojskową i poziom liberalizmu. Dane te przedstawiliśmy w tabeli 16.16. Każdej osobie, której dane umieściliśmy w tabeli 16.16, nadaliśmy imię dla celów ilustracyjnych. Imiona te przedstawia tabela 16.17. W tabeli 16.18 połączyliśmy te osoby w pary i określiliśmy ich uporządkowanie względem dwóch zmiennych: rangi wojskowej i liberalizmu politycznego*. Pierwsza kolumna zawiera imiona każdej pary, druga numer komórki rozkładu dwuzmiennowego, trzecia i czwarta rangę wojskową i poziom liberalizmu. Ostatnia kolumna opisuje względną pozycję pary ze względu na dwie zmienne. * Nie wymieniliśmy tych par, które można utworzyć w ramach jednej komórki — np. John i Ruth — ponieważ osoby tworzące taką parę mają tę samą rangę w obu zmiennych. Dlatego nie są one istotne z punktu widzenia tych miar związku dla danych porządkowych, które omawiamy w tym rozdziale. 421 Tabela 16.16. Liberalizm a ranga wojskowa (dane hipotetyczne) Liberalizm (Y) Ranga wojskowa (X) kolumna 1 kolumna 2 Ogółem niska wysoka Wiersz 1 Niski Wiersz 2 Wysoki Ogółem 2 'on 1(21) 3 (12> 2 '(22) 3 3 3 6 Tabela 16.17. Liberalizm a ranga wojskowa dla sześciu ofice rów Liberalizm (Y) Ranga wojskowa (X) niska wysoka Ogółem Niski Wysoki Ogółem John, Ruth(ll Alice(2|) 3 Susan( Jim, Glenn(22) 3 3 3 6 Na przykład John znajdujący się w komórce 11 i Suzan, która znajduje się w komórce 12, mają taką samą pozycję (pary wiązane) dla zmiennej Y (liberalizm). Mają oni różną rangę wojskową, ale podzielają te same poglądy polityczne. Pary wiązane dla zmiennej Y składają się natomiast z oficerów mających różną rangą wojskową, ale podzielających te same poglądy polityczne. Natomiast pary wiązane dla zmiennej X (na przykład John i Alice) to oficerowie o tej samej randze, ale różniący się poglądami politycznymi. Z kolei pary, który zostały opisane jako „takie same", składają się z osób zajmujących podobną pozycję względem obu zmiennych (np. wyższa ranga wojskowa i bardziej liberalne poglądy polityczne). I wreszcie pary opisane jako „przeciwne" zajmują różną pozycję względem dwóch zmiennych, tj. osoba o wyższej randze wojskowej deklaruje mniej liberalne poglądy polityczne. Rodzaje par Analizując tabelę 16.18, widzimy, że można wyróżnić następujące rodzaje par: 1. 3. 4. Pary wykazujące takie same uporządkowanie dla obu zmiennych (XiY) — opisywane dalej jako Ns. Pary wykazujące odwrotne uporządkowanie dla zmiennej X i Y — opisywane dalej jako Nd. Pary wiązane dla zmiennej X — opisywane jako Tx. Pary wiązane dla zmiennej Y — opisywane jako Ty. 1. Aby znaleźć pary opisane jako Ns w tabeli dwuzmiennowej, należy pomnożyć liczebność każdej komórki przez ogólną liczebność wszystkich komórek znajdujących się poniżej i na prawo od niej i dodać do siebie otrzymane iloczyny. Dla tabeli 16.16 liczba par wykazujących takie samo uporządkowanie dla obu zmiennych wynosi 2x2 = 4. 422 Tabela 16.18. Pozycja, jaką zajmują oficerowie względem dwóch zmiennych: rangi wojskowej i liberalizmu Osoba Komórka Ranga wojskowa (X) Poziom liberalizmu (Y) Porządek John 11 N N zakotwiczony na Y Susan 12 W N Ruth 11 N N zakotwiczony na Y Susan 12 W N John 11 N N zakotwiczony na X Alice 21 N W Ruth 11 N N zakotwiczony na X Alice 21 N W John 11 N N taki sam Jim 22 W W Ruth 11 N N taki sam Jim 22 W W John 11 N N taki sam Glenn 22 W W Ruth 11 N N taki sam Glenn 22 W W Susan 12 W N odwrotny Alice 21 N W Susan 12 W N zakotwiczony na X Jim 22 W W Susan 12 W N zakotwiczony na X Glenn 22 w W Alice 21 N W zakotwiczony na Y Jim 22 W W Alice 21 N w zakotwiczony na Y Glenn 22 W w 2. Aby znaleźć pary opisane jako Nd w tabeli dwuzmiennowej należy pomnożyć liczebność każdej komórki przez ogólną liczebność wszystkich komórek znajdujących się poniżej i na lewo od niej i dodać do siebie otrzymane iloczyny. Dla tabeli 16.16 liczba par wykazujących różne uporządkowanie dla obu zmiennych wynosi 1x1 = 1. 3. Aby w tabeli dwuzmiennowej znaleźć pary wiązane dla zmiennej X, należy pomnożyć liczebność każdej komórki przez ogólną liczebność wszystkich komórek znajdujących się w tej samej kolumnie co dana komórka i dodać do siebie otrzymane iloczyny. Liczba par wiązanych dla zmiennej X wynosi (2x 1) + (1 x2) = 4. 4. Aby w tabeli dwuzmiennowej znaleźć pary wiązane dla zmiennej Y, należy pomnożyć liczebność każdej komórki przez ogólną liczebność wszystkich komórek 423 znajdujących się w tym samym wierszu co dana komórka i dodać do siebie otrzymane iloczyny. Liczba par wiązanych dla zmiennej Y wynosi (2x 1) + (1 x2)=4. Współczynnik gamma Współczynnik gamma (y lub inaczej G) jest wykorzystywany do pomiaru sity związku pomiędzy zmiennymi porządkowymi. Został opracowany przez Leo Go-odmana i Williama Kruskala7. Jest to statystyka symetryczna oparta na liczbie par wykazujących taki sam porządek (Ns) oraz liczbie par wykazujących odwrotne uporządkowanie (Nd). Pary wiązane dla jednej lub drugiej zmiennej nie są brane pod uwagę w definicji gammy. Współczynnik gamma jest dany wzorem8: 0,5 (Ns + Nd) - minimum (Ns, Nd) y =-----------------------------------------------------------. (16.4) r 0,5 (Ns+Nd) Aby zilustrować sposób obliczania współczynnika gamma, weźmy pod uwagę dane z tabeli 16.19, które dotyczą stażu studiowania oraz politycznej tolerancji wśród studentów. Zostały one zebrane, aby sprawdzić hipotezę, że wraz ze stażem studiowania studenci stają się bardziej liberalni. Badacze przyjęli, że jeżeli obie zmienne okażą się ze sobą powiązane, to — z minimalnym błędem — będzie można przewidywać tolerancję studentów na podstawie tego, na którym są roku studiów. Nasze obliczenia rozpoczynamy od ustalenia liczby par, jakie można utworzyć z 1032 danych. Jeżeli nie uwzględnimy par wiązanych, to ogólna liczba par, jaką można utworzyć z tych danych, wynosi Ns+Nd. Ns i Nd obliczamy zgodnie z wcześniej przedstawioną definicją: Aft = 30(75+ 51+79 +59 +79+ 63+ 120+151+45+ 34) + 66(51+59 + 63 + 151+34) + 30(79 + 59 + 79 + 63 + 120+151+45 + 34) + 75(59 + 63 + 151+34) + 34(79 + 63 + 120+151+45 + 34) + 79(63+151+34) + 33(120 +151+45 + 34) + 79(151+34)+ 40(45+ 34)+120(34) = 157 958 Nd = 15(120+151+79 + 63 + 79 + 59 + 75 + 51+66 + 28) + 45(151+63 + 59 + 51+28) + 40(79 + 63 + 79 + 59 + 75 + 51+66 + 28) + 120(63 + 59 + 51+28) + 33(79 + 59 + 75 + 51 + 66 + 28) + 79(59+ 51+28)+ 34(75+ 51+66+ 28)+ 79(51+28) + 30(66+ 28)+ 75(28) = 112 882 7 Leo A. Goodman, William H. Kruskal (1954), Measure of Association for Cross Classification, „Journal of the American Statistical Association", 49, s. 732-764. 8 Mueller i in., Statistical Reasoning in Sociology, s. 282. 424 Tabela 16.19. Tolerancja polityczna studentów college'u a staż studiowania Staż studiowania pierwszy drugi trzeci czwarty absolwent absolwent rok rok rok rok (studia dzienne) (studia zaoczne) Razem Mało tolerancyjny 30 30 34 33 40 15 182 Przeciętnie tolerancyjny 66 75 79 79 120 45 464 Bardzo tolerancyjny 28 51 59 63 151 34 386 Ogółem 124 156 172 175 311 94 1032 Ogólna liczba par (pary wiązane wyłączone) wynosi zatem: Ns + Nd=l51958 + 112 882 = 270 840. Następnym krokiem jest określenie stopnia tolerancji studentów jedynie na podstawie zmiennej zależnej — reguła 2. Aby określić względną pozycję każdej z 270 840 par, odwołamy się do systemu losowego. Możemy na przykład oznaczyć jedną z osób tworzących parę jako „orzeł", a drugą jako „reszka". Następnie rzucając monetą, można zdecydować, która osoba jest bardziej tolerancyjna. Jeżeli ten proces powtórzymy dla każdej pary, to przy bardzo wielu powtórzeniach należy oczekiwać, że w 50% przypadków prawidłowo odgadniemy pozycję danej osoby i pomylimy się w pozostałych 50% przypadków. Zastosowanie drugiej reguły pre-dykcyjnej daje zatem (Ns + Nd)l2 =135 420 błędów. Zgodnie z pierwszą regułą predykcyjną istnienie wielu par tak samo uporządkowanych (Ns) pozwala przyjąć taki sam porządek dla wszystkich innych par. W tym przypadku liczba popełnionych błędów będzie równa Nd, czyli liczbie par odwrotnie uporządkowanych dla dwóch zmiennych. I oczywiście, gdyby liczba par odwrotnie uporządkowanych była większa (Nd), to taki sam porządek moglibyśmy przewidzieć dla wszystkich pozostałych par i popełnilibyśmy Ns błędów. Obliczenia przeprowadzane dla danych z tabeli 16.19 wskazują, że liczba par tak samo uporządkowanych jest większa niż liczba par odwrotnie uporządkowanych (Ns > Nd). Możemy zatem przewidywać poziom tolerancji politycznej na podstawie stażu studiowania. Otóż studenci z większym stażem studiowania wykazują większą tolerancję polityczną. Jeżeli Mary jest studentką drugiego roku, a John jest studentem pierwszego roku, to Mary będzie bardziej tolerancyjna niż John. Ponieważ jednak nie wszystkie pary mają takie samo uporządkowanie, zatem liczba popełnionych błędów przy zastosowaniu tej reguły wyniesie Nd= 112 882. Możemy teraz określić związek pomiędzy stażem studiowania a poziomem tolerancji politycznej, wykorzystując w tym celu ogólny wzór miary siły związku między zmiennymi-. b — a gdzie b = (Ns + Nd)/2, a a = (Ns, Nd)min. Tym samym: (Ns + Nd) -Nd Y = 135 420-112 882 22 538 (Ns + Nd) 135 420 135 420 = 0,17. Wartość gamma = 0,17 pokazuje, o ile zwiększa się dokładność naszej prognozy, gdy do przewidywania poziomu tolerancji politycznej wykorzystamy staż studiowania. Wykorzystując tę zmienną, możemy zredukować liczbę popełnionych błędów o 17%. Inny sposób obliczania współczynnika gamma. również obliczyć, stosując poniższy wzór: Współczynnik gamma możemy y = Ns-Nd 7Js + Nd' (16 Wzór ten pozwala obliczyć względną dominację par o takim samym porządku 1 o porządku odwrotnym. Jeżeli dominować będą pary o tym samym porządku, współczynnik będzie miał wartość dodatnią, jeżeli zaś pary o porządku odwrotn to współczynnik będzie ujemny. Współczynnik gamma przybiera wartości od 0 ±1. Jeśli wszystkie pary wykazują ten sam porządek (Nd = 0), to współczynnik gamma równa się 1 : Ns - 0 Ns y =---------= — = 1,0. r Ns + 0 Nd Jeśli wszystkie pary wykazują odwrotny porządek (Ns = 0), to współczynnik gamma równa się — 1: 0 - Nd -Nd y =---------=------= -1,0. ' 0 + Nd Nd Współczynnik ±1 oznacza, że bez żadnego błędu możemy przewidywać wartości zmiennej zależnej na podstawie zmiennej niezależnej. Jeżeli liczba par wykazujących taki sam porządek jest równa liczbie par wykazujących różny porządek, to współczynnik gamma będzie równy zero: Ns-Nd 0 y = Ns-Nd Ns+Nd = 0. Współczynnik gamma równy 0 oznacza, że przewidywanie wartości zmiennej zależnej na podstawie wartości zmiennej niezależnej w żadnym stopniu nie zwiększy poprawności predykcji. Ograniczenia współczynnika gamma. Podstawową wadą współczynnika gamma jako miary związku pomiędzy zmiennymi porządkowymi jest wyłączenie z obli- 426 czeń par wiązanych. Dlatego współczynnik y może osiągnąć wartość ±1 nawet wtedy, gdy związek między zmiennymi nie jest związkiem idealnym. Weźmy na przykład pod uwagę idealny związek opisywany już wcześniej w tym rozdziale, który można przedstawić w następującej tabeli: 50 0 0 50 7 1 Ponieważ jednak współczynnik gamma nie uwzględnia par wiązanych, przeto osiągnie on wartość równą 1 również w następującej sytuacji: 50 50 0 50 y=l Ogólnie rzecz biorąc, jeżeli dużo danych wpada do niewielu kategorii, to może się wówczas pojawić wiele par wiązanych i współczynnik gamma zostanie oparty na mniejszej proporcji par niewiązanych. Współczynnik tau-b Kendalla Jeśli istnieje wiele par wiązanych, to można wykorzystać miary, które uwzględniają problem par wiązanych. Jedną z nich jest współczynnik tau-fe Kendalla: Tb = Ns-Nd AJ (Ns + Nd + TyHNs + ~Nd + Tx) (16.6) Współczynnik tau-b przyjmuje wartości od -1 do +1 i jest współczynnikiem symetrycznym. Ma taki sam licznik jak współczynnik gamma, natomiast w mianowniku została wprowadzona poprawka na rangi wiązane (Tx i Ty). Na przykład dla następujących danych tworzących rozkład dwuzmiennowy X 100 50 60 90 150 otrzymamy: iVs = 600, Ty = 2700, Nd=2100, Tx = 2300. Zatem 30 70 30 20 vet wtedy, gdy brane pod uwagę zmienne są ze na wskazać jedynie na współzależność określo-ti jak na przykład to, że katolicy mają tendencję też przewidywać relatywnie taką samą pozycję i przykład wtedy, gdy przyjmujemy, że ranga zmem. Predykcje tego rodzaju są jednak mato potrzeba formułowania dokładniejszych stwier-widywać przyszłe dochody danej osoby na pod-ib wielkości dochodu narodowego na podstawie tymi interwałowymi, to rodzaj i forma zwi liej opisana. Większość związków pomię ć opisana w terminach związku liniowego. Da dy wartości dla wszystkich par (X, Y) spełniaj ;t linią prostą. Wszystkie funkcje tego rodzaj ą wartościami stałymi. Istnieje na przykład doskonały związek :dzy odległością i czasem jazdy samochode itałą prędkością (tabela 16.20). Jeżeli prędkość iy samochodu wynosi 60 mil na godzinę, to iągu godziny przejedzie on 60 mil, czy inaczej iii w czasie Y. Funkcja liniowa wyraża zwią- pomiędzy czasem i odległością, jaką przeby-samochód. Funkcja ta ma postać Y= IX i ozna- że zmiana jednej jednostki odległości ( spowoduje zmianę jednej jednostki czasu (minut). Stała 1 poprzedzająca zmienną X jest wartością b, nazywaną nachyleniem prostej, i mówi, o jaką liczbę jednostek zmieni się Y, gdy X zmieni się o jedną jednostkę. Regresja liniowa Metoda pozwalająca określić naturę związku pomiędzy dwiema zmiennymi interwa-łowymi, która wykorzystuje funkcję liniową, nazywa się analizą regresji. Naukowcy wykorzystują analizę regresji do budowania wyrażenia algebraicznego reprezentującego funkcjonalny związek pomiędzy zmiennymi. Równanie Y=a + bX jest równaniem liniowym, co oznacza, że funkcja reprezentująca związek pomiędzy Xi Kjest funkcją liniową. Najczęstszym sposobem przedstawiania punktów odpowiadających wartościom X i Y oraz łączącej je linii regresji jest umieszczenie ich na wykresie współrzędnych. Zmienna X i zmienna Y są reprezentowane odpowiednio przez osie wykresu. Każda obserwacja jest punktem, którego współrzędne odpowiadają wartościom X i Y. Aby zilustrować graficzny sposób przedstawiania danych z rozkładu dwuzmiennowego oraz typ funkcji opisującej ich związek, przedstawiliśmy dane z tabeli 16.20 na rycinie 16.3. Zmienna niezależna X została umieszczona na osi poziomej, a zmienna zależna Yna osi pionowej. Każda obserwacja tworzy punkt w miejscu przecięcia się wartości dwóch zmiennych. Na przykład ostatnia obserwacja z tabeli 16.20 została zaznaczona w miejscu przecięcia się prostej wyprowadzonej z punktu równego 15 dla jednej zmiennej i punktu równego \5 d\a drugiej zmiennej. 16 r 15 14 13 - 12 - 11 10 - 9 - 8 7 6 5 4 3 2 - 1 _ /l I I I I I I ' I ' I____I____I____I____I____I • 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 X(mile) Ryc. 16.3. Regresja Y względem X Linia regresji nie zawsze przechodzi przez początek układu współrzędnych (miejsce przecięcia osi X i Y). Jeżeli prosta regresji przecina oś Y, to do równania regresji musimy wprowadzić jeszcze jedną stałą. Stała ta, oznaczana literą a, nazywana jest punktem przecięcia z osią Y. Punkt ten pokazuje, jaka jest wartość Y, gdy zmienna 429 Xjest równa zeru. Przedstawione na rycinie 16.4 trzy linie regresji mają różne wartości wielkości a i b. Trzy różne wartości stałej a (6, 1, 2) znajdują swoje odzwierciedlenie w trzech różnych punktach przecięcia prostej regresji z osią Y. Z kolei różne wartości b (—3, 0,5, 3) pokazują, jakie jest nachylenie prostej regresji. Im wyższa wartość b, tym bardziej stromo wznosi się prosta regresji. I wreszcie, znak wielkości b określa kierunek związku pomiędzy X i Y. Jeżeli wartość b jest dodatnia, to wzrostowi wartości zmiennej X towarzyszy wzrost wartości zmiennej Y (ryc. 16.4b i 16.4c). Jeżeli zaś wartość b jest ujemna, to wraz ze wzrostem X maleje Y (ryc. 16.4a). W naukach społecznych funkcja liniowa jest dobrym przybliżeniem większości związków. Na przykład równanie F=5000+ 1000X może wyrażać związek pomiędzy poziomem wykształcenia a dochodami. Wówczas a odpowiada rocznym zarobkom (5000) osób, które nie mają żadnego wykształcenia, a wartość b oznacza wzrost zarobków (o 1000) wraz z każdym rokiem wykształcenia więcej. Korzystając z tej reguły predykcyjnej, możemy przewidzieć, że osoba mająca za sobą dziesięć lat kształcenia może zarabiać 15 000$ [T=5000+ 1000(10)]. a = 6 Z>=-3 J___i i i i i 12 3 4 5 6 7 8 X a) ujemny współczynnik nachylenia Ryc. 16.4. Linie regresji • ¦ 1 fc = 0,5 t*\l A. _1___L fl=2 6=3 1 2 3 4 5 X 6 7 8 2 3 4 X 5 6 7 8 b) dodatni współczynnik nachylenia c) niewielki dodatni współczynnik nachylenia Kryterium najmniejszych kwadratów Równanie regresji jest tylko pewną regułą predykcyjną, tym samym możemy zaobserwować rozbieżności pomiędzy rzeczywistymi danymi a danymi przewidywanymi. Naszym celem jest zatem skonstruowanie takiego równania, w którym te odchylenia, czyli błąd predykcji będzie jak najmniejszy. Jeżeli określając wartości a i b równania prostej, przyjmiemy specyficzne kryterium, to możemy zdefiniować taką funkcję, która będzie minimalizować wariancję wokół linii regresji. Kryterium to, nazywane kryterium najmniejszych kwadratów, minimalizuje sumę kwadratów różnic pomiędzy rzeczywistą a przewidywaną wartością Y. Takie równanie pre-dykcyjne ma następującą postać: Y = a + bX, (16.7) gdzie Y oznacza przewidywany wynik dla zmiennej Y. Zgodnie z kryterium najmniejszych kwadratów wartości a i b można obliczyć, korzystając z następujących równań: 430 b = I(X-X)(Y-Y) I(X - X)2 ZY-bY.X a = N = Y-bX. (16.8) (16.9) Wygodniejszym sposobem obliczania wartości b może być równanie: NZXY-{EX)(ZY) b = NIX2 - (IX)2 (16.10) Przykład. Aby pokazać, w jaki sposób można skonstruować precyzyjną regułę predykcyjną, rozpatrzmy dane przedstawione w tabeli 16.21 dotyczące liczby kradzieży (na 100000 mieszkańców) i procentu mieszkańców okręgów wielkomiejskich. Dane te, dla dziesięciu stanów, zostały zebrane po to, aby można było określić związek pomiędzy stopniem urbanizacji a poziomem przestępczości. Zmienna, którą chcemy przewidywać (zmienna zależna), to „liczba kradzieży na 100 000 mieszkańców", a zmienna niezależna to „procent mieszkańców okręgów wielkomiejskich". Tabela 16.21. Liczba kradzieży a stopień urbanizacji na obszarzch wielkomiejskich (rok 1986) Procent populacji Liczba kradzieży Stan mieszkającej w miastach na 100000 mieszkańców (X) (Y) XY X2 Y2 Massachusetts 91 193 17 563 8281 37 249 Wisconsin 67 73 4891 4489 5329 Dakota Południowa 28 16 448 784 256 Wirginia 72 106 7632 5184 11236 Carolina Południowa 60 99 5940 3600 9801 Teksas 81 240 19440 6561 57 600 Arizona 75 169 12675 5625 28 561 Kalifornia 96 343 32 928 9216 117 649 Arkansas 44 88 3872 1936 7744 Hawaje 77 106 8162 5929 11236 Ogółem 691 1433 113551 51605 286661 Źródło: United States Bureau of the Census (1988), Statistical Abstracts of the United States: 1988, wyd. 10, Washington, D.C. Aby bez żadnych dodatkowych informacji przewidzieć liczbę kradzieży w każdym stanie, powinniśmy wybrać taką wartość, która da najmniejszą liczbę błędów przy szacowaniu liczby kradzieży w każdym stanie. Dla danych interwałowych najlepszą podstawą szacowania będzie średnia arytmetyczna, ponieważ średni kwadrat 431 odchyleń poszczególnych obserwacji od średniej jest właśnie najmniejszą możliwą wartością. Dla naszych danych średnia liczba kradzieży na 100000 mieszkańców wynosi zatem: IY 1433 Y= — =------= 143,3- N 10 Aby obliczyć błąd predykcji, musimy odjąć każdą obserwację od średniej (aby obliczyć odchylenie) i podnieść te odchylenia do kwadratu. Następnie obliczamy sumę kwadratów odchyleń, która jest ogólnym zróżnicowaniem wartości wokół Y. Suma ta jest oszacowaniem wielkości błędu predykcji — reguła 2 — gdyż daje najmniejszą liczbę błędów. Ogólne zróżnicowanie wartości wokół F można obliczyć jako I(Y-Yf. (16.11) Następnym krokiem jest zmniejszenie liczby błędów popełnionych przy przewidywaniu liczby kradzieży poprzez wprowadzenie drugiej zmiennej („procent urbanizacji") jako predyktora. Możemy to osiągnąć przez skonstruowanie reguły predykcyj-nej w postaci równania regresji. Równanie to najlepiej opisze związek pomiędzy tymi dwiema zmiennymi i pozwoli przewidzieć — z minimalnym błędem — liczbę kradzieży w każdym stanie na podstawie procentu mieszkańców okręgów miejskich. Dane przedstawione w tabeli 16.21 można nanieść na wykres rozproszenia, który jest graficzną reprezentacją przybliżonego obrazu związku pomiędzy dwiema zmiennymi (ryc. 16.5). Każda para liter (będąca skrótem nazwy danego stanu) znajduje się w miejscu, które jest opisane przed dwie wartości: X i Y. Na przykład punkt WI oznacza stan Wisconsin, w którym zanotowano 73 kradzieże na 100 000 mieszkańców i 67% populacji mieszkańców tego stanu mieszka w miastach. Po naniesieniu na wykres wszystkich punktów rysujemy linię, która odzwierciedla istniejący trend. Oczywiście pomiędzy punktami możemy narysować wiele takich linii, lecz jedynie jedna — linia średnich kwadratów — będzie linią najlepiej odpowiadającą poszczególnym danym. Zanim jednak będziemy mogli tę linie narysować, najpierw należy obliczyć stałe a i b: 10(113551)-(691)(1433) b = —-----------'-—------~—- = 3,76, a = 143,3 - 3,76(69,1) = -117,0. 10(51605)-(691)2 ^ ' Otrzymamy następujące równanie prostej regresji: Y= -117,0 + 3,76*. Teraz można już narysować linię regresji i wykorzystać ją do przewidywania poziomu kradzieży na podstawie stopnia urbanizacji. Na przykład, jeżeli 50% mieszkańców danego miasta mieszka w metropoliach, to przewidywana liczba kradzieży na 100000 mieszkańców: f = 117,0 + 3,76(50) = 71. 432 Błędy predykcji Jak widzimy na rycinie 16.5, większość obserwacji jest rozrzucona wokół linii regresji. Odchylenia danych rzeczywistych od danych przewidywanych odzwierciedlają wielkość błędu, jaki popełniamy, przewidując poziom kradzieży na podstawie stopnia urbanizacji (czyli stosujemy regułę 1). Wielkość tego błędu można oszacować, mierząc odchylenia rzeczywistych danych od linii regresji. Najpierw odejmujemy przewidywaną liczbę kradzieży dla danego stanu od zarejestrowanej liczby kradzieży w tym stanie (dane z tabeli 16.21). W Teksasie, na przykład, przewidywana liczba kradzieży na 100000 mieszkańców— zgodnie z regułą predykcyjną— Y= 117,0 + 3,76(81) = 187,56. Rzeczywista 60 poziom urbanizacji Ryc. 16.5. Liczba kradzieży na 100000 mieszkańców a poziom urbanizacji liczba kradzieży zanotowanych w Teksasie wyniosła 240, zatem błąd predykcji jest: 240-187,56 = 52,44. Suma wszystkich błędów predykcji podniesionych do kwadratu jest interpretowana jako wielkość zróżnicowania, która nie jest wyjaśniona przez zmienną niezależną. Można ją obliczyć według wzoru: 2(7,-yY, (16.12) gdzie Y, oznacza dane rzeczywiste, a Y — dane przewidywane. Inną często stosowaną miarą błędu jest błąd standardowy oszacowania— Syjc, oparty na wielkości nie wyjaśnionego zróżnicowania wokół linii regresji. Definiuje się go jako: *=4 2(Y, - Y)2 N (16.13) Standardowy błąd oszacowania jest miarą bardzo zbliżoną do odchylenia standardowego, które omówiliśmy w rozdziale 15. 433 Współczynnik korelacji według momentu iloczynowego Pearsona (/) Przyjmijmy, że mamy dwie miary zróżnicowania zmiennej Y. Pierwsza — całkowite zróżnicowanie wokół Y — określa wielkość błędu popełnianego przy przewidywaniu wartości Kbez żadnej wcześniejszej znajomości zmiennej X— reguła 2. (Reguła 2 to właśnie całkowite zróżnicowanie wokół Y). Druga miara — zróżnicowanie nie wyjaśnione, zdefiniowane w postaci równania (16.12) — określa wielkość błędu popełnianego, gdy jako regułę predykcyjną wykorzystujemy równanie regresji — reguła 1. Te dwa sposoby szacowania wielkości błędu umożliwiają skonstruowanie miary związku między zmiennymi interwałowymi. Miara ta odzwierciedla proporcjonalne zmniejszenie wielkości błędu popełnianego przy szacowaniu wartości Y, jakie uzyskamy, wprowadzając zamiast reguły 2 (średniej) regułę 1 (równanie regresji). Miarę tę, r2, można przedstawić jako zróżnicowanie ogólne — zróżnicowanie nie wyjaśnione r2-----------------------^-rr-:---------:-------~,---------------------------• (16.14) zróżnicowanie ogólne Aby oszacować proporcjonalne zmniejszenie wielkości błędu, musimy odjąć zróżnicowanie nie wyjaśnione od wyjściowej wielkości błędu predykcji. Proporcjonalne zmniejszenie wielkości błędu, gdy Xjest wykorzystywane do przewidywania Y, określa wielkość r2. Jeżeli zróżnicowanie nie wyjaśnione wynosi zero, to oznacza to, że wprowadzenie równania regresji wyeliminowało wszystkie błędy w przewidywaniu wartości Y. Wartość r2 będzie się wówczas równać jeden, co oznacza, że każde zróżnicowanie Fmoże być wyjaśnione przez X. I odwrotnie, jeżeli zróżnicowanie nie wyjaśnione jest takie samo jak zróżnicowanie ogólne, to r2 będzie wynosić zero. Oznacza to, że pomiędzy X i Y nie ma żadnej współzależności. Konwencjonalnie jako miary korelacji używa się pierwiastka kwadratowego z r2, czyli r. Miara ta znana jest jako w s p ó ł c z y n n i k korelacji według momentu iloczynowego Pearsona, w skrócie r Pearsona. Współczynnik r Pearsona przybiera wartości od — 1 do +1. Wartości ujemne oznaczają związek odwrotnie proporcjonalny. Wartość r możemy łatwo obliczyć według następującego wzoru: NIXY-{IX){IY) r ~ V [NIX2 - (IX)2} [NIY2 - (2Y)2]' W naszym przykładzie współczynnik korelacji 10 (113 551) — (691) (1433) V[10(51 605) - (691)2] [10(28666TP7l433)2j: = 0,82. Zatem r2 wynosi 0,822 = 0,67, co oznacza zredukowanie błędu predykcji o 67%, jeżeli będziemy przewidywać liczbę popełnionych kradzieży na 100000 mieszkańców na podstawie stopnia urbanizacji. To samo można ująć inaczej, a mianowicie, że 67% wariancji liczby popełnianych kradzieży jest wyjaśniane stopniem urbanizacji. 434 Miary związku Miary związku pozwalają określić, o ile proporcjonalnie zmniejszy się błąd szacowania, jeżeli predykcji wartości zmiennej zależnej będziemy dokonywać na podstawie wartości zmiennej niezależnej (reguła 1) zamiast niezależnie od niej (reguła 2). ¦ Lambda (A). Współczynnik lambda jest używany w przypadku zmiennych nominalnych. Można go obliczyć, korzystając ze wzoru (16.2) lub (16.3). ¦ Gamma (y). Współczynnik gamma jest stosowany do pomiaru siły związku pomiędzy dwiema zmiennymi porządkowymi. Można go obliczyć, korzystając ze wzoru (16.4) lub (16.5). ¦ Tau-/? Kendalla. Współczynnik tau-fo jest wykorzystywany do pomiaru siły związku między zmiennymi porządkowymi, kiedy wśród danych występuje wiele par wiązanych. Można go obliczyć, posługując się wzorem (16.6). ¦ Regresja liniowa. Jest to metoda określania związku pomiędzy dwiema zmiennymi interwałowymi wykorzystująca funkcję liniową postaci: Y=a + bx. ¦ r Pearsona. Współczynnik jest wykorzystywany do pomiaru związku pomiędzy zmiennymi interwałowymi. Wartości zmiennych można nanieść na układ współrzędnych. Można go obliczyć według wzoru (16.15). ¦ Kryterium najmniejszych kwadratów. Metoda określania równania regresji, która minimalizuje sumę kwadratów różnic pomiędzy rzeczywistymi i przewidywanymi wartościami Y. a) silny związek dodatni b) słaby związek dodatni c) brak związku Ryc. 16.6. Rozpoznawanie sity związku na podstawie wykresu rozproszenia Wielkość r2 lub r zależy od rozproszenia rzeczywistych obserwacji wokół linii regresji. Jeżeli wszystkie obserwacje będą leżeć na linii regresji, to r będzie wynosić 1,0. Jeżeli natomiast będą one losowo rozrzucone po całym wykresie, to r będzie równie zero. Na rycinie 16.6 przedstawiliśmy hipotetyczny silny związek dodatni, slaby związek dodatni oraz brak związku. Należy jednak pamiętać, że gdy r lub r2 jest bliskie lub równe zeru, nie należy się spieszyć z wnioskiem, że pomiędzy zmiennymi nie ma żadnego związku. Związek między nimi może być bowiem związkiem krzywoliniowym, tj. nie będzie opisywany za pomocą linii prostej. Zatem współczynnik korelacji oparty na modelu liniowym nie da poprawnego obrazu związku statystycznego. Ogólnie rzecz biorąc, dokładna analiza diagramu korela- 435 cyjnego pozwoli stwierdzić, w jakiej mierze uzyskane przez nas dane układają się wzdłuż prostej, krzywej, czy też nie ma między nimi żadnego związku9. ¦ Podsumowanie 1. W rozdziale tym skoncentrowaliśmy się na analizowaniu natury związku pomiędzy dwiema zmiennymi oraz na tworzeniu miar tego związku. Zmienne, które są ze sobą powiązane, wykazują współzależność: określone kategorie jednej zmiennej zmieniają się wraz ze zmianą kategorii drugiej zmiennej lub wartości zmiennych zajmują podobne pozycje. 2. Można oszacować związek pomiędzy dwiema zmiennymi, porównując rozkłady jednozmiennowe, które tworzą tabelę dwuzmiennową za pomocą globalnej miary takiej jak mediana czy średnia. Można też opisać związek między zmiennymi za pomocą specjalnych współczynników, które pokazują, w jakim stopniu użyteczne jest korzystanie z jednej zmiennej, aby przewidzieć drugą. 3. Miary związku pomiędzy zmiennymi zależą zazwyczaj od osiągniętego poziomu pomiaru zmiennych. Dla zmiennych nominalnych stosuje się współczynnik lambda. Dla zmiennych porządkowych można zastosować współczynnik gamma lub tau-b Kendalla. 4. Czasami związek pomiędzy zmiennymi interwałowymi można opisać za pomocą konkretnej funkcji pozwalającej na dokonywanie dokładnych predykcji. Równanie regresji liniowej jest przykładem takiej funkcji. Współczynnik r Pearsona jest miarą związku pomiędzy zmiennymi interwałowymi mówiącą, o ile proporcjonalnie zmniejszy się błąd, gdy zamiast średniej jako reguły predykcyjnej wprowadzimy równanie regresji. ¦ Podstawowe terminy błąd predykcji 430 proporcjonalne zmniejszenie błędu 416 kryterium najmniejszych r Pearsona 434 kwadratów 430 współczynnik gamma 424 lambda — współczynnik współczynnik korelacji 414 przewidywalności Guttmana 417 współczynnik tau-b Kendalla 427 linia regresji 429 ¦ Pytania sprawdzajqce 1. Omów pojęcie związku pomiędzy zmiennymi w terminach proporcjonalnego zmniejszania błędu. 9 Problem związku krzywoliniowego nie mieści się w zakresie tej pracy. Więcej informacji na ten temat można znaleźć w pracy: George W. Bohrnstedt, David Knoke (1988), Statistics for Social Dala Analysis, Itaca, 111.: Peacock. [Por. też: J. Brzeziński (1997), Metodologia badań psychologicznych, wyd. 2, Warszawa: Wyd. Nauk. PWN, rozdz. 10 (przyp. red. nauk.)] 436 2. Podaj przykład rozkładu dwuzmiennowego, dla którego lambda nie będzie właściwą miarą związku pomiędzy zmiennymi. Jakiej miary należałoby użyć zamiast niej? 3. Poniżej przedstawiono dwuzmiennowy rozkład alienacji i statusu społecznego. Porównując rozkłady procentowe zmiennych, odpowiedz na pytanie: Czy status wzrasta wraz ze spadkiem alienacji? Jakie inne miary związku można zastosować, aby odpowiedzieć na to pytanie? Alienacja Status społeczny Ogółem niski przeciętny wysoki Wysoka Przeciętna Niska Ogótem 93 77 68 238 41 78 128 247 10 46 140 196 144 201 336 681 Opracuj tabelę 2x2 uwzględniającą dane od 200 respondentów, z których 69% to demokraci, a 58% jest za zalegalizowaniem marihuany. Oblicz współczynnik lambda, traktując postawy wobec legalizacji marihuany jako zmienną zależną. Omów związek pomiędzy tymi zmiennymi. Przypuśćmy, że pomiędzy klasą społeczną a chęcią nauki w college'u istnieje korelacja r=0,28. Co to oznacza? W naukach społecznych podejmuje się próby określenia, które zmienne społeczne są powiązane ze zmiennymi ekonomicznymi. Wykorzystaj przedstawione niżej dane do zbadania związku pomiędzy stopniem bezrobocia a innymi zmiennymi. Omów rodzaje związków pomiędzy bezrobociem a każdą ze zmiennych niezależnych. W swojej analizie wykorzystaj następujące miary: b, r, r2. Państwo Stopień bezrobocia Polityczna stabilizacja Poziom rozwoju ekonomicznego Stopień urbanizacji Stany Zjednoczone 4,7. &,0 2,34 1,8 Nowa Zelandia 4,0 8.6 1,71 0.8 Norwegia 3.1 8.6 1,41 1,2 Finlandia 3.6 8.1 0,83 0,7 Urugwaj 6.2 3,2 0,46 0.9 Izrael 4.8 8,1 0,40 0,9 Tajwan 5.8 7,2 0,80 0.6 Ghana 8.1 5,0 0,02 0.2 Anglia 8.2 2.6 1,46 1.1 Grecja 8.8 2.1 0,09 0,9 437 Ćwiczenia komputerowe 1. Korzystając z danych GSS lub z innego zbioru danych, zbuduj — wykorzystując CROSSTABS — tabele dla dwóch zmiennych nominalnych, a następnie dla dwóch zmiennych porządkowych. Wybierz z każdej tabeli jedną komórkę i opisz słowami znajdujące się w niej procenty, biorąc pod uwagę wiersz i kolumnę, w których znajduje się ta komórka. Na przykład: 70% kobiet opowiada się za eliminowaniem segregacji rasowej (przykład hipotetyczny). 2. Jakie są właściwe miary związku dla tabel zbudowanych w zadaniu 1 ? Jaka jest siła związku pomiędzy analizowanymi przez ciebie zmiennymi? 3. Wybierz z GSS dwie zmienne interwałowe i oblicz współczynnik r Pear-sona, posługując się programem CORRELATIONS. Jak silny jest ten związek? (Por. dodatek A, s. 534-539) ¦ Literatura dodatkowa Blalock H.M. (1975), Statystyka dla socjologów, Warszawa: PWN. Brzeziński J. (1997), Metodologia badań psychologicznych, wyd. 2, Warszawa: Wyd. Nauk. PWN. Ferguson G.A., Takane Y. (1997), Analiza statystyczna w psychologii i pedagogice, Warszawa: Wyd. Nauk. PWN. Rozdział 17 Kontrola, poziom złożoności i analiza wielozmiennowa Kontrola 441 Metody kontroli 442 Tabele wielodzielcze jako forma kontroli 442 Tabele cząstkowe 443 Poziom złożoności 449 Zmienna pośrednicząca 450 Interakcja 451 Korelacja cząstkowa jako forma kontroli 454 Regresja wielokrotna jako metoda kontroli 455 Analiza wielozmiennowa: korelacje wielokrotne 459 Modele przyczynowe i analiza zmiennych 460 Wybrane przykłady schematów przyczynowych 461 Analiza ścieżek 463 Podsumowanie 465 Podstawowe terminy 466 Pytania sprawdzające 466 Ćwiczenia komputerowe 468 Literatura dodatkowa 468 Czy przynależność do klasy społecznej wpływa na stopień uczestnictwa mężcz w obowiązkach domowych w rodzinach, w których obie strony pracują? Wright i współpracownicy — wychodząc z teorii marksistowskiej — twierdzili, że tak właśnie się dzieje'. Wykorzystując metody analizy dwuzmiennowej, stwierdzili, że przynależność do klasy społecznej wywiera jedynie bardzo niewielki wpływ na podział obowiązków w tych rodzinach, w których oboje partnerzy zarabiają. W związku z tym badacze postanowili sprawdzić, które inne zmienne wywierają wpływ na rodzaj obowiązków wykonywanych przez mężczyzn. Posługując się technikami wielozmiennowymi, zbadali względny wpływ ośmiu zmiennych: klasy społecznej, poziomu wykształcenia żony, czasu pracy żony, wkładu żony do dochodu rodziny, ogólnego dochodu rodziny, wyznawanego stereotypu płci (jakie zachowania przypisywano roli kobiety i mężczyny), wieku i liczby dzieci poniżej 16 roku życia. W sytuacji, gdy kontrolowano wszystkie zmienne, okazało się, że niewielki efekt klasy społecznej znika zupełnie. Jedynie czas pracy żony i wiek respondentów miał duży wpływ na rodzaj obowiązków mężczyzn. Wyznawany stereotyp płci nie odgrywał natomiast żadnej roli. Gdyby analizując związek pomiędzy klasą społeczną a stopniem uczestnictwa mężczyzn w obowiązkach domowych, posłużono się jedynie analizą dwuzmiennową, to można by błędnie wyciągnąć wniosek, że przynależność do klasy społecznej wywiera przynajmniej niewielki wpływ. Analiza wielozmiennowa umożliwia kontrolowanie wpływu innych zmiennych i chroni przed wyciąganiem błędnych wniosków. W rozdziale tym skoncentrujemy się na metodach wykorzystywanych do analizowania więcej niż dwóch zmiennych. W naukach społecznych analiza więcej niż dwóch zmiennych pełni trzy podstawowe funkcje: kontroluje, określa poziom złożoności oraz umożliwia predykcję. Pierwsza z funkcji jest substytutem mechanizmu kontroli eksperymentalnej w sytuacji, gdy mechanizm taki nie został uruchomiony. Druga dookreśla związek dwóch zmiennych poprzez wprowadzenie zmiennych pośredniczących czy warunkowych. Trzecia funkcja dotyczy możliwości analizowania dwóch lub więcej zmiennych niezależnych po to, aby określić ich wkład w wyjaśnianie zmienności zmiennej zależnej. W rozdziale tym omawiamy sposoby wprowadzania trzeciej zmiennej do badań empirycznych. Zaczynamy od omówienia strategii kontrolowania trzeciej zmiennej poprzez jej dookreślenie. Następnie dyskutujemy możliwości analizy wielozmiennowej w stosunku do analizy dwuzmiennowej. Na koniec omawiamy techniki modelowania przyczynowego oraz analizę ścieżek. Badanie związku dwuzmiennowego jest pierwszym krokiem analizy danych. Następny krok polega na ocenie implikacji otrzymanych wyników i wyprowadzeniu wniosków przyczynowo-skutkowych. Innymi słowy, na podstawie analizy dwuzmiennowej badacze ustalają wielkość współzmienności i jej kierunek, następnie 1 Erik Olin Wright, Karen Shire, Shu-Ling Hwang, Maureen Dolan, Janeen Baxter (1992). The Non-Effects of Class on the Gender Division of Labor in the Home: A Comparatwe Study of Sweden and the United States, „Gender and Society", Vol. 6, nr 2, s. 252-282. 440 interpretują wyniki i określają podstawowe związki przyczynowe pomiędzy badanymi zmiennymi poprzez wprowadzenie do analizy nowych zmiennych. Przypuśćmy, że określiliśmy związek pomiędzy wiekiem rodziców a stosowanymi przez nich metodami wychowawczymi, tj. że starsi rodzice są bardziej restryktywni w stosunku do swoich dzieci niż rodzice młodsi. W jaki sposób można zinterpretować te dane? Możemy twierdzić, że zmienne te są przyczynowo powiązane i że wraz ze wzrostem wieku rodziców obserwujemy przesunięcie od pobłażliwego do restrykcyjnego stylu wychowania. Może jednak być tak, że różnice w sposobie wychowania nie zależą od wieku rodziców, lecz od ich poglądów: starsi rodzice są bardziej restryktywni, natomiast młodsi wyznają bardziej liberalne poglądy, a zatem są bardziej pobłażliwi. Innymi słowy, związek pomiędzy wiekiem rodziców i stosowanymi przez nich metodami wychowawczymi może wynikać z faktu, że zarówno jedna zmienna „wiek", jak i druga zmienna „metody wychowawcze" są powiązane z trzecią zmienną, tj. „poglądami". Obserwowany związek pomiędzy dwiema lub więcej zmiennymi nie jest jeszcze wystarczającym uzasadnieniem wniosków przyczynowo-skutkowych. Zaobserwowany związek dwóch zmiennych może być wynikiem przypadku lub może być spowodowany tym, że obie zmienne są powiązane z inną, trzecią zmienną. Co istotne, badane zjawisko można często wyjaśnić za pomocą więcej niż jedna zmienna niezależna. W każdym przypadku wprowadzenie dodatkowej zmiennej pozwala na do-określenie wyjściowego związku między zmiennymi. ¦ Kontrola Zachodzenie związku pomiędzy dwiema zmiennymi nie stanowi wystarczającej podstawy do wyprowadzenia wniosku, że dwie zmienne są ze sobą powiązane przy-czynowo-skutkowo. Należy wyłączyć inne zmienne, które mogą być podstawą alternatywnych wyjaśnień. Na przykład związek pomiędzy wzrostem i wielkością dochodów można najprawdopodobniej wyjaśnić, wprowadzając trzecią zmienną, tj. „wiek". Wiek bowiem jest powiązany zarówno z dochodami, jak i ze wzrostem i ten właśnie związek sprawia, że statystyczna zależność pomiędzy wzrostem i dochodami nie ma charakteru przyczynowo-skutkowego. Wyjściowy związek, tj. związek pomiędzy wzrostem i dochodami jest związkiem pozornym. Pojęcie związku pozornego odnosi się do sytuacji, w których zmienna uboczna jest przyczyną „fałszywego" związku pomiędzy zmienną zależną i zmienną niezależną. Dlatego ważne jest ujawnienie zmiennych ubocznych zniekształcających zależności między zebranym danymi. Ważnym więc krokiem — w procedurze określania trafności związku pomiędzy dwiema zmiennymi — jest wyeliminowanie możliwie dużej liczby zmiennych, które mogłyby istotnie wyjaśnić obserwowany związek. Eliminacji tej dokonuje się poprzez wprowadzanie metod kontroli, czyli podstawowej zasady wszystkich planów badawczych. Podstawową metodą kontroli w planach eksperymentalnych jest losowe przyporządkowywanie osób badanych do grupy kontrolnej oraz do grupy eksperymentalnej. Metodyka eksperymentu kontrolowanego pozwala przyjąć, że wszystkie zmienne uboczne są kontrolowane i że różnice między dwiema grupami są spowodowane jedynie zróżnicowanym oddziaływaniem zmiennej niezależnej. Jak się jed- 441 nak przekonaliśmy w poprzednich rozdziałach, w naukach społecznych trudno manipulować grupami społecznymi i zawsze konsekwentnie stosować procedurę manipulacji eksperymentalnej. Bardzo często nie sposób kontrolować wielu czynników, co zwiększa wątpliwości co do badanej zależności pomiędzy zmienną zależną i zmienną niezależną. W planach quasi-eksperymentalnych eksperymentalne metody kontroli zmiennych są zastępowane odpowiednimi technikami statystycznymi. Techniki te stosowane są raczej w trakcie analizy danych, a nie na etapie ich zbierania. Znane są trzy metody kontroli statystycznej. Pierwsza polega na porównywaniu podgrup za pomocą tworzenia tabel wielodzielczych. Druga metoda — obliczanie korelacji cząstkowych — obejmuje procedury matematyczne pozwalające poprawić wartość współczynnika korelacji dla dwóch zmiennych. Trzecia metoda to metoda regresji wielokrotnej. Pozwala ona oszacować wpływ zmiennej niezależnej na zmienną zależną przy założeniu, że inne zmienne są kontrolowane. ¦ Metody kontroli Tabele wielodzielcze jako forma kontroli Metodę kontroli za pomocą tabel wielodzielczych możemy porównać do procedury doboru wiązanego wykorzystywanej w badaniach eksperymentalnych. W obu technikach badacz stara się wyrównać badane grupy ze względu na zmienne, które mogą zakłócić wyniki badań. W badaniach eksperymentalnych zanim zadziała zmienna niezależna, dobieramy osoby badane w taki sposób, aby tworzyły one pary osób identycznych ze względu na kontrolowane czynniki. Jedna osoba z każdej pary zostaje następnie przyporządkowana do grupy eksperymentalnej, a druga do grupy kontrolnej. Z kolei tworząc tabelę wielodzielczą, badacz przypisuje osoby badane do odpowiednich grup jedynie na etapie analizy danych. Dobór wiązany to fizycznie istniejący mechanizm kontroli, natomiast tworzenie tabel wielodzielczych jest operacją statystyczną. Tworzenie tabel wielodzielczych polega na dzieleniu próby na podgrupy ze względu na kategorie zmiennej, którą chcemy kontrolować, tzw. zmiennej kontrolowanej. Następnie należy ponownie oszacować związek między dwiema zmiennymi wewnątrz każdej podgrupy. Dzieląc próbę na podgrupy, badacz likwiduje działające zakłócająco nierówności i oblicza siłę związku między zmiennymi w grupach, które są wewnętrznie homogeniczne ze względu na zakłócający czynnik. Ogólnie rzecz biorąc, jedynie zmienne, które są powiązane i ze zmienną niezależną, i ze zmienną zależną mogą zakłócająco wpłynąć na wyniki badań. Dlatego jako zmienne kontrolowane należy wybrać te zmienne, które pozostają w związku zarówno z analizowaną zmienną niezależną, jak i zależną. Przykład. Poniższy przykład ilustruje kolejne kroki procedury kontrolowania j trzeciej zmiennej za pomocą tworzenia tabeli wielodzielczej. Przypuśćmy, że pobraliśmy próbę składającą się z 900 respondentów, aby sprawdzić hipotezę, że osoby mieszkające w okręgach miejskich są bardziej liberalne politycznie niż mieszkańcy wsi. W tabeli 17.1 i na rycinie 17.1 przedstawiliśmy otrzymane dane. Analizując je, możemy zauważyć, że 50% mieszkańców miast to osoby politycznie li- 442 beralne, natomiast na wsi osoby o takich poglądach stanowią jedynie 28%. Możemy zatem postawić wniosek, że liberalizm polityczny jest powiązany z miejscem zamieszkania. Można więc postawić pytanie: Czy stwierdzona zależność jest zależnością bezpośrednią (i wtedy możemy mówić o potwierdzeniu hipotezy), czy też jest zależnością pozorną z inną zmienną? Taką zmienną może być poziom wykształcenia, który jest powiązany zarówno z miejscem zamieszkania, jak i z liberalizmem politycznym. Odpowiednie dane ilustrujące te zależności przedstawiliśmy w tabeli 17.2 i 17.3 oraz na rycinie 17.2. Tabela 17.1. Liberalizm poltyczny a miejsce zamieszkania Liberalizm polityczny Okręgi miejskie Okręgi wiejskie Wysoki Niski Ogółem 50% 28% (200) (140) 50% 72% (200) (360) 100% 100% (400) (500) 80 60 - 8 40 - 20 - 0 wysoki liberalizm niski liberalizm 50% 72% 50% - 28% okręgi miejskie okręgi wiejskie miejsce zamieszkania Ryc. 17.1. Liberalizm a miejsce zamieszkania Tabele cząstkowe Aby kontrolować wykształcenie, podzieliliśmy grupę 900 osób na dwie podgrupy o różnym poziomie wykształcenia (wysoki, niski). W ramach każdej grupy zbudowaliśmy tabelę wielodzielczą miejsca zamieszkania (miasto, wieś) względem poglądów politycznych. Następnie w ramach każdej grupy oszacowaliśmy związek pomiędzy badany™ zm\eivr\yvM. Dane, kontrolowane przedstawiliśmy w tabeli 17.4 i na rycinie 17.3. 443 100 80 - 60 - 40 20 | wysoKie wykształcenie (_ __1 niskie wykształcenie 80% 1 1 1 75% 25% 20% okręgi miejskie okręgi wiejskie a. Wykształcenie a miejsce zamieszkania 100 80 - 60 - 40 - 20 - | wysoki liberalizm J niski liberalizm 80% - 60% 40% 20% wysokie wykształcenie niskie wykształcenie b. Liberalizm polityczny a wykształcenie Ryc. 17.2. Związek pomiędzy liberalizmem, miejscem zamieszkania i wykształceniem Tabela 17.2. Wykształcenie a miejsce zamieszkania Liberalizm polityczny Okręg i miejskie Okręgi wiejskie Wysoki 75% 20% (300) (100) Niskie 25% 80% (100) (400) Ogółem 100% 100% (400) (500) Tabela 17.3. Liberalizm polityczny a wykształcenie Liberalizm polityczny Wykształcenie wysokie niskie Wysoki 60% 20% (240) (100) Niski 40% 80% (160) (400) Ogółem 100% 100% (400) (500) Dwie tabele dla dwóch zmiennych zawarte w tabeli 17.4 nazywane są tabelami cząstkowymi, ponieważ każda odzwierciedla jedynie część całkowitego związku. Suma liczebności każdej pary odpowiadających sobie komórek daje liczebność odpowiadającej im komórki w tabeli wyjściowej (tabela 17.1). Na przykład 180 osób wysoko wykształconych, mieszkających na wsi i posiadających liberalne poglądy polityczne oraz 20 osób nisko wykształconych daje razem z wyjściowej tabeli 200 osób mieszkających na wsi i posiadających liberalne poglądy polityczne. Tabela 17.4. Liberalizm polityczny a miejsce zamieszkania (wykształcenie jako zmienna kontrolowana) — związek pozorny Liberalizm polityczny Wysokie wykształcenie Niskie wykształcenie miasto wieś miasto wieś Wysoki 60% 60% 20% 20% (180) (60) (20) (80) Niski 40% 40% 80% 80% (120) (40) (80) (320) Ogółem 100% 100% 100% 100% (300) (100) (100) (400) Aby oszacować korelację cząstkową, należy obliczyć miarę związku w każdej kontrolowanej grupie i porównać rezultaty z wcześniej otrzymanym wynikiem. Wybieramy taką miarę związku jak w przypadku zwykłego rozkładu dwuzmienno- 445 100 80 wysoki liberalizm niski liberalizm 60% wysokie wykształcenie 60% 40% 40% niskie wykształcenie 80% 80% 20% 20% okręgi miejskie okręgi wiejskie okręgi miejskie okręgi wiejskie Ryc. 17.3. Liberalizm polityczny a miejsce zamieszkania (wykształcenie jako zmienna kontrolowana) — związek pozorny wego. Możemy wykorzystać różnicę pomiędzy procentami, współczynnik gamma czy r Pearsona w zależności od poziomu pomiaru danych. Wartość korelacji cząstkowej może być identyczna lub prawie identyczna z wielkością wyjściowego związku, może zniknąć lub może się zmienić. Z punktu widzenia istnienia związku pozornego istotne są jedynie dwie pierwsze możliwości. Jeżeli związek cząstkowy jest identyczny lub prawie identyczny ze związkiem wyjściowym, to mamy podstawy, aby stwierdzić, że zmienna kontrolowana nie wpływa na wyjściowy związek między zmiennymi i związek ten ma charakter bezpośredni. Jeżeli natomiast ów związek zanika, to mówimy, że związek wyjściowy jest związkiem pozornym. (Trzecia zmienna może pośredniczyć pomiędzy zmienną zależną a zmienną niezależną. Wtedy związek cząstkowy również znika lub jest prawie równy zeru. Przykład takiej sytuacji krótko omówimy poniżej). Jeżeli związek cząstkowy nie zanika, lecz ma inną wartość niż związek wyjściowy lub ma inną wartość w każdej z tablic cząstkowych, to mówimy, że zmienna zależna i zmienna niezależna pozostają ze sobą w interakcji*. Do problemu interakcji wrócimy później. Związek wyjściowy jest związkiem pozornym. Analizując tabelę 17.4, widzimy, że poziom wykształcenia całkowicie wyjaśnia związek pomiędzy miejscem zamieszkania i liberalizmem. Jest tak dlatego, gdyż nie obserwujemy żadnych różnic w poglądach politycznych mieszkańców wsi i miast wewnątrz każdej z dwóch grup wyłonionych ze względu na poziom wykształcenia. Sześćdziesiąt procent wysoko wykształconych mieszkańców wsi to osoby o liberalnych poglądach politycznych. Z kolei w grupie osób z niskim wykształceniem liberalne poglądy polityczne ma 20% osób bez względu na miejsce zamieszkania. Związek pomiędzy zmienną nie- * Pomyłka! To zmienna niezależna i zmienna kontrolowana pozostają ze sobą w interakcji względem zmiennej zależnej (por. p. „Interakcja", s. 451) (przyp. red. nauk.). 446 wykształcenie liberalizm miejsce polityczny zamieszkania Ryc. 17.4. Pełen związek między zmiennymi przedstawionymi w tabeli 17.4 zależną i zmienną zależną jest całkowicie wyjaśniany przez związek każdej zmiennej z poziomem wykształcenia, jak to przedstawiliśmy na rycinie 17.3. Tę samą zależność można przedstawić w postaci diagramu (ryc. 17.4). Wykształcenie determinuje zarówno liberalizm polityczny, jak i miejsce zamieszkania. Oznacza to, że ludzie wysoko wykształceni mieszkają raczej w miastach i są politycznie bardziej liberalni. Nie ma natomiast żadnego rzeczywistego związku pomiędzy liberalizmem politycznym i miejscem zamieszkania, a obserwowane powiązanie między nimi ma charakter pozorny. Związek wyjściowy zachodzi bezpośrednio pomiędzy badanymi zmiennymi. Kontrolowanie trzeciej zmiennej może jednak prowadzić do zupełnie innych wyników. W hipotetycznym przykładzie przedstawionym w tabeli 17.5 wyjściowy związek pomiędzy dwiema zmiennymi nie uległ zmianie po wprowadzeniu trzeciej zmiennej, tj. wykształcenia. W całej próbie, podobnie jak w grupach wyodrębnionych ze względu na poziom wykształcenia, porównanie odpowiednich wartości procentowych pokazuje, że 50% mieszkańców miast ma liberalne poglądy polityczne, natomiast na wsi jedynie 28%. Wykres słupkowy zeprezentowany na rycinie 17.5 wyraźnie pokazuje, że zmienna kontrolna nie wywiera żadnego wpływu na wyjściowy związek między zmiennymi. Badacz może zatem zasadnie twierdzić, że w przypadku tego konkretnego związku wykształcenie jest czynnikiem nieistotnym, a związek zachodzi bezpośrednio między dwiema wyjściowymi zmiennymi. Tabela 17.5. Liberalizm polityczny a miejsce zamieszkania (wykształcenie jako zmienna kontrolowana) — związek nie będący związkiem pozornym Liberalizm polityczny Wysokie wykształcenie Niskie wykształcenie miasto wieś miasto wieś Wysoki 50% 28% 50% 28% (50) (35) (150) (105) Niski 50% 72% 50% 72% (50) (90) (150) (270) Ogótem 100% 100% 100% 100% (100) (125) (300) (375) W praktyce otrzymane wyniki nie są zazwyczaj tak wyraźne jak przedstawione tutaj. Bardzo rzadko się zdarza, aby związek całkowicie zniknął lub był dokładnie 447 100 80 wysoki liberalizm niski liberalizm s 60 - 40 - wysokie wykształcenie niskie wykształcenie 72% 72% 50% 50% 50% 50% 1 28% 1 1 28% 1 okręgi miejskie okręgi wiejskie okręgi miejskie miejsce zamieszkania okręgi wiejskie Ryc. 17.5. Liberalizm polityczny a miejsce zamieszkania (wykształcenie jako zmienna kontrolowana) — związek nie będący związkiem pozornym taki sam jak związek wyjściowy. Bardzo często dane otrzymane dla tabel cząstkowych wykazują znacznie mniejsze powiązanie, a czasami tylko niewielkie zmniejszenie korelacji. Dzieje się tak, ponieważ na wyjściowy związek między dwiema zmiennymi może wpływać wiele czynników. W naszym przykładzie takie zmienne, jak dochody, przynależność do partii czy wyznanie religijne również w znaczący sposób mogą wyjaśnić związek pomiędzy miejscem zamieszkania a liberalizmem politycznym. Statystycy nazywają tę cechę zmiennych zblokowanie m2. Termin ten odzwierciedla wielowymiarowość ludzi, ludzkich działań i społecznych interakcji. Porównując ludzi na przykład w terminach klasy społecznej, bierzemy pod uwagę jedynie jeden wymiar ludzkich doświadczeń. Ludzie mogą się różnić pod wieloma innymi względami i wszystkie te czynniki mogą wpływać na wyjaśniane zjawisko. Czynniki zblokowane to nasze zmienne kontrolowane; ponieważ jednak możemy kontrolować tylko niektóre z nich, reszta może nadal wyjaśniać pozostałą część zróżnicowania zmiennej zależnej. Procedura kontroli powinna zatem polegać na utrzymywaniu wszystkich pozostałych zmiennych mogących mieć wpływ na badane zjawisko. Wybór tych zmiennych jest operacją logiczną i teoretyczną, a jedynym wymaganiem statystycznym jest spełnienie warunku powiązania potencjalnej zmiennej kontrolnej zarówno ze zmienną zależną, jak i ze zmienną niezależną. Oczywiście nigdy nie będziemy całkowicie pewni, że w swojej analizie uwzględniliśmy wszystkie zmienne. Jednakże im więcej istotnych zmiennych kontrolujemy, tym większa pewność, że nasz zwi zek nie jest związkiem pozornym. 2 Morris Rosenberg (1968), The Logic of Sumey Analysis, New York: Basic Books, s. 26-28. [Por. też skróconą i zmodyfikowaną wersję tej książki wydaną w Polsce jako: Adrian de Winter (1981), Zmienne kontrolne (faktory testujące) w badaniach socjologicznych, Lublin: RW KUL (opracował i tłumaczył Marian Radwan). Inne streszczenie książki M. Rosenberga: M Rosenberg (1979), Logika anali socjologicznej, w: A. Sułek (red.), Logika analizy socjologicznej. Wybór tekstów. Warszawa: Wyd. UW (streścił Antoni Sułek) (s. 161-211) (przyp. red. nauk.)] 448 I Poziom złożoności Mechanizm kontroli został zaprojektowany po to, aby można było wykryć wszystkie czynniki, które wpływają zakłócająco na trafność analizowanego związku między dwiema zmiennymi. Badacze najprawdopodobniej wybiorą wówczas inne zmienne niezależne i powtórzą proces sprawdzania trafności analizowanego związku. Jeżeli jednak badany związek nie jest związkiem pozornym, to można zastosować bardziej złożoną analizę i bardziej skomplikować badaną zależność. Technika rozbudowywania polega zazwyczaj na wprowadzeniu innych zmiennych, aby określić sposób powiązania zmiennej zależnej i zmiennych niezależnych lub określić warunki, w jakich może zachodzić związek między zmiennymi. Konkretne przykłady pomogą nam zilustrować istotę techniki rozbudowywania. W ostatnim dziesięcioleciu w naukach społecznych zwracano szczególną uwagę na wpływ wczesnego urodzenia dziecka na szanse życiowe młodocianych rodziców. Naukowcy zajmujący się tą problematyką stwierdzili, że wczesne posiadanie dzieci powoduje większe trudności ekonomiczne i kłopoty rodzinne niż posiadanie dzieci w wieku późniejszym3. Wczesne posiadanie dzieci wydaje się przyczyniać do rzucania szkoły, zwłaszcza w przypadku młodocianych matek. Z kolei niższe wykształcenie sprawia, że nastoletnie matki mają kłopoty ze znalezieniem stałej i opłacalnej pracy. Związek ten możemy schematycznie przedstawić w następujący sposób: wczesne posiadanie dzieci —» niższe wykształcenie —» niekorzystne położenie ekonomiczne. Zatem niższe wykształcenie wiąże wczesne posiadanie dzieci z niekorzystnym położeniem ekonomicznym. Jest to zmienna pośrednicząca pomiędzy zmienną niezależną (wczesne urodzenie dziecka) a zmienną zależną (niekorzystne położenie ekonomiczne). I chociaż niższe wykształcenie wpływa na niekorzystne położenie ekonomiczne wielu nastoletnich matek, życie tych kobiet bywa bardzo różne. W jednym z ostatnich badań stwierdzono na przykład, że 1/4 dzieci młodocianych rodziców przyszło na świat w rodzinach dobrze zarabiających, a około 1/4 w rodzinach zarabiających powyżej 25 000$ rocznie4. Aby wyjaśnić te różnice, badacze poddali kontroli wiele zmiennych. Jedną z tych zmiennych była rasa. Okazało się, że białe matki częściej osiągały wyższy poziom ekonomiczny w porównaniu z matkami o czarnym kolorze skóry. W tym przykładzie wyjściowy związek pomiędzy wczesnym posiadaniem dziecka a niekorzystnym położeniem ekonomicznym ujawnia się tylko w jednej podgrupie, tj. w grupie matek czarnych. Zmienna kontrolowana — rasa — pełni funkcję zmiennej warunkowej, a wzorzec takiej zależności nazywany jest interakcją, co schematycznie można przedstawić następująco: , . . czarni —> niekorzystne położenie ekonomiczne wczesne urodzenie -" ** biali —> brak niekorzystnego położenia ekonomicznego 3 Frank F. Furstenberg, Jr., J. Brooks-Gunn, S. Philip Morgan (1987), Adolescent Mothers in Later Life, Cambridge: Cambridge University Press. 4 Ibidem, s. 48. 449 Poniżej przedstawimy przykład empiryczny sytuacji, w której występuje zmienna pośrednicząca oraz interakcja. Zmienna pośrednicząca Wróćmy do pierwszego przypadku, w którym zmienna kontrolowana pośredniczy pomiędzy zmienną niezależną i zmienną zależną. Tabela 17.6 zawiera dane dotyczące wczesnego posiadania dzieci i statusu ekonomicznego. Analizując te dane. widać, że obie zmienne są ze sobą powiązane: wczesne posiadanie dzieci pociąga za sobą niekorzystne położenie ekonomiczne. Zdaniem badaczy prawidłowość te można wyjaśnić, wprowadzając trzecią zmienną, tj. osiągnięte wykształcenie. Innymi słowy, wczesne posiadanie dzieci wpływa pośrednio na status ekonomiczny poprzez poziom wykształcenia. Młode matki bowiem wcześniej rzucają szkołę w porównaniu z nastolatkami nie będącymi matkami. Tabela 17.6. Urodzenie dziecka a status ekonomiczny (dane hipotetyczne) Wczesne urodzenie dziecka _ ,, Status ekonomiczny ---------¦----------------------:---------- Ogółem tak nie Niski 54% 33% (869) (653) (1522) Wysoki 46% 67% (731) (1347) (2078) Ogółem 100% 100% 100% (1600) (2000) (3600) Aby sprawdzić tę hipotezę, badacze wprowadzili grupy o stałym poziomie kształcenia i ponownie przeanalizowali badany związek. Jeżeli, jak sugerowali, we ne posiadanie dzieci ma jedynie pośredni wpływ na status ekonomiczny, to kontrolując zmienną pośredniczącą, powinniśmy otrzymać wynik w postaci braku związku pomiędzy wczesnym posiadaniem dzieci a statusem ekonomicznym. Dane przedstawione w tabeli 17.7 potwierdzają tę hipotezę: nie ma różnic statusu ekonomicznego pomiędzy matkami i niematkami, gdy ich poziom wykształcenia jest taki sam. Wyjściowy związek pomiędzy zmiennymi znika, gdy zmienną kontrolowaną jest wykształcenie. Aby sprawdzić, czy zmienna kontrolowana wiąże zmienną niezależną i zmienną zależną, musimy wykazać, że zmienna ta jest powiązana zarówno ze zmienną niezależną, jak i ze zmienną zależną i że po wprowadzeniu zmiennej kontrolowanej wyjściowy związek między zmiennymi znika (lub zdecydowanie słabnie) we wszystkich kategoriach kontrolowanej zmiennej. Czytelnik może zauważyć, że identyczne warunki musiały zostać spełnione, aby można było uznać dany związek za związek pozorny, i rzeczywiście jest to prawda. Stosowane w obu przypadkach testy statystyczne są identyczne, ale interpretacja jest różna. W wypadku związku pozornego wyniki testu statystycznego stanowią podstawę do odrzucenia hipotezy o związku pomiędzy zmienną niezależną i zmienną zależną, a w wypadku zmiennej pośredniczącej — odwrotnie — są podstawą wyjaśnienia takiego związku. W jaki sposób zatem możemy te dwie sytuacje od siebie odróżnić? 450 Tabela 17.7. Urodzenie dziecka i status ekonomiczny a uzyskane wykształcenie (dane hipotetyczne) Wysoki poziom wykształcenia Niski poziom wykształcenia Status ekonomiczny wczesne urodzenie dziecka______wczesne urodzenie dziecka Ogółem tak nie tak nie Niski 18% 18% 64% 65% (90) (216) (704) (512) (1522) Wysoki 82% 82% 36% 36% (410) (984) (396) (288) (2078) Ogółem 100% 100% 100% 100% (500) (1200) (1100) (800) (3600) Morris Rosenberg twierdzi, że różnica ta ma charakter raczej teoretyczny, a nie statystyczny, i że jej istota leży w zakładanym związku przyczynowym pomiędzy zmiennymi5. Interpretując dany związek jako związek pozorny, zakładamy, że pomiędzy zmienną niezależną i zmienną zależną nie zachodzi związek przyczynowy. Natomiast myśląc o zmiennej pośredniczącej, przyjmujemy, że zmienna niezależna i zmienna zależna są ze sobą pośrednio powiązane właśnie za pomocą zmiennej pośredniczącej, czyli zmiennej kontrolowanej. Interakcja Drugi sposób rozbudowywania związku, czyli interakcja, polega na określaniu warunków niezbędnych do zaistnienia związku. Zilustrujemy znaczenie interakcji, wykorzystując przykład wczesnego posiadania dzieci, statusu ekonomicznego i rasy. Związek pomiędzy wczesnym posiadaniem dzieci a statusem ekonomicznym można oszacować na podstawie danych zawartych w tabeli 17.6. Jak widzimy, zmienne te są ze sobą powiązane. Aby dowiedzieć się czegoś więcej o tym związku, możemy kontrolować rasę. Odpowiednie dane zostały przedstawione w tabeli 17.8. Tabela 17.8. Urodzenie dziecka i status ekonomiczny a rasa (dane hipotetyczne) Murzyni Biali Status ekonomiczny wczesne urodzenie dziecka wczesne urodzenie dziecka Ogółem tak nie tak nie Niski 66% 31% 36% 38% (594) (372) (252) (304) (1522) Wysoki 34% 69% 64% 62% (306) (828) (448) (496) (2078) Ogółem 100% 100% 100% 100% (900) (1200) (700) (800) (3600) Rosenberg, Logic of Suryey Analysis, s. 54-66. 451 wisko interakcji, jako że związek pomiędzy wczes- sem ekonomicznym jest inny w wypadku kobiet bia- adanie dzieci przez kobiety czarne wywiera istotny :zny (66% młodocianych matek miało niski status dynie 31 % ich rówieśniczek, które nie były matka- t białych nie ma żadnego związku pomiędzy tymi kobiet, bo ponad 1/3 (36% i 38%) to kobiety o nis- pierając się na tych wynikach, możemy wyciągnąć : dzieci i rasa to zmienne wchodzące ze sobą w in- iją wpływ na status ekonomiczny. Innymi słowy, zależną i zmienną zależną jest związkiem uwarun- nożliwych interpretacji jest przyjęcie, że wczesne :ne konsekwencje jedynie w wypadku kobiet, które ej sytuacji ekonomicznej. isany wyżej, jest związkiem powszechnie opisywa- )żna przyjąć, że zachodzi on wtedy, gdy wyjściowy wyraźniejszy w jednej kategorii zmiennej kontrol- różnice pomiędzy podgrupami odzwierciedlają na- / której każda ze zmiennych może zostać roztożo- /wiście niemal z każdym związkiem zachodzącym ąże się wiele czynników warunkowych. Ta złożo- a, że analiza interakcji jest jednym z nąjważniej- cznej. nie jako zmienna warunkowa. Herbert Hyman mazane zazwyczaj za warunki decydujące o ujaw- na zmiennymi. Podzielił je na trzy podstawowe ;ył zmienne dookreślające badany związek w ter- vania. W wielu sytuacjach zainteresowania okreś- wdziej ujawnia się siła oddziaływania zmiennej d względem swoich zainteresowań, a te z kolei zachowania się. Te same bodźce społeczne mogą udzi, a określenie różnych wzorców zachowania ^o ważne. Weźmy na przykład pod uwagę wyniki erga, dotyczące związku pomiędzy samooceną ityczne7. Nastolatki z niską samooceną, posiada- mają tendencję do unikania wyrażania swoich )senberg, biorąc pod uwagę stopień zaintereso- srdził, że związek taki zachodzi tylko dla tych Dsoby, które nie interesują się polityką, nie pro- polityczne nawet wtedy, gdy cechuje je wyższa imiennej warunkowej pomogło dookreślić wy- li. ńgn and Analysis, New York: Free Press, s. 295-311. and Concern with Public Affairs, „Public Opinion Quar- Czas i miejsce jako zmienna warunkowa. Drugą klasę czynników dookreślają-cych związek między zmiennymi stanowi czas i miejsce. Związek między dwiema zmiennymi może się różnić w zależności od czasu i miejsca, w jakich jest badany. W badaniach poświęconych polityce zazwyczaj wprowadza się „miejsce" jako zmienną kontrolowaną. Na przykład stwierdza się, że wpływ klasy społecznej, płci i rasy na sposób glosowania jest różny w różnych krajach. Czas jest również istotnym czynnikiem. Bardzo często związek zachodzący w określonym czasie przestaje się ujawniać w innym. W bardzo wielu badaniach wykazano na przykład istnienie związku pomiędzy płcią a poparciem dla kobiet pracujących w polityce. Kobiety częściej niż mężczyźni odrzucają stereotypowy pogląd, że „polityka jest dla mężczyzn"8. W licznych badaniach porównawczych, w których badano wpływ płci na postawy wobec kobiet w polityce w różnym czasie przyjęto hipotezę, że wraz z upływem czasu różnice między płciami będą coraz mniejsze, albowiem w polityce zaczęło się pojawiać coraz więcej kobiet. Innego przykładu dostarczają badania poświęcone problemowi rozwoju i socjalizacji. Wiadomo na przykład, że rodzina wpływa na sposób zachowania się dzieci. Ujawnia się to mocniej na wczesnych etapach rozwoju, kiedy dziecko jest silniej związane ze swoją rodziną. W późniejszych etapach rozwoju zaczynają odgrywać rolę inne aspekty socjalizacji i wpływ rodziny zaczyna maleć. Zatem związek pomiędzy rodziną a zachowaniem dzieci nie będzie związkiem stałym, jeżeli będzie badany w różnym czasie. Sposoby rozbudowywania związku między zmiennymi ¦ Zmienne pośredniczące. Są to zmienne wiążące zmienną niezależną i zmienną zależną, a także wyjaśniające związek między nimi. Aby można było stwierdzić, że dana zmienna wiąże ze sobą zmienną niezależną i zmienną zależną, trzeba wykazać, że zmienna kontrolowana jest powiązana zarówno ze zmienną niezależną, jak i zależną. Należy również wykazać, że gdy kontrolujemy daną zmienną, wyjściowy związek między zmiennymi istotnie się zmniejsza lub całkowicie zanika. ¦ Interakcja. Aby wykazać interakcję, trzeba określić warunki konieczne do ujawnienia się związku. Można przyjąć, że dany związek jest związkiem warunkowym zawsze wtedy, gdy siła związku między dwiema wyjściowymi zmiennymi ujawnia się wyraźniej w jednej kategorii zmiennej kontrolowanej niż w innej. Zmienne demograficzne jako zmienne warunkowe. Ostatnią klasę czynników stanowią zmienne demograficzne. Bardzo często badany związek pomiędzy zmiennymi jest inny dla osób lub grup różniących się w zakresie różnych zmiennych demograficznych. I tak związek pomiędzy klasą społeczną a sposobem głosowania jest różny dla mężczyzn i kobiet, a wpływ pozytywnych ocen nauczyciela na samo- 8 Dianę Gillespie, Cassie Spohn (1990), Adolescents Attitudes toward Women in Politics: A Fol-low-up Study, „Women and Politics", 10, s. 1-16. 453 ocenę jest różny dla dzieci białych i czarnych. Zmienne demograficzne są prawdopodobnie jedną z najbardziej powszechnych kategorii zmiennych warunkowych w naukach społecznych. Niektórzy badacze uwzględniają takie zmienne kontrolowane jak: i „klasa społeczna", „poziom wykształcenia", „płeć" czy „wiek" niemal automatycznie, I gdy ponownie badają analizowany przez siebie związek między zmiennymi. Korelacja czgstkowa jako forma kontroli Kontrolowanie poprzez budowanie tabel wielodzielczych jest popularną metoda, w badaniach empirycznych i można ją stosować na wszystkich poziomach pomiaru. Technika ta ma jednak swoje ograniczenia, gdy liczba zbadanych przypadków jest stosunkowo niewielka. Aby można było zastosować technikę tabel wielodziel- I czych, należy — zgodnie z liczbą kategorii kontrolowanego czynnika — podzielić badaną grupę na mniejsze podgrupy. Dzielenie grupy na podgrupy prowadzi do I zmniejszenia liczby przypadków, dla których oblicza się współczynnik korelacji. Zbyt mała próba z kolei sprawia, że trafność i rzetelność otrzymanych wniosków staje się wątpliwa. Problem ten nabiera szczególnego znaczenia, gdy kontrolujemy jednocześnie wiele zmiennych. Drugą metodą kontroli, która nie jest ograniczana liczbą przypadków, jest metoda korelacji cząstkowej. Metoda ta — matematyczne korygowanie korelacji dwóch zmiennych — została zaprojektowana po to, aby wyeliminować wpływ zmiennej kon- i trałowanej na zmienną zależną i niezależną. U podstaw konstrukcji tej miary przyjęto te same założenia logiczne co przy tworzeniu tabel wielodzielczych. Wyjściowy zwią- j zek pomiędzy zmienną niezależną i zależną jest również analizowany w celu sprawdzenia, czy jest to związek zachodzący bezpośrednio pomiędzy zmienną niezależną i i zależną, bez względu na związek tych zmiennych z trzecią, uboczną zmienną. Wzór, na podstawie którego możemy obliczyć korelację pozorną, odwołuje się i do pewnego sposobu zapisu danych, który chcemy teraz przedstawić. Zmienna nie- i zależna jest oznaczana jako Xu zmienna zależna jako X2, a zmienna kontrolowana jako X3. Dodatkowe zmienne kontrolowane oznaczane są jako X4, X5, X6 i tak dalej. Symbol r oznacza współczynnik korelacji, a indeks dolny przy r wskazuje korelację, którą obliczamy. Na przykład r12 oznacza korelację pomiędzy zmienną niezależną (X,) i zmienną zależną (X2). Współczynnik korelacji pomiędzy zmienną kontrolowaną (X3) a zmienną niezależną i zależną oznaczymy zatem odpowiednio jako r}l i r32. i Przypuśćmy, że korelacja r,2 = 0,60 opisuje związek pomiędzy samooceną (I,) j a planami dotyczącymi dalszego kształcenia (X)- Aby sprawdzić charakter tego i związku, można wprowadzić trzecią zmienną taką, jak klasa społeczna (X,), która jest powiązana zarówno z samooceną (r31 = 0,30), jak i z planami dotyczącymi dal- , szego kształcenia (r32 = 0,40). Możemy wykorzystać metodę obliczania korelacji cząstkowej, aby otrzymać miarę siły związku pomiędzy zmiennymi po wyeliminowaniu wpływu klasy społecznej. Wzór pozwalający obliczyć korelację cząstkową ma następującą postać: rn ~ (r3l) (r32) r,2'3 = 7n^rr^' 07.D gdzie X, oznacza zmienną niezależną (w naszym przykładzie samoocenę), 454 X2 zmienną zależną (plany dotyczące dalszego kształcenia), X3 zmienną kontrolowaną (klasę społeczną). Cyfra znajdująca się po prawej stronie kropki wskazuje, którą zmienną kontrolujemy. Zatem r12 3 to korelacja pomiędzy zmienną X, a X2, gdy kontrolowana jest trzecia zmienna X3. Podobnie współczynnik korelacji cząstkowej pomiędzy X, aX3, gdy kontrolowana jest zmiennaX2, oznaczymy jako r,32. Współczynnik korelacji cząstkowej z jedną zmienną kontrolowaną to współczynnik k o r e 1 a-cj i cząstkowej pierwszego rzęduw odróżnieniu od prostego współczynnika między zmiennymi, często nazywanego współczynnikiem korelacji rzę-duzerowego. Współczynnik korelacji czątkowej przy dwóch zmiennych kontrolowanych nazywamy współczynnikiem drugiego rzędui tak dalej. Jeśli kontrolujemy jednocześnie więcej niż jedną zmienną, to dodajemy ich nazwy po prawej stronie kropki. Tak więc kontrolowanie zmiennej X3 i X4 oznaczymy jako r12 34. Możemy teraz obliczyć współczynnik korelacji cząstkowej pomiędzy samooceną a planami dotyczącymi dalszego kształcenia: 0,60 - (0,30) (0,40) 0,48 _ 0,48 _ 123 ~ aJ 1 - (0,30)2aJ 1 - (0,40)2 ~~ i| 0,7644 ~ 0,87 ~ Współczynnik korelacji cząstkowej podniesiony do kwadratu informuje nas o tym, jaka część zróżnicowania nie została wyjaśniona przez zmienną kontrolowaną, a jest wyjaśniona przez zmienną niezależną. Tak więc około 30% [(0,55)2 x 100] zróżnicowania w zakresie planów dotyczących dalszego kształcenia można — po wyeliminowaniu wpływu klasy społecznej — wyjaśnić samooceną. W odróżnieniu od metody tabel wielodzielczych współczynnik korelacji cząstkowej jest pojedynczą, całościową miarą odzwierciedlającą stopień korelacji pomiędzy dwiema zmiennymi, gdy kontrolowana jest trzecia zmienna. Współczynnik korelacji cząstkowej nie odzwierciedla zatem wariancji związku cząstkowego w różnych kategoriach zmiennej kontrolowanej. Jest to miara, która uśrednia współczynniki cząstkowe otrzymane dla różnych kategorii tej zmiennej. Ta właściwość jest główną wadą miar tego typu, ponieważ może ona przysłaniać ważne informacje. W sytuacji, w której badacz zakłada, że istnieją różnice pomiędzy współczynnikami cząstkowymi dla różnych podgrup, powinien on stosować raczej technikę budowania tabel wielodzielczych. Regresja wielokrotna jako metoda kontroli Inną metodą pozwalającą oszacować związek między dwiema zmiennymi, gdy kontrolowany jest wpływ innych zmiennych, jest regresja wielokrotna. Jest ona prostym rozszerzeniem regresji dla dwóch zmiennych, którą omówiliśmy w rozdziale 16. Równanie regresji wielokrotnej opisuje związek pomiędzy zmienną zależną z zbiorem zmiennych niezależnych: Y = a + blX\+b2X2, (17.2) gdzie Y oznacza zmienną zależną, a X, i X2 to zmienne niezależne. Wielkości bx\b2, nazywane współczynnikami regresji wielokrotnej, są współczynnikami nachylenia 455 regresji zmiennej zależnej względem odpowiedniej zmiennej niezależnej przy założeniu, że druga zmienna niezależna jest kontrolowana. I tak b, odzwierciedla wielkość zmian wartości Y pod wpływem zmian wartości X,, gdy X2 przyjmuje stalą wartość. Z kolei b2 oznacza zmiany wartości Y spowodowane zmianami wartości X2, gdy Xt przyjmuje stałą wartość. Wielkość a to punkt przecięcia linii regresji z osią Y zarówno dla zmiennej Xu jak i dla X2. Tak jak w wypadku regresji dla dwóch zmiennych, również i w odniesieniu do regresji wielokrotnej dokonuje się estymacji stałych wielkości, aby zminimalizować średni kwadrat predykcji. Estymacji tej dokonuje się, stosując kryterium najmniejszych kwadratów, które pozwala na otrzymanie linii regresji najlepiej dopasowanej do danych. Oszacowania wartości a, bx i b2 (spełnione kryterium najmniejszych kwadratów) można dokonać za pomocą poniższych wzorów: * - (2 T^f> (I") a = Y-blXl-b2X2. (17.5) Zilustrujemy sposób obliczania stałych wielkości równania regresji wielokrotnej za pomocą równań (17.3), (17.4) i (17.5) na przykładzie badania wpływu samooceny i wykształcenia na liberalizm polityczny. Przyjmijmy, że liberalizm polityczny to nasza zmienna Y, wykształcenie to Xh a samoocena to X2. Przyjmijmy też, że liberalizm mierzono na skali od 1 do 10, a samoocenę na skali od 1 do 9. Im wyższa wartość na skali, tym wyższy poziom mierzonej cechy. Wykształcenie natomiast mierzono liczbą lat nauki. Poniżej przedstawiamy hipotetyczne wartości średnie, odchylenia standardowe i współczynniki korelacji dla tych zmiennych: ryi = 0,86 (pomiędzy liberalizmem a wykształceniem), ry2 = 0,70 (pomiędzy liberalizmem a samooceną), rl2 = 0,75 (pomiędzy wykształceniem a samooceną). W naszym przykładzie bx oznacza wpływ wykształcenia na liberalizm, gdy kontrolowana jest samoocena, natomiast b2 oznacza wpływ samooceny na liberalizm, gdy kontrolowane jest wykształcenie. Podstawiając te dane do wzorów na i, i b2, otrzymamy: mOję-(0,70)(0,75) f^0J0~i0mą^ U, U l-(0,75)2 2 {2,2) 1 - (0,75)2 Współczynnik przesunięcia: a = 6,5 - (0,56)(8,9) - (0,17)(5,8) = 0,53. y=6,5 Sy = 3 Xt = 6,5 s{ - 3 X2 = 6,5 ^2 = 3 456 Mając obliczone wartości bub2i a, możemy napisać równanie regresji wielokrotnej pozwalające przewidywać liberalizm polityczny na podstawie wykształcenia i samooceny: Y = 0,53 + 0,56X, + 0,17X2. Na podstawie tego równania można dokonać prognozy średniego poziomu liberalizmu dla danego poziomu wykształcenia i samooceny. Na przykład dla osoby, która ma za sobą 10 lat nauki, a jej wynik na skali samooceny wynosi 8, przewidywany poziom liberalizmu będzie: F= 0,53+ (0,56)(10) +(0,17)(8) = 7,49. Ponieważ współczynniki b odzwierciedlają czysty efekt każdej zmiennej, więc możemy te współczynniki porównywać ze sobą, aby określić względną istotność badanych zmiennych niezależnych. Ze względu jednak na to, że każda ze zmiennych mierzona jest na skali o różnej liczbie jednostek, aby je można było porównać, należy je najpierw wystandaryzować. Wystandaryzowany współczynnik b nazywany jest wagą beta lub współczynnikiem beta i jest przedstawiany za pomocą litery j3. Współczynniki /? otrzymamy, mnożąc współczynniki b przez iloraz odchyleń standardowych zmiennej niezależnej i zmiennej zależnej. Zatem ft i (52 można obliczyć w sposób następujący: a-(*)*•¦ Mr> W naszym przykładzie zatem: js, = f^-J (0'56) = °'765' & = (t) (0,17) = °'125- W równaniu standaryzowanym wielkość a, czyli współczynnik przesunięcia, równa się zero. Dlatego ostatecznie równanie ma postać: Y = X]z+X2z. Litera z w indeksie dolnym wskazuje, że zmienne zostały wystandaryzowane. Standardyzowane równanie regresji pokazuje, że wraz ze wzrostem wykształcenia o jedno odchylenie standardowe liberalizm rośnie o 0,765 odchylenia standardowego, a wzrost samooceny o jedno odchylenie standardowe pociąga za sobą wzrost liberalizmu o 0,125 odchylenia standardowego. Jedną z podstawowych korzyści wynikających z posługiwania się standardowym równaniem regresji jest przekształcanie zmiennych na jednolitą skalę i możliwość bezpośredniego porównywania względnej siły oddziaływania wykształcenia i samooceny na liberalizm polityczny. Widać wyraźnie, że wykształcenie wpływa znacznie mocniej na liberalizm (0,765) w porównaniu z samooceną (0,125). 457 Trzy metody kontroli statystycznej ¦ Tabele wielodzielcze. Jeśli posługujemy się tabelami wielodzielczymi jako metodami kontroli, to musimy podzielić badaną próbę na podgrupy zgodnie z liczbą kategorii zmiennej kontrolowanej i ponownie oszacować siłę związku między dwiema zmiennymi dla każdej podgrupy. Jako zmienne kontrolowane należy wybrać jedynie te zmienne, które są powiązane z badaną zmienną zależną i niezależną. Otrzymane w rezultacie podziału cząstkowe tabele analizuje się po to, aby sprawdzić, czy związek między zmiennymi jest związkiem pozornym, zachodzącym bezpośrednio między badanymi zmiennymi, czy jest uwarunkowany zmienną pośredniczącą, czy być może jest wynikiem interakcji. Budowanie tabel wielodzielczych pozwala na dookreślenie badanego związku pomiędzy zmiennymi nominalnymi, porządkowymi, a także interwałowymi. ¦ Korelacja cząstkowa. Metodę korelacji cząstkowej można stosować tylko dla danych interwałowych. Korelację cząstkową oblicza się po to, aby matematycznie skorygować związek między dwiema zmiennymi w celu wyeliminowania efektu oddziaływania zmiennej kontrolowanej na zmienną niezależną i zmienną zależną oraz po to, by otrzymany wynik odzwierciedlał jedynie bezpośrednie powiązanie między zmienną niezależną a zależną. Współczynnik korelacji cząstkowej z jedną zmienną kontrolowaną nazywany jest współczynnikiem korelacji cząstkowej pierwszego rzędu, z dwiema zmiennymi kontrolowanymi — współczynnikiem korelacji cząstkowej drugiego rzędu i tak dalej. Współczynnik korelacji cząstkowej podniesiony do kwadratu odzwierciedla proporcję wariancji nie wyjaśnioną przez zmienną kontrolowaną, lecz wyjaśnioną przez zmienną niezależną. Współczynnik korelacji cząstkowej można obliczyć, stosując wzór (17.1). ¦ Regresja wielokrotna. Równanie regresji wielokrotnej opisuje zakres związku liniowego pomiędzy zmienną zależną a zbiorem zmiennych niezależnych czy kontrolowanych. Do oszacowania tego związku stosuje się równania (17.2), (17.3), (17.4) i (17.5). Aby można było porównać względną istotność zmiennych niezależnych mierzonych na różnych skalach i/lub w różnych jednostkach, efekty oddziaływania zmiennych — czyli inaczej współczynnik b — muszą zostać wystandaryzowane. Standaryzacji dokonuje się, obliczając wagi beta czy inaczej współczynniki beta oznaczane jako (5. Tak jak współczynnik korelacji cząstkowej mierzy wpływ jednej zmiennej niezależnej na zmienną zależną przy kontrolowaniu innej zmiennej, tak współczynnik regresji wielokrotnej jest miarą wielkości zmian zmiennej zależnej, gdy zmienna niezależna zmieniła się o jednostkę, a wszystkie pozostałe zmienne uwzględnione w równaniu są kontrolowane. W rzeczywistości wagi beta i współczynniki korelacji cząstkowej można bezpośrednio porównywać. Są one zazwyczaj podobne co do wielkości i zawsze mają ten sam znak wskazujący na kierunek związku. 458 I Analiza wielozmiennowa: korelacje wielokrotne Dotąd rozważaliśmy jedynie sytuacje, w których jedna zmienna niezależna wpływała na badaną zmienną zależną. W świecie zjawisk społecznych rzadko mamy do czynienia z sytuacją, w której tylko jedna zmienna jest istotna dla wyjaśnianego zjawiska. Ze zmienną zależną bardzo często jest związanych wiele zmiennych niezależnych. Zmiany populacji na przykład można wyjaśnić za pomocą czterech zmiennych: „odsetka urodzeń", „odsetka zgonów", „wielkości imigracji" i „wielkości emigracji". Podobnie różnice w postawach wobec legalnej aborcji możemy wyjaśnić, odwołując się do różnic w „postawach religijnych", „płci" i „wieku". Tak więc zazwyczaj można wskazać wiele zmiennych niezależnych, z których każda może mieć własny wkład codo możliwości przewidywania badanej zmiennej zależnej. W typowym problemie badawczym — gdy badacz chce wyjaśnić różnice w sposobie głosowania — można wykorzystać wiele zmiennych niezależnych, na przykład „klasę społeczną, „religię", „płeć" czy „postawy polityczne". Możemy następnie sprawdzić wpływ każdej zmiennej niezależnej przy kontrolowaniu wpływu pozostałych zmiennych. Można jednak sprawdzić też łączny wpływ wszystkich zmiennych niezależnych na sposób głosowania. Technika regresji wielokrotnej jest najbardziej właściwą techniką, którą można zastosować do analizowania problemów, gdzie występują dwie lub więcej zmiennych. Przekonaliśmy się, że standaryzowane współczynniki regresji — wagi beta — umożliwiają szacowanie wpływu na zmienną zależną każdej ze zmiennych niezależnych uwzględnionej w równaniu regresji. Aby oszacować łączny wpływ wszystkich zmiennych niezależnych, należy obliczyć współczynnik determinacji^?2. Podobnie jak w równaniu regresji dla dwóch zmiennych, tak i w równaniu regresji wielokrotnej, trzeba oszacować, jak dobrze równanie regresji jest dopasowane do rzeczywistych danych. W prostym równaniu regresji stopień dopasowania (i-naczej zmniejszenie błędu) mierzyliśmy, obliczając wielkość r2, którą definiowaliśmy jako stosunek wariancji wyjaśnionej do całkowitej wariancji zmiennej zależnej. Również wtedy, gdy predykcja oparta jest na wielu zmiennych, można wykorzystać stosunek wariancji wyjaśnionej przez kilka zmiennych do wariancji całkowitej jako podstawę oszacowania, jak zmniejszy się błąd predykcji. Miara ta, R2, pokazuje, jaki jest procent wariancji wyjaśnionej przez wszystkie zmienne niezależne uwzględnione w równaniu regresji. Pierwiastek kwadratowy ze współczynnika R2 informuje o wielkości korelacji pomiędzy wszystkimi zmiennymi niezależnymi* a zmienną zależną. Jest to zatem współczynnik korelacji wielokrotnej. Współczynnik R2 dla trzech zmiennych możemy obliczyć według następującego wzoru: R\.n = -^—f , /2 y (17.6) 1 Kr\2) * Trzeba dodać, że pozostając w obrębie modelu liniowego, mówić możemy jedynie o liniowej kombinacji zmiennych niezależnych. Związek zmiennych niezależnych ze zmienną zależną jest związkiem liniowym (przyp. red. nauk.). 459 lub R2=/3irvl+/32ry2. (17.7) Aby zilustrować sposób obliczania współczynnika R2, oszacujmy, jaki procent wariancji wyjaśnionej liberalizmu politycznego (Y) można przypisać wykształceniu (Xt) i samoocenie (X2). Skorzystajmy w tym celu z danych przedstawionych wcześniej na stronach xxx i wykorzystajmy równanie (17.7): R2 = (0,765)(0,86)+ (0,125)(0,70) = 0,745. Wynik ten oznacza, że prawie 75% zmienności liberalizmu politycznego możemy przypisać łącznemu wpływowi wykształcenia i samooceny. ¦ Modele przyczynowe i analiza zmiennych Dotąd koncentrowaliśmy się na metodach kontroli pozwalających zinterpretować współczynnik korelacji otrzymany dla dwóch zmiennych. Mówiliśmy, że bezpośredni związek pomiędzy dwiema zmiennymi może być związkiem pozornym. To, czy tak jest rzeczywiście, zależy od sekwencji czasowej zmiennych i od wielkości związku cząstkowego. Zdaniem Paula Lazarsfelda dwa elementy — wielkość współczynników korelacji cząstkowej w porównaniu z wielkością wyjściowego związku między zmiennymi oraz czasowe następstwo zmiennych — to dowody pozwalające na przyjęcie hipotezy o związku przyczynowo-skutkowym pomiędzy zmiennymi: Możemy mianowicie zaproponować wyraźną definicję zależności przyczynowej pomiędzy dwiema cechami. Jeżeli między cechami X oraz Y zachodzi związek i jeśli dla wszystkich wyprzedzających zmiennych kontrolowanych zależności częściowe pomiędzy zmiennymi X i Y przyjmują wartość różną od zera, to nazwiemy ów związek zależnością przyczynową9. I chociaż na podstawie danych korelacyjnych nigdy nie da się wprost wykazać przyczynowości, wnioski o charakterze przyczynowym możemy wyciągnąć pośrednio, odwołując się do konkretnych modeli przyczynowych. Modele statystyczne pozwalające na wyprowadzanie wniosków przyczynowych to modele zakładające istnienie skończonego zbioru dobrze określonych zmiennych, w których przyjmuje się założenia o sposobie powiązania tych zmiennych i o sposobie oddziaływania zmiennych zewnętrznych na zmienne włączone do modelu10. 9 Paul F. Lazarsfeld (1959), The Algebra of Dichotomous Systems, w: Herbert Solomon (red.), Stu-dies in Items Analysis and Prediction, Stanford, Calif.: Stanford University Press, s. 146 (wyd. polskie: Paul F. Lazarsfeld (1968), Algebra systemów dychotomicznych. Zastosowania matematyki w badaniach socjologicznych, tłum. Tadeusz Pawłowski, Warszawa: PWN). 10 Herbert A. Simon (1957), Models ofMan: Social and Rational, New York: Wiley. 460 Wybrane przykłady schematów przyczynowych Jeśli analizujemy trzy zmienne X,, X2 i X3, to możemy opisać sześć hipotetycznych powiązań przyczynowych pomiędzy zmiennymi: Na powyższym schemacie powiązania przyczynowe między dwiema zmiennymi przedstawiono za pomocą pojedynczej strzałki, której grot wskazuje na efekt oddziaływania, a początek na jego przyczynę. Przyjmijmy upraszczające założenie", że nie zachodzi wzajemne przyczynowe oddziaływanie ani w formie bezpośredniej X,^± X2, ani pośredniej Co więcej, przy tym założeniu zmienna zależna nie może być przyczyną żadnej ze zmiennych występujących wcześniej w łańcuchu przyczynowym. Tak więc w modelu przyczynowym, w którym X, jest zmienną niezależną, X2 zmienną pośredniczącą, a X3 zmienną zależną, X2 nie może być przyczyną X,, a X3 nie może być przyczyną ani X2, ani X,. Przyjmując te założenia, możemy opisać podstawowe modele przedstawiające związki pomiędzy Xb X2 i X3. Niektóre z tych modeli zostały przedstawione na rycinie 17.6. Prezentowane diagramy są ilustracją związku bezpośredniego między zmiennymi, związku pośredniego oraz braku związku. Diagram 17.6a przedstawia bezpośredni efekt przyczynowy pomiędzy X! a X2 oraz X2 a X3, a także pośredni efekt przyczynowy pomiędzy X{ a X3. Funkcję zmiennej pośredniczącej pełni zmienna X2. Diagram 17.6b obrazuje bezpośredni efekt przyczynowy X, i X2 na X3 oraz brak związku pomiędzy zmiennymi Xj i X2. Aby pokazać praktyczne wykorzystanie zarysowanej wyżej idei, rozważmy przykład zachowań wyborczych i ich determinant. Zazwyczaj przyjmuje się, że na zachowania wyborcze (X4) bezpośrednio wpływają: utożsamianie się z określoną partią polityczną (X,), ocena kandydata (X2) oraz percepcja problematyki podejmowanej w kampanii wyborczej (X3). Przyjmuje się także, że ocena kandydata i problematyka podejmowana w kampanii są bezpośrednio powiązane z utożsamianiem się z określoną partią polityczną. Co więcej, utożsamianie się z określoną partią polityczną wpływa pośrednio na zachowania wyborcze poprzez ocenę kandydata " Hubert M. Blalock, Jr. (1964), Causal Inference in Nonexperimental Research, Chapel Hill: Uni-versity of North Carolina Press. 461 x, x, Ryc. 17.6. Modele powiązań pomiędzy trzema zmiennymi i percepcję problematyki podejmowanej w kampanii wyborczej. Zależności te ukazuje rycina 17.7. Ryc. 17.7. Diagram ścieżek dla zachowań wyborczych Zmienne U, V, i W nazywane są zmiennymi resztowymi. Powiązania pomiędzy nimi i każdą ze zmiennych zależnych wskazują, że wariancja zmiennych zależnych nie jest całkowicie wyjaśniana przez zmienne uzwględnione w modelu. Na przykład zmienna W odzwierciedla wariancję zachowań wyborczych nie wyjaśnioną przez utożsamianie się z określoną partią polityczną, oceną kandydata i percepcją problematyki podejmowanej w kampanii wyborczej. 462 Analiza ścieżek Analiza ścieżek jest techniką wykorzystującą zarówno dwuzmiennową, jak i wielo-zmiennową analizę regresji. Jest to metoda testowania związków przyczynowych pomiędzy zmiennymi uwzględnionymi w modelu. Składa się z trzech etapów: 1. Wyrysowanie, na podstawie teorii lub zbioru hipotez, diagramu powiązań (ścieżek). 2. Obliczenie współczynników ścieżek (bezpośredni efekt) za pomocą analizy regresji. 3. Ustalenie efektów pośrednich. Rozważania (s. 442-448) na temat zachowań wyborczych są przykładem realizacji pierwszego etapu analizy ścieżek. Teraz zatem omówimy kolejne kroki realizowane na etapie 2. Zwróćcie uwagę, że na rycinie 17.7 naniesiono współczynniki opisane jako Ptj, gdzie i oznacza zmienną zależną, aj zmienną niezależną. Współczynniki te nazywane są współczynnikami ścieżek. Na przykład P32 to współczynnik ścieżki łączącej X, z X3, gdzie X3 jest efektem oddziaływania X,. Podobnie, P4vt to współczynnik ścieżki łączącej X4 ze zmienną resztową W. Aby oszacować współczynniki ścieżek, należy najpierw napisać zbiór równań regresji reprezentujących strukturę modelu. Powinniśmy mieć tyle równań, ile jest zmiennych zależnych. Zatem dla sytuacji przedstawionej na rycinie 17.7 można napisać następujące równania: X2 = P2,X1 + P2ut/, Xi = PMX,+PivV, x4 = p4,x,+p42x2+p4Jx3+pĄww. Zauważmy, że każde równanie zawiera tyle wyrażeń, ile strzałek prowadziło do zmiennej zależnej. I tak, do X4 dochodzą cztery strzałki, z których każda reprezentuje jeden z determinujących ją czynników: X,, X2, X3 i W. Aby obliczyć współczynniki ścieżek, budujemy po prostu równania regresji każdej zmiennej zależnej względem zmiennej niezależnej. Aby obliczyć P2I, musimy zatem zbudować równanie regresji X2 względem Xu aby obliczyć P31, trzeba zbudować równanie regresji X3 względem X,, a dla P41, P42 i P43 równanie regresji X4 względem X,, X2 i X3. Współczynniki ścieżek są równe wagom beta z każdego równania. I tak: P21 =/32l, P31 =/?31, P41 =fi4l, PA2 =/?42, P43 =/?43. Współczynniki ścieżek dla reszt (P2„, P3r, P4lv) są równe pierwiastkom kwadratowym z wariancji nie wyjaśnionej analizowanej zmiennej zależnej. Dla modelu z ryciny 17.7 ścieżki reszt są następujące: P3v = ^ 1 - P3.i2, ' 4h = \ 1 — ^M.123 • Obliczając wielkość współczynnika ścieżki, otrzymujemy informację o bezpośrednim efekcie oddziaływania wszystkich zmiennych w modelu. I tak, P21 opisuje 463 Ryc. 17.8. Diagram ścieżek z zaznaczonymi współczynnikami ścieżek i ścieżkami resztowyrai dla wydatków na cele socjalne w Stanach Zjednoczonych Na podstawie: Gary L. Tompkins (1975), A Causal Model of State Welfare Eipenditures, .Journal of Polilics", 37, s. 406. bezpośredni efekt przyczynowy X, na X2, P3I bezpośredni efekt przyczynowy X, na X,, P4I bezpośredni efekt przyczynowy Xl na X4 i tak dalej. Analizując rycinę 17.7, widzimy jednak, że X, wpływa na X4 również pośrednio, poprzez X2 i X3. Aby oszacować pośredni efekt przyczynowy, należy pomnożyć współczynniki ścieżek łączące dwie zmienne poprzez zmienną pośredniczącą. Dla ryciny 17.7 pośredni efekt przyczynowy zmiennej Xt na X4 poprzez zmienną X2 wyrazimy zatem jako iloczyn P2XP42, a pośredni efekt przyczynowy zmiennej Xt na X4 poprzez zmienną X3 jako iloczyn P3lP4i. Jednym z interesujących zastosowań analizy ścieżek12 jest — stworzony przez Tompkinsa — model wydatków na cele socjalne w Stanach Zjednoczonych. Odwołując się do literatury naukowej, Gary Tompkins opracował diagram ścieżek składający się z sześciu zmiennych: industrializacji (X,), dochodów (X2), pochodzenia etnicznego (X3), rywalizacji między partiami (X4), frekwencji wyborczej (X5) oraz wydatków na cele socjalne (X6)n. Przyjmując założenie o istnieniu tylko zależności jednokierunkowych, określił piętnaście możliwych ścieżek między sześcioma zmiennymi. Na rycinie 17.8 przedstawiono również współczynniki ścieżek i współczynniki ścieżek resztowych. I chociaż model ten jest dobrym przybliżeniem empirycznie obserwowanych zależności między sześcioma zmiennymi, Tompkins opracował model prostszy, eliminując z modelu wyjściowego niskie współczynniki ścieżek (tj. takie, których wartość bezwględna była mniejsza niż 0,200). Następnie ponownie obliczył pozostałe współczynniki. Eliminując sześć słabych współczyn- 12 David Nachmias (1979), Public Policy Evaluation, New York: St. Martin's Press. 13 Gary L. Tompkins (1975), A Causal Model of State Welfare Expenditures, .Journal of Politics", 37, s. 392-416. 464 Ryc. 17.9. Zmodyfikowany diagram ścieżek z zaznaczonymi współczynnikami ścieżek i ścieżkami resztowymi dla wydatków na cele socjalne w Stanach Zjednoczonych Na podstawie: Gary L. Tompkins (1975), A Causal Model of Stale Welfare Expenditures, .Journal of Politics", 37. s. 409. ników ścieżek, Tompkins stworzył bardziej ekonomiczny i nie mniej mocny model, który pokazuje rycina 17.9. Możemy teraz określić bezpośredni i pośredni efekt przyczynowy różnych zmiennych na wydatki na cele socjalne. I tak na przykład pochodzenie etniczne (X3) ma silny bezpośredni wpływ na poziom wydatków na cele socjalne (P63 = 0,499) i stosunkowo niewielki pośredni wpływ poprzez rywalizację między partiami (PMPĄ^ = 0,102). Dochody nie wywierają żadnego bezpośredniego wpływu na wydatki na cele społeczne. Dochody natomiast mają na nie silny pośredni wpływ poprzez pochodzenie etniczne i rywalizację między partiami: (P63P32) + (PM[P42 + (PĄ3Pi2)] = (0,499 x 0,766)+0,423[0,588 + (0,243 x 0,766)] = =0,710. Podsumowanie 1. Analiza wielozmiennowa pozwala zrealizować trzy podstawowe funkcje: kontroli, interpretacji i predykcji. Kontrola statystyczna jest substytutem kontroli eksperymentalnej i można ją zrealizować poprzez budowanie tabel wielodziel-czych, obliczanie współczynników korelacji cząstkowej czy budowanie równania regresji wielokrotnej. Budując tabele wielodzielcze, badacz stara się wyrównać — ze względu na wszystkie istotne czynniki — grupy poddane oddziaływaniu zmiennej niezależnej i te, na które zmienna niezależna nie oddziałuje. Wyboru istotnych zmiennych kontrolnych dokonuje się na podstawie teorii lub informacji statystycznych. Zmienna kontrolowana musi być powiązana zarówno ze zmienną niezależną, jak i ze zmienną zależną. Jeżeli badacz posługuje się metodą obliczania współczynników korelacji cząstkowej, to statystycznie koryguje on związek między dwiema 465 zmiennymi po to, aby wyeliminować wpływ zmiennej kontrolowanej na zmienną zależną i zmienną niezależną. Równanie regresji wielokrotnej natomiast pozwala oszacować wpływ jednej zmiennej na drugą, gdy pozostałe zmienne są kontrolowane. 2. Jeżeli techniki kontroli stosujemy w odniesieniu do związku pomiędzy dwiema zmiennymi, to w ich efekcie możemy otrzymać informację o braku związku między wyjściowymi zmiennymi, bądź też zastosowanie takiej techniki niczego nie zmieni. W pierwszym wypadku wyjściowy związek między zmiennymi może być albo związkiem pozornym, albo związkiem pośrednim, w którym zmienna kontrolowana jest zmienną pośredniczącą. W drugim wypadku związek wyjściowy jes! związkiem bezpośrednio zachodzącym między zmiennymi i może być poddany dalszej analizie. W sytuacji związku pozornego wyniki testu statystycznego są podstawa. do odrzucenia hipotezy o związku pomiędzy zmienną niezależną i zmienną zależną; a w razie zmiennej pośredniczącej — odwrotnie — są podstawą wyjaśnienia, w jaki sposób zmienne są ze sobą powiązane. W drugim wypadku określamy warunki zachodzenia związku pomiędzy zmiennymi. Do warunków tych należą: zainteresowania i zaangażowanie, czas i miejsce oraz specyficzne kwalifikacje i cechy. 3. Regresja wielokrotna i analiza korelacji stanowią technikę szacowania, jaki wpływ na badaną zmienną zależną wywiera jednocześnie wiele zmiennych niezależnych. Tworząc równanie regresji, badacz ustala regułę predykcyjną określającą wielkość zmian zmiennej zależnej pod wpływem określonych zmian zmiennej niezależnej, gdy wszystkie pozostałe zmienne pozostają na stałym poziomie. Współczynnik korelacji wielokrotnej pozwala oszacować stopień dopasowania równania regresji do danych empirycznych. Natomiast R2, kwadrat współczynnika korelacji, pozwala ocenić procent wariancji zmiennej zależnej, która została wyjaśniona przez uzwzględnione zmienne niezależne. 4. Analiza ścieżek to technika wielozmiennowa oparta na analizie regresji liniowej. Jest to technika pozwalająca na testowanie zależności przyczynowych pomiędzy zmiennymi. Badacze stosujący analizę ścieżek rysują — na podstawie teorii —diagramy, a następnie określają bezpośrednie i pośrednie efekty przyczynowe zmiennych. Podstawowe terminy analiza ścieżek 463 dobór wiązany 442 interakcja 449 korelacja cząstkowa 454 pośredni efekt przyczynowy 464 regresja wielokrotna 455 tabele cząstkowe 445 tabele wielodzielcze 442 technika rozbudowywania 449 współczynnik ścieżki 463 zmienna kontrolowana 442 zmienna pośrednicząca 449 zmienna warunkowa 449 związek pozorny 441 Pytania sprawdzające 1. W pierwszej tabeli zamieszczonej poniżej przedstawiono dane dotyczące związku pomiędzy wyznaniem religijnym a zadowoleniem z życia. W dru- 466 giej tabeli przedstawiono dane dotyczące związku pomiędzy wyznaniem religijnym a zadowoleniem z życia, gdy trzecia zmienna przyjmuje stałą wartość. a. Zbadaj — porównując dane procentowe — związek pomiędzy zmienną niezależną a zmienną zależną w obu tabelach. b. Zdefiniuj zmienną kontrolowaną. W jaki sposób wpływa ona na wyjściowy związek pomiędzy zmiennymi? Zadowolenie z życia a wyznanie religijne Wyznanie religij ne protestanci katolicy Zadowoleni Niezadowoleni Ogółem 256 258 514 126 139 265 Zadowolenie z życia a wyznanie religijne, gdy kontrolowana jest trzecia zmienna Wykształcenie wysokie średnie niskie protestanci katolicy protestanci katolicy protestanci katolicy Zadowoleni Niezadowoleni Ogółem 89 104 193 13 20 33 116 124 240 35 59 94 51 30 81 78 60 138 2. W przedstawionej poniżej tabeli znajdują się dane dotyczące związku pomiędzy glosowaniem a klasą społeczną, gdy zmienną kontrolowaną jest pleć. a. Zbadaj i opisz (porównując dane procentowe) związek pomiędzy zmienną zależną i niezależną w kolejnych tabelach cząstkowych. b. Zrekonstruuj tabelę dla dwóch zmiennych, na podstawie której będzie można ocenić związek pomiędzy płcią a klasą społeczną. c. Zrekonstruuj tabelę dla dwóch zmiennych, na podstawie której będzie można ocenić związek pomiędzy płcią a głosowaniem. d. Zrekonstruuj tabelę dla dwóch zmiennych, na podstawie której będzie można ocenić związek pomiędzy głosowaniem a klasą społeczną. Glosowanie a klasa społeczna, gdy zmienną kontrolną jest płeć Mężczyźni Kobiety klasa wyższa klasa niższa ogółem klasa wyższa klasa niższa ogółem Głos na demokratów Głos na republikanów Ogółem 55 545 600 45 355 400 100 900 1000 115 285 400 285 615 900 400 900 1300 467 3. Korzystając z danych przedstawionych w zadaniu 6 w rozdziale 16: a. Oblicz współczynnik korelacji cząstkowej pomiędzy bezrobociem a stabilnością polityczną, gdy zmienną kontrolowaną jest rozwój ekonomiczny. b. Oblicz współczynnik korelacji cząstkowej pomiędzy bezrobociem a rozwojem ekonomicznym, gdy zmienną kontrolowaną jest stabilność polityczna. c. Utwórz równanie regresji wielokrotnej, w którym zmiennymi niezależnymi będzie stabilność polityczna i poziom rozwoju ekonomicznego, a bezrobocie będzie zmienną zależną. Oszacuj — porównując wagi beta — względny wpływ każdej ze zmiennych niezależnych. d. Jaki procent wariancji bezrobocia wyjaśniają obie zmienne? ¦ Ćwiczenia komputerowe 1. Wykorzystując plik GSS lub inny zbiór danych, skonstruuj tabelę wielo-dzielczą, posługując się trzecią zmienną jako zmienną kontrolowaną. Czy po wprowadzeniu zmiennej kontrolowanej wyjściowy związek pomiędzy zmiennymi uległ zmianie? Jeżeli tak, to w jaki sposób? (por. dodatek A, s. 534). 2. Wybierając z pliku zmienne interwałowe, uruchom opcję PARTIAL CORR, sprawdź, jaką otrzymałeś korelację i zinterpretuj wynik. Czy otrzymałeś dowody przemawiające za istnieniem związku pozornego? Dlaczego tak lub dlaczego nie? (por. dodatek A, s. 539). 3. Zdefiniuj zmienną zależną mierzoną na poziomie interwałowym, której wariancję chciałbyć wyjaśnić. Określ przynajmniej trzy inne zmienne interwałowe, które będą zmiennymi niezależnymi. Uruchom opcję REGRESSION. Zinterpretuj wpływ każdej zmiennej niezależnej na wartość zmiennej zależnej (por. dodatek A, s. 545). ¦ Literatura dodatkowa Brzeziński J. (1997), Metodologia badań psychologicznych, wyd. 2, Warszawa: Wyd. Nauk. PWN. Domański H. (1996), Analiza zależności między zmiennymi kategorialnymi. Przykłady zastosowania programu GUM, „ASK", 2, s. 103-130. Gaul M., Machowski A. (1987), Elementy analizy ścieżek, w: J. Brzeziński (red.), Wielozmiennowe modele statystyczne w badaniach psychologicznych, Warszawa-Poznań: PWN. Heise D.R. (1986), Problemy analizy ścieżkowej i wnioskowań przyczynowych, w: A. Sułek (red.). Metody analizy socjologicznej. Wybór tekstów. Warszawa: Wyd. UW. Lissowski G. (1985), Zastosowanie modeli logarytmiczno-liniowych do analizy związków między wieloma zmiennymi jakościowymi, w: E. Paszkiewicz (red.), Materiały do nauczania psychologii, seria III, t. 4, Warszawa: PWN. Rosenberg M. (1979), Logika analizy sondażowej (streścił A. Sułek), w: A. Sułek (red.), Logika analiz) socjologicznej. Wybór tekstów, Warszawa: Wyd. UW. Winter de Adrian (1981), Zmienne kontrolne (faktory testujące) w badaniach socjologicznych, Lublin: Wyd. RW KUL. Rozdział 18 Konstruowanie indeksu i metody skalowania Konstruowanie indeksu 471 Definiowanie celu tworzenia indeksu 472 Dobór i zbieranie danych 472 Wybór podstawy porównania 472 Metody agregacji i ważenia 474 Konstruowanie indeksu: przykład 476 Wskaźniki postaw 477 Metody skalowania 479 Skala Likerta 479 Inne miary złożone 481 Skalowanie guttmanowskie 482 Wykorzystanie skali Guttmana: przykład 484 Analiza czynnikowa 485 Podsumowanie 487 Podstawowe terminy 488 Pytania sprawdzające 488 Ćwiczenia komputerowe 489 Literatura dodatkowa 489 Jacy jesteśmy? Osoby, które chciałyby odpowiedzieć na to pytanie, odwołują się zazwyczaj do „barometrów" społecznych takich jak Consumer Price Index. który podaje wzrosty i spadki inflacji, czy FBI Uniform Crime Raport, który jest miarą społecznego porządku. Grupa badaczy społecznych, skoncentrowana wokół Fordham Institute for Innovation in Social Policy, mającego swoją siedzibę w Tarrytown w stanie Nowy Jork, zaproponowała sposób pomiaru stopnia, w jakim społeczeństwo radzi sobie z problemami społecznymi. Index of Social Health pozwala na ocenę postępu w rozwiązywaniu problemów społecznych. Badacze prześledzili zmiany szesnastu wskaźników społeczno-ekonomicznych, w tym samobójstwa nastolatków, porzucanie przez nich szkoły średniej oraz wydatki na ochronę zdrowia ludzi starszych. Na podstawie tych danych obliczyli jeden wskaźnik mieszczący się w zakresie od Odo 100. Im wyższa wartość wskaźnika, tym zdrowsze było badane społeczeństwo. W przedstawionym przez nich w roku 1992 raporcie, dziewięć na szesnaście badanych wskaźników nie zmieniło się w ogóle lub ich wartość spadła. Wzrost wartości pozostałych siedmiu wystarczył, aby wartość całego indeksu wzrosła, co oznacza, że całościowo traktowane zdrowie społeczne poprawia się. Marc L. Miringoff — dyrektor instytutu i autor raportu — stwierdził, że indeks ten często rośnie w roku wyborów prezydenckich, co może być reakcją na zwiększone nakłady na cele społeczne w tym okresie1. Sposób konstruowania takich indeksów oraz próba odpowiedzi na pytanie, po co są one potrzebne, to problematyka tego rozdziału. W rozdziale 7 zdefiniowaliśmy pomiar jako procedurę przyporządkowywania — zgodnie z określonymi regułami — symboli lub liczb własnościom empirycznym. Omówiliśmy również strukturę pomiaru, ideę izomorfizmu oraz techniki szacowania trafności i rzetelności. W tym rozdziale przedstawimy natomiast bardziej zaawansowane techniki konstruowania indeksu i skalowania. Rozpoczniemy od logiki procesu tworzenia indeksu i przedstawimy kilka technik jego konstruowania. Następnie omówimy technikę skalowania Likerta, pozwalającą na dokonywanie pomiaru postaw na poziomie porządkowym i internatowym. Dalej zilustrujemy technikę skalowania Guttmana (analizę skalogramu) jako inną metodę skalowania. Technika Guttmana może być stosowana dla danych nominalnych i porządkowych. Indeksy i skale to instrumenty pomiarowe. Tworzy się je w celu rzetelniejszego odzwierciedlania złożoności ludzkiego zachowania. Pojęcia takie, jak: władza, równość, wolność, inteligencja czy biurokracja są szczególnie trudne do zmierzenia, ponieważ — między innymi — same składają się z kilku własności empirycznych. Indeksy i skale to środki mierzenia złożonych zjawisk społecznych. Indeksy i skale to na ogół miary złożone, konstruowane przez złożenie dwóch lub więcej zmiennych — wskaźników. Zmienne te nazywa się pozycjami (składowymi). Status społeczno-ekonomiczny na przykład jest globalnym indeksem zbudowanym na trzech zmiennych: dochodach, wykształceniu i zawodzie. 1 Social Health is Improving. A Study Says, „New York Times", 24 October 1994, s. A15. 470 W naukach społecznych posługujemy się skalami i indeksami z kilku powodów. Po pierwsze, pozwalają one na przedstawianie kilku zmiennych za pomocą jednego wyniku, co ułatwia analizowanie danych złożonych. Po drugie, skale i indeksy dostarczają miar ilościowych nadających się do precyzyjnej obróbki statystycznej. I wreszcie, indeksy i skale zwiększają rzetelność pomiaru. Wynik otrzymany na skali lub wartość indeksu są traktowane jako bardziej rzetelne wskaźniki mierzonej własności niż miara oparta na odpowiedzi na pojedyncze pytanie czy na reakcji na pojedyncze twierdzenie. Dobrym przykładem są tu stopnie z egzaminu. Mało który student chciałby, aby jego ocena egzaminacyjna wynikała jedynie z odpowiedzi na jedno pytanie w teście z wielokrotnym wyborem czy w teście z pytaniami typu prawda—fałsz. Przede wszystkim trudno sobie wyobrazić, aby cały materiał przedmiotu nauczania zmieścił się w jednym pytaniu. Po drugie, jeżeli student źle zrozumie lub się pomyli, udzielając odpowiedzi na jedno tylko pytanie, to może to być podstawą do wyciągnięcia niewłaściwych wniosków o całej jego wiedzy z danego przedmiotu. Gdyby test zawierał więcej pytań, to i ocena byłaby bardziej rzetelna. Odwołując się do tej argumentacji, możemy stwierdzić, że badacze stosują wielopozycyjne skale i indeksy, aby zwiększyć rzetelność i precyzję pomiaru. Skale różnią się od indeksów większą dokładnością. Indeksy są konstruowane przez proste złożenie wyników, natomiast przy tworzeniu skal większe znaczenie mają takie ich cechy, jak trafność i rzetelność. Co więcej, większość skal jest konstruowana zgodnie z zasadą jednowymiarowości, co oznacza, że poszczególne pozycje odzwierciedlają pojedynczy wymiar i mogą zostać umieszczone na kontinuum odnoszącym się do jednego i tylko jednego pojęcia. Jednowymiarowość jednak jest czynnikiem nie pozwalającym na realizację wielu różnych celów skalowania, a także ogranicza możliwości stosowania wielu technik. Analiza pozycji stosowana w niektórych technikach skalowania jest wykorzystywana do znajdowania pytań lub pozycji, które nie należą do określonego zbioru. Inne techniki skalowania umożliwiają porządkowanie pozycji ze względu na stopień trudności czy nasilenia. Niektóre metody skalowania pozwalają ponadto stworzyć skale inter-walowe, co usuwa ograniczenia związane z danymi nominalnymi czy porządkowymi. Zanim podejmiemy decyzję o skonstruowaniu nowej skali, należy przejrzeć literaturę przedmiotu, aby się upewnić, czy potrzebna nam skala nie jest już dostępna. ¦ Konstruowanie indeksu Łączenie dwóch lub więcej zmiennych czy wskaźników w jedną złożoną miarę nazywa się budowaniem indeksu. Indeks cen (CPI) na przykład jest złożoną miarą zmian cen detalicznych. Ceny detaliczne tworzące indeks składają się z cen ośmiu grup produktów: żywności, opłat mieszkaniowych, odzieży, transportu, opieki medycznej, kosztów utrzymania, wypoczynku oraz cen innych dóbr i usług. Około czterystu produktów i usług tworzących CPI wybrano dlatego, że uznano je za reprezentatywne dla podstawowego profilu cen w określonej grupie produktów czy usług. Należą do nich takie produkty i usługi, jak: ryż, benzyna, fryzjer, męskie rękawice robocze, wełniane kostiumy kobiece, czynsz czy kredyty. Ministerstwo Handlu zebrało dane dotyczące cen tych produktów i usług w pięćdziesięciu ośrodkach miejskich. Ośrodki te tak dobrano, by reprezentowały charakterystyczne cechy 471 miast — na przykład wielkość miasta, klimat, stopień zaludnienia i poziom dochodów — które wpływają na strukturę wydawania pieniędzy przez rodziny. W każdym mieście w sklepach, w których robotnicy dokonywali zakupów dóbr i usług, sporządzono spis cen. Następnie dla każdego produktu lub usługi łączono informacje o cenach zebrane z różnych źródeł, aby obliczyć przeciętną cenę dla danego miasta. Ministerstwo Handlu przygotowuje taki indeks cen zarówno dla całego kraju, jak i dla pięciu największych miast co miesiąc, a kwartalnie także dla innych miast2. Procedura konstruowania indeksu obejmuje cztery podstawowe problemy: zdefiniowanie celu tworzenia indeksu, dobór źródeł danych, wybór podstawy porównywania oraz wybór metody agregowania i ważenia danych. Definiowanie celu tworzenia indeksu W procesie konstruowania indeksu zasadnicze znaczenie mają odpowiedzi na dwa pytania: Co zamierzamy mierzyć? i W jaki sposób chcemy wykorzystywać otrzymane miary? Logicznie rzecz biorąc, jeżeli A jest indeksem X, to A pozostaje tylko jednym z kilku możliwych indeksów X. Oznacza to, że potrzebujemy jakiegoś dowodu świadczącego o tym, że wartość A odzwierciedla wartość X precyzyjniej i trafniej w porównaniu z innymi indeksami. Bardzo często X to szerokie pojęcia, takie jak pomoc społeczna czy udział w życiu politycznym. Pojęcia te opisują złożone zjawiska, które różnie można interpretować. Zatem żaden pojedynczy wskaźnik nie obejmie wszystkich wymiarów pojęcia i trzeba by stosować wiele różnych wskaźników. Każdy wskaźnik natomiast pozwala na realizację konkretnego celu, a cel ten powinien zostać wyeksplikowany przed zbudowaniem indeksu. Dobór i zbieranie danych Tworząc indeks, badacze mogą stosować bezpośrednie lub pośrednie (albo obie łącznie) metody zbierania danych. Decydując się, które ze źródeł danych chcemy wykorzystać, należy pamiętać, jakiemu celowi ma służyć indeks i zastosowany plan badawczy. Zawsze jednak badacz musi się upewnić, czy zebrane dane dokładnie odpowiadają mierzonemu zjawisku. Decyzja ta wymaga uwzględnienia problemów trafności i rzetelności, które omówiliśmy w rozdziale 7. Wybór podstawy porównania Aby można było dokonywać porównań, indeksy najczęściej wyraża się w postaci proporcji, procentu lub stosunku dwóch wartości. Każda z tych miar może być obliczona na podstawie albo aktualnych danych (bezpośrednich lub pośrednich), albo danych pochodzących z innych lat. Otrzymane miary tworzą numeryczną podstawę porównywania liczb, których nie można bezpośrednio porównać. I tak, proporcję definiujemy jako stosunek liczby obserwacji w danej kategorii (/j) do ogólnej liczby obserwacji (TV), czyli fJfjN. Wartości proporcji mieszczą się w przedziale od 0 do 1. Jeśli pomnożymy proporcje przez 100, to przekształcimy je w procenty (fi/fiNx 100). Procenty — z definicji — mieszczą się w przedziale 2 Przykład ten oparto na danych U.S. Bureau of Labor Statistics, (1964), The Consumer Price In-dex: A Short Description ofthe Index as Revised, Washington, D.C.: U.S. Government Printing Office; a także na pracy Williama H. Wallace'a (1970), Measuring Price Changes: A Study of Price Indexes, Richmond, Va: Federal Reserve Bank of Richmond. 472 od0do 100. Z kolei stosunki to ułamki wyrażające względną wielkość dwóch liczebności. Aby obliczyć stosunek dwóch liczebności, należy pierwszą liczebność podzielić przez drugą. Na przykład, jeżeli badana grupa składa się z 500 kobiet i 250 mężczyzn, to stosunek kobiet do mężczyzn w tej grupie równa się 2/1 (500/250). Tabela 18.1 ilustruje sposób wykorzystania tych miar. W tabeli podano — na podstawie danych pochodzących ze źródeł oficjalnych — liczebności, proporcje i procenty dla wybranych przestępstw popełnionych na terenie New Jersey3. Jednym ze źródeł danych były informacje na temat przestępczości w New Jersey (CNJ), publikowane corocznie przez Biuro Prokuratora Generalnego. Drugim źródłem danych były informacje pochodzące z rejestrów sądów municypalnych (MCD). Tabela 18.1. Wybrane przestępstwa a różne źródła informacji Wybrane przestępstwa / CNJ proporcje % / MCD proporcje % Rabunek z użyciem broni 23 0,04 4,0 0 0,00 0,0 Rabunek 17 0,03 3,0 5 0,01 1,0 Napad ze szczególnym 0krttC\MYi\>NOTl Vi Q,ttl 1,0 1 ftjjffl Q,l Napad 223 0,40 40,0 250 0,89 89,0 Włamanie 206 0,37 37,0 1 0,003 0,3 Kradzież 78 0,14 14,0 24 0,09 9,0 Ogótem 560 1,00 100,0 282 1,00 100,0 Analiza tabeli pozwala zauważyć duże dysproporcje pomiędzy danymi. Po pierwsze, są różnice w liczbie przestępstw oficjalnie podawanych przez różne źródła: liczby podane przez CNJ są większe niż liczby wynikające z rejestrów sądów municypalnych. Wynika to z faktu, że dane rejestrów sądów municypalnych to informacje posiadane przez ośrodki wyższej jurysdykcji niż CNJ. CNJ bowiem to dane policyjne, podczas gdy w rejestrach sądowych znajdują się tylko te sprawy, które rozpoznano, w których dokonano aresztowań i w których wniesiono oficjalną skargę. Pamiętając, że w przypadku wielu przestępstw nie udaje się ustalić ich sprawców, możemy oczekiwać, że wraz z wyższym poziomem jurysdykcji będziemy mieć do czynienia z coraz mniejszą liczbą oficjalnie zgłaszanych spraw. Po drugie, dane dla kategorii „rabunek" to dane budzące duże wątpliwości, ponieważ z analizy tabeli wynika, że sądy municypalne rozpoznają więcej spraw dotyczących konkretnych przestępstw, niż wiadomo o nich policji w tych miastach, w których sądy i policja mają identyczne kompetencje. Taka sytuacja wydaje się mało prawdopodobna. Przykład ten wyraźnie pokazuje, że indeks oparty na tych danych byłby bardzo mylący. 3 Przedstawione tu dane można znaleźć w pracy W. Boyda Littrella (1976), The Problem ofJuris-diction and OJficial Statistics of Crime, w: W. Boyd Littrell, Gideon Sjoberg (red.), Current Issues of Social Policy, Newbury Park, Calif.: Sagę, s. 236. 473 Zmiana podstawy. Aby porównywanie różnych indeksów lub tych samych indeksów, lecz uzyskanych w różnych latach, było sensowne, należy często zmieniać podstawę indeksu. Zmiana podstawy indeksu oznacza dokonanie konwersji danych lub ich wystandaryzowanie w taki sposób, aby można je było porównywać. Procedura ta jest często konieczna ze względów metodologicznych, ponieważ jedynie konwersja danych (przedstawienie ich w jednolity sposób) umożliwia analizowanie zmian zachodzących w badanym zjawisku. Możemy, na przykład, zmienić podstawę indeksu opracowanego w danym roku na inny rok. Jednolitość danych uzyskamy, jeśli wartości dla danego roku ustalimy na poziomie 100. Jak się później przekonamy, indeks kosztów utrzymania (Cost of Living Index) oparty jest właśnie na takiej procedurze. Ceny dla wybranego roku tworzą podstawę porównywania cen na następne pięć lub dziesięć lat. W przedstawionym niżej przykładzie (por. tabela 18.2) dokonano konwersji wartości starego indeksu opartego na danych z 1990 na wartości nowego indeksu wykorzystującego dane z 1986 roku. Zdecydowaliśmy się na to, ponieważ założyliśmy, że to, co się działo w roku 1986, może mieć znacznie poważniejszy wpływ na obserwowane zmiany, niż to, co się działo w latach późniejszych, tj. w roku 1990. Aby otrzymać wartości nowego indeksu (wartości oparte na danych z 1986 roku) dla danych z roku 1990, podzieliliśmy wyjściowe wartości liczbowe (oparte na danych z 1990 roku) przez 70, a następnie pomnożyliśmy je przez 100. Daje to (70/70) x 100= 100. Nowa wartość indeksu dla roku 1987 będzie zatem wynosić (80/70) x 100= 114,3 i tak dalej dla wszystkich wartości indeksu. Tabela 18.2. Zmiana podstawy indeksu Wartości starego indeksu Wartości nowego indeksu (1990=100) (1986=100) 100,0 114,3 85,7 135,7 142,9 164,3 171,4 168,6 150.0 Metody agregacji i ważenia Typową metodą konstruowania indeksu jest agregowanie wartości. Agregowane dane — w zależności od celu tworzenia indeksu — mogą być albo danymi surowymi, albo danymi ważonymi. Agregowanie danych surowych. Tabela 18.3 jest przykładem konstrukcji prostego, zagregowanego indeksu cen. Ceny każdego produktu (C,) w każdym danym roku zostały do siebie dodane i tak powstał indeks cen dla tego roku. Jak powiedzie- 1986 70 1987 80 1988 60 1989 95 1990 100 1991 115 1992 120 1993 118 1994 105 474 liśmy wcześniej, wygodnie jest wybrać jakiś rok jako podstawę porównań i ustalić wartość indeksu dla tego roku na 100. W naszym przykładzie wszystkie indeksy w ostatnim wierszu zostały wyrażone w procentach względem roku 1990. Dane te otrzymaliśmy, dzieląc każdą z wartości przez wartość dla roku bazowego (20,13$) i mnożąc otrzymany wynik przez 100. Symbolicznie możemy to zapisać w sposób następujący: PI = 2 p„l'2 Pox 100, (18.1) gdzie PI to indeks cen, p — cena konkretnego produktu, o — rok bazowy, względem którego dokonujemy pomiaru zmian cen, n — rok, który porównujemy z rokiem bazowym. Dla konkretnego roku (na przykład dla roku 1994, gdy podstawę porównań tworzy rok 1990) wzór ten będzie miał postać: P/90,94 = 2p94/Sp9oXlOO. (18.2) Zatem 6,10 + 7,18 + 7,90 + 6,80 PI<*<* = . ,. . .„-----—-----^X 100 '90.94 3,12 + 5,40 + 6,62 + 4,90' 27,98 20,13 xl00= 139,00. Tabela 18.3. Konstruowanie zagregowanego indeksu dla danych surowych (ceny hipotetyczne) Produkty 1990 1991 1992 1993 1994 C, $3,21 $4,14 $4,90 $5,80 $6,10 c, 5,40 5,60 5,10 6,40 7,18 c, 6,62 8,10 9,00 8,35 7,90 c4 4,90 5,40 5,10 7,25 6,80 Wartości zagregowane $20,13 $ 23,24 $24,10 $ 27,80 $ 27,98 Indeks 100,00 115,45 119,72 138,10 139,00 Agregowanie danych ważonych. Agregowanie danych surowych może zamazać wpływ poszczególnych wskaźników na wartość całego indeksu. Aby tego uniknąć, często agreguje się dane ważone. Chcąc skonstruować zagregowany indeks cen dla danych z tabeli 18.3, należy sporządzić listę liczby poszczególnych produktów, a następnie obliczyć wartość indeksu w celu sprawdzenia, co oznacza taka zagregowana miara wyrażona w aktualnych cenach. Aby obliczyć indeks, musimy pomnożyć każdą cenę jednostkową przez liczbę produktów, a otrzymane wartości dodać do siebie. Zatem PI = 2 p„ql2 p„qx 100, (18.3) gdzie ą oznacza liczbę wyprodukowanych lub zakupionych produktów. W naszym przypadku q jest mnożnikiem, czyli wagą. Procedura wykorzystywania liczby sprzedanych produktów w roku 1990 jako mnożnika została zilustrowana w tabeli 475 18.4. Ponieważ wartości globalne indeksu zmieniają się, a nie zmieniają się jego składowe, przeto obserwowane różnice możemy przypisać zmianom cen. Gdy więc agregujemy te same elementy, możemy potraktować wartość zagregowanego indeksu jako miarę zmian poziomu cen. Tabela 18.4. Konstruowanie zagregowanego indeksu ważonego a konsumpcja w roku 1990 Liczba produk ów kupion ych w roku 1990, Produkty Konsumpcja wyrażona w cenach dli danego roku 1990 1991 1992 1993 1994 c, 800 $2568 $3312 $3920 $4640 $4880 c2 300 1620 1680 1530 1920 2154 c, 450 2979 3645 4050 3758 3555 c4 600 2940 3240 3060 4350 4080 Wartość zagregowana $ 10107 $ 11 877 $ 12 560 $ 14668 S 14669 Indeks 100,0 117,5 124,3 145,1 145.1 Konstruowanie indeksu: przykład Zacznijmy od przeanalizowania prostego indeksu stworzonego w celu oceny podręczników do nauki statystyki pod kątem ich przystawalności do celów edukacyjnych4. Indeks ten, Test lęku przed podręcznikami statystyki — Statistics Textbook Anxiety Rating Test (START) — składa się z siedmiu wymiarów odpowiadających różnym cechom podręczników statystyki. Wymiary te odzwierciedlają określone braki wiedzy matematycznej studentów i odpowiadające tym brakom lęki przed studiowaniem statystyki: 1. Zawiera omówienie podstawowych operacji matematycznych. 2. Zawiera materiał dotyczący sposobu zapisu danych. 3. Zawiera odpowiedzi na pytania sprawdzające. 4. Wyjaśnia odpowiedzi na pytania sprawdzające. 5. Nie posługuje się wzorami jako definicjami. 6. Zawiera odpowiednie przykłady. 7. Odwołuje się wprost do lęku przed statystyką lub matematyką. Indeks ten skonstruowano w następujący sposób: każdy oceniany podręcznik otrzymał 1 punkt, jeżeli zostało spełnione dane kryterium, i 0 punktów, jeżeli tak nie było. Po zsumowaniu wszystkich punktów otrzymano wynik globalny, mieszczący się w przedziale od 0 do 7. Gdy za pomocą tego indeksu opisano 12 popularnych podręczników statystyki, okazało się, że wyniki mieszczą się w zakresie od 0 do 4 punktów. Innym przykładem, który chcemy omówić, jest Indeks przestępczości (Index of Delinquency) Sellina i Wolfganga. Aby ocenić zwalczanie przestępczości, politycy 4 Steven P. Schacht (1990), Statistics Textbooks: Pedagogical Tools or Impediments to Learning?, „Teaching Sociology", 18, s. 390-396. 476 potrzebują przynajmniej trzech różnych informacji: danych dotyczących nasilenia przestępczości, danych dotyczących działania systemu sądownictwa oraz danych dotyczących charakterystyk demograficznych. Jeżeli chodzi o nasilenie przestępczości, to podstawowy problem wynika stąd, że poszczególne przestępstwa różnią się zarówno rodzajem, jak i stopniem ciężkości. Niektóre przestępstwa bowiem kończą się śmiercią, inne utratą mienia, a jeszcze inne są jedynie dokuczliwe. Tradycyjnym sposobem porównywania stopnia przestępczości w jednym roku z przestępczością w innym roku było proste zliczanie liczby przestępstw z pominięciem różnic w ich charakterze. Z uwagi jednak na to, że przestępstwa są bardzo zróżnicowane i mają inny stopień ciężkości, taki indeks jest bardzo mylący. Raport policyjny wykazujący ogólny spadek lub wzrost liczby popełnianych przestępstw może zostać źle zinterpretowany, jeżeli nie weźmie się pod uwagę rodzaju popełnionych przestępstw. Na przykład niewielki spadek liczby kradzieży samochodów i duży wzrost liczby napadów z bronią w ręku będą dawać spadek nieważonego indeksu, gdyż liczba kradzieży samochodów jest zazwyczaj większa niż liczba zbrojnych napadów. W pionierskiej próbie rozwiązania tego problemu Thorsten Sellin i Marvin Wolfgang stworzyli system ważenia, prosząc trzy grupy osób (oficerów policji, sędziów sądów dla nieletnich oraz studentów college'u) o uszeregowanie 141 starannie dobranych przypadków przestępstw5. Każdy przypadek był kombinacją takich czynników, jak śmierć czy hospitalizacja ofiary, rodzaj broni, wartość skradzionego lub zniszczonego mienia, na przykład: „Przestępca dokonuje rabunku z użyciem broni", „Ofiara się broni i zostaje śmiertelnie ranna", „Przestępca siłą otwiera kasę fiskalną w sklepie i kradnie $5", „Przestępca pali marihuanę". W każdej z tych trzech grup poproszono osoby o porangowanie listy przestępstw na „skali kategorii" i na „skali ciężkości". Otrzymane rangi zostały następnie wykorzystane do stworzenia systemu ważenia. Na przykład przestępstwo o takich cechach otrzymałoby następującą liczbę punktów: Dokonano włamania do domu 1 Osoba została zamordowana 26 Współmałżonek został lekko ranny 1 Ukradziono pomiędzy $25la $2000 2 Ogółem 30 Politycy i badacze, dysponując takim indeksem, mogą dokonywać porównań zarówno w czasie, jak i w ramach różnych społeczeństw, gdyż indeks ten uwzględnia i ciężkość, i częstość popełniania określonych przestępstw. Wskaźniki postaw Aby skonstruować wskaźnik (indeks) postawy, badacze przygotowują zbiór pytań lub twierdzeń dobranych a priori. Następnie przyporządkowują arbitralne wartości liczbowe od 0 do 4 lub od 1 do 5 określonym kategoriom odpowiedzi i dodają te wartości, aby otrzymać wynik ogólny, który jest interpretowany jako wskaźnik (indeks) postawy. Weźmy dla przykładu pięć następujących twierdzeń mających mierzyć alienację: 5 Thorsten Sellin, Marvin E. Wolfgang (1964), The Measurement of Delinquency, New York: Wiley. 477 1. Czasami wydaje mi się, że inni ludzie posługują się mną. O Całkowicie się zgadzam Cd Nie zgadzam się O Zgadzam się dl Całkowicie się nie zgadzam D Nie mam zdania 2. Jesteśmy jedynie małymi trybikami w machinie życia. Q Całkowicie się zgadzam O Nie zgadzam się [J Zgadzam się CU Całkowicie się nie zgadzam O Nie mam zdania 3. Przyszłość rysuje się bardzo ponuro. Cd Całkowicie się zgadzam O Nie zgadzam się Cd Zgadzam się D Całkowicie się nie zgadzam Q Nie mam zdania 4. Coraz częściej czuję się bezradny(a) w obliczu tego, co się dzisiaj dzieje. Q Całkowicie się zgadzam CJ Nie zgadzam się Cd Zgadzam się O Całkowicie się nie zgadzam Q Nie mam zdania 5. Ludzie tacy jak ja nie mają żadnego wpływu na społeczeństwo. D Całkowicie się zgadzam O Nie zgadzam się D Zgadzam się D Całkowicie się nie zgadzam Q Nie mam zdania Załóżmy, że przyjęliśmy następujący sposób punktacji odpowiedzi: całkowicie się zgadzam = 4, zgadzam się = 3, nie mam zdania = 2, nie zgadzam się = 1, całkowicie się nie zgadzam = 0. Osoba, która całkowicie zgodziłaby się ze wszystkimi pięcioma twierdzeniami, otrzymałaby 20 punktów (wysoki stopień alienacji), a osoba, która całkowicie nie zgodziłaby się ze wszystkimi pięcioma twierdzeniami, otrzymałaby 0 punktów (całkowity brak alienacji). W rzeczywistych badaniach większość respondentów otrzymuje wyniki mieszczące się pomiędzy tymi dwoma krańcami. Badacz — biorąc pod uwagę ogólne wyniki — musi zatem opracować system klasyfikowania respondentów ze względu na stopień ich alienacji. Na przykład respondenci, którzy uzyskali wyniki w przedziale od 0 do 6, będą uważani za osoby niewyalienowane, ci, którzy uzyskali wyniki w przedziale od 7 do 13. jako przeciętnie wyalienowane, a ci, którzy uzyskali wyniki w przedziale od 14 do 20, jako osoby wysoce wyalienowane. Taki indeks jest czasem nazywany skalą arbitralną, ponieważ w zastosowanej procedurze nic nie gwarantuje, że wszystkie twierdzenia dotyczą tej samej postawy. Czy twierdzenie 3 dotyczy tego samego wymiaru alienacji co twierdzenie 5? Czy twierdzenie 4 jest podobne do pozostałych twierdzeń? Czy inny badacz, stosujący identycznie zbudowany indeks, uzyskałby takie same wyniki? Innymi słowy, czy zastosowany indeks jest rzetelny? Na pytania te odpowiemy poniżej. 478 ¦ Metody skalowania Skala Likerta Skalowanie metodą Likerta pozwala na skonstruowanie skali postaw. Konstruowanie skali Likerta składa się zazwyczaj z sześciu kroków, sporządzenie listy potencjalnych twierdzeń skali, przedstawienie tych twierdzeń losowej próbie respondentów, obliczenie ogólnego wyniku dla każdego respondenta, określenie mocy dyskryminacyjnej twierdzeń, wybór ostatecznych twierdzeń skali i obliczenie rzetelności skali. Sporządzenie listy potencjalnych twierdzeń skali. Pierwszym krokiem jest sporządzenie listy potencjalnych twierdzeń skali pokrywających szeroki zakres postawy: od skrajnie pozytywnej do skrajnie negatywnej. Dla każdego twierdzenia respondent wybiera jedną z pięciu możliwych odpowiedzi — na przykład „całkowicie się zgadzam", „zgadzam się", „nie mam zdania", „nie zgadzam się" i „całkowicie się nie zgadzam" — tworzących kontinuum. (Czasami stosuje się 3, 4, 6 lub 7 kategorii odpowiedzi. Można też zastosować inne określenia słowne, jak na przykład „prawie zawsze", „często", „czasami", „rzadko", „prawie nigdy"). W przypadku skali pięciokategorialnej odpowiedziom przyporządkowuje się następujące punkty: 1, 2, 3, 4, 5 lub 5, 4, 3, 2, 1. Punkty te wyrażają odpowiednie wagi i ich kierunek, który wyznaczony jest pozytywnym lub negatywnym odzwierciedleniem postawy przez dane twierdzenie. Wayne Kirchner, w klasycznym przykładzie zastosowania metody Likerta, stworzył 24-pozycyjną skalę postaw wobec zatrudniania ludzi starych. Przedstawione niżej cztery twierdzenia ilustrują zastosowaną technikę punktowania6. 1. Większość przedsiębiorstw niechętnie zatrudnia starszych pracowników. ] Całkowicie się zgadzam ? Nie zgadzam się ] Zgadzam się D Całkowicie się nie zgadzam D Nie mam zdania 2. Sądzę, że starsze osoby to lepsi pracownicy. D Całkowicie się zgadzam \Z\ Nie zgadzam się tZl Zgadzam się D Całkowicie się nie zgadzam Q Nie mam zdania 3. Jeżeli dwie osoby wykonują swoją pracę jednakowo dobrze, to przy-jąłbym(ęłabym) do pracy osobę starszą. ] Całkowicie się zgadzam Q Nie zgadzam się Q Zgadzam się D Całkowicie się nie zgadzam ? Nie mam zdania 6 Wayne K. Kirchner (1957), The Attitudes of Special Groups toward the Employment of Older Persons, „Journal of Gerontology", 12, s. 216-220. 479 4. Sądzę, że osoby starsze uczą się nowych metod równie dobrze jak inni pracownicy. O Całkowicie się zgadzam d Nie zgadzam się Q Zgadzam się ? Całkowicie się nie zgadzam ? Nie mam zdania Kirchner zastosował sposób punktacji polegający na przypisywaniu wyższych wartości odpowiedziom świadczącym o pozytywnej postawie (akceptacja zatrudniania starszych ludzi). Punkty te przyznawał w sposób następujący: całkowicie się zgadzam = 5, zgadzam się = 4, nie mam zdania = 3, nie zgadzam się-2, całkowicie się nie zgadzam = 1. Jeśli w skali znalazły się twierdzenia mierzące negatywną postawę (tj. twierdzenia mówiące o niechęci do zatrudniania starszych osób), to sposób punktacji powinien zostać odwrócony. Uzyskanie odpowiedzi na wszystkie twierdzenia. Drugi krok polega na poproszeniu dużej grupy respondentów, dobranych losowo z mierzonej populacji, o wskazanie swoich postaw wobec wszystkich twierdzeń, które znalazły się na liście. Obliczanie wyniku ogólnego. Na tym etapie dla każdego respondenta badacz oblicza wynik ogólny, sumując wartości poszczególnych odpowiedzi. Przypuśćmy, że osoba badana odpowiedziała „całkowicie się zgadzam" na twierdzenie 1 (5 punktów), „nie mam zdania" na twierdzenie 2 (3 punkty), „zgadzam się" na twierdzenie 3 (4 punkty) i „nie zgadzam się" na twierdzenie 4 (2 punkty). Wynik tej osoby wynosi zatem 5 + 3 + 4 + 2 = 14. Obliczanie mocy dyskryminacyjnej. Czwartym krokiem jest określenie podstaw wyboru twierdzeń do ostatecznej wersji skali. Niezależnie od zastosowanej metody celem tego etapu jest znalezienie twierdzeń pozwalających na odróżnienie osób mieszczących się wysoko na kontinuum postawy od osób, które mieszczą się nisko. Można to osiągnąć, stosując albo metodę zgodności wewnętrznej — tj. obliczając korelację każdej pozycji z ogólnym wynikiem i zostawiając te pozycje, dla których otrzymamy najwyższe współczynniki korelacji — albo analizę pozycji. Obie metody dają skalę zgodną wewnętrznie. Analiza pozycji pozwala badaczowi sprawdzić, czy wybrana przez niego pozycja umożliwia odróżnianie ludzi o wysokich wynikach (zdecydowanie pozytywna postawa) od ludzi o niskich wynikach (zdecydowanie negatywna postawa). Taka miara nazywa się mocą dyskryminacyjną pozycji. Chcąc ją obliczyć, dodajemy do siebie wyniki wszystkich pozycji dla danego respondenta i porządkujemy je, najczęściej od niskich do wysokich. Następnie porównujemy wyniki mieszczące się powyżej górnego kwar-tyla (Qt) z wynikami mieszczącymi się poniżej dolnego kwartyla (Q3) i obliczamy różnicę pomiędzy średnią wyników powyżej Qt i średnią wyników znajdujących się poniżej Q3, co przedstawiono w tabeli 18.5. Dobór pozycji skali. Wartości mocy dyskryminacyjnej oblicza się dla każdej proponowanej pozycji skali i następnie wybiera się pozycje o najwyższych wartościach 480 skali. Są to pozycje najlepiej różnicujące osoby o różnych postawach wobec badanego obiektu. Badanie rzetelności. Rzetelność skali można określić w ten sam sposób jak rzetelność innych procedur pomiarowych. Na przykład możemy zbudować wystarczająco dużo pozycji dla dwóch skal (przynajmniej 100) i podzielić je na dwa zbiory tworzące dwie skale. Następnie jako test rzetelności można zastosować metodę połówkową — por. rozdział 7. Tabela 18.5. Obliczanie mocy dyskryminacyjnej dla jednej pozycji skali Liczba osób Grupa . 12 3 4 w grupie 5 Wynik ogółem Średni wynik DP Vświ o całej populacji Stanów Zjednoczonych. W tym rozdziale opiszemy strategię testowania hipotez, koncentrując się na takich pojęciach, jak rozkład z próby, błąd I i II rodzaju oraz poziom istotności. Omówimy też kilka metod testowania hipotez dotyczących związku między zmiennymi: hipotezę dotyczącą różnic pomiędzy średnimi, współczynnik r Pearso-na, Manna-Whitneya oraz test chi-kwadrat. W rozdziale 8 wprowadziliśmy ogólną ideę wnioskowania statystycznego, która zajmuje się problemem szacowania charakterystyk populacji, gdy dostępne są jedynie dane z próby. Pokazaliśmy, że statystyki z próby mogą być dobrymi estymatorami parametrów konkretnej populacji, jednak praktycznie — ze względu na ' Wu Xu, Ann Leffler (1992), Gender and Race Effects on Occupational Prestige, Segregation and Eamings, „Gender and Society", Vol. 6, s. 376-391. 491 wahania próby — każde oszacowanie będzie się odchylać od wartości prawdziwej. I Procedura wnioskowania statystycznego pozwala nam na ocenę dokładności na-ł szych oszacowań. Wnioskowanie statystyczne jest również wykorzystywane w celu określeniw prawdopodobieństwa otrzymania konkretnych wyników z próby, gdy przyjmiemy I określone założenia dotyczące populacji. Ten rodzaj wnioskowania statystycznego I nazywany jest testowaniem hipotez. Dokonując estymacji, badacz dobiera próbę. I aby oszacować parametr populacji. Natomiast testując hipotezy, przeciwnie, naj-1 pierw przyjmuje założenia co do parametru populacyjnego, a dane z próby stanowią I test tych założeń. W przypadku estymacji próba dostarcza informacji o pojedyn- I czym parametrze populacji, takim jak średnie dochody czy wariancja wykształcę- I nia. W testowaniu hipotez badacz zazwyczaj wyprowadza wnioski o związku pomiędzy zmiennymi, na przykład związku pomiędzy wykształceniem i dochodami ! czy pomiędzy zawodem a postawami politycznymi. ¦ Strategia testowania hipotez Pierwszy krok testowania hipotez polega na sformułowaniu hipotezy w terminacli statystycznych. Omówiliśmy już, w jaki sposób wyprowadza się hipotezy z teorii oraz jak formułuje się problem badawczy w postaci hipotezy. Aby jednak przetestować hipotezę, trzeba sformułować ją w terminach, które można analizować za pomocą narzędzi statystycznych. Na przykład, jeżeli celem badania jest próba określenia, czy osoby bardziej wykształcone uzyskują wyższe dochody w porównaniu z osobami mniej wykształconymi, to hipoteza statystyczna może dotyczyć tego, że pomiędzy wykształceniem a dochodami istnieje dodatnia korelacja lub że średnie dochody w grupie osób bardziej wykształconych są wyższe niż średnie dochody w grupie osób mniej wykształconych. W obu wypadkach hipoteza statystyczna została sfomułowana w terminach statystyki opisowej (takich jak dodatnia korelacja czy różnica między średnimi). Hipoteza statystyczna zawsze dotyczy badanej populacji. Gdyby można było bezpośrednio zbadać populację, nie byłoby potrzebne żadne wnioskowanie ani źad- i na różnica pomiędzy średnimi (czy korelacja dodatnia dowolnej wielkości), by po- I twierdzić hipotezę. Jednakże dane z próby podlegają wahaniom próby, które rów- I nież mogą być przyczyną różnic między średnimi czy dodatniej wartości współczynnika korelacji. Oznacza to, że wyniki potwierdzające hipotezę możemy otrzy- i mać wtedy, kiedy hipoteza jest prawdziwa, lub wtedy, kiedy hipoteza jest fałszywa, I a otrzymane wyniki są efektem działania błędu losowego. I odwrotnie, jeżeli dane z próby odchylają się od oczekiwanej wartości populacyjnej, to owo odchylenie może oznaczać albo, że hipoteza jest fałszywa, albo że jest prawdziwa, a otrzymane wartości trzeba przypisać czynnikom losowym. W tabeli 19.1 przedstawiliśmy wszystkie cztery możliwości. Jeśli dane z próby odpowiadają lub odchylają się od naszych oczekiwań, to w każdym wypadku oznacza to, że hipoteza jest albo prawdziwa, albo fałszywa. Danych z próby nie można więc interpretować wprost — potrzebujemy reguły decyzyjnej pozwalającej — na podstawie danych z próby — odrzucić lub utrzymać hipotezę dotyczącą populacji. Procedura wnioskowania statystycznego pozwala 492 Tabela 19.1. Możliwe interpretacje wyników z próby Status hipotezy Wyniki z próby zgodnie z oczekiwaniami odchylenia od oczekiwań Prawdziwa Fałszywa wyniki potwierdzają hipotezę wyniki są efektem wahań próby wyniki są efektem wahań próby wyniki potwierdzają hipotezę określić, czy konkretne dane z próby mieszczą się w zakresie dopuszczalnego poziomu losowości. Procedura ta składa się z następujących kroków, które teraz pokrótce omówimy: 1. Sformułowanie hipotezy zerowej i hipotezy badawczej. 2. Wybór — zgodnie z hipotezą zerową — rozkładu z próby i testu statystycznego. 3. Określenie poziomu istotności a i zdefiniowanie obszaru odrzuceń. 4. Obliczenie wartości testu statystycznego i odrzucenie lub utrzymanie hipotezy zerowej. ¦ Hipoteza zerowa i hipoteza badawcza W procesie testowania hipotez bierze się pod uwagę dwie hipotezy. Pierwsza to hipoteza badawcza*, oznaczana zazwyczaj jako //,. Druga, oznaczana jako H0, jest hipotezą zerową. Hipoteza H0 jest określana przez Hu która jest naprawdę tym, czego chcemy się dowiedzieć. H0 jest antytezą H{. Przypuśćmy, że w hipotezie badawczej przyjmujemy, iż katolicy posiadają większe rodziny niż protestanci. Jeżeli średnią wielkość rodziny w grupie katolików oznaczymy jako fiu a średnią wielkość rodziny w grupie protestantów jako /z2> to hipoteza badawcza będzie miała następującą postać: //, = ju{ >ju2. Hipoteza zerowa natomiast będzie: H0 =,«, = n2- Hipotezę zerową można wyrazić na kilka sposobów. Zazwyczaj jednak formułuje się ją w postaci wyrażenia stwierdzającego brak różnic lub brak związku pomiędzy zmiennymi. Zarówno hipoteza zerowa, jak i hipoteza badawcza jest formułowana w terminach parametrów populacyjnych, a nie w terminach statystyk z próby. Hipoteza zerowa jest hipotezą, którą badacz bezpośrednio testuje. Hipoteza badawcza zostaje uznana za potwierdzoną wtedy, gdy hipoteza zerowa zostaje odrzucona jako nieprawdopodobna. Potrzeba formułowania dwóch hipotez jest wynikiem logicznej konieczności: hipoteza zerowa oparta jest na wnioskowaniu negatywnym, aby uniknąć błędu potwierdzania rezultatu. Innymi słowy, badacz powinien raczej elimino- * Jest też zwana hipotezą roboczą (przyp. red. nauk.). 493 wać hipotezę fałszywą, niż przyjmować hipotezę prawdziwą. Przypuśćmy na przykład, że teoria A prowadzi do danych empirycznych typu B. Jeżeli dane B są fał- j szywe, to możemy przyjąć, że teoria A również musi być fałszywa. Jeżeli jedni dane B są prawdziwe, to teoria A nie może jeszcze zostać przyjęta jako prawdziwa, ponieważ dane B mogą być empirycznymi konsekwencjami wielu różnych teorii, niekoniecznie teorii A. Zatem, jeżeli przyjmiemy teorię A jako prawdziwą, to popełnimy błąd potwierdzania rezultatu. Jako przykład można przytoczyć teorię samobójstw Durkheima. Jedno z jej twierdzeń (A) mówi, że indywidualiści częściej popełniają samobójstwa. Empiryczną konsekwencją (B) wyprowadzoną z tego twierdzenia jest przyjęcie, że odsetek samobójstw powinien być wyższy wśród osób samotnych niż wśród małżeństw. Jeżeli B okaże się fałszywe (tzn. jeżeli nie będzie żadnych różnic pomiędzy odsetkiem samobójstw wśród osób samotnych i wśród małżeństw), to teoria A jest fałszywa. Ale co się stanie, gdy B będzie prawdziwe? Nie możemy przyjąć teorii A jako prawdziwej — istnieje bowiem wiele wyjaśnień dla danych B, które niekoniecznie muszą być teorią A. Na przykład wyższy odsetek samobójstw wśród osób samotnych można wyjaśnić nie tyle indywidualizmem, ile raczej nadmiernym piciem alkoholu prowadzącym do depresji i samobójstw. Zatem dane B mogą świadczyć, że A! — tj. inna teoria —jest prawdziwa. Zazwyczaj wiele różnych teorii może wyjaśnić te same dane — zadanie badacza polega na wybraniu tej, która jest najbardziej wiarygodna. Wiarygodność teorii można określić jedynie poprzez eliminowanie teorii alternatywnych: Dla każdej obserwacji, która wynika z A, powiedzmy B„ można wskazać kilka alternatywnych teorii, z których wynika, że nie-Bj. Jeżeli następnie wykażemy, że zachodzi B,, to teorie alternatywne zostaną sfalsyfikowane. A to zostawia mniej alternatywnych teorii2. ¦ Rozkład z próby Mając sformułowaną hipotezę zerową, możemy ją przetestować na podstawie danych z próby. Na przykład, jeżeli zgodnie z hipotezą nie ma żadnej różnicy pomiędzy średnimi dwóch populacji (ju, = fi2), to powinniśmy wylosować próbę z każdej populacji, porównać dwie średnie z próby (X, =X2) i na podstawie próby wyciągnąć wnioski dotyczące populacji. Jednakże dane z próby obarczone są błędem próby, nie zawsze więc odzwierciedlają prawdziwą wartość w populacji. Jeżeli z populacji pobiera się próby o tej samej wielkości, to zazwyczaj każda próba daje inne wyniki. Aby określić dokładność statystyki z próby, należy porównać ją z modelem statystycznym określającym prawdopodobieństwo uzyskania takiego wyniku. Taki model statystyczny nazywa się rozkładem z próby. Rozkład statystyki z próby otrzymamy, pobierając z określonej populacji dużą liczbę prób losowych tej samej wielkości, następnie obliczymy wartość statystyki dla każdej próby i sporządzimy rozkład częstości wartości statystyki. W rozdziale 8 podaliśmy przykład takiego 2 Arthur L. Stinchcombe (1968), Constructing Social Theories, Orlando, Fla.: Harcourt BraceJo-vanovich, s. 20. 494 rozkładu: rozkład z próby średnich. Można też opracować rozkład z próby innych statystyk, na przykład wariancji (s2), odchylenia standardowego (s), różnicy pomiędzy średnimi (X, i X2) czy proporcji (p). Wróćmy jednak do przykładu teorii samobójstw Durkheima. Testowaną hipotezą jest w niej hipoteza, że odsetek samobójstw jest wyższy w grupie osób samotnych niż w populacji generalnej. Jednym ze sposobów oszacowania proporcji samobójstw wśród osób samotnych jest porównanie liczby samobójstw w tej grupie ze średnią proporcją samobójstw w całej populacji. Przypuśćmy, że z danych pochodzących z ośrodków medycznych wynika, iż odsetek samobójstw osób dorosłych w społeczeństwie wynosi 20 na 100 mieszkańców, czyli inaczej 0,20. W hipotezie badawczej zatem przyjmujemy, że odsetek samobójstw wśród ludzi samotnych jest większy od 0,20, więc H\. proporcja samobójstw wśród ludzi samotnych > 0,20. W hipotezie zerowej natomiast przyjmujemy, że odsetek samobójstw wśród ludzi samotnych wynosi tyle samo, ile wynosi średnia populacyjna: H0: proporcja samobójstw wśród ludzi samotnych = 0,20. Przypuśćmy, że pobraliśmy próbę liczącą 100 kart samotnych pacjentów ośrodków medycznych i okazało się, że ustalony przez nas odsetek samobójstw wynosi 0,30. Czy ten wynik jest istotnie wyższy niż 0,20 i czy na tej podstawie możemy odrzucić hipotezę zerową? Aby określić prawdopodobieństwo otrzymania wartości 0,30 przy założeniu hipotezy zerowej, należy porównać otrzymaną proporcję z rozkładem proporcji samobójstw dla całej populacji ludzi dorosłych. Przypuśćmy, że pobraliśmy \000 losowych prób i każda próba liczy po 100 kart dorosłych pacjentów ośrodków medycznych. Przypuśćmy też, że dla każdej próby obliczyliśmy odsetek samobójstw. W tabeli 19.2 przedstawiamy hipotetyczny rozkład z próby3. Rozkład z próby możemy wykorzystać jako model statystyczny pozwalający określić, jakie jest prawdopodobieństwo otrzymania odsetka samobójstw wynoszącego 0,30 wśród ludzi samotnych, gdyby odsetek ten był równoważny odsetkowi samobójstw w populacji generalnej. Prawdopodobieństwo otrzymania konkretnego wyniku można obliczyć, dzieląc odpowiednią częstość wynikającą z rozkładu przez całkowitą liczbę prób. W tabeli 19.2 przedstawiliśmy odpowiednie prawdopodobieństwa, jakie można otrzymać. Na przykład odsetek samobójstw wynoszący od 0,38 do 0,39 pojawił się pięć razy. Zatem prawdopodobieństwo, że w każdej próbie o n= 100 mamy taki sam odsetek samobójstw, wynosi 5/1000, czyli 0,005. Innymi słowy, spodziewamy się otrzymać taki wynik w 0,5% prób o wielkości 100 pobranych z populacji. I podobnie, prawdopodobieństwo otrzymania odsetka samobójstw między 0,30 a 0,31 wynosi 0,015, czyli 1,5%. Prawdopodobieństwo otrzymania odsetka samobójstw 0,30 lub wyższego jest równe sumie prawdopodobieństw dla przedziałów 0,30-0,31, 0,32-0,33, 0,34-0,35, 3 Taki rozkład jest często nazywany eksperymentalnym rozkładem z próby, ponieważ uzyskuje się go na podstawie danych obserwowanych. 495 0,36-0,37, 0,38-0,39 oraz 0,40 i więcej. Prawdopodobieństwo to wynosi: 0,015+1 + 0,010 + 0,010 + 0,010 + 0,005 + 0,000 = 0,050. Oczekujemy zatem, że w 5% wszystj kich 100 prób pobranych z populacji otrzymamy odsetek samobójstw równy 0,301 lub więcej. Tabela 19.2. Hipotetyczny rozkład z próby odsetka samobójstw dla wszystkich osób dorosłych dla 1000 prób losowych (n = 100) Odsetek samobójstw Liczba prób (/) Proporcja prób (p=f/n) 0,40 lub więcej 0 0,000 0,28-0,39 5 0,005 0,36-0,37 10 0,010 0,34-0,35 10 0,010 0,32-0,33 10 0,010 0,30-0,31 15 0,015 0,28-0,29 50 0,050 0,26-0,27 50 0,050 0,24-0,25 50 0,050 0,22-0,23 150 0,150 0,20-0,21 200 0,200 0,18-0,19 150 0,150 0,16-0,17 100 0,100 0,14-0,15 100 0,100 0,12-0,13 50 0,050 0,10-0,11 15 0,015 0,08-0,09 10 0,010 0,06-0,07 10 0,010 0,04-0,05 10 0,010 0,02-0,03 5 0,005 0,01 lub mniej 0 0,000 Ogółem 1000 1,000 ¦ Poziom istotności i obszar odrzuceń Kiedy skonstruowaliśmy już rozkład z próby, możemy oszacować prawdopodobieństwo otrzymania wyniku równego 0,30 (przy założeniu hipotezy zerowej). Decyzja o tym, jaki wynik jest wystarczająco mało prawdopodobny, aby uzasadnić odrzucenie hipotezy zerowej, jest raczej arbitralna. Jako podstawę odrzucenia hipotezy zerowej możemy wybrać każdy zbiór skrajnych wyników. Zakres tych wyników jest określany jako obszar odrzucenia. Suma prawdopodobieństw wyników wpadających do obszaru odrzucenia nazywana jest poziomem istotności i oznaczana jako a. Zazwyczaj poziom istotności ustala się na poziomie 0,05 lub 0,01, co oznacza, że hipotezę zerową należy odrzucić, gdy wynik z próby jest wynikiem, który można otrzymać losowo nie częściej niż w 5% lub w 1% przypadków. 496 Na rycinie 19.1 przedstawiliśmy graficznie rozkład z próby zamieszczony w tabeli 19.2 oraz obszar odrzuceń, gdy a = 0,05. Obszar odrzuceń obejmuje wszystkie odsetki samobójstw równe 0,30 i więcej. Jak się przekonaliśmy wcześniej, suma prawdopodobieństw takich wyników jest równa poziomowi istotności i wynosi 0,05. Uzyskany przez nas wynik z próby równy 0,30 wpada do obszaru odrzucenia, dlatego możemy odrzucić hipotezę zerową na poziomie istotności równym 0,05. Odrzucenie hipotezy zerowej pozwala utrzymać hipotezę badawczą, że odsetek samobójstw wśród osób samotnych jest wyższy niż w populacji generalnej ludzi dorosłych. 200 180 160 140 o 120 100 80 60 40 20 obszar odrzucenia a = 0,05 J____L J____I------1___I____I____L J____L 0,01 0,04 0,08- 0,12- 0,16- 0,20- 0,24- 0,28- 0,32- 0,36- 0,40 lub mniej 0,09 0,13 0,17 0,21 0,25 0,29 0,33 0,37 lub więcej Ryc. 19.1. Rozkład z próby odsetka samobójstw dla 1000 prób (n= 100) 497 Testy jednostronne i testy dwustronne W poprzednim przykładzie posługiwaliśmy się zbiorem skrajnych wyników znaj-1 dujących się po prawej stronie rozkładu z próby. Oczywiście skrajne wyniki mogą I się również znajdować po lewej stronie rozkładu. W tabeli 19.2 prawdopodobień- I stwo odsetka samobójstw równego 0,11 i mniej jest równe prawdopodobieństwu I otrzymania odestka samobójstw równego 0,30 i więcej. W obu wypadkach wynosi I ono 0,05. Test statystyczny może być jedno- lub dwustronny. W teście dwustronnym obszar odrzucenia znajduje się po prawej i po lewej stronie rozkładu. W teście jednostronnym skrajne wyniki pozwalające na odrzucenie hipotezy zerowej znajdują 1 się po jednej lub po drugiej stronie. Decyzja o tym, czy umieścić obszar odrzucenia I po jednej stronie czy po obu stronach rozkładu, zależy od tego, czy w hipotezie Hx założyliśmy określony kierunek przewidywanych wyników i czy dotyczy ona dużych czy małych wartości. Jeżeli hipoteza H, przewiduje duże wartości, to obszar odrzucenia zostanie umieszczony po prawej stronie rozkładu z próby (tak jak w przykładzie dotyczącym samobójstw). Natomiast jeżeli hipoteza //, przewiduje małe wartości, to jako obszar odrzuceń wybierana jest lewa strona rozkładu. Przypuśćmy na przykład, że w hipotezie badawczej założyliśmy, iż odsetek samobójstw wśród ludzi samotnych jest mniejszy niż wśród dorosłych osób z populacji generalnej. Innymi słowy: //,: odsetek samobójstw wśród ludzi samotnych < 0,20. Wyniki, które w wypadku tej hipotezy potraktujemy jako mało prawdobodob-ne, mieszczą się po lewej stronie rozkładu. Na poziomie istotności równym 0,05 obszar krytyczny będzie się składał z następujących proporcji: 0,10-0,11, 0,08-0,09, 0,06-0,07, 0,04-0,05, 0,02-0,03, 0,01 lub mniej. Suma prawdopodobieństw pojawienia się tych wyników wynosi: 0,015 + 0,010 + 0,010 + 0,010 + 0,005 + 0,000 = 0,050. Na rycinie 19.2 przedstawiamy rozkład prawo- i lewostronny. Istnieją sytuacje, w których nie potrafimy określić dokładnie kierunku hipotezy badawczej. Przypuśćmy na przykład, iż zakładamy, że odsetek samobójstw wśród osób samotnych jest inny, jednak nie potrafimy określić kierunku tej różnicy. Możemy wtedy sformułować hipotezę badawczą w sposób następujący: Hx: odsetek samobójstw wśród ludzi samotnych ^ 0,20. Jeżeli nie potrafimy dokładnie określić kierunku Hu to odrzucimy H0 zawsze wtedy, gdy otrzymamy skrajne wyniki z jednego bądź drugiego krańca rozkładu. a) test prawostronny; cc = 0,05 b) test lewostronny; a = 0,05 Ryc. 19.2. Test prawostronny i test lewostronny 498 a = 0.05 Ryc. 19.3. Test dwustronny Stosowany wówczas test statystyczny jest testem dwustronnym, a poziom istotności jest dzielony przez dwa. Zatem poziom istotności równy 0,05 będzie oznaczać, że hipoteza H0 zostanie odrzucona, gdy dane z próby znajdą się w najniższej 2,5-pro-centowej lub najwyższej 2,5-procentowej części rozkładu z próby. Możliwość taką przedstawia rycina 19.3. Wybierzmy, do przykładu dotyczącego samobójstw, poziom istotności równy 0,05 i zastosujmy test dwustronny. W obszarze krytycznym znajdą się następujące możliwe wyniki: 0,34-0,35, 0,36-0,37, 0,38-0,39 oraz 0,40 i więcej (0,010 + 0,010 + +0,005 + 0,000 = 0,025) oraz 0,06-0,07, 0,04-0,05, 0,02-0,03, 0,01 lub mniej (0,010 + + 0,010 + 0,005+0,000 = 0,025). Dla testu dwustronnego otrzymany wynik z próby równy 0,30 nie wpada do obszaru odrzucenia. Zatem hipoteza zerowa nie zostanie odrzucona. Błqd I i II rodzaju Ponieważ w procedurze statystycznego testowania hipotez nie dokonujemy bezpośredniego pomiaru całej populacji, test statystyczny nie jest wystarczającym dowodem na to, że hipoteza zerowa jest prawdziwa lub fałszywa. Jedynym dowodem jest odpowiedź na pytanie, czy dane z próby są wystarczająco prawdopodobne lub nieprawdopodobne, aby uzasadniały decyzję o przyjęciu lub odrzuceniu hipotezy zerowej. Hipoteza zerowa może być albo prawdziwa, albo fałszywa i w obu wypadkach może zostać odrzucona lub przyjęta. Jeżeli hipoteza zerowa jest prawdziwa i mimo to zostanie odrzucona, to podjęta przez nas decyzja jest błędna. Błąd tego typu — odrzucenie hipotezy prawdziwej — nazywa się błędem I rodzaju. Jeżeli hipoteza zerowa jest fałszywa, ale zostanie przyjęta, to błąd, jaki popełniamy, polega na zaakceptowaniu hipotezy fałszywej. Ten rodzaj błędu nazywa się błędem II rodzaju. Cztery możliwe sytuacje przedstawiliśmy w tabeli 19.3. Tabela 19.3. Możliwe decyzje w procesie sumowania hipotez Decyzja Hipoteza zerowa jest prawdziwa Hipoteza zerowa jest fałszywa Hipoteza odrzucona błąd I rodzaju brak błędu Hipoteza przyjęta brak błędu błąd II rodzaju 499 Prawdopodobieństwo odrzucenia hipotezy prawdziwej — błąd I rodzaju —jest definiowane jako poziom istotności. Gdyby więc badacz podejmował bardzo wiele decyzji, to przyjęcie poziomu istotności równego 0,05 oznacza błędne odrzucenie 5% testowanych hipotez (były one prawdziwe). Oczywiście, badacze są zainteresowani minimalizowaniem błędu odrzucenia hipotezy prawdziwej i mogą to uzyskać, zmniejszając poziom istotności tak bardzo, jak to możliwe. Jednakże błędy I i II rodzaju są odwrotnie skorelowane: zmniejszenie prawdopodobieństwa odrzucenia hipotezy prawdziwej prowadzi do wzrostu prawdopodobieństwa przyjęcia hipotezy fałszywej. W tych warunkach wybór wielkości a zależy od rodzaju badanego problemu oraz od konsekwencji odrzucenia hipotezy prawdziwej lub przyjęcia hipotezy fałszywej. Jeżeli na przykład badacz interesuje się skutkami eksperymentalnej metody uczenia kalekich dzieci i wyniki badania zadecydują o tym, czy metoda ta zostanie wdrożona w całym systemie oświatowym, to musi on dokładnie rozważyć konsekwencje popełnienia błędu. Przypuśćmy, że w hipotezie zerowej przyjęto, iż nowa metoda uczenia daje negatywne skutki. Jeżeli badacz odrzuci hipotezę zerową, a była ona prawdziwa, to konsekwencje tego faktu będą bardzo poważne. Setkom tysięcy kalekich dzieci zostanie wyrządzona krzywda. Jeżeli odwrotnie, nie zostanie ona odrzucona, mimo że jest fałszywa, to system szkolny mógłby odroczyć wprowadzenie nowej metody, aż nie będą dostępne dalsze dowody. A zatem korzystniejsze jest wtedy zmniejszenie wartości a, ponieważ konsekwencje odrzucenia hipotezy prawdziwej są poważniejsze niż konsekwencje przyjęcia hipotezy fałszywej. Jeżeli dane badanie nie ma konsekwencji praktycznych, to wybór wartości a będzie decyzją arbitralną, jednak zawsze będziemy się odwoływać do przyjętych konwencji. Najczęściej stosowanymi wielkościami poziomu istotności w naukach społecznych są wartości 0,001, 0,01 i 0,05. ¦ Parametryczne i nieparametryczne testy istotności Testy istotności najczęściej stosowane w naukach społecznych dzieli się na dwie grupy: testy parametryczne i testy nieparametryczne. Test parametryczny to test statystyczny oparty na wielu założeniach dotyczących parametrów populacji, z której pochodzi pobrana próba. Do najważniejszych założeń należą: założenie, że obserwacje muszą pochodzić z populacji o rozkładzie normalnym, oraz założenie, że zmienne zostały zmierzone przynajmniej na poziomie interwałowym4. Wyniki testów parametrycznych mają sens tylko wtedy, gdy te założenia zostaną spełnione. Test nieparametryczny nie wymaga ani założenia o normalności rozkładu, ani uzyskania interwałowego poziomu pomiaru. Z testami nieparametrycznymi także związane są określone założenia, jednak są one słabsze i jest ich mniej niż w wypadku testów parametrycznych. W praktyce badacze nie muszą powielać żmudnej procedury konstruowania rozkładu z próby. Często rozkład z próby został już skonstruowany przez innych 4 Sidney N. Siegel (1956), Nonparametric Statistics for łhe Behavioral Sciences, New York: McGraw-Hill, s. 2-3. 500 badaczy i jest znany. Co więcej, znane rozkłady mogą zostać wykorzystane jako przybliżenie określonych rozkładów z próby. Na przykład rozkład z próby średnich jest dobrym przybliżeniem rozkładu normalnego, dlatego można się posługiwać rozkładem normalnym, gdy testujemy hipotezy dotyczące średnich. W zamieszczonym niżej omówieniu konkretnych testów będziemy się odwoływać do istniejących rozkładów z próby, które zostały wcześniej skonstruowane, lub do tych, które są dobrym przybliżeniem potrzebnego rozkładu (rozkłady te zostały przedstawione w dodatkach od E do I). Wybrane testy parametryczne Różnica pomiędzy średnimi. Wiele hipotez stawianych w badaniach empirycznych dotyczy porównania różnych populacji. Na przykład, aby oszacować związek pomiędzy klasą społeczną a sposobem głosowania, można porównać różne klasy społeczne pod kątem właściwego dla nich wzorca głosowania. Podobnie, porównując Amerykanów pochodzenia azjatyckiego i hiszpańskiego ze względu na ich osiągnięcia, wiążemy ze sobą pochodzenie etniczne i osiągnięcia. Jeżeli badana zmienna zależna została zmierzona na skali interwałowej, to aby odzwierciedlić wielkość związku pomiędzy dwiema zmiennymi, możemy porównać ze sobą średnie (por. rozdział 16). Chcąc ocenić istotność różnicy pomiędzy średnimi, będziemy stosować test istotności różnic pomiędzy średnimi. Aby zilustrować proces testowania hipotez dotyczących istotności różnic pomiędzy średnimi, skorzystajmy z danych przedstawionych w tabeli 19.4. Dane te dotyczą wyników uzyskanych na skali postaw wobec roli płci w dwóch grupach: kobiet wyznania ewangelickiego i kobiet wyznania nieewangelickiego. Zgodnie z literaturą ewangeliczki rzadziej akceptują kobiety feministki niż nieewangelicz-ki5. Wyższy średni wynik wskazuje na bardziej feministyczną postawę wobec roli pici. To zaś pozwoliło sformułować następującą hipotezę badawczą: H^.fii >iu2, gdzie fii oznacza średni wynik w populacji kobiet nieewangeliczek, afi2 średni wynik w populacji kobiet ewangeliczek. Hipoteza zerowa będzie zatem sformułowana w postaci braku różnic pomiędzy średnimi wynikami w obu populacjach, czyli H0:fi]=fi2- Tabela 19.4. Średnie wyniki na skali postaw wobec roli płci dla kobiet ewangeliczek i dla pozostałych kobiet (dane hipotetyczne) Ewangeliczki Pozostałe n 126 101 X 3,60 6,\0 s 3,04 4,52 Analiza danych pozwala stwierdzić, że różnica pomiędzy średnimi w dwóch próbach wynosi 2,50 (6,10-3,60). Chociaż kierunek różnicy jest zgodny z oczekiwaniami, jednak musimy określić — w ramach założeń — prawdopodobieństwo 5 Clyde Wilcox, Elizabeth Adeli Cook (1989), Evangelical Women and Feminism: Some Additional Evidence, „Women and Politics", 9, s. 27-49. 501 pojawienia się hipotezy zerowej. Jeżeli — zakładając, że średnie populacyjnej identyczne — taka różnica jest mało prawdopodobna, to hipotezę zerową powinnM my odrzucić. Wybór rozkładu z prób}' do testowania różnicy pomiędzy średnimi zależyoifl wielkości próby. Jeżeli próba jest większa niż 30 (n > 30), to rozkład z próby różnił pomiędzy średnimi jest w przybliżeniu rozkładem normalnym. Możemy zatem jato I model statystyczny wykorzystać krzywą normalną (por. dodatek E). Procedurajofl podobna do tej, którą stosowaliśmy przy szacowaniu średnich z populacji (por.roł dział 8). Możemy dokonać transformacji różnic pomiędzy średnimi na wyniki sław dardowe Z i następnie — odwołując się do krzywej normalnej — określić prawtw podobieństwo jej pojawienia się. Dla testu dwustronnego, przy poziomie istotności I równym 0,05, wyrażony w wartościach Z obszar krytyczny obejmuje wszystkie doB datnie wyniki równe 1,96 i powyżej oraz wszystkie ujemne wyniki równe 1,96 i p«J niżej. Prawdopodobieństwo pojawienia się tych wyników wynosi 0,025. Dla testu I jednostronnego natomiast obszar krytyczny obejmuje wszystkie dodatnie wyniki ró-; I wne 1,64 i powyżej lub wszystkie ujemne wyniki równe —1,96 i mniej. Gdy zaś I poziom istotności wynosi 0,01, to wartości Z wynoszą odpowiednio: ±2,58 i ±2,3311 Chcąc przetestować hipotezę zerową dotyczącą różnic w postawach na tema roli płci, możemy wybrać test prawostronny, ponieważ Ht jest hipotezą kierunkową, w której przyjmuje się duże wartości. Wybrany poziom istotności wynosi 0,01, I dlatego każda wartość większa niż 2,33 będzie prowadzić do odrzucenia hipotezy I zerowej. Aby — wykorzystując krzywą normalną — określić istotność różnic pomiędzy I średnimi, musimy przekonwertować tę różnicę na wyniki standardowe. Konwersji I tej można dokonać, posługując się testem statystycznym znanym jako test t. ^(g.-lj-fr,-^ (I91J A I A 2 gdzie X, — X2 — różnica pomiędzy średnimi z próby, /z, — /n2 — średnie rozkładu I z próby różnic między średnimi, Oxx-x^ — oszacowanie błędu standardowego6 roz-1 kładu z próby różnic między średnimi. Podobnie jak wyniki Z, również wartości j testu t podają wielkość odchylenia od średniej w terminach jednostek odchylenia I standardowego; Xt — X2 zastępuje X, fi, — ju2 zastępuje X, a a zastępuje s. Nie mo- I żerny jednak obliczyć wartości Z, ponieważ wariancje dwóch populacji (o\ i o]) nie są znane. Dlatego test t zastępuje wyniki Z zawsze wtedy, gdy wariancje z próby (s\ i $§) są wykorzystywane do oszacowania parametrów populacji. Ponieważ wa- j riancje populacyjne prawie nigdy nie są dostępne, przeto — dla wszystkich celów praktycznych — wykorzystuje się statystykę t jako metodę przekształcania różnic między średnimi na wyniki Z. Kiedy n > 30, wartości statystyki t mają rozkład j normalny. Gdy więc wielkość każdej próby jest większa od 30, możemy się posługiwać rozkładem normalnym. Natomiast gdy n < 30, przybliżenie do rozkładu normalnego nie jest właściwe i powinniśmy się posługiwać statystyką t. b Błąd standardowy jest równy odchyleniu standardowemu rozkładu z próby (por. rozdziat 8. w którym omawiamy to pojęcie). 502 Błąd standardowy (ó> _*) możemy oszacować na dwa sposoby. W pierwszej metodzie przyjmuje się, że dwie wariancje populacyjne są równe — np. o\-a\ — co pozwala na połączenie dwóch wariancji z próby w jedną łączną miarę a, czy a2. Przy tych założeniach błąd standardowy * 0. Testowanie istotności r, gdyp wynosi zero. Jeśli w ramach hipotezy zerowej przy- i jmuje się, żep równa się zero, to możemy przetestować istotność statystyczną r,J dokonując transformacji wartości r na wyniki standardowe. Transformacji tejmo-j żerny dokonać za pomocą statystyki t o n-2 stopniach swobody. Test t jest definiowany w sposób następujący: ryn — 2 Aby zilustrować posługiwanie się testem t do badania istotności statystycznej współczynnika korelacji r Pearsona, załóżmy, że badając zależność pomiędzy dochodami a liczbą lat nauki, otrzymaliśmy współczynnik korelacji równy 0,30. Liczebność próby wynosiła n = 24 (df= 22), a zatem: 0,30 V 22 t= , V == 1,475. yi-0,302 Korzystając z rozkładu t przedstawionego w dodatku F, widzimy, że dla testu dwustronnego, na poziomie istotności równym 0,05 i dla df= 22, wartość t upoważniająca nas do odrzucenia hipotezy zerowej wynosi 2,074. Ponieważ otrzymana wartość t jest mniejsza od wartości z tablic, zatem nie możemy odrzucić hipotezy zerowej i związek pomiędzy dochodami a liczbą lat nauki powinniśmy uznać za nieistotny, Możemy również przetestować istotność współczynnika r, posługując się statystyką znaną jako test F. Statystyka Fjest zbudowana jako stosunek wariancji wyjaśnionej (r2) do wariancji nie wyjaśnionej (1 — r2). Jest ona zdefiniowana w postaci równania (19.6), w którym n-2 oznacza liczbę stopni swobody: F = —^(n-2). (19.6) Wykorzystując dane z przykładu dotyczącego dochodów i liczby lat nauki, otrzymamy: 0,302 Aby ocenić wartość statystyki F, posłużymy się rozkładem F przedstawionym w dodatku G. Wartości F zostały podane dla cc = 0,05 (jasny druk) i dla a=0,01 (druk pogrubiony). Stopnie swobody dla wariancji wyjaśnionej (w główce tabeli) 506 są równe liczbie porównywanych grup — 1 (w naszym przykładzie porównywaliśmy dwie grupy, dlatego liczba stopni swobody wynosi 2—1 = 1). Natomiast liczba stopni swobody dla wariancji nie wyjaśnionej równa jest n — 2 (w kolumnie po lewej stronie). W naszym przykładzie wynosi ona 24 — 2 = 22. Hipotezę H0 odrzucimy, jeśli obliczona wartość F będzie większa lub równa wartości F odczytanej z tabeli. Aby więc ocenić istotność wartości F = 2,17, wyszukujemy w tabeli wartość Podpowiadającą 1 (na górze tabeli) i 22 (kolumna po lewej Stronie) stopniom swobody. Mamy tam dwie wartości F: F = 4,30 dla a = 0,05 i F = 7,94 dla a = 0,01. Otrzymana wartość F = 2,17 zawsze jest mniejsza od wymaganej wartości F pozwalającej odrzucić H0. Należy zatem wyciągnąć wniosek, że związek pomiędzy dochodami a liczbą lat nauki jest nieistotny. Parametryczne testy istotności ¦ Podstawowe założenia obowiązujące dla testów parametrycznych. Obserwacje (dane) muszą pochodzić z populacji o rozkładzie normalnym, a badane zmienne powinny być zmierzone przynajmniej na poziomie in-terwałowym. ¦ Różnica pomiędzy średnimi. Aby ocenić istotność różnicy pomiędzy średnimi pochodzącymi z różnych populacji, badacze posługują się testem t. Prawdopodobieństwo, że określona różnica pomiędzy średnimi została spowodowana czynnikami losowymi (gdy prawdziwa jest hipoteza zerowa), można obliczyć za pomocą wzoru (19.1). Jeżeli można przyjąć, że wariancje w populacji są równe, to błąd standardowy oblicza się za pomocą wzoru (19.2). Jeżeli nie ma podstaw do przyjęcia założenia, że wariancje w populacji są takie same, to obliczając błąd standardowy, trzeba się posłużyć wzorem (19.3). Jeżeli liczebność obu prób wynosi przynajmniej 30, to aby oszacować wartość f, posługujemy się krzywą normalną. Jeżeli liczebność którejkolwiek próby jest mniejsza niż 30, to w celu oszacowania wartości t korzystamy z tablic rozkładu t. ¦ Testy istotności dla współczynnika r Pearsona. Aby ocenić istotność wspó\cz^m\\Va Yove\acyv, moma s\% postawić, dwoma testami, leżeli w hipotezie zerowej przyjmuje się, że współczynnik korelacji w populacji wynosi zero (p = 0), to możemy się posłużyć rozkładem f, a wartość f obliczyć według wzoru (19.5). W celu oceny istotności współczynnika korelacji możemy również wykorzystać rozkład F. Statystyka F jest zbudowana na stosunku wariancji wyjaśnionej do wariancji nie wyjaśnionej, a obliczając jej wartość, korzystamy ze wzoru (19.6). Wybrane testy nieparametryczne Test Manna-Whitneya. Jest stosowany wtedy, gdy trzeba przetestować hipotezę zerową, że dwie próby zostały pobrane z tej samej populacji względem hipotezy badawczej, że populacje różnią się od siebie7. Jedynym założeniem wymaganym 7 Siegel, Nonparametric Statistics, s. 116-126. 507 w tym teście jest założenie, że dwie próby pobrano niezależnie i losowo, a badanel zmienne zostały zmierzone przynajmniej na poziomie interwałowym. Przypuśćmy, że wylosowaliśmy 13 mężczyzn («, = 13) i 14 kobiet («2=14)iB każdej osoby obliczyliśmy wynik odzwierciedlający jej stopień alienacji. Próba mężczyzn: 5, 7, 10, 13, 19, 24, 25, 28, 30, 32, 33, 36, 37. Próba kobiet: 1, 3, 4, 6, 9, 12, 14, 15, 17, 18, 20, 21, 22, 23. Jeżeli przyjmiemy, że populacja kobiet jest identyczna jak populacja meżczya ze względu na stopień alienacji, to oczekujemy, że wartości otrzymane w dwói próbach będą podobne. Jeżeli wartości te będą podobne, to mężczyźni powi mieć wyższe wyniki na skali alienacji w niemal połowie par mężczyzna-kobii W pozostałej części par wyniki kobiet powinny być wyższe od wyników mężczyzn, Możemy obliczyć liczbę par, w których wyniki mężczyzn przewyższają wyniki kobiet, i oznaczyć je jako L/, a liczbę par, w których zachodzi odwrotna relacja, ji U'. Jeżeli hipoteza zerowa o równości populacji jest prawdziwa, to będziemy oczekiwać, że wartości U i U' będą w przybliżeniu równe8: H0: U=U', H,: U* U'. Aby obliczyć wartość U, możemy się posłużyć następującym równaniem: n?(n2+ 1) U = ntn2+-~----- -R2, (19.7] gdzie nx — wielkość 1 próby, n2 — wielkość 2 próby, R2 — suma rang dla próby 2. Rangi otrzymamy, porządkując wyniki dla wszystkich osób pod kątem ich wielkości. Na przykład trzy pierwsze kobiety (1, 3, 4) rozpoczną listę, a pierwszy mężczyzna (wynik równy 5) będzie miał rangę równą 4. Mężczyźni otrzymają zatem rangi: 4, 6, 8, 10, 15, 20, 21, 22, 23, 24, 25, 26, 27, a kobiety: 1, 2, 3, 5, 7, 9.11. 12, 13, 14, 16, 17, 18, 19. Aby obliczyć U', należy odjąć wartość U od ogólnej liczby par: U' = nxn2 - U. (19.8) Dla naszych danych zatem: 14(14+1) U= (13)(14) + ~------ 147= 140, U' = (13)(14) - 140 = 182 - 140 = 42. 8 John H. Mueller, Karl F. Schuessler, Herbert L. Costner (1970), Slatistical Reasoning in Socio-logy, Boston: Houghton Mifflin, s. 423. 508 dla Aby określić istotność HQ, należy porównać mniejszą z dwóch wartości U lub U' zwartością U odczytaną z rozkładu U przedstawionego w dodatku H9. Na poziomie istotności równym 0,05 wartość U powinna być równa lub mniejsza od 50 (gdy nie przewidujemy kierunku) i równa lub mniejsza od 56 (gdy przewidujemy kierunek). Zawsze wartość obliczona (42) jest mniejsza i dlatego możemy odrzucić hipotezę zerową mówiącą o tym, że mężczyźni i kobiety są w takim samym stopniu wyalienowani. Wraz ze wzrostem wielkości próby wartości U mają w przybliżeniu rozkład normalny. Jeżeli każda z prób jest większa od 20, to możemy obliczyć wyniki standaryzowane i skorzystać z rozkładu normalnego. Wówczas średnia rozkładu z próby M» = nxn2 2 ' a błąd standardowy ott = Ąnxn2{n^ + n2 + 1) 12 Wartości Z otrzymamy, korzystając z następującego wzoru: nxn2 U- Z = l«iw2(/ii+?h+T V 19 Test chi-kwadrat (#2). Chi-kwadrat to ogólny test opracowany do oceny, czy — przy założeniu zbioru założeń teoretycznych — różnica pomiędzy liczebnościami otrzymanymi a liczebnościami oczekiwanymi jest istotna statystycznie. Test chi--kwadrat stosuje się najczęściej do analizowania sytuacji, w których dla dwóch zmiennych można zbudować tabelę dwudzielczą. Dane przedstawione w tabeli 19.6 to przykład, gdy możemy zastosować test^2. Tabela 19.6 jest tabelą dwudzielczą, a przedstawiono w niej dane z roku 1970 i z roku 1980 dotyczące postaw mężczyzn wobec tradycyjnych ról związanych z płcią. Po przeliczeniu liczebności na procenty (w nawiasach) widać, że w 1970 roku 69% mężczyzn było przekonanych, iż lepiej jest, gdy mężczyzna pracuje poza domem, a kobieta zajmuje się domem i rodziną. W roku 1980 natomiast jedynie 47% mężczyzn podzielało ten pogląd. Chcielibyśmy się zatem przekonać, czy ta różnica jest istotna statystycznie. W ramach 9 Jeżeli liczebność którejś próby jest mniejsza od 9, to należy zastosować inny rozkład prawdopodobieństw. 509 hipotezy zerowej przyjmujemy, że nie ma różnic w przekc rażanych w roku 1970 i w roku 1980. Przyjmując hipotezę czebności oczekiwane i porównujemy je z liczebnościami o nice pomiędzy liczebnościami otrzymanymi a oczekiwanym miały szansę pojawić się rzadko (5% czy 1% wszystkich pr; zerową będzie można odrzucić. Tabela 19.6. Procent mężczyzn opowiadających się w roku 1970 i 1980 roli mężczyzny Lepiej, jeżeli mężczyzna realizuje Rok się poza domem, a kobieta zajmuje się domem i rodziną 1970 i98o 36 (69%) 80 (47%) Nie 16(31%) 90(53%) Ogółem 52 170 Na podstawie: Jane Riblett Wilkie (1993), Changes in U.S. Men's Altiludes Toward the Family Pro\ Soviety", vol. 7, nr 2, s. 261-279. Statystyką, z której skorzystamy, oceniając wielkość tych chi-kwadrat (x2), która jest definiowana następująco: Je gdzie f0 — liczebności otrzymane, fe — liczebności oczekiw komórki obliczyć liczebności oczekiwane, należy zastosować (suma w wierszu) (suma w kolumnie^ n Tabela 19.7 przedstawia liczebności oczekiwane w sytuacji czyzn w stosunku do tradycyjnych ról związanych z płcią byłyb 1980 i w roku 1970. Tabela 19.7. Procent mężczyzn opowiadających się w roku 1970 i 1980 za i roli mężczyzny (liczebności oczekiwane) Lepiej, jeżeli mężczyzna realizuje się poza domem, a kobieta zajmuje Rok 1970 1980 Tak Nie Ogółem 27 25 52 89 81 170 510 Obliczanie wartości chi-kwadrat (%2). Aby obliczyć wartość ^2, musimy w każdej komórce odjąć liczebność oczekiwaną od liczebności otrzymanej, różnicę podnieść do kwadratu i podzielić ją przez liczebność oczekiwaną dla tej komórki. Następnie należy zsumować wyniki dla wszystkich komórek. Obliczenia te przedstawiliśmy w tabeli 19.8. Zwróćmy uwagę, że wartość %2 będzie równa zero, jeśli liczebności otrzymane będą równe liczebnościom oczekiwanym. Im większe więc różnice pomiędzy tym, co obserwujemy, a tym, czego oczekujemy, tym większe będą wartości L. Tabela 19.8. Obliczanie wartości x2 dla danych z tabeli 19.6 i 19.7 JO Je Jf) Je '¦/() Je' 36 27 9 81 3,0 16 25 -9 81 3,2 80 89 -9 81 0,9 90 81 9 81 1,0 r=s,i Aby ocenić wielkość otrzymanej statystyki %\ należy ją porównać z rozkładem z próby wartości %2 i sprawdzić, czy otrzymana wartość 8,1 jest wystarczająco duża i pozwoli przyjąć, iż hipoteza zerowa jest mało prawdopodobna. Rozkład z próby wartości %2 został zamieszczony w dodatku I. Wartości rozkładu zależą od dwóch czynników: poziomu istotności (a) oraz liczby stopni swobody. Zatem %2 to w rzeczywistości rodzina rozkładów, z których każdy określany jest przez inne parametry. Wybierzmy, dla naszego problemu, poziom istotności równy 0,01. Oznacza to, że odrzucimy hipotezę zerową jedynie wtedy, gdy otrzymamy wartość x2 większą od tej, jakiej oczekiwalibyśmy w nie więcej niż 1 na 100 pobranych prób. Liczba stopni swobody dla rozkładu %2 z próby jest określana przez liczbę komórek, dla których możemy swobodnie określić liczebności oczekiwane. Dla każdej tabeli dwudzielczej liczba arbitralnie wybranych wartoścA w komórkach jest ograniczona przez sumy brzegowe obu zmiennych. Na przykład dla tabeli 2 x 2 jedynie wartości jednej komórki mogą się swobodnie zmieniać. Wartości w trzech pozostałych komórkach zależą od sum brzegowych. Ogólnie rzecz biorąc, liczbę stopni swobody możemy obliczyć, stosując następujący wzór: 4f=(r-l)(c-l), (19.12) gdzie r — liczba wierszy, c — liczba kolumn. W związku z tym: w tabeli 2x2: df=(2-l)(2- 1)=1, w tabeli 3x3: df= (3- 1)(3-1)=4, w tabeli 4x3: df={4- 1)(3- 1) = 6. 511 W dodatku I prawdopodobieństwa — przy założeniu prawdziwości HQ — pfrl dano na górze tabeli (nazwy kolumn), a liczby stopni swobody w kolumnie po lewa stronie (nazwy wierszy). Rozkład %2 z próby jest rozkładem prawoskośnym i osiąga wyższe wartośdl w górnej części rozkładu (do prawej strony). Dlatego w wypadku testu %~ obszł krytyczny jest lokowany w górnej części rozkładu. Nieparametryczne testy istotności ¦ Test Manna-Whitneya. Stosuje się go, gdy dwie próby pobrano niezależnie i losowo, a badane zmienne zostały zmierzone przynajmniej na poziomie interwałowym. Test Manna-Whitneya polega na porównywaniu par obserwacji w celu przetestowania hipotezy zerowej mówiącej o tym, że dwie próby pochodzą z tej samej populacji, wobec hipotezy badawczej, że badane populacje się różnią. Dane otrzymane dla każdej próby porządkuje się ze względu na ich wielkość, a następnie ranguje się cały zbiór danych. Jeżeli wielkość obu prób jest mniejsza od 20, to wartość statystyki L/i U' oblicza się za pomocą wzoru (19.7) i (19.8). Aby podjąć decyzję w stosunku do hipotezy zerowej, należy porównać mniejszą z dwóch wartości U lub U' z wartością krytyczną U odczytaną z tablic (patrz dodatek H). Wartość krytyczną odczytuje się dla danej wielkości prób oraz dla wymaganego poziomu istotności. Jeżeli wartość U lub U' będzie mniejsza od wartości odczytanej z tablic, to odrzucimy hipotezę zerową. Jeżeli wielkość którejkolwiek próby będzie większa niż 20, to możemy obliczyć wyniki standardowe jako wartość statystyki i dalej posłużyć się rozkładem normalnym. ¦ Test chi-kwadrat. Stosuje się go dla zmiennych nominalnych, jeśli badane zmienne zostały umieszczone w tabeli dwudzielczej. Za pomocą testu X określa się, czy różnica pomiędzy liczebnościami otrzymanymi a oczekiwanymi jest istotna statystycznie. Wartość chi-kwadrat oblicza się za pomocą wzorów (19.10) i (19.11). Posługując się rozkładem chi--kwadrat, ustalamy — korzystając z dodatku I — minimalną wartość tej statystyki niezbędną do odrzucenia hipotezy zerowej. Wartość minimalną odczytujemy, znajdując wiersz odpowiadający właściwej liczbie stopni swobody i kolumnę odpowiadającą założonemu poziomowi istotności. Otrzymaną wartość chi-kwadrat należy następnie porównać z wartością minimalną. Jeżeli wartość otrzymana jest większa, to mamy podstawy do odrzucenia hipotezy zerowej. W naszym przykładzie przy df= 1 i poziomie istotności równym 0,01 wartość odczytana z tablic wynosi 6,635, co wskazuje, że wartość 6,635 pojawi się w 1% pobranych prób. Otrzymana wartość równa 8,1 jest większa od 6,635 i jest bardzo mało prawdopodobna przy założeniu prawdziwości H0. Gdybyśmy jednak wybrali mocniejszy poziom istotności — na przykład 0,001 (x2~ 10,827) — to nie byłoby 512 podstaw do odrzucenia hipotezy zerowej. Poziom istotności wybiera się zazwyczaj przed obliczeniem wartości statystyki. Wybiera się go, uwzględniając konsekwencje popełnienia błędu I i II rodzaju. W naukach społecznych większość badaczy decyduje się na poziom istotności równy 0,05 lub 0,01. Przyjmując tę zasadę, możemy odrzucić hipotezę zerową, że postawy mężczyzn wobec tradycyjnych ról związanych z płcią były takie same w roku 1970 jak i roku 1980. ¦ Podsumowanie 1. Wnioskowanie statystyczne to procedura pozwalająca badaczowi podjąć decyzję na podstawie danych z próby, którą hipotezę dotyczącą parametrów populacji może on wybrać. 2. Pierwszym krokiem w testowaniu hipotezy jest sformułowanie jej w terminach statystycznych. Hipoteza statystyczna zawsze dotyczy badanej populacji. W procesie testowania hipotez uwzględnia się dwie hipotezy. Pierwszą jest hipoteza badawcza, oznaczana jako //,. Druga oznaczana jako H0, jest hipotezą zerową, która jest niezbędna z powodów logicznych. Hipoteza zerowa jest testowana bez-"ośrednio. Jeżeli hipoteza zerowa zostanie odrzucona jako mało prawdopodobna, to przyjęta zostanie hipoteza badawcza. 3. Potrzeba formułowania dwóch hipotez wynika z konsekwencji logicznych. Hipoteza zerowa wymaga wnioskowania negatywnego, aby wyeliminować błąd potwierdzania rezultatu. Innymi słowy, badacz powinien raczej wyeliminować hipotezę fałszywą, niż potwierdzać hipotezę prawdziwą. 4. Po sformułowaniu określonej hipotezy zerowej należy ją przetestować w świetle otrzymanych danych. Testowanie polega na porównywaniu wyniku otrzymanego z próby z modelem statystycznym podającym prawdopodobieństwo pojawienia się takiego rezultatu. Taki model statystyczny nazywany jest rozkładem z próby. Rozkład z próby danej statystyki otrzymuje się, pobierając dużą liczbę tak samo licznych prób losowych z określonej populacji. Dla każdej próby trzeba obliczyć wartość statystyki, a otrzymane wartości przedstawia się graficznie w postaci rozkładu częstości wartości tej statystyki. 5. Rozkład z próby pozwala oszacować prawdopodobieństwo otrzymania wartości statystyki z próby. Prawdopodobieństwo to nazywane jest poziomem istotności, inaczej a, które jednocześnie jest prawdopodobieństwem odrzucenia hipotezy prawdziwej (błąd I rodzaju). Jeżeli — przy założeniu prawdziwości hipotezy zerowej — prawdopodobieństwo otrzymania danej wartości z próby jest bardzo małe, to odrzucamy H0 i zwiększamy pewność co do prawdziwości hipotezy badawczej. 6. Testuj •5,VdX^'i\>)cme, Azteląs\ę, war. testy parametryczne i testy nieparametryczne. Test parametryczny jest testem statystycznym opartym na kilku założeniach dotyczących parametrów populacji, z której pobrano próbę. Jednym z najważniejszych założeń jest założenie mówiące o tym, że dane pochodzą z populacji o rozkładzie normalnym i że badane zmienne zostały zmierzone przynajmniej na poziomie interwalowym. Test nieparametryczny natomiast to taki test, którego model nie wymaga, aby populacja miała rozkład normalny, nie wymaga też pomiaru na poziomie interwalowym. Testy różnicy pomiędzy średnimi i test istotności współczynnika r Pearsona to testy parametryczne. Test Manna-Whitneya oraz test chi-kwadrat to nieparametryczne testy istotności. 513 ¦ Podstawowe terminy błąd próby 494 błąd I rodzaju 499 błąd II rodzaju 499 hipoteza badawcza 493 hipoteza zerowa 493 obszar odrzucenia 496 poziom istotności 496 rozkład z próby 494 stopnie swobody 504 test chi-kwadrat 509 test dwustronny 498 test jednostronny 498 test Manna-Whitneya 507 test nieparametryczny 500 test parametryczny 500 test istotności różnic pomiędzy średnimi 501 test t 504 testowanie hipotez 492 Pytania sprawdzajgce 1. Omów rolę hipotezy zerowej i hipotezy badawczej z punktu widzenia logiki testowania hipotez. 2. Jaka jest różnica pomiędzy wybraniem poziomu istotności wynoszącego 0,50 a równego 0,05? 3. Jaka jest różnica pomiędzy testem jednostronnym a dwustronnym? 4. Pokaż w postaci diagramu różnicę pomiędzy błędem I i II rodzaju. 5. Określ różnice pomiędzy testami parametrycznymi a testami nieparametrycznymi. Ćwiczenia komputerowe 1. Posługując się plikiem GSS czy innym plikiem danych, oblicz statystykę chi-kwadrat dla dwóch zmiennych nominalnych (skorzystaj z modułu STA-TISTICS w połączeniu z procedurą CROSS-TABS). Czy otrzymany przez ciebie związek jest istotny statystycznie? Uzasadnij odpowiedź (por. dodatek A, s. 533). 2. Wykorzystując test t, zbadaj różnicę pomiędzy średnimi obliczonymi dla dwóch zmiennych interwałowych, gdy zmienną grupującą jest zmienna nominalna. Czy różnica ta jest istotna statystycznie i na jakim poziomie? Czy I zastosowałeś test jednostronny czy dwustronny? Dlaczego? ¦ Literatura dodatkowa Blalock H.M. (1975), Statystyka dla socjologów, Warszawa: PWN. Brzeziński J. (1997), Metodologia badań psychologicznych, wyd. 2, Warszawa: Wyd. Nauk. PWN. Ferguson G.A., Takane Y. (1997), Analiza statystyczna w psychologii i pedagogice. Warszawa: Wyd Nauk. PWN. DODATEK A: WSTĘP DO SPSS* Claire L. Felbinger, Stephen F. Schwełgien Pakiet Statystyczny dla Nauk Społecznych (Statistical Package for the Social Sciences — SPSS) wersja 4 jest jednym z najbardziej popularnych ogólnie dostępnych programów przeznaczonych do przygotowywania i wykonywania komputerowych analiz danych. SPSS został zaprojektowany specjalnie do analiz danych w naukach społecznych i zawiera większość procedur, jakimi posługują się badacze reprezentujący te dyscypliny naukowe. Wszystkie opisane w tym tekście procedury analizy danych można wykonać za pomocą programów SPSS. Badacze społeczni cenią w szczególności łatwość, z jaką program radzi sobie z wymogami, które stale powtarzają się w trakcie analizy danych. I tak na przykład SPSS pozwala na przeko-dowywanie zmiennych, na rozwiązywanie problemu brakujących danych, na dobieranie, selekcję i ważenie obserwacji, na obliczanie nowych zmiennych i na dokonywanie stałych albo tymczasowych przekształceń (transformacji). W niniejszym dodatku zostaną zaprezentowane narzędzia potrzebne do utworzenia pliku oraz do wykonania podstawowych analiz w pakiecie SPSS. Tekst ten nie jest w żadnej mierze ani wyczerpującym opisem dużej różnorodności dostępnych programów, ani przewodnikiem po bardziej skomplikowanych typach analizy danych, które można wykonać za pomocą SPSS. Odwołamy się tu tylko do tych przykładów, które odpowiadają zakresowi zagadnień omówionych w niniejszej książce. By zasięgnąć informacji o innych dostępnych procedurach oraz zapoznać się z bardziej szczegółowym opisem tych programów, które zostały omówione w ni- • W Polsce dostępna jest, aktualnie (sierpień 1999), wtórna wersja pakietu SPSS obejmująca następujące moduły: • Base System 8.0(1998) • Professional Statistics 7.5 (1997) • Advanced Statistics 7.5 (1997) • Tables 8.0 (1998) • Categories 8.0 (1998) • AMOS • Missing Value Analysis 7.5 (1997) • AnswerTree 2.0(1998) • Exact Tests 7.0 (1997) • Trendsó.l (1994) • Conjoint 8.0 (\997) • Data Entry Builder • Data Entry Station • Sample Power 1.0 (1997) • TextSmart • Remark Office OMR • GoldMiner • Graphics 8.0(1998) • TrialRun 1.0(1997) • Wes Var Complex Samples 3.0 (1998) Pakiet dostępny jest w: SPSS Polska Sp. z o.o., ul. Królewska 57, 30-081 Kraków, tel./fax (12) 6369680, 6360791, 6364535 (przyp. red. nauk.). 515 niejszym dodatku, należy odwołać się do odpowiedniego podręcznika użytkownika SPSS1. Trzy główne środowiska, w których pracuje SPSS, to komputer główny, K| oraz Windows. Oprócz pełnej wersji programu istnieją również jego skrócone vnT sje studenckie (Studentware) na PC i dla Windows. W niniejszym dodatku omawiając przykłady, odwołujemy się do działania wersji pełnych. Można jednak. po| uwzględnieniu niewielkich poprawek, używać pakietów dla studentów, poniewf wersje studenckie tym tylko różnią się od wersji profesjonalnych, że zawierają mniej programów, pozwalają na analizowanie mniejszych macierzy danych i obejmują mniejszą liczbę opcji. Wszystkie opisane poniżej procedury mogą zostać przeprowadzone za pomocą studenckiej wersji pakietu. Jako że operacje i komendy używane w komputerze głównym są bardziej zbliżone do środowiska PC niż środowisko PC do Windows, najpierw omówimy aplikacje dla komputera głównego (SPSS) i PC (SPSS PC+), później zaś jego adaptacje dla Windows. Grupa danych wykorzystanych w przykładach, które zostaną przedstawione na dalszych stronach niniejszego tekstu, pochodzi z Generalnego Sondażu Społecznego (GSS) z roku 1993. [Klucz kodowy dla zbioru wykorzystanych zmiennych znaleźć można w przykładzie A.l, który został zamieszczony na końcu tego dodatku (s. 563-567)]. GSS bada problemy społeczne i zdefiniowane wskaźniki społeczne oraz ich zmienność w czasie. Pierwszy pomiar został przeprowadzony w 1972 roku. W następujących po sobie kolejnych badaniach zastosowano pytania stałe (pojawiające się w każdym badaniu), rotacyjne (pojawiające się w dwóch spośród trzech badań) albo okazjonalne (pojawiające się w pojedynczym badaniu). Dane gromadzono, przeprowadzając wywiady z osobami, które skończyły co najmniej 18 lat, posługiwały się językiem angielskim, nie były pensjonariuszami domów pomocy społecznej ani innych podobnych instytucji i mieszkały na terenie Stanów Zjednoczonych. Dla potrzeb analiz przedstawionych w niniejszym tekście wylosowano próbę liczącą 1500 respondentów. Jak łatwo można się zorientować, analizując książkę kodów, autorzy wybrali pytania demograficzne, pytania o opinie respondentów na temat działalności rządu oraz pytania o poczucie osobistego szczęścia. Zebrane dane zostaną tu wykorzystane do przedstawienia sposobu, w jaki badacze zaangażowani w realizację projektu badawczego tworzą plik SPSS, czyszczą dane i wykonują procedury statystyczne. Podsumowując to, co zostało do tej pory powiedziane, dane zostaną przygotowane w formie czytelnej dla komputera (patrz rozdział 14), będą wyczyszczone poprzez analizowanie rozkładów jednowymiarowych (rozdział 15), zostaną wykorzystane do wykonania rozkładów dwuwymiarowych (rozdział 16) i wielowymiarowych (rozdział 17) procedur testowania hipotez (rozdział 19) i konstrukcji skal (rozdział 18). 1 Marija J. Norusis/SPSS Inc., SPSS Base System User's Guide (Chicago: SPSS Inc., 1990), Nora-sis/SPSS Inc., SPSS PC+ Base System User's Guide Version 5 (Chicago: SPSS Inc., 1992), Nora-sis/SPSS Inc., SPSS Base System Syntax Reference Guide (Chicago: SPSS Inc., 1993). 516 ¦ Wersje dla komputera głównego i dla PC Przygotowanie danych Kwestie związane z przygotowywaniem danych zostały omówione w rozdziale 14. Dane mogą być przygotowane i przechowywane na taśmie lub na dysku (w komputerze głównym) albo na dyskietce lub dysku twardym (na PC). Dane surowe można wprowadzać w dwojakiego rodzaju formacie: ze standardowej ścieżki tekstowej lub z arkusza danych. Standardowe pliki tekstowe. Dane wprowadzane ze standardowego pliku tekstowego można zaimportować z pliku utworzonego za pomocą procesora lub edytora tekstowego lub też można je wpisać bezpośrednio do programu przy użyciu wewnętrznego edytora SPSS. W wersji SPSS PC+ do utworzenia zbioru danych można użyć edytora REVIEW. Najłatwiejszym sposobem formatowania danych jest wykorzystanie formatu ustalonego. W najprostszym przypadku rejestracji danych w tym formacie wszystkie informacje dotyczące jednej obserwacji zawarte będą w jednym wierszu. SPSS traktuje ten wiersz jako rekord. W formacie ustalonym wartości tej samej zmiennej dla wszystkich obserwacji umieszczone są w tej samej kolumnie. Itak na przykład zbiór GSS wykorzystany w niniejszym dodatku zawiera 1500 obserwacji, a na jedną obserwację przypada 80 kolumn. Każdy wiersz nazywany jest rekordem. Zmienna ID (identyfikator) umieszczona została w pierwszych czterech kolumnach każdego rekordu. Obserwację identyfikuje się, zazwyczaj posługując się numerem, który zapisuje się na początku zbioru danych (każdy użytkownik doceni użyteczność takiego sposobu postępowania, gdy będzie „czyścił" dane). Informacja o zmiennej AGE (wiek) zlokalizowana została z kolei w kolumnach 5 i 6, itd. Jeśli dane dotyczące jednej obserwacji zawierają więcej informacji, niż może pomieścić rekord, to należy rozpocząć kolejny rekord, wpisując nową zmienną. Najlepiej byłoby, gdyby pierwsza zmienna, któta pojawia się w każdym kolejnym rekordzie, była kopią informacji identyfikacyjnej. Zmienna ta powinna być jednak opatrzona nową nazwą, np. ID2 dla drugiego rekordu i ID3 dla trzeciego. Wszystkie rekordy związane zjedna obserwacją są uporządkowane i zapisane jeden pod drugim (obserwacja 1, rekord 1; obserwacja 1, rekord 2; ... obserwacja n, rekord ostatni). Arkusz danych. SPSS został przystosowany do wykorzystania rozpowszechnionych arkuszy danych poprzez umożliwienie zaimportowania ich bezpośrednio do programu. Można uporządkować dane tak, by poszczególne wiersze zawierały wszystkie informacje dotyczące kolejnych obserwacji, poszczególne kolumny zaś wartości kolejnych zmiennych. Na przykład kolumna A zawierałaby ID dla każdej obserwacji, kolumna B natomiast AGE (wiek) dla każdej obserwacji itd. Jeżeli w pierwszym wierszu umieścimy nazwy zmiennych i rozpoczniemy wpisywanie danych dla pierwszej obserwacji w wierszu drugim, to SPSS przeczyta oraz zarejestruje nazwy zmiennych i odpowiadające im wartości dla każdej obserwacji. Trzeba się tylko upewnić, czy zawartość arkusza została utrwalona na dysku. Może bowiem zaistnieć potrzeba odwołania się do niego w trakcie „czyszczenia" danych. Dostęp do SPSS w komputerze głównym. Aby uzyskać dostęp do wersji SPSS dla komputera głównego w ośrodku obliczeniowym, trzeba użyć zbioru poleceń 517 znanych jako Job Control Language lub JCL. Komendy te są specyficzne dla sys-1 temu komputera głównego i dla danego ośrodka obliczeniowego. Umożliwiają do-1 stęp do komputera, inicjują procedury obliczeniowe, zapewniają wolną przestrzel I na dysku lub na taśmie i uruchamiają pakiet SPSS. Wykonują też inne ważne opera- I cje na zbiorach, które są niezbędne do wprowadzania danych i zachowywania pli- I ków systemowych. Ponieważ nie we wszystkich ośrodkach obliczeniowych obo-1 wiązuje ten sam JCL, należy więc skontaktować się ze specjalistą w danym ośrod- j ku, aby poznać odpowiednie polecenia tego języka. Tworzenie pliku systemowego w SPSS Język SPSS jest logiczny i bardzo prosty. Łatwo można dostrzec, że język, jakim posługuje się SPSS, oraz nazwy oprogramowanych w pakiecie modeli wychodzą naprzeciw oczekiwaniom użytkownika. Kiedy na przykład chcemy policzyć częstości dla jednej zmiennej, posługujemy się procedurą FREQUENCIES (częstości). Jeżeli chcemy utworzyć listę danych, to określamy ich format, odwołując się do DATA LIST (lista danych). Jednak by móc swobodnie posługiwać się pakietem SPSS, trzeba zapoznać się z pewną liczbą różnego rodzaju plików. 1. Pliki poleceń zawierają komendy SPSS, które użytkownik pakietu ma zamiar uruchomić. Taka sekwencja komend nazywana jest często strumieniem poleceń. Przyjmujemy tu założenie, że polecenia użytkownika pakietu będą utrwalone w pliku (i że nie będzie on posługiwał się menu z managera SPSS). Użytkownicy wersji SPSS PC+ mogą użyć procedury INCLUDE (włącz), aby uruchomić zapisaną w pliku sekwencję poleceń, ale mogą też uruchomić sek-wencję poleceń wprost z edytora REVIEW. 2. Pliki danych zawierają dane surowe. Dane mogą zostać zapisane przy użyciu jakiegokolwiek czytelnego dla komputera medium. SPSS może przystosować się do danych zapisanych w każdej formie. Ponieważ jednak tradycyjnie przy kodowaniu zachowuje się 80-kolumnowy format, przeto będziemy tego formatu używać i tutaj. 3. Pliki raportów powstają w konsekwencji wykonania przez program sekwencji komend utrwalonych w pliku poleceń i zawierają wyniki przeprowadzonych procedur. Jest to raport, który można oglądać na ekranie monitora, albo też wydrukować za pomocą drukarki. 4. Pliki systemowe SPSS zawierają informacje o danych zapisanych w pliku wyjściowym zdefiniowane poprzez sekwencję poleceń uruchamianą z pliku poleceń. Plik poleceń używany jest do tworzenia pliku systemowego oraz do wykonywania różnych transformacji danych utrwalanych później w pliku systemowym. Plik systemowy zawiera więc słownik definiujący zmienne oraz informacje na temat etykiet, brakujących danych i innych parametrach zmiennych. Korzystanie z tego właśnie pliku jest dla użytkownika najbardziej dogodne, ponieważ nie pociąga za sobą konieczności uruchamiania wszystkich poleceń tworzących plik za każdym razem, gdy chce on korzystać z danych. Wszystkie informacje na temat sposobu tworzenia pliku są w pliku systemowym zachowane. W czasie gdy plik systemowy jest używany, nazywamy go plikiem aktywnym. 518 Definiowanie danych i plików. Teraz przedstawimy polecenia, które są potrzebne do utworzenia pliku systemowego SPSS. Program wykonuje polecenia wiersz po wierszu, zaczynając od tych, które rozpoczynają się w pierwszej kolumnie każdego wiersza. W niniejszym tekście polecenia będą zapisywane DUŻYMI LITERAMI. (I tu znowu ustalmy długość wiersza w pliku poleceń na 80 znaków. Jest to najczęściej używana długość wiersza. Trzeba jednak pamiętać, że wiele systemów akceptuje i dłuższe wiersze). Do zapisania polecenia można użyć takiej liczby wierszy, jaka jest konieczna. Pole polecenia to zbiór kolumn, który zaczyna się od kolumny pierwszej i zawiera polecenia sterujące organizacją danych, ich modyfikowaniem i wykonywaniem procedur statystycznych. Wyrażenia, które „określają", co zrobić z poleceniami, znajdują się w polu spe-cyfikacyjnym. Specyfikacje poleceń nie mogą się pojawić w pierwszej kolumnie. Innymi słowy, tekst dalszego ciągu specyfikacji polecenia należy przesunąć co najmniej o jedną kolumnę w każdym następnym wierszu po wierszu, w którym to polecenie się pojawia. Można więc kontynuować specyfikację polecenia w następnym wierszu, ale trzeba zadbać o to, by rozpocząć ją w drugiej kolumnie i nie przerywać jej użyciem wyrażenia albo operatora logicznego (na przykład „and" (i) albo „or" (lub)). Musimy pamiętać, że komputer nie potrafi ani czytać po angielsku, ani interpretować życzeń użytkownika. Czyta jedynie sygnały (znaki), na które zosta! zaprogramowany. Dlatego trzeba być ostrożnym i używać słów kluczowych oraz wyrażeń zgodnie z ich przeznaczeniem. SPSS akceptuje polecenia wpisane tak małymi, jak i dużymi literami. W wersji SPSS PC+ wszystkie specyfikacje muszą zostać zakończone kropką (.). Kropka jest sygnałem dla programu, że bez względu na liczbę wykorzystanych do dookreślenia polecenia wierszy specyfikacja polecenia została już zakończona. Pierwszym krokiem w analizie danych jest utworzenie oraz zapisanie (SAVE) pliku zawierającego nie tylko dane, ale również szczegóły na temat typu zawartych w tychże danych informacji, lokalizacji zmiennych oraz ich nazw. Jest to plik systemowy. Trzeba pamiętać, że zmienna musi zostać zdefiniowana, zanim zostanie użyta. Polecenia. Definicje pliku dostarczają podstawowych informacji o plikach wykorzystywanych w procesie tworzenia pliku systemowego. Ustalają, gdzie zostały zapisane dane, gdzie ma zostać zapisany utworzony w konsekwencji uruchomienia sekwencji poleceń plik systemowy itd. Definicje zmiennej dostarczają z kolei informacji na temat lokalizacji, struktury i znaczenia danych z pliku wyjściowego. Tabela A.l przedstawia kolejne polecenia definiujące plik i zmienną rMYnpoYetycinego p\\Yw. 1. TITLE (tytuł). Ta opcja pozwala na nazwanie zbioru poleceń poprzez przypisanie mu tytułu o długości do 60 znaków. Tytuł ten będzie drukowany na górze każdej strony raportu. 2. FILE HANDLE (plik obsługi). [Polecenie z wersji SPSS dla komputera głównego]. To polecenie identyfikuje plik, który już został zachowany w komputerze głównym, lub też plik, który zostanie w nim zachowany w konsekwencji wykonania przez program sekwencji poleceń zapisanej w pliku poleceń. Wpisywana tu nazwa nie może przekroczyć ośmiu znaków i musi zaczynać się od litery lub innego symbolu akceptowanego przez komputer lub przez system w ośrodku ob- 519 liczeniowym. Dysponujemy wystarczającą liczbą wierszy do zidentyfikowana każdego pliku wykorzystywanego w trakcie uruchamiania sekwencji poleceń bfl względu na to, czy to będą pliki zawierające dane surowe, czy też pliki systemoł SPSS2. „Specyfikacje pliku" odnoszą się do tych charakterystycznych dla ośrodki| obliczeniowego określeń, które definiują pliki zapisane w komputerze głównym| 3. DATA LIST (lista zmiennych). To polecenie, omówione szczegółowo w następnym punkcie, określa nazwy zmiennych, ich lokalizację, typ danych oraz liczbę rekordów zapisanych w wyjściowym pliku. 4. MISSING VALUES (brakujące dane). Ta opcja definiuje wartości dla zmiennycli (maksymalnie trzy), które zostaną oznaczone jako brakujące dane. SPSS automatycznie zapisuje jako systemowy brak danych wszystkie puste pola arkusza. Polecenie SET (wstaw) powoduje, że nie tylko puste pola arkusza zostaną potraktowane jako brakujące dane, ale również te wartości, które zostaną zapisane przez użytkownika jako dookreślenie polecenia SET. Możliwość zadeklarowania MISSING VALUES umożliwia badaczom tak włączanie do procedur statystycznych zmiennych zawierających brakujące dane, jak i wyłączanie ich z kolejnych analiz. 5. VARIABLE LABELS (etykiety zmiennych). Ta opcja pozwala na dodatkowy opis zmiennych. Rozszerza definiowane w poleceniu DATA LIST nazwy zmiennych, dołączając do nich etykiety. Jest to opcja bardzo wygodna w użyciu, jeśli nazywamy zmienne, przydzielając każdej tę samą literę i kolejne numery (np. vi, v2,v3 itd.). Jest to pomocne również wtedy, gdy interpretujemy wyniki analiz, ponieważ opis etykiety zawsze pojawia się obok zwykle krótszej nazwy zmiennej. Jak pokazano w tabeli A. 1, format tego polecenia składa się z VARIABLE NAME (nazwy zmiennej), spacji i opisowej VARIABLE LABEL (etykiety zmiennej), umieszczonej w pojedynczym lub podwójnym cudzysłowie. Etykietę poprzedza ukośnik (I), który SPSS interpretuje jako znak, że pojawią się dalsze dookreślenia polecenia. 6. VALUE LABELS (etykiety wartości). Ta opcja pozwala dołączyć etykietę do każdej wartości zmiennej. Na przykład, jeżeli dla danej zmiennej wyrażenie „nisko" zakodujemy jako wartość 1, „średnio" jako wartość 2, a „wysoko" jako wartość 3, to gdy zmienna ta zostanie wykorzystana w jakiejś procedurze statystycznej w pliku raportów, jej wartości kodowe zostaną połączone z odpowiadającymi im etykietami. Jeżeli dysponujemy pewną liczbą zmiennych, których wartości zdefiniowane są jako niskie, średnie i wysokie, to można je wszystkie kolejno wypisać w pliku poleceń. Można też zmienne sąsiadujące ze sobą połączyć za pomocą słowa kluczowego TO (do) i przydzielić etykiety wartościom we wszystkich tych zmiennych równocześnie. Dookreślenia specyfikacji polecenia VALUE LABELS są poprzedzane ukośnikiem (/). Trzeba zawsze pamiętać, że w SPSS PC+ każda specyfikacja polecenia musi się zakończyć kropką (.). 7. SAVE (zachowaj). To polecenie umożliwia zachowanie danych i ich etykiet oraz dokonanych na danych modyfikacji w formie stałego pliku systemowego. Zachowujemy (SAVE) dane, jeżeli wiemy, że będziemy chcieli wrócić do nich po pewnym czasie. Eliminujemy w ten sposób wiele czynności związanych z utworzeniem pliku na nowo i możemy od razu rozpocząć wykonywanie procedur statys- 2 Zauważmy, że niektóre systemy operacyjne wykorzystują do identyfikacji plików JCL i dlatego niekiedy włączanie FILE HANDLE (plik roboczy) do sekwencji nie jest potrzebne. Konsultant z ośrodka obliczeniowego udzieli informacji, czy trzeba użyć tego polecenia, czy też nie jest to konieczne. 520 tycznych, odszukując tylko przedtem zapisany plik za pomocą polecenia FILE HANDLE i/albo GET. Polecenie GET zostanie krótko opisane w dalszej części niniejszego tekstu. Określenie MAP (mapa) zapisane przy poleceniu SAVE spowoduje wyświetlenie kompletnej listy zmiennych w porządku, w jakim zostały one zachowane w pliku. Tak jak to się dzieje w przypadku hipotetycznego pliku, który utworzy sekwencja poleceń zapisana w tabeli A.l, skoro raz plik został zapisany (SAVE) pod nazwą określoną w OUTFILE = specyfikacja, nie będzie już nigdy konieczności definiowania go od początku. Tabela A.l przedstawia sekwencję poleceń w kolejności, w jakiej zostaną one włączone do pliku poleceń. Porządek poleceń w SPSS jest stosunkowo elastyczny. Trzeba jednak pamiętać, że zmienna musi najpierw zostać zdefiniowana, zanim będziemy mogli jej użyć. Porządek poleceń przedstawiony w tabeli A. 1 jest przykładem sekwencji, która doprowadzi do utworzenia i zachowania pliku systemowego. Tabela A.l. Określenie formatu dla poleceń definiujących dane w SPSS Pole specyfikacji Pole polecenia (ani specyfikacja, ani jej kontynuacja (musi rozpoczynać się w kolumnie 1) nie może się pojawić w kolumnie 1) TTTLE (tytut) Tekst o długości do 60 znaków FILE HANDLE * (plik roboczy) Specyfikacje pliku obsługi (dodatkowe pliki obsługi, jeśli jest to konieczne) DATA LIST (lista danych) FILE = [nazwa] RECORDS = [N] /l LISTA ZMIENNYCH, numer kolumny- -numer kolumny, LISTA ZMIENNYCH2... [/2.../N...] MISSING VALUES* (brakujące dane) LISTA ZMIENNYCH, (lista wartości ,)/[LISTA ZMIENNYCH2 (lista wartości,)] VARIABLE LABELS* (etykiety zmiennych) NAZWA ZMIENNEJ, 'etykieta,' [/NAZWA ZMIENNEJ., 'etykieta.,'] VALUE LABELS* (etykiety wartości) LISTA ZMIENNYCH, wartość, 'etykieta,' wartość2 'etykieta,' [/LISTA ZMIENNYCH, ...] [tutaj mogą zostać zamieszczone dodatkowe modyfikacje oraz procedury] SA VE (zachowaj) OUTFILE = (nazwa) Opcja Tylko w wersji SPSS dla komputera głównego Polecenie DATA LIST (lista danych). Polecenie DATA LIST identyfikuje plik wyjściowy i określa format pliku oraz liczbę rekordów przypadających na jedną obserwację w pliku danych zapisanych w formacie ustalonym. SPSS może czytać różne typy plików danych. Następujący przykład wykorzystujący zbiór danych z GSS wprowadza format ustalony, o którym była mowa w rozdziale 14: 521 FILE HANDLE GSS93/specyfikacje pliku [komputer główny] DATA LIST FILE = GSS93 FIXED RECORDS = 1 /l ID 1-4 AGE 5-6 SEX 1... Wyrażenie FILE (plik), które pojawia się po DATA LIST, wskazuje na plik roboczy zdefiniowany wcześniej przez polecenie FILE HANDLE w wersji dla k" putera głównego, natomiast w wersji SPSS PC+ wyznacza nazwę pliku zapisane na dyskietce (np. a:\gss93.dat). Plikiem roboczym jest plik GSS93. Słowo kluczowe FIXED (ustalony) oznacza, że dane zapisane są w forma' ustalonym. W SPSS format ustalony (FIXED) jest formatem domyślnym. Je" specyfikacja formatu nie pojawi się w pliku komend, to SPSS domyślnie założy, dane są zapisane w formacie ustalonym. Wyrażenie RECORDS (rekordy) określa liczbę rekordów, czy też wierszy zwi zanych z każdą obserwacją w pliku danych o formacie ustalonym. W naszym p"' kładzie w pliku GSS93 na jedną obserwację przypada jeden rekord. Pozostałe elementy specyfikacji definiują zmienne. Liczba, która pojawia się ukośniku (/), oznacza numer rekordu, w którym SPSS ma szukać zmiennych wy~ nionych w dalszej części specyfikacji. Zmienne zostaną więc odczytane z rekordu numer 1 (jedynego w tym zbiorze danych). Trzy zmienne, o których mowa w specyfikacji, zostały zapisane w rekordzie pierwszym i są zlokalizowane w następujących kolumnach: ID (identyfikator) od 1 do 5, AGE (wiek) w 5 i 6, a SEX (płeć) w 7. Jak łatwo zauważyć w powyższym przykładzie, każda zmienna ma nazwę przydzieloną jej za pomocą polecenia DATA LIST. Nazwy zmiennych mogą się składać z co najwyżej ośmiu znaków i muszą rozpoczynać się literą alfabetu lub znakiem @, # albo $. Początkujący użytkownicy powinni, jeśli to możliwe, unikać wykorzystywania znaków specjalnych, ponieważ znaki te stosowane są do szczególnych typów zmiennych. Nazwa zmiennej powinna być unikatowa. Znaczy to, że dwie zmienne nie mogą się nazywać tak samo. Jeżeli użytkownik przez pomyłkę będzie chciał nadać dwóm zmiennym tę samą nazwę, to na monitorze pojawi się komunikat o błędzie. Najlepiej wybierać takie nazwy dla zmiennych, które odzwierciedlają ich naturę, np. GENDER (płeć), AGE (wiek) czy ID (identyfikator). Jeżeli nazwa zmiennej będzie unikatowa i jeżeli jej długość nie przekroczy ośmiu znaków, to program ją zaakceptuje. Można też definiując nazwę, użyć samego przedrostka (np. Q- dla numerów pytań, a v- dla numerów zmiennych). SPSS będzie wtedy sukcesywnie przydzielał nazwy zmiennym, dołączając do przedrostka kolejne numery. Jednym z najprostszych sposobów identyfikowania lokalizacji zmiennych w rekordzie jest odwołanie się do numeracji kolumn. W omawianym tutaj przykładzie SPSS oczekuje, że dla każdej kolejnej obserwacji zmienną o nazwie ID odnajdzie w pierwszym rekordzie w kolumnach od 1 do 4, zmienną o nazwie AGE w tyra samym rekordzie w kolumnach 5 i 6 itd. Polecenie DATA LIST definiuje tu trzy pierwsze zmienne z książki kodów. Czytelnik może porównać specyfikację polecenia DATA LIST z informacjami zawartymi w książce kodów w przykładzie A.l. Niektóre dane wymagają uwzględnienia dziesiętnych części liczb. Możemy mieć na przykład do czynienia z procentami zaokrąglonymi do jednego miejsca po przecinku lub z cenami wyrażonymi w dolarach i centach (dwa miejsca po przecinku). W poleceniu DATA LIST trzeba wtedy określić, czy odczytanie części dziesiętnych liczb ze zbioru jest zadaniem pliku poleceń, czy też przecinki zostały po prostu wpi- 522 sanę bezpośrednio do pliku danych. Rozważmy następującą hipotetyczną specyfikację polecenia: DATA LIST FILE = HYPSET RECORDS = 2 /l IDNUMBER 1-5 Q2 6-11 Q3 12 12 PCTSPENT 1-3 (!) TOTSPENT 4-9 (2) Nawiasy występujące w rekordzie drugim po numerach kolumn oznaczają, że zmienna PCTSPENT została zapisana z dokładnością do jednego miejsca po przecinku, a zmienna TOTSPENT z dokładnością do dwóch miejsc po przecinku. Dlatego, jeżeli SPSS napotka w drugim rekordzie sekwencję: 231028954, to przydzieli zmiennej PCSPENT wartość 23,1, a zmiennej TOTSPENT wartość 289,54. Jeżeli program natrafi w pliku danych na przecinki, to zignoruje ten fragment specyfikacji, który określa liczbę miejsc po przecinku (liczby w nawiasach) i postawi przecinek w tym samym miejscu, w którym znajduje się on w pliku danych (tzn. liczba ze specyfikacji polecenia ulega zatarciu). SPSS umożliwia też równoczesne zdefiniowanie wielu sąsiadujących ze sobą zmiennych za pomocą skróconej notacji. Jeżeli na przykład mamy do dyspozycji grupę zapisanych obok siebie zmiennych, a wartości każdej z tych zmiennych zajmują w pliku danych taką samą liczbę kolumn (dwie), to możemy nadać im nazwy, posługując się specyfikacją: /3 VI TO V10 1-20. SPSS nada kolejnym zmiennym nazwy: vi, v2 i tak dalej, aż do vl0, i będzie szukał każdej z nich w polach złożonych z dwóch kolumn. Rozpocznie od zmiennej vi, którą odczyta w kolumnach 1 i 2, zakończy zaś odczytaniem z kolumn 19 i 20 wartości dla zmiennej vl0. Innymi słowy, kolumny wyszczególnione w specyTfK&ć^ to^Ymą tonwwg ^&lns\rknL, pomiędzy v zmiennych. Liczba kolumn musi być podzielna przez liczbę wprowadzanych w specyfikacji zmiennych. Jeżeli czytelnik ma do dyspozycji pięć zarejestrowanych w jednym wierszu zmiennych opisujących wydatki, a każda z nich zajmuje taką samą liczbę kolumn, to może, używając wyrażenia SPEND1 TO SPEND5, przeprowadzić podobną procedurę. SPSS nada kolejnym zmiennym nazwy (SPEND1, SPEND2 itd.) i przydzieli każdej z nich odpowiednią liczbę kolumn, jeśli oczywiście liczba kolumn, którą czytelnik poda w specyfikacji, będzie podzielna przez 5. Zauważmy, że w przypadku wykorzystania skróconej specyfikacji trzeba znać numer ostatniej kolumny w rekordzie. Modyfikacje danych i procedury. Kiedy już wyrażone w języku JCL oraz SPSS informacje potrzebne do zdefiniowania danych zostały zebrane, jesteśmy gotowi do wykonania ostatniego kroku w procedurze tworzenia pliku. Trzeba teraz tylko przekazać do komputera instrukcję, co ma zrobić z informacją, której mu dostarczyliśmy. Możemy uruchomić w programie proces znany pod ogólną nazwą DATA MODIFICATIONS (modyfikacje danych) lub inny proces określany jako PROCEDURES (procedury). Ogólnie rzecz biorąc, modyfikacje danych (DATA MODIFICATIONS) stosujemy wtedy, gdy chcemy danymi manipulować lub je przekształcać. Do procedur (PROCEDURES) natomiast odwołujemy się wtedy, gdy chcemy policzyć statystyki. Przydatne do naszych celów dostępne w SPSS techniki modyfikacji danych (DATA MODIFICATION) to RECODE (rekoduj), COMPUTE (oblicz wartości), 523 IF (jeżeli), SELECT IF (wybierz jeżeli) oraz LIST (listuj), użyteczne zaś procedur* to FREQUENCIES (częstości), DESCRIPTWE (statystyki opisowe), CROSS-TABS (tabele krzyżowe), CORRELATIONS (korelacje), SCATTERGRAM (wykres rozrzutu), PARTIAL CORR (korelacje cząstkowe), RELIABILITY (rzetelność) i REGRESSION (regresja). Wstępne uruchomienie programu. Wstępne uruchomienie programu powinno mieć cel dwojakiego rodzaju. Po pierwsze, trzeba stwierdzić, czy dane z pliku wyjściowego zostały przetworzone na plik systemowy SPSS dokładnie tak, jak zaplanował to użytkownik. Po drugie, należy sprawdzić, czy w pliku nie pojawiły się przypadkowe i nieprawidłowe kody i czy w związku z tym nie zachodzi potrzeba uruchomienia procesu weryfikującego. Po wstępnym uruchomieniu programu SPSS wyświetla tę informację, która w tabeli A.l została zawarta w wierszu polecenia DATA LIST, Na ekranie monitora pojawi się więc lista zmiennych, numery rekordów oraz numery kolumn, w których komputer czytał wartości każdej zmiennej, szerokość pola dla każdej zmiennej oraz odpowiadająca im liczba miejsc po przecinku. Informacje te trzeba sprawdzić bardzo dokładnie, aby upewnić się, że dane zostały poprawnie przekształcone w plik systemowy. Jeżeli okaże się, że format danych jest poprawny, to można przejść do następnego etapu i wprowadzić polecenie PROCEDURES, aby policzyć FRECjUENCIES lub jednowymiarowe rozkłady dla każdej zmiennej. Raport, który pojawi się na monitorze w wyniku wykonania przez program tego polecenia, pozwoli określić, ile poprawek trzeba wprowadzić do danych, zanim będzie można przejść do uruchomienia procedur statystycznych (patrz rozdział 14). Ogólny format polecenia FRECjUENCIES przedstawia się w sposób następujący: FREQUENCIES VARIABLES = NAZWA ZMIENNEJ,, NAZWA ZMIENNEJ2, ... , NAZWA ZMIENNEJ,,. Zmienne wpisane obok siebie mogą zostać tu wprowadzone za pomocą skróconej formuły NAZWA ZMIENNEJpierwej TO NAZWA ZMIENNEJostalnieJ, wszystkie zaś zmienne równocześnie można włączyć do analizy, wpisując wyrażenie ALL zaraz za znakiem równości. Tabela A.2 przedstawia sekwencję poleceń dla danych GSS93 wykorzystaną w niniejszym przykładzie. Tabela A.2. Tworzenie systemowego pliku SPSS dla zbioru danych z GSS 1993 TITLE (tytuł) FILE HANDLE (plik roboczy) FILE HANDLE (plik roboczy) DATA LIST (lista zmiennych) [Wstaw tutaj wstępny JCL dla komputera głównego) TWORZENIE PLIKU SYSTEMOWEGO DLA ZBIORU DANYCH GSS 1993 DATA/[specyfikacja pliku] GSS93/[specyfikacja pliku] FILE = DATA RECORDS= 1 /l ID 1-4, AGE 5-6, SEX 7, RACE 8, REGION 9, MARITAL 10, EDUC 11-12, DEGREE 13, INCOME 14-15, PARTYID 16, EQWLTH 17, CAPPUN 18, RACSEG 19, HAPPY 20, HOMOSEX 21, HELPPOOR 22, HELPNOT23, HELPSICK 24, HELPBLK 25, POLYIEWS 26, 524 NATFARE 27, NATCITY 28, NATRACĘ 29 VARIABLE LABELS (etykiety zmiennych) SEX 'PŁEĆ RESPONDENTA' /RACE 'RASA RESPONDENTA' /REGION 'REGION STANÓW ZIEDNOCZONYCH' [Wstaw tutaj etykiety dla kolejnych zmiennych] /NATRACĘ 'POLEPSZENIE WARUNKÓW DLA CZARNYCH OBYWATELI' VALUE LABELS (etykiety wartości) SEX 1 'MĘŻCZYŹNI' 2 'KOBIETY' /REGION 0 'NIE USTALONO' 1 'NOWA ANGLIA' 2 'ŚRODKOWOATLANTYCKI' 3 'CENTRALNY PN WSCH.' 4 'CENTRALNY PN ZACH.' 5 'POŁUDNIOWOATLANTYCKT 6 'CENTRALNY PD WSCH.' 7 'CENTRALNY PD ZACH.' 8. GÓRSKI' 9. 'REG. PACYFIKU' [Tutaj wstaw pozostałe etykiety] MISSING VALUES (brakujące dane) AGE, INCOME (0, 98, 99)/ EDUC (97, 98, 99)/ REGION (0)/ MARITAL (9)/ DEGREE (7, 8, 9)1 PARTYID (8, 9)1 EQWLTH TO NATRACĘ (0, 8, 9) FREQUENCIES (częstości) VARIABLES = ALL SA VE (zachowaj) OUTFILE =GSS93/MAP Kolejne uruchomienia programu. Kiedy już plik systemowy SPSS raz został utworzony, można go przywołać, używając odpowiednich wyrażeń języka JCL oraz poleceń FILE HANDLE [w wersji dla komputera głównego] oraz GET. Polecenie GET (użyj) wyznacza aktywny plik systemowy SPSS, w którym użytkownik chce wykonać operacje zapisane w pliku poleceń. Format polecenia GET przedstawia się w sposób następujący: GET FILE = [specyfikacja pliku systemowego lub roboczego] Czyszczenie danych Kiedy użytkownik upewni się, że specyfikacja polecenia DATA LIST jest poprawna i że wszystkie dane zostały odczytane w odpowiednim formacie, powinien się przyjrzeć raportowi, który pojawi się na ekranie monitora w wyniku przeprowadzenia procedury FREQUENCIES. Trzeba sprawdzić, czy wśród wyświetlonych przez program vjartóś>c\ cj\a YaiAe,} V.o\e.yve\ zmiennej me, nojawity się jakieś nieprawidłowe kody. Weźmy jako przykład zmienną MARITAL (stan cywilny), która została zakodowana w sposób następujący: 1 = ŻONATY/MĘŻATKA, 2=WDOWIEC/ WDOWA, 3 = ROZWODNIK/ROZWÓDKA, 4 = POZOSTAJĄCY/(A) W SEPARACJI, 5 = KAWALER/PANNA oraz 9 = NIE DOTYCZY. Jeżeli w wyświetlonych przez program częstościach (FREQUENCIES) dla tej zmiennej pojawi się wartość 7, to przy powtórnym uruchomieniu pliku poleceń można albo zadeklarować tę liczbę jako MISSING VALUE, albo zamienić ją na inną wartość, uwzględnioną w kluczu odpowiedzi do kwestionariusza lub w arkuszu kodów. Jeżeli nie mamy dostępu do oryginalnego źródła kodowania i nie jesteśmy w stanie sprawdzić, co przypuszczalnie znaczy wartość 7, to możemy użyć następującej sekwencji poleceń, która „wyczyści" nieprawidłową odpowiedź: 525 GET FILE = [nazwa] MISSING VALUES MARITAL (7, 9) [tutaj wstaw pozostałe modyfikacje, a następnie procedury] SAVE OUTFILE = [nazwa] Włączenie polecenia SAVE do powyższej sekwencji poleceń sprawi, że wszystł kie modyfikacje oraz zmiany w pliku systemowym zostaną zachowane. Odtejl chwili za każdym razem, kiedy zmienna MARITAL zostanie włączona do analizfl SPSS będzie uważał liczbę 7 za brakującą wartość (MISSING VALUE) i będzieB traktował tak jak wszystkie inne brakujące dane. Na przykład program nie będ^H uwzględniał tej wartości przy wykonywaniu obliczeń statystycznych aż do momen-l tu, w którym użytkownik nie zmieni polecenia i nie przekaże wyraźnej instrukcji. I żeby jej użyć. Odnotujmy też, że system w niektórych ośrodkach obliczeniowych I nie pozwala na wykorzystanie w tej samej sekwencji poleceń tej samej nazwy pliku I w poleceniach GET i SAVE. Najlepiej zasięgnąć porady konsultanta ośrodka I w kwestii najbardziej skutecznego sposobu eliminacji niepoprawnych odpowiedzi. I Na użytek dalszych przykładów przyjmiemy założenie, że sekwencja poleceń za- I wiera odpowiedni JCL oraz właściwą specyfikację poleceń FILE HANDLE oraz GET. Jeżeli użytkownik utworzył zbiór danych i natrafił w nim na niewłaściwe kate-j gorie odpowiedzi, to może użyć poleceń SELECT IF (wybierz jeżeli) oraz LIST (listuj) po to, by zidentyfikować i wyświetlić obserwacje zawierające błędne kody. I Analiza tej listy pozwoli określić, jakiej odpowiedzi udzieliła osoba badana. Można I potem zmienić nieprawidłowe kody za pomocą poleceń IF (jeżeli) albo RECODE I (rekoduj) i utrwalić je w pliku systemowym, włączając do listy polecenie SAVE I (o tej sekwencji będzie mowa w dalszej części niniejszego tekstu). Polecenie SELECT IF umożliwia wybranie ze zbioru pewnej grupy obserwacji^ która następnie zostanie poddana analizie. W naukach społecznych badacze często; zainteresowani są analizą odpowiedzi pewnej grupy osób, na przykład „kobiet", „ludzi starych" albo „demokratów". Odpowiedzi tych osób zapisane są w zbiorze danych razem z odpowiedziami badanych, którzy charakteryzują się innymi wartościami interesującej badacza cechy. Polecenie SELECT IF umożliwia szybkie wybranie ze zbioru grupy takich obserwacji, które mają daną właściwość. Jest to najbardziej powszechne zastosowanie polecenia SELECT IF. Można jednak używać tego polecenia także podczas czyszczenia danych. Załóżmy, że użytkownik znalazł wśród wartości zmiennej MARITAL dwie odpowiedzi zakodowane cyfrą 7 (przyjmując, że w zmiennej tej nie pojawiły się inne niepoprawne kody). Może wtedy za pomocą polecenia SELECT IF wyizolować te niepoprawne odpowiedzi. Formuła polecenia SELECT IF przedstawia się następująco: SELECT IF NAZWA ZMIENNEJ [operatory logiczne] wartość, gdzie operatory logiczne to: Operator Znaczenie EQ albo = równe LT albo < mniejsze niż 526 LE albo <= mniejsze niż lub równe GT albo > większe niż GE albo >= większe niż lub równe NE albo < > nierówne, a wartość może być liczbą lub nazwą innej zmiennej. Można użyć polecenia SE-LECT IF w sposób bardziej skomplikowany, formułując złożone wyrażenie logiczne. Używamy w takim wypadku operatorów AND (i) (wszystkie warunki muszą zostać spełnione, by obserwacja została wybrana), OR (lub) (jeden z warunków musi zostać spełniony, by obserwacja została wybrana) lub też NOT (nie) (wartość charakteryzująca wybrane obserwacje nie jest wynikiem wyrażenia). Oczywiście samo wyizolowanie obserwacji zawierających niepoprawne kody w zmiennej MARITAL nie wystarczy, by wyczyścić dane. Trzeba też użyć polecenia LIST, by wyświetlić wartości niektórych zmiennych dla wybranych obserwacji. W omawianym tutaj przykładzie do identyfikacji i wyczyszczenia niepoprawnych odpowiedzi dla zmiennej MARITAL wystarczy wylistowanie wartości zmiennej ID. Można wtedy odwołać się do oryginalnego źródła kodowania (kwestionariusza albo arkusza kodowego) i odtworzyć poprawne odpowiedzi. Format polecenia LIST przedstawia się: LIST VARIABLE = [lista zmiennych]. Sekwencja pomocnych w czyszczeniu zmiennej MARITAL poleceń jest następująca: SELECT IF MARITAL EQ 7 LISTVARIABLES = ID Załóżmy, że po analizie raportu okazało się, iż w wypadku obserwacji o numerach identyfikacyjnych (ID) 24 i 87 wartość zmiennej MARITAL wynosi 7. Załóżmy dodatkowo, że poprawne odpowiedzi to: 1 dla obserwacji nr 24 i NIE DOTYCZY dla obserwacji nr 87. Trzeba więc dla pierwszej z tych obserwacji zamienić kod 7 na kod 1, dla drugiej zaś liczbę 7 zadeklarować jako brakującą wartość (MIS-SING VALUE). Możemy dokonać tych przekształceń przy kolejnym uruchomieniu programu, włączając do sekwencji polecenie IF po to, by określić konieczne do speł-j nienia warunki. Ogólny format wyrażenia IF jest następujący: IF [warunek logiczny] zmienna docelowa = wartość, gdzie warunek logiczny oraz wartość zdefiniowane są tak samo jak w polu specy-fikacyjnym polecenia SELECT IF, a zmienna docelowa jest zmienną, do której wartości mają zostać dołączone. Sekwencja poleceń, która wyczyści dwie obserwacje wykorzystane w powyższym przykładzie, jest następująca: IF ID EQ 24 MARITAL = 1 MISSING VALUES MARITAL (7,9) [inne modyfikacje] SAVE OUTFILE = [nazwa] 527 Wyrażenie IF zmieni liczbę 7 na liczbę 1 w zmiennej MARITAL dla obserwacji numer 24. Polecenie MISSING VALUES dołączy błędny kod dla obserwacji numer 87 do listy brakujących danych. Polecenie SAVE utrwali te przekształcenia w pliku systemowym. Kiedy użytkownik upewni się, że wszystkie zmienne zostały wyczyszczone, mo-j że wygenerować kompletny i uaktualniony opis danych zdefiniowanych w pliku systemowym poprzez zastosowanie procedury zwanej DISPLAY (wyświetl). Można ją zapisać jako: DISPLAY DICTIONARY Im dokładniej użytkownik zdefiniuje swoje dane poprzez zastosowanie optymalnych etykiet, tym lepiej raport otrzymany po zastosowaniu polecenia DISPLAY będzie mógł spełniać funkcję książki kodowej. (Tak naprawdę do konstrukcji książki kodów zamieszczonej w przykładzie A. 1 posłużyły informacje wygenerowane po użyciu tego właśnie polecenia). Im ostrożniej będziemy kodować odpowiedzi badanych w arkuszu danych surowych i zapisywać polecenia definiujące dane. tyra mniej czasu trzeba poświęcić na czyszczenie tych danych. Od tego momentu użytkownik jest gotowy do analizy swojego zbioru danych. Rozkłady jednowymiarowe (rozdział 15) Kiedy użytkownik wstępnie analizuje raport, który ukaże się na ekranie monitora po uruchomieniu polecenia FREQUENCIES (częstości), traktuje go jako jednowymiarowy rozkład odpowiedzi dla każdej zmiennej. Kiedy dane już zostały wyczyszczone, może on procedurę tę powtórzyć, by otrzymać dla poszczególnych zmiennych statystyki podsumowujące. Statystyki te to: średnia (mean), błąd standardowy (standard error), mediana (median), wartość modalna (modę), odchylenie standardowe (standard deviation), wariancja (variance), kurtoza (kurtosis), skośność (skew-ness), rozstęp (rangę) oraz wartość minimalna (minimum) i wartość maksymalna (maximum). Jeżeli użytkownik chce, by program policzył dla grupy zmiennych wszystkie te statystyki, to powinien użyć następującej sekwencji poleceń: FREQUENCIES VARIABLES = DEGREE, HAPY /STATISTICS =ALL Jeżeli użytkownik chce uzyskać tylko niektóre z dostępnych statystyk i w ten sposób zaoszczędzić trochę czasu potrzebnego komputerowi do wykonania obliczeń, to może po prostu wypisać nazwy tych statystyk w wyrażeniu: STATISTICS=specyfikacja. W specyfikacji należy wymienić tylko te statystyki, którymi użytkownik jest zainteresowany [np. mean (średnia), modę (wartość modalna)]. Jeżeli użytkownik chce, by program policzył statystyki opisowe (np. średnią, błąd standardowy) dla zmiennych mierzonych na poziomie interwałowym (np. wiek, wynagrodzenie, populacje miejskie) i nie jest mu potrzebny rozkład częstości, to może użyć procedury DESCPJPTIVES (statystyki opisowe). Procedura ta ma następujący format: DESCRIPTIVES VARIABLES = LISTA ZMIENNYCH /STATISTICS = ALL 528 Polecenie DESCRIPTIVES wpisane bez dookreślenia STATISTICS (statystyki) spowoduje, że program policzy średnią, odchylenie standardowe, wartość minimalną, wartość maksymalną, błąd standardowy średniej (standard error of the mean), kurtozę, skośność, rozstęp oraz sumę (sum). W pakiecie SPSS oraz SPSS PC+ da się narysować pewne elementarne wykresy. Jednak, aby uzyskać rysunki od strony jakościowej porównywalne chociażby z podstawowymi pakietami graficznymi dla PC, trzeba posiadać moduł graficzny SPSS. Grafika dostępna w wersji SPSS dla Windows jest znacznie lepsza. Na stronach 556-559 niniejszego dodatku można zobaczyć, jak pakiet dla Windows radzi sobie z jednowymiarowymi wykresami. Pomiar: konstrukcja skal i wskaźników (rozdział 18) W rozdziale 18 zostały omówione zasady konstruowania skal i wskaźników służących do mierzenia postaw respondentów. SPSS oferuje badaczom możliwości tworzenia jednowymiarowych i wielowymiarowych skal na wiele różnych sposobów. Wraz ze wzrostem umiejętności metodologicznych i statystycznych użytkownik może pokusić się o wykorzystanie do skalowania wielowymiarowego różnych opcji w procedurze FACTOR analysis (analiza czynnikowa). Tu ograniczymy się jedynie do omówienia pewnych podstawowych operacji, które wykorzystują polecenia COM-PUTE, RELIABILITY oraz IF. Polecenie COMPUTE (oblicz wartości). Badacze społeczni często uznają za użyteczne tworzenie nowych lub przekształcanie już zapisanych w zbiorze zmiennych. Ważą je, przeliczają lub stosują inne transformacje, wykonując na wartościach tychże zmiennych różne operacje matematyczne. Do tego celu używają zwykle przekształcenia COMPUTE. Format polecenia COMPUTE nie jest skomplikowany. Aby utworzyć złożone wyrażenia, trzeba po prostu użyć operacji logicznych i matematycznych. Można na przykład dodawać (+), odejmować ( —), dzielić (/) i potęgować (**N). Polecenie to jest też w dodatku bardzo elastyczne, ponieważ jako argumenty mogą tu występować tak nazwy zmiennych, jak i liczby rzeczywiste oraz całkowite. Ogólny format polecenia COMPUTE przedstawia się następująco: COMPUTE OBLICZANA ZMIENNA = WYRAŻENIE ARYTMETYCZNE Aby przedstawić w niniejszym dodatku statystyki dla interwałowego poziomu pomiaru autorzy policzyli (COMPUTEd) kilka nowych zmiennych. I tak na przykład GOVACT jest skalą, która mierzy postawy respondentów wobec ogólnie pojętej aktywności rządu. Wysoki wynik w tej skali znaczy, że respondent jest przeciwny takiej aktywności. GOVACT jest kombinacją odpowiedzi na pozycje kwestionariusza reprezentowane przez zmienne EQWLTH, HELPBLK, HELPNOT, HELPPOOR oraz HELPSICK. Początkowo do tej listy dołączona była również zmienna NATCITY, ponieważ treść pozycji, którą zmienna ta reprezentuje, sugerowała, że mogłaby ona pasować do koncepcji pojedynczej skali mierzącej stosunek do rządowej aktywności. Jednak z uwagi na fakt, że była to dopiero faza eksploracji problemu, autorzy zdecydowali się na przeanalizowanie rzeczywistego udziału poszczególnych zmiennych z powyższej listy w jednowymiarowym skalowaniu pojęcia aktywności rządu. Chcieli policzyć skalę, odwołując się tylko do 529 tych zmiennych, które mają w niej duży udział, odrzucając równocześnie te zmień-1 ne, które nie spełniają kryteriów akceptowalności. Analiza rzetelności (RELIABILITY). Aby oszacować udział poszczególnydB zmiennych w tworzonej skali, trzeba policzyć średnią z interkorelacji zmiennych! i odnieść ją do liczby zmiennych, które tę skalę tworzą. Dostępną w SPSS statys-1 tyką, która pomaga ten cel osiągnąć, jest alfa-Cronbacha, a procedurą SPSS, która I szacuje tak definiowaną rzetelność, jest RELIABILITY (rzetelność). Jednak zanim uruchomimy procedurę RELIABILITY dla tworzonej skali, musi-1 my się upewnić, czy wszystkie tworzące tę skalę zmienne są kodowane w tym sa-1 mym kierunku. Sprawdzamy więc, czy wysoka wartość (4 albo 5) na każdej ze I zmiennych jest wskaźnikiem postawy opozycyjnej wobec aktywności rządu. I W przypadku skali GOVACT jest tak, że wszystkie zmienne z wymienionej listy są kodowane w tym samym kierunku. Znaczy to, że niski wynik na każdej ze zmiennych tworzących skalę wskazuje na postawę przychylną rządowemu interwencjonizmowi, wysoki zaś wynik na tych samych zmiennych wskazuje na postawę, która jest opozycyjna wobec interwencjonizmu rządu. Dlatego rekodowanie wartości zmiennych nie jest tu potrzebne. W procesie konstrukcji innego wskaźnika wykorzystanego w niniejszym dodatku wykorzystanie procedury RECODING (rekoduj) było konieczne. Wskaźnik LIBERAŁ, mierzący postawy liberalne respondentów, utworzony został poprzez skalowanie następujących zmiennych: CAPPUN, HOMOSEX, NATCITY, NATFARE, NATRACĘ, POLVIEWS oraz RACSEG. W zbiorze danych nie wszystkie te zmienne były kodowane w tym samym kierunku. Niski wynik dla czterech spośród nich wskazywał na odpowiedzi liberalne, niski zaś wynik na pozostałych trzech wskazywał na odpowiedzi konserwatywne. Autorzy zastosowali procedurę RECO-DE po to, by wartości pomiarów wskazujących na niski poziom liberalizmu były zgodne w kierunku z wartościami pomiarów wskazujących na niski poziom konserwatyzmu. W przedstawionym poniżej przykładzie niskie wartości na zmiennych identyfikowanych w wierszu RECODE wskazują na liberalizm, a wartości niskie na wszystkich pozostałych zmiennych wskazują na konserwatyzm. Trzeba było więc użyć procedury RECODE po to, by tak zmienić wartości dla zmiennych wskazujących na niski poziom liberalizmu, aby były one zgodne z pozostałymi zmiennymi. W celu przekodowania zmiennych należy użyć następującej sekwencji poleceń: RECODE NATCITY (1=3) (2 = 2) (3 = 1) INTO NATCITY2 RECODE NATFARE (1=3) (2 = 2) (3 = 1) INTO NATFARE2 RECODE NATRACĘ (1 = 3) (2 = 2) (3 = 1) INTO NATRACE2 RECODE POLVIEWS (1 = 7) (2 = 6) (3 = 5) (4 = 4) (5=3) (6=2) (7= 1) INTO POLVIEW2 Można zmieniać wartości zmiennych za pomocą polecenia RECODE bez użycia w specyfikacji wyrażenia INTO (na). Wykorzystanie INTO w powyższej sekwencji 530 poleceń spowoduje, że w pliku systemowym zostaną zachowane zarówno oryginalne, jak i nowe zmienne. Tabela A.3. Reliability Analysis: Scalę (AU) [Analiza rzetelności: skaluj (wszystkie)] Item-Total Statistics [Statystyki: pozycja-wynik ogólny] Scalę Corrected Scalę Mean if Variance if Item-Total Item Deleted Item Deleted Correlation Alpha if Item [Średnia dla [Wariancja dla [Poprawiona Deleted skali, kiedy skali, kiedy korelacja [Alfa, gdy pozycja pozycja pozycji pozycja zostanie zostanie z wynikiem zostanie wyłączona] wyłączona] ogólnym] wyłączona] EQWLTH 13,3485 12,4605 0,4460 0,6611 HELPBLK 13,5379 17,2821 0,3772 0,6513 HELPNOT 13,9520 16,0863 0,5281 0,6033 HELPPOR 14,0354 16,5608 0,5511 0,6025 HELPS1CK 14,6187 16,9656 0,4304 0,6350 NATC1TY 15,4571 20,2842 0,2529 0,6841 Reliability Coefficients [wskaźniki rzetelności] N of Cases [liczba obserwacji] = 396 N of Items [liczba pozycji] = 6 Alpha (alfa) =0,6814 Jeżeli użytkownik upewni się, że wszystkie zmienne, z których chce utworzyć skale kodowane, są w tym samym kierunku, to może je wprowadzić do procedury RELIABILITY. Format tego polecenia jest następujący: RELIABILITY/VARIABLES = NAZWA ZMIENNEJ 1, NAZWA ZMIENNEJ 2 ITD. /SUMMARY = TOTAL W pierwszej analizie rzetelności skali GOVACT należy użyć wszystkich zmiennych, które skalę tę miałyby tworzyć, uruchamiając następujące polecenie: RELIABILITY/VARIABLES = EQWLTH HELPBLK HELPNOT HELPPOOR HELPSICK NATCITY /SUMMARY = TOTAL Raport z wykonania przez program powyższego polecenia przedstawia tabela A.3. Podstawowym w interpretacji rzetelności skali wskaźnikiem statystycznym jest alfa, drukowana na końcu raportu w tej części tabeli, która jest przeznaczona dla współczynników rzetelności (reliability coefficients). Współczynnik alfa może przybierać wartości od 0 (brak zgodności wewnętrznej) do 1 (całkowita zgodność wewnętrzna). Jaka wysokość tego współczynnika wskazuje na taki poziom zgodności wewnętrznej, który możemy zaakceptować? Nunnally proponuje zastosowanie 531 tzw. szybkiej reguły, która stanowi, że akceptujemy wszystkie wartości nie mniejsze niż 0,703. Jak wynika z raportu otrzymanego po wstępnym uruchomieniu procedury RELIABILITY, współczynnik alfa dla skali GOVACT wyniósł 0,6814. Jest to trochę za mało, by spełnić kryterium wprowadzone przez szybką regułę. Jeżeli jednak popatrzymy na część raportu zatytułowaną „Item-total statis-1 tics" (Statystyki: pozycja-wynik ogólny), to w kolumnie opatrzonej nagłówkiem „Alpha if Item Deleted" (Alfa, gdy pozycja zostanie wyłączona) zobaczymy, że I jeżeli usuniemy zmienną NATCITY ze skali, to współczynnik alfa wzrośnie do wartości 0,6841. Znaczy to, że jeżeli nie włączymy do skali zmiennej NATCITY, j to skala będzie bardziej rzetelna. Różnica pomiędzy wartościami 0,6841 i 0,6814 nie jest wielka. Jednak niejednokrotnie zdarza się, że rzeczywista wielkość współczynnika alfa otrzymana w wyniku powtórnego zastosowania procedury RELIABILITY już po usunięciu „słabej" pozycji trochę różni się od tej, która zapisana jest w kolumnie „Alpha if Item Deleted" (Alfa, gdy pozycja zostanie wyłączona). Sekwencja poleceń zapisana poniżej spowoduje ukazanie się raportu przedstawionego w tabeli A.4. RELIABILITY/VARIABLES = EQWLTH HELPBLK HELPNOT HELPPOOR HELPSICK /SUMMARY = TOTAL Tabela A.4. Reliability Analysis: Scalę (Ali) [Analiza rzetelności: skaluj (wszystkie)] Item-Total Statistics [Statystyki: pozycja-wynik ogólny] Scalę Corrected Scalę Mean if Variance if Item-Total Item Deleted Item Deleted Correlation Alpha if Item [Średnia dla [Wariancja dla [Poprawiona Deleted skali, kiedy skali, kiedy korelacja [Alfa, gdy pozycja pozycja pozycji pozycja zostanie zostanie z wynikiem zostanie wyłączona] wyłączona] ogólnym] wyłączona] EQWLTH 11,9288 11,6635 0,4517 0,6948 HELPBLK 12,0825 16,4242 0,3610 0,6923 HELPNOT 12,5684 14,6144 0,5739 0.6141 HELPPOR 12,6418 15,2754 0,5716 0,6225 HELPSICK 13,1740 15,7457 0,4589 0,6583 Reliability Coefficients [wskaźniki rzetelności] N of Cases [liczba obserwacji] = = 885,0 N of Items [liczba pozycji]=5 Alpha (alfa) = = 0,7040 3 J. Nunnally (1978), Psychometric Theory, New York: McGraw-Hill. 532 Jak wynika z raportu przedstawionego w tabeli A.4, współczynnik alfa dla skali utworzonej już bez zmiennej NATCITY wynosi 0,7040. Wyłączenie ze zbioru zmiennej NATCITY spowodowało, że zmieniła się liczba obserwacji z 396 na 885. Wzrastająca liczba obserwacji tłumaczy różnicę pomiędzy współczynnikiem i wartością równą 0,6841 zapisaną w poprzednim raporcie. Innymi słowy, wyłączenie ze skali zmiennej NATCITY poprawia współczynnik alfa nie tylko dlatego, że zmienna ta miała relatywnie niskie korelacje z pozostałymi pozycjami skali (wzrost z 0,6814 do 0,6841), lecz również dlatego, że wszystkie te obserwacje, które na zmiennej NATCITY miały brakujące dane, teraz mogły znaleźć się w próbie i przyczyniły się do zwiększenia rzetelności skali (wzrost z 0,6841 do 0,7040). COMPUTE (oblicz wartości) po RELIABILITY (rzetelność). Teraz, kiedy się okazało, że współczynnik alfa dla skali GOVACT wyniósł 0,7040, czyli osiągnął akceptowalny poziom rzetelności, trzeba tylko obliczyć (COMPUTE) nową zmienną. Polecenie, które pozwoli ten cel zrealizować, ma następujący format: COMPUTE GOVACT = EQWLTH + HELPBLK + HELPNOT + HELPPOOR + HELPSICK Wszystkie obliczane nowe zmienne albo wskaźniki można zachować za pomocą polecenia SAVE i w ten sposób utrwalić je w pliku systemowym. W obliczanym wskaźniku lub zmiennej obserwacji zostanie przypisany systemowy brak danej wtedy, gdy przynajmniej na jednej ze zmiennych składających się na ten wskaźnik lub nową zmienną pojawi się brakująca wartość. Wyrażenie IF (jeżeli). Wyrażenie IF jest szczególnie użyteczne wtedy, gdy trzeba konstruować wskaźniki lub typologie (kombinacje cech, które są zwykle odnoszone raczej do etykiet niż do wartości, np. typ idealny w socjologii) za pomocą zmiennych nominalnych albo porządkowych (albo jednych i drugich). Format polecenia IF został już omówiony wcześniej. Załóżmy, że chcemy skonstruować miarę statusu socjoekonomicznego respondentów. Do tego celu możemy użyć wyrażenia IF oraz polecenia VALUE LABELS (etykiety wartości), zapisując następującą sekwencję: IF EDUC LE 8 AND INCOME LE 8 SES = 1 IF EDUC GE 9 AND EDUC LT 16 AND INCOME LE 8 SES = 2 [kontynuuj, dopóki wszystkie kombinacje nie zostaną wyczerpane] VALUE LABELS SES (1) NAJNIŻSZY (2) NISKI ... Zauważmy, że w takiej sekwencji trzeba uwzględnić wszystkie możliwe kombinacje wartości wykorzystanych zmiennych. Innymi słowy, kategoryzacja musi być rozłączna i wyczerpująca. Każdego respondenta trzeba zaliczyć do jakiegoś typu, ale można go zaliczyć tylko do jednego. Zwróćmy również uwagę na to, że możemy różne kombinacje włączyć do jednej kategorii (np. średnie wykształcenie i niski dochód). Jeżeli tak będzie, to obie kategorie otrzymują ten sam kod. 533 Rozkłady dwuwymiarowe (rozdział 16) Jak już wspominano w rozdziale 16, analiza dwuwymiarowa umożliwia dostrzeżenit związków albo relacji pomiędzy dwiema zmiennymi. Można wtedy obserwować, jat jedna zmienna zmienia się w obecności innej zmiennej (współzmienność). Wykorzystując statystyki dwuwymiarowe, możemy nie tylko określić, czy taka relacja w ogóle istnieje (test istotności), ale również poznać jej silę oraz kierunek (miary związku). Pomiary nominalne i porządkowe. W pakiecie SPSS CROSSTABS (tabele krzyżowe) jest procedurą przeznaczoną przede wszystkim do generowania dwuwymiarowych tabel i statystyk dla zmiennych nominalnych i porządkowych. Przybiera ona następującą formę: CROSSTABS TABLES = NAZWA ZMIENNEJ, BY NAZWA ZMIENNEJ, [BY NAZWA ZMIENNEJ3] /NAZWA ZMIENNEJ4 BY NAZWA ZMIENNEJ5 [BY NAZWA ZMIENNEJ6] ZMIENNA, oraz ZMIENNA4 będą w tabelach traktowane jako zmienne zależne (drukowane w pierwszej kolumnie, licząc od lewej strony albo, jak przyjęliśmy w niniejszym podręczniku, na osi Y). ZMIENNA2 i ZMIENNA5 to w tych tabelach zmienne niezależne. ZMIENNA, i ZMIENNA6 spełniają funkcję zmiennych kontrolnych. Dla każdej wartości danej zmiennej kontrolnej program wygeneruje jedną tabelę. Użycie zmiennych kontrolnych to opcja w SPSS. Załóżmy, że chcemy przeanalizować relację pomiędzy poziomem wykształcenia oraz ogólnym poczuciem szczęścia respondentów. Aby zbadać tę relację, trzeba użyć następującej sekwencji poleceń: CROSSTABS TABLES = HAPPY BY DEGREE /CELLS = ROW, COL, TOT/STATISTICS = ALL W tabeli A.5 przedstawiono raport wyświetlany na monitorze w wyniku uruchomienia powyższego polecenia. W komórce otoczonej ramką pojawiły się wartości, które charakteryzują osoby z wykształceniem wyższym licencjackim (DEGREE=3), które równocześnie określają swoje życie jako raczej szczęśliwe (HAPPY = 2). Lewa górna opisowa komórka tabeli (COUNT, ROW PCT, COL PCT, TOT PCT) informuje o kolejności, w jakiej liczby zostały zapisane w każdej komórce. W zaznaczonej komórce liczba 122 oznacza, że 122 respondentów [count (liczebność)] ma wykształcenie wyższe licencjackie i równocześnie swoje życie określa jako raczej szczęśliwe. Spośród wszystkich respondentów, którzy czują się raczej szczęśliwi, 14,4% ma wykształcenie wyższe licencjackie [row percent (procent w wierszu)], a 52,1 % respondentów z wykształceniem wyższym licencjackim określa swoje życie jako raczej szczęśliwe [column percent (procent w kolumnie)]. Liczebność (N) równa 122 to 8,2% [total percent (procent z całości)] w stosunku do całkowitej liczebności badanej grupy respondentów (N= 1492). Tabela A.5 składa się z trzech wierszy i z pięciu kolumn. Wiemy, że wartość współczynników korelacji, na przykład chi-kwadrat (^2), jest funkcją liczby komórek w tabeli. Ponieważ 112 respondentów ma wykształcenie wyższe magisterskie, 534 więc możemy zmniejszyć liczbę komórek w tabeli, wyłączając z niej osoby z takim właśnie wykształceniem. Aby to zrobić, należy użyć polecenia: SELECT IF DEGREE LE 3 Innym sposobem redukcji liczby komórek w tabeli jest łączenie kategorii. Można na przykład respondentów z wykształceniem wyższym licencjackim i respondentów z wykształceniem wyższym magisterskim włączyć do jednej kategorii, ponieważ wszystkie te osoby mają wykształcenie wyższe. Łączymy kategorie za pomocą polecenia RECODE: RECODE DEGREE (3, 4-3) Można też pójść jeszcze dalej i połączyć badanych tak, by w konsekwencji włączyć wszystkich respondentów, którzy nie studiowali, do jednej kategorii, natomiast wszystkich respondentów, którzy ukończyli studia wyższe, do drugiej: RECODE DEGREE (0 THRU 2= 1) (3, 4 = 2) Badacze społeczni często są zainteresowani analizowaniem relacji pomiędzy grupami respondentów. Badania takie można przeprowadzać, posługując się procedurą CROSSTABS (tabele krzyżowe). Trzeba wtedy w polu TABLES = specyfikacja wpisać trzecią zmienną (kontrolną). Jeżeli jednak badacz jest zainteresowany tylko jedną wartością zmiennej kontrolnej (albo gdy używa procedury, która nie dopuszcza możliwości włączania zmiennych kontrolnych), to musi się posłużyć polece- Tabela A.5. Tabela krzyżowa dla zmiennych HAPPY i DEGREE HAPPY GENERAL HAPPINESS by DEGREE RS HIGHEST DEGREE DEGREE Page 1 of 1 Count Row Pet LT HIGH HIGH SCH JUNIOR C BACHELOR GRADUATE Col Pet SCHOOL OOL OLLEGE Row Tot Pet 0 1 2 3 4 Total 1 80 234 26 91 44 475 VERY HAPPY 16.8 49.3 5.5 19.2 9.3 31.8 ' 28.8 30.1 28.9 38.9 39.3 5.4 \ 15.7 \ 1.1 \ 6.1 1 2.9 \ 2 152 459 56 122 60 849 PRETTY HAPPY 17.9 54.1 6.6 14.4 7.1 56.9 54.7 59.0 62.2 52.1 53.6 10.2 30.8 3.8 8.2 4.0 3 46 85 8 21 8 168 NOT TOO HAPPY 27.4 50.6 4.8 12.5 4.8 11.3 16.5 10.9 8.9 9.0 7.1 3.1 5.7 .5 1.4 .5 Column 278 778 90 234 112 1492 Total 18.6 52.1 6.0 15.7 7.5 100.0 535 cd. tabeli A.5. Chi-Sguare Fearson Likelihood Ratio Mantel-Haenszel test for linear association Minimum Expected Freguency - Value 20.06834 19.24346 13.84328 DF Significance .01008 .01361 .00020 10.134 Statistic Phi Cramer's V Contingency Coefficient Lambda : symmetric with HAPPY dependent with DEGREE dependent Goodman t Kruskal Tau : with HAPPY dependent with DEGREE dependent Uncertainty Coefficient : symmetric with HAPPY dependent with DEGREE dependent Kendall-s Tau-b Kendall's Tau-c Gamma Somers' D : symmetric with HAPPY with DEGREE dependent dependent Pearson's R Spearman Correlation sssa zss Value -11598 •08201 ¦11520 .00000 .00000 .00000 .00585 .00354 .00576 .00693 .00493 -.08272 -.07555 -.13496 -.08246 -.07638 -.08960 -09636 .09237 .09859 .09703 ASE1 .00000 .00000 .00000 .00308 .00186 -00267 .00320 .00228 .02350 •02154 -03810 ¦02343 .02173 •02546 .02585 .02624 *1 Pearson chi-square probability *2 Based on chi-square approximation *3 Likelihood ratio chi-square probability *4 VAL/ASE0 is a t-value based on a normal approximation. Val/ASE0 2.15880 2.15880 2.15880 -3.50764 -3.50764 -3.50764 -3.50764 -3.50764 -3.50764 -3.73680 -3.58084 Approximate Significanc .01008 '1 -01008 M •01008 n .02593 »2 .00692 -2 -01361 *3 .01361 «3 .01361 -3 .00019 M .00035 <4 Number of Missing Obserwations: °s is the significance niem SELECT IF, aby tę grupę odpowiedzi wybrać. Można użyć jednocześnie poleceń SELECT IF oraz RECODE po to, by wybrać obserwacje oraz połączyć kategorie. Następująca sekwencja poleceń: SELECT IF SEX EQ 2 AND MARITAL EQ 1 RECODE DEGREE (0 THRU 2= 1) (3, 4 = 2) 536 CROSSTABS TABLES = HAPPY BY DEGREE /STATISTICS ALL spowoduje, że w raporcie pojawi się tabela uwzględniająca odpowiedzi jedynie zamężnych kobiet. (Zauważmy, że zmienne użyte w poleceniu SELECT IF nie muszą pojawić się ani w poleceniu CROSSTABS, ani w poleceniach uruchamiających inne procedury). Pomiary interwałowe. Procedura CORRELATIONS (korelacje) liczy współczynnik korelacji według momentu iloczynowego Pearsona (r Pearsona) i inne statystyki powiązania przeznaczone dla zmiennych mierzonych na interwałowym poziomie pomiaru oraz bada istotność statystyczną tych wskaźników, używając do tego celu dwustronnego testu t. W większości przypadków współczynniki policzone przy użyciu procedury CORRELATIONS są ekwiwalentne do współczynnika korelacji rangowej Spearmana. Współczynnik ten zawiera procedura NONPAR CORR (korelacje nieparametryczne) i jest przeznaczony do pomiaru związku dwóch zmiennych porządkowych lub zmiennej interwałowej i zmiennej porządkowej albo też dwóch zmiennych interwałowych. Sekwencja: CORRELATIONS VARIABLES = AGE, EDUC, INCOME, LIBERAŁ, GOVACT /STATISTICS ALL spowoduje pojawienie się raportu przedstawiającego średnie oraz odchylenia standardowe dla zmiennych, tabelę wariancji-kowariancji, tabelę zawierającą współczynniki korelacji, N, dla którego obliczenia zostały wykonane, oraz poziom istotności. W tabeli A.6 w komórce otoczonej ramką znajduje się korelacja pomiędzy zmienną AGE (wiek) oraz skalą LIBERAŁ (liberalizm). Im wyższy wynik respondenta w skali LIBERAŁ, tym jest on bardziej liberalny. W przedostatnim wierszu raportu znajduje się opis tabeli. W pierwszym wierszu każdej komórki pojawia się r Pearsona (współczynnik), drugi wiersz przeznaczony jest na N (liczbę obserwacji), trzeci zaś na istotność testu dwustronnego. Interpretacja wskaźników z zaznaczonej komórki jest taka, że im starszy jest respondent, tym jest on mniej liberalny. Siła związku pomiędzy tymi zmiennymi wynosi —0,2784. Nie jest to więc związek bardzo silny, jest on jednak statystycznie istotny na poziomie p = 0,000. (Powtórzmy raz jeszcze, że im wyższe N, tym większe prawdopodobieństwo uzyskania statystycznej istotności relacji pomiędzy zmiennymi. W omawianym przypadku bardziej właściwa byłaby więc dyskusja na temat siły związku niż na temat jego istotności statystycznej). Można też narysować wykres rozrzutu, aby wzrokowo oszacować relacje pomiędzy dwiema zmiennymi. Jeżeli w komputerze zamstałowarry został moduł graftcztry SPSS, to procedura PLOT (wykres) wygeneruje wykres dla tej relacji. Sekwencja: PLOT PLOT = AGE WITH LIBERAŁ spowoduje pojawienie się raportu, gdzie relacja pomiędzy wiekiem i poziomem liberalizmu zostanie przedstawiona w formie graficznej (ryc. A.l). 537 Tabela A.6. Raport z procedury korelacyjnej dla zmiennych mierzonych na interwałowym po» mie pomiaru Variable AGE EDUC INCOME LIBERAŁ GOVACT Variables Cases 1495 1496 1434 345 885 AGE AGE AGE AGE EDUC EDUC EDUC INCOME INCOME LIBERAŁ AGE EDUC INCOME LIBERAŁ GOYACT EDUC INCOME LIBERAŁ GOVACT INCOME LIBERAŁ GOVACT LIBERAŁ GOVACT GOVACT AGE 1.0000 ( 1495) P- . -.2593 ( 1491) P- .000 -.0949 ( 1429) P- .000 -.2784 ( 345) P- .000 .1929 ( 882) P- .000 Mean 46.2268 13.0374 10.4777 16.7797 15.5989 Std Dev 17.4180 3.0741 2.6535 3.4427 4.6315 Cases Cross-Prod Dev Variance-Covar 1491 1429 345 882 1430 344 882 334 849 159 -20667 -6186 -5541 13315. 4446. 803. 2713. -49. 2242. -1224 .0463 9643 2029 5556 1888 3663 3039 4072 5830 7107 -13.8705 -4 .3326 -16 .1081 15 .1141 3 .1114 2, ,3422 3. 0798 -. 1484 2. 6446 -7. 7513 Correlation Coefficient: EDUC -.2593 ( 1491) P- .000 1.0000 ( 1496) P- . .3819 ( 1430) P- .000 .2205 ( 344) P- .000 .2227 ( 882) P- .000 INCOME LIBERAŁ G0VAC1 -.0949 ( 1429) P- .000 -.2784 ( 345) P- .000 .192? ( 882) P- .OOC .3819 ( 1430) P- .000 .2205 ( 344) P- .000 .2227 ( 882) P- .000 1.0000 ( 1434) P- . -.0168 ( 334) P- .760 .2181 ( 849) P- .000 -.0168 ( 334) P- .760 1.0000 ( 345) P- . -.4807 ( 159) P- .000 .2181 ( 849) P- .000 i -.4807 ( 159) P- .000 1.0000 ( 885) P- . (Coefficient / (Cases) / 2-tailed Significance) ' • " 1. Printed if . coefficient cannot be computed E30 wiek respondenta Ryc. A.l. Wykres rozrzutu dla zmiennych LIBERAŁ i AGE Analizy wielowymiarowe (rozdział 17) Jak już wspominano w rozdziale 17, trzy główne funkcje analizy wielowymiarowej to kontrola, interpretacja oraz predykcja. Z punktu widzenia technicznego potrzeby w zakresie dwóch pierwszych funkcji zaspokaja użycie w równaniach zmiennych kontrolnych. Procedury CROSSTABS oraz PARTIAL CORR (korelacja cząstkowa) dopuszczają możliwość zastosowania tego typu kontroli. Predykcja jest domeną regresji (REGRESSION). Wielowymiarowe tabele krzyżowe (CROSSTABS). Podstawowe zasady zapisu polecenia CROSSTABS zostały już omówione. Fragment specyfikacji tego polecenia ujęty w nawiasy kwadratowe zawiera zmienne kontrolne. Jeżeli na przykład zmienną kontrolną byłaby „płeć respondenta", to raport powinien się składać z dwóch tabel zawierających te same zmienne zależne i niezależne, ale różniących się płcią respondentów. Pierwsza tabela zawierałaby wyniki policzone tylko dla mężczyzn, druga zaś tylko dla kobiet. Liczebności (N) w obu tabelach oczywiście różniłyby się, ale struktura wierszy i kolumn byłaby taka sama. PARTIAL CORR (korelacja cząstkowa). Koncepcja korelacji cząstkowej jest pojęciowo zbliżona do wielowymiarowej procedury CROSSTABS, w której w trakcie analizowania relacji pomiędzy dwiema zmiennymi kontrolowany jest efekt innych zmiennych. Podczas gdy procedura CROSSTABS fizycznie eliminuje ten efekt poprzez podziać obserwacji zgodnie z wartościami zmiennej 'WonticAnej, procedura PARTIAL CORR eliminuje go statystycznie. Różnica pomiędzy tymi procedurami może się okazać bardzo istotna, jeżeli chcemy kontrolować więcej niż jedną zmienną, ponieważ rozdzielanie obserwacji prowadzi do zmniejszania się liczebności w komórkach tabeli. Jeżeli więc analiza obejmuje zmienne mierzone na interwałowym poziomie pomiaru, to powinniśmy użyć PARTIAL CORR. 539 Tabela A.7. Raport dla korelacji cząstkowej Variable GOVACT AGE LIBERAŁ INCOME Mean 15.4091 44.5519 16.8571 10.6364 Standard Dev 4.4511 17.1083 3.6343 2.4755 Cases 154 154 154 154 --------PARTIAL Zero Order Partials GOVACT G0VACT AGE LIBERAŁ INCOME 1.0000 ( 0) P- . .2337 ( 152) P- .004 -.4707 ( 152) P- .000 .0943 ( 152) P- .245 C0RRELATION .2337 152) .004 1.0000 ( 0) P- . -.3031 ( 152) P- .000 -.1638 ( 152) P- .042 -.4707 ( 152) P- .000 -.3031 ( 152) P- .000 1.0000 ( 0) p- . .0647 ( 152) P- .426 COEFFICIENT AGE LIBERAŁ INC0ME .0943 ( 152) P- .245 -.1638 ( 152) P- .042 .0647 152) ' .426 1.0000 ( 0) p- . 'Coemcient/a,,.,,^.^^^^ " " i- Printed U . coefficient ^ ^ ^^ ""-PARTIAL CORRELATr0N ^ Co-ollingfor.. LIBERA1 AGE G0VACT .1083 ( 151) P- .183 • " « P-nted „ a coerficient cannot be ^^ cd. tabeli A.7 --- PARTIAL CORRELATION COEFFICIENTS---- Controlling for.. INCOME AGE G0VACT .2537 ( 151) P- .002 (Coefficient / (D.F.) / 2-tailed Significance) " . " is printed if. a coefficient cannot be computed ------PARTIAL CORRELATION COEFFICIENTS------- Controlling for. . LIBERAŁ INCOME AGE GOTACT .1326 ( 150) P- .103 (Coefficient / (D.F.) / 2-tailed Significance) " . " is printed if a coefficient cannot be computed Następujący wiersz w pliku poleceń: PARTIAL CORR GOVACT WITH AGE BY LIBERAŁ, INCOME (1, 2) /STATISTICS =ALL spowoduje, że program policzy korelacje cząstkowe zerowego, pierwszego oraz drugiego rzędu dla każdej kombinacji zmiennej zależnej (GOVACT) i zmiennej niezależnej (AGE). Funkcję zmiennych kontrolnych spełniają tu pojedynczo oraz jednocześnie zmienne LIBERAŁ oraz INCOME. Powtórzmy raz jeszcze, że korelacje cząstkowe zerowego rzędu są tym samym, co współczynnik korelacji r Pearsona pomiędzy zmienną zależną i zmienną niezależną. Korelacja cząstkowa pierwszego rc.edu je,?>V korelacją kontrolowaną przai. clerwszą zmienną kontrolną. Z korelacją cząstkową drugiego rzędu mamy natomiast do czynienia wtedy, gdy do pierwszej zmiennej kontrolnej dołączymy drugą i obie zmienne będą spełniały funkcje kontrolne jednocześnie. W specyfikacji polecenia w nawiasach może pojawić się co najwyżej rząd równy pięć. Rząd nie może przekroczyć liczby zmiennych kontrolnych. Przykład procedury PARTIAL CORR przedstawia tabela A.7. 541 Tabela A.8. Raport z regresji, gdzie GOYACT jest zmienną zależną MULTIPLE REGRESSION * * * # Listwise Deletion of Missing Data Mean Std Dev Label GOVACT LIBERAŁ INCOME EDUC 15.409 16.857 10.636 13.442 4.451 Scalę of Government Inactlvlsm 3.634 Scalę of Liberał Attitudes 2.476 TOTAL FAMILY INCOME 3.160 HIGHEST YEAR OF SCHOOL COMPLETED N of Cases = 154 Correlation: GOVACT LIBERAŁ INCOME EDUC GOVACT 1.000 -.471 .094 .141 LIBERAŁ -.471 1.000 .065 .267 INCOME .094 .065 1.000 .311 EDUC .141 .267 .311 1.000 Eguation Number 1 MULTIPLE REGRESSION **** Dependent Variable. . GOVACT Scalę of Goverrunent Inactlv Błock Number 1. Method: Stepwise Criteria PIN .0500 POUT .1000 Variable(s) Entered on Step Number 1.. LIBERAŁ Scalę of Liberał Attitudes Multiple R .47071 R Square .22156 Adjusted R Square .21644 Standard Error 3.94003 R Sguare Change .22156 F Change 43.26314 Signif F Change .0000 Analysis of Variance DF Regression 1 Residual 152 Sum of Squares 671.60858 2359.61869 F = 43.26314 Signif F = .0000 AIC 424.31262 PC .79892 CP 16.80225 SBC 430.38652 Mean Square 671.60858 15.52381 Var-Covar Matrix of Regression Coefficients (B) Below Dlagonal: Covariance Above: Correlation LIBERAŁ LIBERAŁ .00768 [542] cd. tabeli A.8 XTX Matrix LIBERAŁ LIBERAŁ 1.00000 GOVACT .47071 INCOME -.06466 EDUC -.26731 GOVACT -.47071 .77844 .12469 .26670 INCOME EDUC .06466 .26731 .12469 .26670 .99582 .29328 .29328 .92855 **** MULTIPLE REGRESSION *••• Equation Number 1 Dependent Varlable.. GOVACT Scalę of Government Inactiv --------------------------------------- Variables in the Eauation ------------------------------------------- yariable B SE B 95% Confdnce Intrvl B Beta LIBERAŁ -.576488 .087646 -.749649 -.403327 -.470705 (Constant) 25.127032 1.511187 22.141389 28.112676 ----------------------------------------------- Variables in the Eauation -------------------------------------------------- Variable SE Beta Correl Part Cor Partial Tolerance VIF T LIBERAŁ .071563 -.470705 -.470705 -.470705 1.000000 1.000 -6.577 (Constant) 16.627 -------- in----------- Variable Sig T LIBERAŁ .0000 (Constant) .0000 ---------------------------- Variables not in the Eauation ----------------------------- Variable Beta In Partial Tolerance VIF Min Toler T Sig T INCOME .125216 .141624 .995820 1.004 .995820 1.T58 .0404 EDUC .287220 .313694 .928548 1.077 .928548 4.060 .0001 Collinearity Diagnostics Number Eigenval 1.97768 .02232 Cond Variance Proportions Index Constant LIBERAŁ 1.000 .01116 .01116 9.413 .98884 .98884 1543] cd. tabeli A. 8 *** MULTIPLE REGRESSION Eguation Number 1 Dependent Variable.. GOVACT Scalę Variable(s) Entered on Step Number 2. . EDUC HIGHEST YEAR OF SCHOOL COMPLETED Multiple R .54604 R Square .29816 Adjusted R Sguare .28887 Standard Error 3.75352 Analysis of Variance DF Regression 2 Residual 151 R Sguare Change .07 F Change 16.48 Signif F Change .00 Sum of Squares 903.80358 2127.42369 F = AIC PC CP SBC 32.07503 Signif F = .0000 410.36002 .72972 2.38831 419.47087 Mean Sguare 451.90179 14.08890 Var-Covar Matrix of Regression Coefficients (B) Below Diagonal: Covariance Above: Correlatic LIBERAŁ EDUC LIBERAŁ .00751 -.00231 EDUC -.26731 .00993 XTX Matrix LIBERAŁ EDUC GOYACT INCOME LIBERAŁ 1.07695 -.28787 -.54748 -.01977 EDUC -.28787 1.07695 ¦28722 .31585 GOVACT .54748 -.28722 .70184 .04046 INCOME .01977 -.31585 .04046 .90319 Eguation Number 1 MULTIPLE REGRESSION * Dependent Variable.. GOVACT Scalę of < Variable LIBERAŁ EDUC (Constant) -.67051B -404545 21.274394 - Variables in the Equatlon_____........ SE B 95% confdnce Intrvl b .086650 .099650 1.724302 -.841721 .207656 17.867519 -.499315 .601433 24.681268 cd. tabeli A.8 -----------:-----------------------------Variables in the Equation-------------------------------------------- Variable SE Beta Correl Part Cor Partial Tolerance VIF T LIBERAŁ .070750 -.470705 -.527559 -.532873 .92854B 1.077 -7.738 EDUC .070750 .140876 .276769 .313694 .928548 1.077 4.060 (Constant) 12.338 ...... in----------- Variable sig T LIBERAŁ .0000 EDUC . 0001 (Constant) .0000- ......-------------------Variables not in the Equation------------------------- Variable Beta In partial Tolerance VIF Min Toler T Sig T INCOME .044793 .050814 .903188 1.107 .842174 .623 .5341 Collinearity Diagnostics Number Eigenval Cond Variance Proportions Index Constant LIBERAŁ EDUC 1 2.94402 1.000 .00350 .00464 .00545 2 .03566 9.086 .01361 .46364 .78741 3 .02032 12.035 .98289 .53173 .20714 End Błock Number 1 PIN = .050 Limits reached. **** MULTIPLE REGRESSION •»•• Eąuation Number 1 Dependent Variable.. GOVACT Scalę of Government Inactiv Summary table Step MultR Rsq F(Eqn) SigF Variable Betain 1 .4707 .2216 43.263 .000 In: LIBERAŁ -.4707 2 .5460 .2982 32.075 .000 In: EDUC .2872 REGRESSION (regresja) (Relacje wielowymiarowe). Często badacze formułują hipotezy, że duża liczba zmiennych niezależnych tłumaczy wariancję pojedynczej zmiennej zależnej. W SPSS taki jednoczesny efekt kilku zmiennych można zbadać za pomocą procedury wielowymiarowej regresji. Dookreślenie polecenia REGRESSION zawiera deklarację zmiennych włączonych do analizy oraz opis procedury, która ma być przeprowadzona. Raport, który zostanie wyświetlony w konsekwencji uruchomienia poniższej sekwencji, przedstawia tabela A.8. 545 REGRESSION/VARIABLES = GOVACT, LIBERAŁ, INCOME, EDUC /DESCRIPTIVES/STATISTICS = ALL/DEPENDENT = GO VACT /METHOD = STEPWISE W kolejnych wierszach polecenia przekazujemy instrukcję, by SPSS policzył I statystyki opisowe dla wszystkich zmiennych wymienionych w wyrażeniu VAR1A-BLES = lista zmiennych. Ponieważ REGRESSION jest statystyką asymetryczną, musimy więc określić, która zmienna jest zmienną zależną, by można było szacować regresję Y na podstawie X. W sekwencji wybrano metodę STEPWISE (krokową), tak więc w raporcie pojawią się wyniki każdego kolejnego kroku procedury. | Warto odnotować, że raport zawiera też wynik analizy wariancji dla grupy zmiennych, błąd standardowy, kilka statystyk opisowych, współczynnik r Pearsona dla zmiennej zależnej i każdej zmiennej niezależnej, współczynniki b i beta dla każdej zmiennej oraz współczynnik przesunięcia a. ¦ SPSS dla Windows Kolejne części niniejszego tekstu będą dotyczyły wyłącznie profesjonalnej i studenckiej wersji SPSS dla Windows. Informacje, które zostaną tutaj zaprezentowane, mają na celu dostosowanie do popularnego środowiska Windows wszystkiego, co zostało do tej pory powiedziane o procedurach SPSS i o rezultatach zastosowania tych procedur. Mimo że Windows ma wiele cech i możliwości specyficznych dla tego systemu operacyjnego, jednak podstawowe procedury i polecenia dostępne dla użytkowników wersji SPSS dla komputera głównego oraz dla wersji SPSS dla środowiska DOS (PC) są również dostępne w systemie operacyjnym Windows. Dlatego nie będziemy „odkrywać na nowo koła", przedstawiając Windows jako zupełnie odmienny sposób obsługi i działania SPSS. Opierając się na założeniu, że czytelnik rozumie podstawowe funkcje SPSS oraz procedury opisane w poprzednich częściach tego tekstu, postaramy się tylko pokazać, jak porównywalne operacje można przeprowadzać w środowisku Windows. Już wkrótce okaże się, że jeżeli użytkownik dysponuje wersją profesjonalną SPSS, to może się posłużyć tymi samymi sekwencjami poleceń SPSS, które zostały zaprezentowane w poprzedniej części tekstu, by otrzymać dokładnie taki sam raport w wersji SPSS dla Windows. Dlatego nie pojawią się tu nowe przykłady raportów, ponieważ byłyby one powieleniem raportów przedstawionych w poprzedniej części niniejszego dodatku. Będziemy raczej odnosić „sposób obsługi SPSS specyficzny dla środowiska Windows" do standardowych raportów, które już raz zostały tu przedstawione, odsyłając czytelnika, jeżeli to będzie uzasadnione, do poprzednich części niniejszego tekstu. Zapoznanie się z wersja SPSS dla Windows Wersja 6 pakietu SPSS dla Windows jest dobrze zintegrowanym z tym środowiskiem programem, który stosuje się do wielu typowych dla Windows konwencji i poleceń. I tak na przykład na górze głównego okna aplikacji znajduje się zwyczajowy pasek menu zawierający kilka konwencjonalnych pozycji, takich jak File (Plik), Edit (Edycja) czy Help (Pomoc). Pojedyncze kliknięcie myszą lub operatorem kulkowym danej pozycji z menu spowoduje jej otwarcie. Tak więc pojedyn- 546 cze kliknięcie pozycji File (Plik) otworzy menu File (Plik). Menu File zawiera takie polecenia, jak: New (Nowy), Open (Otwórz), Save (Zachowaj) oraz Ęxit (Zakończ), które doświadczeni użytkownicy Windows spodziewają się tutaj odnaleźć. Kolejne kliknięcie jednej z tych pozycji spowoduje albo wykonanie polecenia, albo otwarcie okna dialogowego, w którym będzie można wykorzystać dalsze opcje programu. Użytkownik może również uaktywnić dane polecenie z menu, używając klawisza ALT w połączeniu z klawiszem z podkreśloną w poleceniu literą (np. ALT + F (P) dla polecenia File (Plik)). W celu ujednolicenia instrukcji przyjmijmy jednak założenie, że każdy użytkownik systemu Windows ma dostęp do myszy lub operatora kulkowego i że będzie to preferowany sposób poruszania się po oknach SPSS. Dlatego w dalszej części tego tekstu, mimo że pozycje z menu SPSS nadal będą zapisywane pogrubionym drukiem, litera łączona z klawiszem ALT w poleceniach (np. F (P) w File (Plik)) nie będzie już podkreślana. Użytkownicy wykorzystujący Studencką Wersję 6 SPSS zauważą, że w dużej części pakiet ten wygląda oraz działa tak jak pełna profesjonalna wersja SPSS dla Windows. Dlatego instrukcje, które zostaną podane w dalszej części tekstu (opisujące profesjonalną wersję SPSS), zwykle dają się zastosować również do wersji studenckiej. Jednakże wersja dla studentów jest „ograniczoną wersją systemu" i dlatego ma kilka zasadniczych dla użytkownika ograniczeń. Po pierwsze, plików danych, które zawierają więcej niż 50 zmiennych lub więcej niż 1500 obserwacji, nie można w tej aplikacji ani utworzyć, ani do niej wczytać. Po drugie, w tej wersji pewne opcje dodatkowe, jak na przykład Professional Statistics (statystyki profesjonalne) czy Trends (trendy) nie są dostępne. Po trzecie wreszcie, nie jest tu dostępna możliwość tworzenia, wklejania oraz uruchamiania plików poleceń przy użyciu okna poleceń SPSS. Dodatkowo do tego w niektórych procedurach wersji studenckiej pakietu pojawiają się mniej ważne ograniczenia, o których będziemy wspominać w dalszej części tekstu. Preferencje (opcje). Kiedy użytkownik po raz pierwszy uruchomi SPSS dla Windows, musi się zapoznać z ustawieniami konfiguracji, które sterują sesją podczas działania SPSS. Aby przyjrzeć się ustawieniom domyślnym, należy wybrać z menu pozycję Edit (edycja), a następnie Preferences (opcje)... Najważniejszym parametrem w pojawiającym się na monitorze oknie dialogowym (patrz ryc. A.2), który użytkownik być może będzie chciał zmienić, aby zoptymalizować działanie programu w systemie, jest Working Memory (zarezerwowany obszar pamięci roboczej). Można wielkość tego obszaru zmienić, klikając na okno z liczbą i wprowadzając tam odpowiednią wartość (w kilobajtach). Nie można podać konkretnej liczby, która byłaby zawsze ustawieniem optymalnym, ponieważ wielkość zarezerwowanej pamięci musi być dostosowana do obszaru pamięci dostępnej w danym systemie po uruchomieniu Windows. Jednak jak wykazuje doświadczenie, wielkość pamięci we wstępnych ustawieniach domyślnych jest zwykle nieco mniejsza od optymalnej i zwiększenie jej obszaru często istotnie poprawia działanie PC podczas wykonywania różnych procedur SPSS. Jeżeli użytkownik dysponuje profesjonalną wersją SPSS, to może też wybrać z okna dialogowego Preferences następujące opcje: 1) otwórz na starcie okno języka poleceń, 2) wyświetl w oknie raportów polecenia SPSS obok wyników procedur, 3) dostosuj dziennik sesji (log dla sesji) do domyślnego pliku dla dziennika albo do pliku o nazwie, którą wybierze użytkownik. 547 Session Journal Cr\WNDOWSVrEMPVSPSS.JNL BiRecord syntag in Journal O Append ® Overwr«e B|e- Woridng Memory: 6000 K bytes "Transformation & Merge Options" ® Calculate vaiues immediately O Calculate values fcefore used OK fleset 'Display Order for Variable Lists" # Ałehabetical O File Cancel Help "Display Format for New Variables Wid*: 8 Decłmal Places: ISI Open a syntax jgrindow at startup to run SPSS command syntax Graphics.. Custom Currsncy.. Oytput... Ryc. A.2. Okno dialogowe Preferences (opcje) W wersji SPSS dla studentów: 1) jak już wcześniej zostało powiedziane, niema okna języka poleceń, 2) przywoływane z menu polecenia nie mogą być wyświetlone w oknie raportów, 3) plikiem domyślnym dla dziennika sesji jest plik C:\WIN-DOWS\TEMP\SPSS.JNL i nie można go zmienić. W wersji tej zastosowane polecenia są jednak dołączane do dziennika sesji. Jeżeli użytkownik zna język poleceń SPSS, to może zajrzeć do dziennika sesji, by sprawdzić, czy w efekcie pracy w trybie Windows uzyskuje odpowiednie sekwencje poleceń. Jeżeli jednak użytkownik chce wykorzystać język poleceń SPSS do tworzenia sekwencji poleceń w wersji pakietu dla Windows, to będzie mógł to zrobić jedynie wtedy, gdy będzie się posługiwał pełną profesjonalną wersją tego programu. Wprowadzanie danych. Kiedy uruchomimy SPSS w wersji dla Windows, oi rzy się okno edytora danych o domyślnej nazwie Newdata (nowe dane) oraz puste okno edytora raportów o nazwie !Output (!raport). W wersji profesjonalnej programu otworzy się dodatkowo okno edytora poleceń o nazwie !Syntax (.'polecenia), jeśli wcześniej użytkownik zaznaczy tę opcję w oknie dialogowym Preferences (patrz ryc. A.3). Jeżeli użytkownik chce wprowadzać dane ręcznie bezpośrednio do edytora danych, to w tym momencie może już zacząć to robić. Trzeba się tylko upewnić, czy okno edytora danych o nazwie Newdata jest oknem aktywnym. Jeżeli tak jest, to będzie ono umieszczone z przodu ekranu (przed pozostałymi oknami), a pasek tytułu (długi pasek z nazwą Newdata umieszczony na górze monitora) będzie podświetlony. Można uaktywnić każde okno widoczne na ekranie monitora poprzez pojedyncze kliknięcie dowolnej jego części. Metoda wprowadzania danych do okna edytora danych SPSS jest bardzo podobna do sposobu, w jaki wprowadzamy dane w typowych arkuszach danych oprogramowanych dla systemu Windows. Kolejne dane wprowadzamy do kolejnych aktywnych komórek arkusza. Komórkę, w której właśnie zapisujemy liczbę, nazywamy komórką aktywną, ponieważ jest ona w każdej chwili gotowa do wprowadzania danych lub ich edytowania. Można ją zawsze łatwo zidentyfikować, ii., inste 548 ikając ją po :najduje się rtości poje-obserwacji. ej zmiennej wną komór-nnie, zatem iter. Jak łat-więc w wy-ie klawisza vprowadzo-niejscowio-rym wcześ-'. Po trzecie pna komór-zą komórką ugiej obser-;ż, jeżeli na 5 kursora ze to program ych i będzie tość. ma Het-IIN-ble- Jceń Itry-łnik Jrsji jpo- leniame za- komórki złą zy po prostu 549 —J SPSS for Windows ENe Łdlt Bata Iranaform Statisflcs firaphs Utilities WJndow Help - lOutputl |' 1» || - ISynłax1 hj*j a -| Newdata 1' » ¦ ¦ 1 1 SPSS Processor Is ready Ryc. A.3. Okna edytora danych ponieważ otacza ją cienka ramka. Każdą komórkę można uaktywnić, ki prostu myszą, ale domyślnie aktywną komórką jest zawsze ta, która i w pierwszym wierszu i w pierwszej kolumnie. W oknie edytora danych SPSS dana kolumna zawiera wszystkie wa dynczej zmiennej, a dany wiersz — wszystkie wartości dla pojedynczej Wprowadzanie danych zaczynamy zwykle od wpisania wartości pierwsz dla pierwszej obserwacji. Ponieważ przy ustawieniach domyślnych akty ką jest ta, która znajduje się w pierwszym wierszu i w pierwszej kolur wystarczy po prostu wpisać odpowiednią wartość i nacisnąć klawisz Er wo zauważyć, zapisywana wartość pojawi się tam, gdzie miga kursor, a dłużonej komórce umieszczonej na górze arkusza. Pierwsze naciśnięć Enter spowoduje trzy operacje. Po pierwsze, wpisana wartość zostanie \ na do pierwszej komórki. Po drugie, w nagłówku kolumny pierwszej ui nym powyżej komórki, do której wprowadzona została wartość i w któ niej widniała ogólna etykieta „var", pojawi się teraz nazwa ,,var00001' wreszcie, uaktywni się i będzie gotowa do wprowadzania danych nastę ka, która znajduje się w kolumnie numer jeden bezpośrednio pod pierws i która przeznaczona jest na wpisanie wartości pierwszej zmiennej dla dr wacji (wiersz drugi). Można teraz wprowadzić kolejną wartość lub te przykład nie mamy wartości dla drugiej obserwacji, przycisnąć klawis; strzałką skierowaną w dół (i). Jeżeli opuścimy w ten sposób komórkę, sam wpisze do niej kropkę. Kropka reprezentuje tu systemowy brak dan w różnych procedurach rozpoznawana przez SPSS jako brakująca war Proste edytowanie: poprawianie źle wprowadzonych danych i zm wartości komórek. Jeżeli zdarzyło się, że użytkownik wprowadził do wartość, albo też zawartość danej komórki wymaga zmiany, to wystarc Ryc. A.4. Okno dialogowe Define Variable (definiuj zmienną) jeden raz kliknąć komórkę, w ten sposób uaktywniając ją, i wpisać nową wartość. Naciśnięcie klawisza Enter spowoduje zakończenie tej operacji. Etykietowanie zmiennej. W momencie zapisywania wartości danej zmiennej lub zaraz po jej wprowadzeniu użytkownik zwykle nadaje zmiennej nazwę. Etykietowanie zmiennych w SPSS dla Windows jest operacją bardzo prostą. W oknie dialogowym, którego używamy do zmiany nazw zmiennych, można ponadto: 1) zmienić typ zmiennej, jej logiczną szerokość oraz liczbę miejsc dziesiętnych, 2) dodać. zmienić lub usunąć etykietę dla zmiennej i etykiety dla wartości zmiennej, 3) ustalić wartości dla oznaczenia brakujących danych, 4) zdefiniować format kolumny (szerokość oraz wyrównanie tekstu). Aby uzyskać dostęp do tego okna dialogowego, trzeba kliknąć pozycję Data (dane), a następnie Define Variable (definiuj zmienną)... albo po prostu dwa razy kliknąć nagłówek kolumny „var00001" lub „var00002" itd. Gdy tylko pojawi się okno dialogowe Define Variable, można od razu zmienić nazwę zmiennej oraz wybrać inne opcje, które zapewnią dostęp do kolejnych okien dialogowych, które z kolei pozwolą na zdefiniowanie wszystkich pozostałych wymienionych wyżej charakterystyk dla zmiennej (patrz ryc. A.4). W środku okna dialogowego Define Variable znajduje się obszar Variable Descrip-tion, który informuje użytkownika o aktualnych opisowych charakterystykach zmiennej (typ, etykieta, braki danych, wyrównanie tekstu). Jeżeli jedna z tych charakterystyk zostanie zmieniona, informacja zawarta w tym obszarze też ulegnie zmianie. Aby zatwierdzić wszystkie wprowadzone przez użytkownika zmiany w definicji zmiennej, wystarczy kliknąć przycisk OK w głównym oknie dialogowym. Kiedy wrócimy do głównego edytora danych, wszystkie zmiany dokonane w oknie dialogowym Define Variable zostaną już do arkusza wprowadzone. 550 0 age ¦ Variablc Information: cappun degree Label: RS HIGHEST DEGREE ¦ educ Type: F1 eąwlth Missing Values: 7, 8, 9 filter $ govact Vaiue Labels: happy 0 LT HIGH SCHOOL helpblk 1 HIGH SCHOOL helpnot 2 JUNIOR COLLEGE helppoor 3 BACHELOR helpsick 4 GRADUATE homosex 7 NAP id income 8 DK ¦ liberał ¦ Go To Pastę Close Help Ryc. A.5. Okno dialogowe Utilities (narzędzia), Yariables (zmienne) Informacje o zmiennej. Po zdefiniowaniu zmiennych użytkownik może zechcieć raz jeszcze sprawdzić informacje dotyczące etykiety danej zmiennej, etykiet dla jej wartości, typu zmiennej oraz zdefiniowanych wartości dla brakujących danych. Może wtedy znowu odwołać się do okna dialogowego Define Variable, które zawiera opis tej zmiennej. Istnieje jednak prostsza i szybsza metoda. Kliknięcie pozycji Utilities (narzędzia), następnie Variables (zmienne)... spowoduje pojawienie się okna dialogowego Variables, które zawiera podsumowanie informacji o wybranej zmiennej (patrz ryc. A.5). Jeżeli użytkownik przewinie listę zmiennych umieszczoną po lewej stronie okna i zaznaczy jedną z nich, to po prawej stronie natychmiast pojawi się informacja o wybranej zmiennej. Okna dialogowego Variables (zmienne) można także użyć, by w edytorze danych przenieść aktywną komórkę z jednej zmiennej do innej zmiennej. Jest to szczególnie użyteczne, jeśli tworzymy duży zbiór danych złożony z wielu kolumn i większość z tych kolumn nie jest widoczna na ekranie. Trzeba tylko zaznaczyć zmienną, do której chcemy się przenieść, klikając jeden raz jej nazwę, nacisnąć przycisk Go To (przejdź do), a następnie przycisk Close (zamknij). Aktywna komórka zostanie w ten sposób przeniesiona do kolumny, w której została zapisana wybrana zmienna. Zapisywanie danych. Kiedy już użytkownik wprowadzi dane albo dokona na nich różnych transformacji, powinien od czasu do czasu zapisać plik, aby nie stracić efektów swojej pracy chociażby w wyniku usterki komputera. Najlepiej nadawać plikom danych unikatowe i opisowe nazwy, aby było łatwo je potem odnaleźć. Wystarczy wprowadzić tylko pierwszą część wybranej nazwy pliku, ponieważ system SPSS przyjmuje rozszerzenie .sav jako rozszerzenie domyślne dla wszystkich pli- 551 ków danych. Jeżeli użytkownik zdecyduje się na konkretną nazwę dla pliku (np. mojedane.sav), to powinien kliknąć File, następnie Save As (zapisz jako)..., i wprowadzić wybraną nazwę, zastępując nią gwiazdkę w wyrażeniu „*.sav", które pojawi się w oknie File Name (nazwa pliku). Teraz wystarczy kliknąć przycisk OK i dane zostaną zapisane. Otwieranie zapisanych plików. Kiedy już raz dane zostały zapisane, można opuścić system SPSS, a potem w każdej chwili wrócić do niego i znowu otworzyć zapisany plik. Dane pojawią się na monitorze zawsze w takiej formie, w jakiej zostały po raz ostatni zapisane. Aby otworzyć plik danych, trzeba kliknąć pozycję File, następnie Open, potem Data..., a następnie wybrać plik z listy plików. Jeżeli dane zostały zachowane nie w katalogu SPSS, który jest katalogiem domyślnym, ale w innym miejscu w komputerze, to trzeba dodatkowo wybrać dysk oraz katalog, w którym plik został zapisany. Potem wystarczy kliknąć przycisk OK i dane pojawią się w edytorze danych. Należy się jednak upewnić, że w tym samym czasie zostało otwarte tylko jedno okno z danymi. Jeżeli okno z danymi zostało otwarte i użytkownik zdecyduje się na otwarcie innego, to program dostosowując się do nowej instrukcji, zamknie okno otwarte jako pierwsze. Organizowanie i zapisywanie okna raportów. Jeżeli użytkownik uruchamia w trakcie jednej sesji dużą liczbę procedur, to wyniki każdej z nich będą domyślnie umieszczane w tym samym aktywnym oknie raportów. Aby nie tworzyć raportu, który zawiera zbyt duży i niewygodny w interpretacji zbiór wyników dla wszystkich zastosowanych procedur, można spowodować, by raporty z poszczególnych kroków analizy zostały skierowane do różnych dodatkowych edytorów raportów. W każdym momencie trwania sesji można otworzyć dodatkowe okno raportów, klikając pozycję File, następnie New (nowy) oraz SPSS Output (raport). Sekwencja ta spowoduje pojawienie się na ekranie monitora nowego edytora raportów, który oznaczony zostanie kolejnym numerem. Jednak aby uzyskać dostęp do aktywnego edytora raportów, trzeba kliknąć przycisk !, który pojawi się po prawej stronie okna menu. Kiedy użytkownik kliknie ten przycisk, zauważy, że w wybranym edytorze raportów nastąpiła zmiana (na przykład zamiast nazwy Output2 (raport2) pojawiła się nazwa !Output2 (!raport2)). Znak ! oznacza zatem, że wybrane okno jest aktywnym edytorem raportów. Systemowy raport, który został utworzony i wyświetlony w aktywnym edytorze raportów, może być zachowany w taki sam sposób jak dane w edytorze danych. Jeżeli więc użytkownik chce zachować zawartość aktywnego edytora raportów, to powinien kliknąć pozycję File, następnie Save As... i wprowadzić nazwę pliku. Wystarczy, że wpisze tylko pierwszą część wybranej nazwy pliku raportu, ponieważ system SPSS przewiduje rozszerzenie .lst jako rozszerzenie domyślne dla tego typu plików. Jeżeli użytkownik wybrał nazwę dla pliku (na przykład nowyrap.lst), to powinien kliknąć pozycję File, następnie Save As... i wpisać nazwę nowyrap.lst, zastępując wyrażenie *.lst, które pojawi się w oknie File Name. Teraz wystarczy kliknąć przycisk OK i raport zostanie zapisany. Aby otworzyć zapisany raport, wystarczy kliknąć File, następnie Open, potem SPSS Output... i wybrać plik zawierający raport. 552 Uruchamianie procedur SPSS z edytora poleceń Jedynie w profesjonalnej wersji SPSS dostępny jest edytor poleceń. Można w nim tworzyć sekwencje poleceń w języku SPSS, można do niego wklejać polecenia wybrane wcześniej z menu, można też uruchamiać zapisane w nim sekwencje poleceń. Jak już wspominano wcześniej, użytkownik może w oknie Preferences ustawić wyjściowe parametry programu tak, by edytor poleceń otwierał się automatycznie przy jego rozpoczęciu. W każdym momencie trwania sesji można też otworzyć nowe okno edytora poleceń, klikając sekwencję File, New, SPSS Syntax (edytor poleceń). Uruchamianie procedur SPSS z okien menu Aby wykorzystywać wersję SPSS dla Windows, nie trzeba wcale używać edytora poleceń. Wymiana plików poleceń w edytorze jest tylko opcją dla użytkowników, którzy preferują ten styl pracy. Jeżeli ktoś woli obsługiwać program za pomocą okien menu oraz okien dialogowych, to dalsza część tego tekstu powinna mu pomóc zrozumieć, jak w wersji dla Windows tworzyć polecenia uruchamiające te same procedury, które zostały opisane w poprzednich częściach niniejszego dodatku. Dobrze byłoby jednak, aby użytkownik zdawał sobie sprawę z tego, że jeżeli w tej wersji SPSS uruchomi jeden z plików poleceń przedstawionych w poprzednich częściach tego tekstu, używając do tego celu okna lOutput (Sraport), to otrzyma zawsze dokładnie taki sam raport jak ten, który omówiony już został na poprzednich stronach dodatku. Natomiast odtwarzanie w wersji dla Windows zawartości edytora poleceń za pomocą okien z menu czasami daje w konsekwencji trochę inny raport. Czyszczenie danych MISSING VALUES (Braki danych). (Patrz s. 525-528). Aby zadeklarować brakującą wartość dla zmiennej, należy dwa razy kliknąć na nagłówek kolumny z nazwą zmiennej, następnie kliknąć przycisk Missing Values i zdefiniować brakującą wartość w oknie dialogowym Define Missing, Values (definiuj braki danych). Kiedy już to uczynimy, wystarczy kliknąć najpierw przycisk Continue (dalej), a potem przycisk OK. Dla przykładu ze strony 525 należy: 1. Kliknąć dwukrotnie na nagłówek kolumny z nazwą zmiennej MARITAL (stan cywilny). 2. Kliknąć przycisk Missing Values..., a następnie zaznaczyć puste pole przy kategorii Discrete missing values (wartości dyskretne braków). 3. Wpisać jako nową brakującą wartość liczbę 7 (wcześniej zadeklarowana brakująca wartość równa 9 pojawi się w sąsiednim oknie). 4. Kliknąć przyciski Continue oraz OK. SELECT IF/LIST (wybierz jeżeli/listuj). (Patrz s. 526-528). W poprzednich częściach niniejszego tekstu polecenia SELECT IF oraz LIST były wykorzystywane do czyszczenia danych. W wersji dla Windows można również do tego celu użyć kombinacji tych dwóch poleceń. Do czyszczenia danych można jednak wykorzystać również inne, specyficzne dla Windows polecenia (na przykład Search for Data (wybierz obserwacje)). 553 ^^^ Jeżeli użytkownik do wyczyszczenia danych wybrał kombinację poleceń SELECT IF oraz LIST, powinien uruchomić z menu następującą sekwencję: 1. Kliknąć Data i Select Cases (wybierz obserwacje)... 2. Następnie w oknie dialogowym Select Cases kliknąć opcjonalny przycisk If condition is satisfied (jeśli spełniony jest warunek). 3. Po kliknięciu przycisku If pojawi się robocze okno zawierające listę wszystkich zmiennych, klawiatura przypominająca klawiaturę kalkulatora zawierająca cyfry i operatory logiczne oraz lista funkcji, do których można wstawiać argumenty (patrz ryc. A.6). 4. Teraz trzeba wybrać zmienną (na przykład MARITAL), klikając jeden raz na jej nazwę, potem kliknąć przycisk ze strzałką skierowaną w prawo (=*) po to, by przenieść zmienną do obszaru operacyjnego. Aby zmienną przenieść do tego obszaru, wystarczy też dwukrotnie kliknąć jej nazwę. 5. Za pomocą klawiatury przypominającej klawiaturę kalkulatora należy kliknąć sekwencję tych operatorów i tych wartości, które pozwolą wydzielić grupę obserwacji. W tym przykładzie trzeba kliknąć znak równości (=), a następnie przycisk z cyfrą 7. 6. Kiedy już to zostało zrobione, trzeba kliknąć przycisk Continue, a następnie przycisk OK. Uwaga: Jeżeli użytkownik nie zrobi nic więcej, to od tego momentu każde polecenie oraz każda procedura, którą uruchomi w trakcie sesji, będzie uwzględniała tylko tę grupę obserwacji, która została określona w wyrażeniu If. Jeżeli w jakimś momencie użytkownik będzie chciał analizować znowu wszystkie obserwacje, to musi wrócić do okna dialogowego Select Cases, wybrać zmienną i kliknąć przycisk Ali Cases (wszystkie obserwacje), który anuluje warunek If... 7. Teraz należy kliknąć sekwencję Statistics (statystyki), Summarize (opis statystyczny), List Cases (podsumowania obserwacji)... po to, by na ekranie pojawiło się okno dialogowe List Cases. 8. Trzeba następnie wybrać zmienną identyfikacyjną (w tym przypadku zmienną o nazwie ID) i kliknąć w polu Number cases (pokaż numery obserwacji) tak, by pojawił się w nim znak x. Potem wystarczy kliknąć przycisk OK. W edytorze raportów pojawi się lista zawierająca wartości zmiennej identyfikacyjnej oraz numery tylko dla tych obserwacji, które wcześniej zostały wybrane. Można zamiast metody lokalizowania nieprawidłowych kodów za pomocą sekwencji poleceń SELECT IF/LIST (wybierz jeżeli/listuj), zastosować następującą technikę: 1. Należy kliknąć którąkolwiek komórkę w kolumnie, w której zapisana jest analizowana zmienna (na przykład MARITAL). 2. Trzeba kliknąć pozycje Edit oraz Search for Data (znajdź)... Po takiej sekwencji na ekranie pojawi się okno dialogowe Search for Data (znajdź dane). 3. Należy teraz wpisać wartość, której użytkownik chce poszukać (na przykład 7). Potem trzeba kliknąć albo przycisk Search Forward (szukaj w przód), albo przycisk Search Backward (szukaj wstecz) w zależności od tego, w jaki sposób użytkownik zamierza przeszukiwać zmienną. Uwaga: Aby te poszukiwania przeprowadzić bardziej metodycznie, należy w opisanym po- 554 eqwlth govact happy helpblk helpnot helppoor helpsick homg«ex Id liberał marital natcłty natełtyz natfare marital ¦ 7 El 00 SUE ? EE EEE B EJH EHE Euncilons: a ANY|testvalue.value....] ARSIN[numexpr) ARTAN(numexpr) CDFNORM|zvalue| COF.BERNOULU(q.p) l/llill II o ||. | |«*| I" HM II Delete | | ConMnue II Cancel Help Ryc. A.6. Okno robocze SELECT IF (wybierz jeżeli) wyżej kroku nr 1 kliknąć najwyższą komórkę (odpowiadającą pierwszej obserwacji) w kolumnie, w której zapisana jest interesująca badacza zmienna, a następnie konsekwentnie posługiwać się tylko przyciskiem Search Forward (szukaj w przód). 4. Ponieważ okno dialogowe Search for data (znajdź)... pozostanie otwarte, dopóki użytkownik nie posłuży się przyciskiem Close (zamknij), można przechodzić od jednej poszukiwanej obserwacji do kolejnych, klikając wielokrotnie jeden z przycisków Search (szukaj). Uwaga: Istnieje możliwość przeniesienia okna dialogowego Search for Data w bardziej dogodne miejsce na monitorze, aby użytkownik mógł oglądać wynik swoich poszukiwań w edytorze danych. Aby to zrobić, należy kliknąć na ramkę z tytułem okna dialogowego i przytrzymując przycisk myszy, przeciągnąć całe okno w bardziej dogodne miejsce, a następnie zwalniając przycisk myszy, upuścić je. Przekształcenie IF (Jeżeli). (Patrz s. 533). Polecenie przekształcenia IF jest traktowane przez wersję SPSS dla Windows jako specjalny przypadek polecenia COM-PUTE (policz wartości). Weźmy jako przykład polecenie: IFIDEQ33EDUC=1 Aby uruchomić takie przekształcenie w SPSS dla Windows, należy wykonać następujące kroki: 1. Kliknąć sekwencję Transform (przekształcenia), Compute... Okno dialogowe Compute (oblicz wartości zmiennej), które się pojawi na monitorze, jest bardzo podobne do okna dialogowego Select cases. 2. Do okna Target Variable (zmienna wynikowa) trzeba wpisać nazwę zmiennej, na której mają zostać zarejestrowane przekształcone wartości dla danej obserwacji lub grupy obserwacji. Wpiszmy tu nazwę EDUC. 3. W oknie Numeric Expression (wyrażenie numeryczne) należy wpisać wartość, która ma być przypisana danej obserwacji lub pewnej liczbie obserwacji. Wpiszmy w tym miejscu wartość 1. 555 4. Następnie należy kliknąć przycisk If... Trzeba się również upewnić, czy została zaznaczona opcja Include if case satisfies condition (uwzględnij, jeśli obserwacja spełnia warunek). 5. Teraz należy zdefiniować warunek logiczny wyznaczający tę grupę obserwacji, której to przekształcenie ma dotyczyć. Kliknijmy więc kolejne przyciski w następującym porządku: ¦ zmienna ID z listy zmiennych, ¦ strzałka w prawo (=>), aby przenieść ID do obszaru operacyjnego, ¦ przycisk ze znakiem =, ¦ przyciski z liczbą 33, ¦ przycisk Continue (dalej). Po powrocie do poprzedniego ekranu zauważymy, że warunek ID = 33 jest teraz zapisany obok przycisku If. 6. Teraz wystarczy kliknąć przycisk OK, by uruchomić to przekształcenie. DISPLAY Dictionary (słownik danych). (Patrz s. 528). Aby uzyskać informa-je o wszystkich zmiennych zapisanych w zbiorze danych, należy kliknąć sekwen-ię Utilities (narzędzia), File Info (słownik danych). ozkłady jednowymiarowe FREQUENCIES (częstości). (Patrz s. 528). Aby otrzymać statystyki generowa-: przez procedurę FREQUENCIES, należy wykonać następujące czynności: 1. Kliknąć sekwencję Statistics (statystyki), Summarize (opis statystyczny), Freąuencies (częstości)... 2. Wybrać zmienną lub zmienne, które użytkownik chce analizować (na przykład DEGREE i HAPPY). 3. Upewnić się, że zaznaczona jest opcja Display freąuencies tables (pokaż tabele częstości). 4. Kliknąć przycisk Statistics. 5. Wybrać wszystkie opcje umieszczone pod ramkami otaczającymi kategorie wskaźników, a więc Dispersion (rozproszenie), Distribution (rozkład) oraz Central Tendency (tendencja centralna). 6. Kliknąć pozycję Continue, a następnie OK. DESCRIPTIVES (statystyki opisowe). (Patrz s. 528). Aby otrzymać statystyki sowę (DESCRIPTIVES) dla danych, należy wykonać następujące czynności: 1. Kliknąć sekwencję Statistics, Summarize, Freąuencies... 2. Wybrać zmienną lub zmienne, które użytkownik chce analizować. 3. Upewnić się, że opcja Display Iabels (pokaż etykiety) jest zaznaczona. 4. Kliknąć przycisk Options (opcje). 5. Wybrać wszystkie dostępne opcje. 6. Kliknąć pozycję Continue, a następnie OK. JRAPH (wykresy). Wykorzystując procedurę GRAPH, można narysować wy- słupkowy albo wykres kołowy dla rozkładu jednowymiarowego. Program ob- ujący procedury graficzne w wersji dla Windows jest o wiele lepszy niż grafika 3 o 1000 800 600 400 200' 0. . Missing HIGH SCHOOL BACHELOFt ŁT HIGH SCHOOL JUNIOR COLLEGE GRAOUATE RS HIGHEST DEGREE Ryc. A.7. Wykres słupkowy wygenerowany przez SPSS dla Windows GRAPH/BAR (SIMPLE) = COUNT BY DEGREE/MISSING = REPORT. GRAPH/PIE = COUNT BY HAPPY/MISSING = REPORT NOT TOO HAPPY Missing Ryc. A.8. Wykres kołowy wygenerowany przez SPSS dla Windows dostępna w SPSS lub też SPSS PC+. Następująca sekwencja poleceń spowoduje pojawienie się w raporcie wykresów przedstawionych na rycinach A.7 oraz A.8. Pomiar: konstrukcja skal i wskaźników RECODE (rekoduj) przed RELIABILITY (rzetelność). (Patrz s. 530). Jak już wspominano w poprzednich częściach niniejszego tekstu, wszystkie zmienne, które mają tworzyć jeden wskaźnik, muszą być kodowane w tym samym kierunku. Wiemy już, że zmienne NATCITY, NATFARE, NATRACĘ oraz POLVIEWS nie są kodowane w tym samym kierunku co pozostałe zmienne, które mają utworzyć skalę 557 LIBERAŁ. Dlatego przekodujmy je, odwracając w nich porządek wartości. Wykonanie następującej sekwencji kroków spowoduje przekodowanie wartości trzech spośród tych zmiennych w taki sposób, że ani same wartości, ani zakres tych wartości się nie zmieni: 1. Należy kliknąć sekwencję Transform, Recode, Into Different Variables (na inne zmienne)... To spowoduje pojawienie się okna dialogowego Recode into Different Variables (rekoduj na inne zmienne). 2. Trzeba wybrać pierwszą ze zmiennych (NATCITY) i kliknąć przycisk ze strzałką w prawo (=»), by przenieść tę zmienną do obszaru Numeric Variab-le => Output Variable (zmienna źródłowa => wynikowa). 3. W obszarze Output Variable (zmienna wynikowa) należy kliknąć przycisk Name (nazwa) i wpisać nową nazwę dla przekodowywanej zmiennej (NAT-CITY2). Następnie trzeba kliknąć przycisk Change (zmień). 4. Trzeba powtórzyć 3 krok dla zmiennych NATFARE oraz NATRACĘ, zmieniając ich nazwy na NATFARE2 i NATRACE2. 5. Należy kliknąć przycisk Old and New Values (wartości źródłowe i wynikowe), następnie kliknąć Old Value (wartość źródłowa) — Value i wpisać liczbę 1. Potem trzeba kliknąć New Value (wartość wynikowa) — Value i wpisać liczbę 3. Teraz wystarczy kliknąć przycisk Add (dodaj). 6. Trzeba teraz powtórzyć 5 krok, pozostawiając liczbę 2 oraz zmieniając liczbę 3 na liczbę 1. 7. Po zakończeniu tej czynności wystarczy kliknąć przyciski Continue (dalej) oraz OK. Czwarta zmienna, POLVIEWS, ma większy zakres wartości i musi zostać przekodowana oddzielnie. Kierując się opisanym powyżej schematem postępowania, czytelnik może podjąć samodzielną próbę przekodowania zmiennej POLVIEWS na zmienną POLVIEWS2, zamieniając kolejne wartości tej zmiennej w sposób następujący: 1 = 7,2 = 6,3 = 5,4 = 4,5 = 3,6 = 2 i 7 = 1. Uwaga: Pamiętajmy, że powyższe zmienne przekodowane zostały w celu wykorzystania ich do skonstruowania skali LIBERAŁ. W przypadku skali GOVACT. o której będziemy pisać w następnej części tego tekstu, przekodowywanie zmiennych nie było konieczne. RELIABILITY (rzetelność). (Patrz s. 530-533). Aby uruchomić procedurę RE-LIABILITY, trzeba wykonać następujące kroki: 1. Kliknąć na sekwencję Statistics, Scalę (skalowanie), Reliability Analysis (analiza rzetelności)... Na monitorze pojawi się okno dialogowe Reliability Analysis (patrz ryc. A.9). 2. Upewnić się, że opcja Model (model) na opadającym menu zawiera wyrażenie Alpha (alfa). 3. Wybrać wszystkie zmienne, które mają utworzyć skalę (EQWLTH, HELPBLK. HELPNOT, HELPPOOR, HELPSICK i NATCITY). 4. Kliknąć przycisk Statistics... i wybrać opcję Scalę if item deleted (skala przy wykluczeniu pozycji). 5. Kliknąć przyciski Continue, a następnie OK. 558 a Reliability Analysis natcity2 natfare natfare2 natracę natrace2 partyid poMew2 poMews race racseg ¦ 7 ttems: OK M eqwlth helpbik heipnot heippoor heipsick Pastę Beset Cancel Help Model: Alpha ¦ D Ust item labels Statistics... Ryc. A.9. Okno dialogowe Reliability Analysis (analiza rzetelności) COMPUTE (oblicz wartości) po RELIABILITY. (Patrz s. 533). Aby obliczyć skalę GOVACT, posługując się menu w wersji SPSS dla Windows, należy: 1. Kliknąć sekwencję Transform, Compute... 2. Kliknąć obszar Target Variable (zmienna wynikowa) i wpisać nazwę twojej zmiennej (tu GOVACT). 3. Wybrać pierwszą zmienną z listy zmiennych (EQWLTH), użyć przycisku ze strzałką skierowaną w prawo (=>), aby przenieść tę zmienną do okna Nume-ric Expression (wyrażenie numeryczne), a następnie kliknąć przycisk ze znakiem plus (+). 4. Powtórzyć krok 3 dla zmiennych HELPBLK, HELPNOT, HELPPOOR oraz HELPSICK, omijając znak plus (+) tylko po wprowadzeniu ostatniej zmiennej (HELPSICK). 5. Po wykonaniu wszystkich czynności wystarczy kliknąć przycisk OK. Rozkłady dwuwymiarowe Pomiary nominalne i porządkowe — CROSSTABS (tabele krzyżowe). (Patrz s. 534-537). W wersji SPSS dla Windows procedurze CROSSTABS omawianej w poprzednich częściach tej pracy towarzyszą następujące kroki: 1. Na\ei\( k\\kr\ąć sekwencję Statistics, Summariie, Crosstabs... 2. Trzeba następnie wybrać zmienną zależną (HAPPY) i kliknąć przycisk ze strzałką skierowaną w prawo, aby przenieść tę zmienną do okna Row(s) (zmienne w wierszach). 559 3. Teraz trzeba wybrać zmienną niezależną (DEGREE) i kliknąć przycisk ze strzałką skierowaną w prawo, aby przenieść tę zmienną do okna Column(s) (zmienne w kolumnach). 4. Należy kliknąć przycisk Cells (komórki)... i zaznaczyć opcję Counts (liczebności) — Observed (obserwowane) oraz wszystkie opcje w obszarze Per-centages (procenty). Następnie trzeba kliknąć przycisk Continue. 5. Teraz należy kliknąć przycisk Statistics..., wybrać wszystkie opcje i kliknąć przycisk Continue. 6. Teraz wystarczy kliknąć przycisk OK, by uruchomić procedurę. RECODE into the Same Variable (rekoduj na te same zmienne). (Patrz s. 535). Aby uruchomić procedurę RECODE tak, by odpowiednio połączyć kategorie w zmiennej wynikowej, należy wykonać następujące kroki: 1. Kliknąć sekwencję Transform, Recode, Into Same Variables... 2. Wybrać zmienną wynikową (w tym przypadku DEGREE) z listy zmiennych i kliknąć przycisk ze strzałką w prawo (=>), aby przenieść tę zmienną do obszaru Numeric Variables (zmienne). 3. Kliknąć przycisk Old and New Values (wartości źródłowe i wynikowe). Następnie wpisać jedną wartość źródłową (3) do okna Old Value (wartość źródłowa), a nową odpowiadającą jej wartość (3) wpisać do okna New Va-lue (wartość wynikowa) i kliknąć przycisk Add. Tę ostatnią operację trzeba powtórzyć po to, by przekodować inną wartość źródłową (4) na odpowiadającą jej wartość wynikową (3). 4. Teraz wystarczy kliknąć przycisk Continue oraz OK, uruchamiając w ten sposób powyższe polecenia. Uwaga: Aby przekodować wartości dla pozostałych przykładów przedstawionych w poprzednich częściach tego tekstu. należy powtarzać 3 krok dla wszystkich źródłowych wartości, które zawierają się w przedziale od 0 do 4. Pomiary interwałowe — CORRELATIONS (korelacje). (Patrz s. 537). Aby policzyć korelację dla dwóch zmiennych, należy uruchomić następującą sekwencję: 1. Kliknąć pozycje Statistics, Correlate, Bivariate (parami)... 2. Wybierać zmienne (AGE, EDUC, INCOME, LIBERAŁ oraz GOVACT) i kliknąć przycisk ze strzałką skierowaną w prawo (=>), aby przenieść je do okna Variables. 3. Upewnić się, że zaznaczone są opcje Display actual significance level (oznacz korelacje istotne) oraz Two-tailed (dwustronna). 4. Kliknąć przycisk Options... i zaznaczyć wszystkie Statistics. 5. Kliknąć przyciski Continue oraz OK. GRAPH (wykres). (Patrz s. 537). Aby narysować wykres rozrzutu w celu oszacowania relacji pomiędzy dwiema zmiennymi, należy: 1. Kliknąć sekwencję Graphs, Scatter (rozrzutu)..., Simple (prosty) oraz Define (definiuj). 560 SPSS for Windows ple E), aby przesunąć ją do okna Y Axis (oś Y). Następnie wybrać zmienną niezależną (AGE) i przesunąć ją do okna X Axis (oś X). 3. Kliknąć przycisk OK. 4. Wykres powinien się pojawić w oddzielnym oknie nazwanym Chart Carousel (edytor wykresów) (patrz ryc. A.10). Jeżeli Chart Carousel pojawia się jako ikona, to wystarczy dwa razy kliknąć na tę ikonę i okno się otworzy. Analizy wielowymiarowe PARTIAL CORR (korelacja cząstkowa). (Patrz s. 539-541). Posługując się oknami menu SPSS dla Windows, użytkownik może policzyć tylko takie korelacje cząstkowe, które uwzględniają wariancję wszystkich wprowadzonych do analizy zmiennych kontrolnych równocześnie. Jeżeli na przykład chciałby za pomocą okien menu odtworzyć plik poleceń z przykładu na stronie 541: P ARTIM. CORR GOV A,CT mTH \GE BY UBESJsL, TNCCftAE (\, 1) to nie może wybrać opcji (1, 2), która powoduje policzenie korelacji cząstkowych zerowego, pierwszego oraz drugiego rzędu. Tak więc zamiast otrzymać trzy rodzaje współczynników korelacji cząstkowej dla zmiennych GOVACT i AGE kontrolowanych przez 1) zmienną LIBERAŁ i zmienną INCOME, 2) tylko zmienną LIBERAŁ oraz 3) tylko zmienną INCOME, przy uruchomieniu polecenia z menu użytkownik uzyska pojedynczy współczynnik korelacji cząstkowej drugiego rzędu (GOVACT z AGE kontrolowana i przez LIBERAŁ, i przez INCOME). Można oczywiście uruchamiać kilka razy polecenia z menu, aby odtworzyć wszystkie pozostałe współczynniki korelacji cząstkowej. Kiedy jednak użytkownik dysponuje 561 profesjonalną wersją pakietu, z pewnością będzie mu łatwiej użyć edytora poleceń, wpisując, a następnie uruchamiając własną specyfikację polecenia PARTIAL CORR. Następujące kroki spowodują policzenie współczynników korelacji cząstkowej dla GOVACT z AGE kontrolowanych równocześnie przez zmienną LIBERAŁ i przez zmienną INCOME (korelacje drugiego rzędu): 1. Należy kliknąć sekwencję Statistics, Correlate, Partial... 2. Trzeba przenieść zmienne GOVACT oraz AGE z listy zmiennych do okna Variables za pomocą przycisku ze strzałką skierowaną w prawo (=>). 3. Trzeba przenieść zmienne LIBERAŁ oraz INCOME z listy zmiennych do okna Controlling for (kontrolowane przez) przy użyciu tej samej co wyżej opisana metody. 4. Należy upewnić się, że opcja Display actual significance level (pokaż rzeczywisty poziom istotności) jest zaznaczona i że został wybrany przycisk Two-tiled (dwustronny). 5. Trzeba teraz kliknąć Options... i wybrać wszystkie statystyki. 6. Należy kliknąć przyciski Continue oraz OK. REGRESSION (regresja). (Patrz s. 545-546). Mimo że uruchomienie procedury REGRESSION za pomocą okien menu w wersji dla Windows daje raport trochę inny niż ten, który uzyskamy, uruchamiając sekwencję poleceń ze strony 546, istota obu raportów jest taka sama. Kolejne kroki, które trzeba wykonać, są następujące: 1. Należy kliknąć sekwencję Statistics, Regression, Linear (liniowa), aby otworzyć okno dialogowe Linear Regression (regresja liniowa) (patrz ryc. A. 11). 2. Trzeba wybrać zmienną zależną (GOVACT) i przenieść ją z listy zmiennych do okna Dependent (zmienna zależna) za pomocą przycisku ze strzałką skierowaną w prawo (=>). 3. Teraz wybierz zmienne niezależne (LIBERAŁ, INCOME, EDUC) i przenieś je z listy zmiennych do okna Independent! s) (zmienne niezależne) za pomocą przycisku ze strzałką skierowaną w prawo (=>). 4. Należy kliknąć przycisk Statistics i wybrać wszystkie statystyki. 5. Trzeba sie upewnić, że w opadającym menu przy pozycji Method (metoda) zapisane jest wyrażenie Stepwise (krokowa). 6. Należy kliknąć przycisk OK. ¦ Zakończenie Podręczniki do SPSS i do innych pakietów statystycznych mogą wydawać się na pierwszy rzut oka skomplikowane i przytłaczające, jednak na dłuższą metę ułatwiają one życie. Ten dodatek został napisany po to, by pomóc czytelnikowi uczynić pierwszy duży krok w stronę komputerowej analizy danych. Mamy nadzieję, że takie potraktowanie tematu zachęci badaczy do wybierania tych elementów pakietu, które pasują do ich potrzeb oraz poziomu wiedzy metodologicznej. Jeżeli czytelnik będzie pracował z takim pakietem jak SPSS, to pozna więcej jego właściwości i możliwości. Wraz ze wzrostem własnych umiejętności będzie mógł analizować te możliwości za pomocą podręcznika. 562 —| Linear Regression eąwtth fllter_3 happy helpbik heipnot helppoor helpslck Immmm Id income liberał marital natetty natdty2 ¦ dependent |govact OK > Easte Błock 1 oi 1 Beset Preyłoijs Next |ndependent(s|: Cancel liberał income educ Help 1 k I W Method: Stepwlse i WJS» Stali stics... Ploto... Save... Options... Ryc. A.ll. Okno dialogowe Linear Regression (regresja liniowa) Przykład A.l Książka kodów dla zbioru GSS93 Nazwa zmiennej ID AGE SEX RACE REGION NUMER IDENTYFIKACYJNY RESPONDENTA WIEK RESPONDENTA Brakujące dane: 0, 98, 99 Wartość Etykieta 98 M NIE MA ZDANIA 99 M NIE USTALONO PŁEĆ RESPONDENTA Wartość Etykieta 1 MĘŻCZYZNA 2 KOBIETA RASA RESPONDENTA Wartość Etykieta 1 BIAŁA 2 CZARNA 3 INNA REGION STANÓW ZJEDNOCZONYCH Brakujące dane: 0 Wartość Etykieta 0 M NIE USTALONO 1 NOWA ANGLIA 2 ŚRODKOWOATLANTYCKI 4 CENTRALNY PD WSCH. 5 POŁUDNIOWOATLANTYCKI 6 CENTRALNY PN ZACH. 7 CENTRALNY PD ZACH. 8 GÓRSKI 9 REG. PACYFIKU Numery kolumn 1-4 5-6 MARITAL STAN CYWILNY RESPONDENTA Brakujące dane: 9 Wartość Etykieta 1 ŻONATY/MĘŻATKA 2 WDOWIEC/WDOWA 3 ROZWODNIK/ROZWÓDKA 4 POZOSTAJĄCY(A) W SEPARACJI 5 KAWALER/PANNA 9 M NIE USTALONO EDUC LATA NAUKI SZKOLNEJ RESPONDENTA Brakujące dane: 97, 98, 99 Wartość Etykieta 97 M NIE DOTYCZY 98 M NIE MA ZDANIA 99 M NIE USTALONO DEGREE WYKSZTAŁCENIE RESPONDENTA Brakujące dane: 7, 8, 9 1 13 Wartość Etykieta 0 MNIEJ NIŻ ŚREDNIE 1 ŚREDNIE BEZ MATURY 2 ŚREDNIE Z MATURĄ 3 WYŻSZE LICENCJACKIE 4 WYŻSZE MAGISTERSKIE 7 M NIE DOTYCZY 8 M NIE MA ZDANIA 9 M NIE USTALONO INCOME CAŁKOWITY DOCHÓD W RODZINIE RESPONDENTA Brakujące dane: 0, 98, 99 Wartość Etykieta 0 M NIE DOTYCZY 1 MNIEJ NIŻ 1000 DOLARÓW 2 1000 DO 2999 DOLARÓW 3 3000 DO 3999 DOLARÓW 4 4000 DO 4999 DOLARÓW 5 5000 DO 5999 DOLARÓW 6 6000 DO 6999 DOLARÓW 7 7000 DO 7999 DOLARÓW 8 8000 DO 9999 DOLARÓW 9 10000 DO 14999 DOLARÓW 10 15 000 DO 19999 DOLARÓW 11 20000 DO 24999 DOLARÓW 12 25000 DOLARÓW I WIĘCEJ 13 ODMOWA ODPOWIEDZI 98 M NIE MA ZDANIA 99 M NIE USTALONO PARTYID SYMPATIE WOBEC PARTII POLITYCZNYCH 14- 16 Brakujące dane: 8, 9 Wartość Etykieta 0 SKRAJNY DEMOKRATA 1 UMIARKOWANY DEMOKRATA 2 NIEZALEŻNY, RACZEJ DEMOKRATA 3 NIEZALEŻNY [564] EQWLTH CAPPUN RACSEG HAPPY HOMOSEX M M 4 NIEZALEŻNY, RACZEJ REPUBLIKANIN 5 UMIARKOWANY REPUBLIKANIN 6 SKRAJNY REPUBLIKANIN 7 INNE PARTIE 8 M NIE MA ZDANIA 9 M NIE USTALONO CZY RZĄD POWINIEN REDUKOWAĆ RÓŻNICE W DOCHODACH 17 Brakujące dane: 0, 8, 9 Wartość Etykieta 0 M NIE DOTYCZY 1 POWINIEN 7 NIE POWINIEN NIE MA ZDANIA NIE USTALONO ZWOLENNIK CZY PRZECIWNIK KARY ŚMIERCI DLA MORDERCÓW 18 Brakujące dane: 0, 8, 9 Wartość Etykieta 0 NIE DOTYCZY 1 ZWOLENNIK 2 PRZECIWNIK 8 NIE MA ZDANIA 9 NIE USTALONO BIALI MAJĄ PRAWO DO WYBIERANIA SĄSIADÓW Brakujące dane: 0, 8, 9 Wartość Etykieta 0 NIE DOTYCZY 1 ZDECYDOWANIE SIĘ ZGADZA 2 ZGADZA SIĘ 3 NIE ZGADZA SIĘ 4 ZDECYDOWANIE SIĘ NIE ZGADZA 8 NIE MA ZDANIA 9 NIE USTALONO OGÓLNE POCZUCIE SZCZĘŚCIA Brakujące dane: 0, 8, 9 19 20 Wartość 0 1 2 3 M M M Etykieta NIE DOTYCZY BARDZO SZCZĘŚLIWY RACZEJ SZCZĘŚLIWY NIEZBYT SZCZĘŚLIWY NIE MA ZDANIA NIE USTALONO STOSUNKI HOMOSEKSUALNE Brakujące dane: 0, 8, 9 Wartość Etykieta 0 M NIE DOTYCZY 1 ZAWSZE SĄ ZŁE 2 PRAWIE ZAWSZE SĄ ZŁE 3 CZASAMI SĄ ZŁE 4 WCALE NIE SĄ ZŁE 5 INNE 8 M NIE MA ZDANIA 9 M NIE USTALONO 21 [565] HELPPOOR CZY RZĄD POWINIEN PODNOSIĆ STANDARD ŻYCIA? Brakujące dane: 0, 8, 9 22 HELPNOT HELPSICK HELPBLK POLYIEWS Wartość Etykieta 0 M NIE DOTYCZY 1 POWINIEN 3 ZGODA NA OBA TWIERDZENIA 5 LUDZIE POWINNI POMÓC SOBIE SAMI 8 M NIE MA ZDANIA 9 M NIE USTALONO CZY RZĄD POWINIEN ROBIĆ WIĘCEJ CZY MNIEJ? 23 Brakujące dane: 0, 8, 9 Wartość Etykieta 0 M NIE DOTYCZY 1 RZĄD POWINIEN ROBIĆ WIĘCEJ 3 ZGODA NA OBA TWIERDZENIA 5 RZĄD ROBI ZBYT DUŻO 8 M NIE MA ZDANIA 9 M NIE USTALONO CZY RZĄD POWINIEN POMÓC W PŁACENIU ZA POMOC MEDYCZNĄ724 Brakujące dane: 0, 8, 9 Wartość M M M Etykieta NIE DOTYCZY RZĄD POWINIEN POMÓC ZGODA NA OBA TWIERDZENIA LUDZIE POWINNI POMÓC SOBIE SAMI NIE MA ZDANIA NIE USTALONO CZY RZĄD POWINIEN WSPIERAĆ CZARNYCH OBYWATELI? 25 Brakujące dane: 0, 8, 9 Wartość Etykieta 0 M NIE DOTYCZY 1 RZĄD POWINIEN POMÓC 3 ZGODA NA OBA TWIERDZENIA 5 NIE MA POTRZEBY SPECJALNEGO TRAKTOWANIA NIE MA ZDANIA NIE USTALONO MYŚLENIE O SOBIE W KATEGORIACH: LIBERAŁ CZY KONSERWATYSTA 26 Brakujące dane: 0, 8, 9 M M rtośc Etykieta 0 M NIE DOTYCZY 1 SKRAJNY LIBERAŁ 2 LIBERAŁ 3 UMIARKOWANY, RACZEJ LIBERAŁ 4 UMIARKOWANY 5 UMIARKOWANY, RACZEJ KONSERWATYSTA 6 KONSERWATYSTA 7 SKRAJNY KONSERWATYSTA 8 M NIE MA ZDANIA 9 M NIE USTALONO [566] NATFARE DOBROBYT Brakujące dane: 0, 8, 9 Wartość Etykieta 0 M NIE DOTYCZY 1 ZBYT MAŁO 2 W SAM RAZ 3 ZBYT DUŻO 8 M NIE MA ZDANIA 9 M NIE USTALONO NATCITY ROZWIĄZYWANIE PROBLEMÓW DUŻYCH MIAST Brakujące dane: 0, 8, 9 Wartość Etykieta 0 M NIE DOTYCZY 1 ZBYT MAŁO 2 W SAM RAZ 3 ZBYT DUŻO 8 M NIE MA ZDANIA 9 M NIE USTALONO NATRACĘ POLEPSZENIE WARUNKÓW DLA CZARNYCH OBYWATELI Brakujące dane: 0, 8, 9 Wartość Etykieta 0 M NIE DOTYCZY 1 ZBYT MAŁO 2 W SAM RAZ 3 ZBYT DUŻO 8 M NIE MA ZDANIA 9 M NIE USTALONO 27 28 29 Literatura dodatkowa Wywiał J. (1994), Przykłady wnioskowania statystycznego za pomocą komputerowego pakietu SPSS, Warszawa: Wyd. PLJ. Dodatek B: Zasady pisania raportu z badań Nina Reshef Pisanie raportu z badań jest wyspecjalizowaną umiejętnością, której można się nauczyć. Chociaż poszczególne dyscypliny akademickie różnią się szczegółami dotyczącymi tego, co powinno zostać przedstawione w ramach ich przedmiotu badań, to podstawowe elementy raportu są takie same dla wszystkich raportów — od opisujących testy przeprowadzane w domu do rozpraw doktorskich i artykułów naukowych. W tym dodatku przedstawimy wskazówki ułatwiające pisanie raportu z badań. Cel raportu określa jego strukturę. Z kolei forma raportu wynika z funkcji, jaką ma on pełnić. Funkcją raportu z badań, w odróżnieniu od innych raportów, jest nie tylko przekazywanie wyników, ale także bezpośrednie powiązanie tych wyników z modelem teoretycznym lub z jedną czy wieloma testowanymi empirycznie hipotezami. Struktura raportu z badań została ujednolicona i można ją ująć w postaci schematu organizującego sposób prezentacji w spójną i logiczną całość. Dzięki temu pisanie raportu staje się łatwiejsze. Dlaczego należy pisać raport z badań? Podstawowym pytaniem poprzedzającym podejmowanie każdego działania jest pytanie: Po co to robić? W badaniach naukowych odpowiemy, że jest to chęć rozszerzania horyzontów ludzkiej wiedzy, poprawianie metodologii i zwiększanie dokładności analiz. Jednak te podniosłe cele nie gwarantują jeszcze, że raport zostanie dobrze napisany, a także nie zawsze stanowią podstawową motywację studentów. Gdy — z drugiej strony — przeanalizujemy reguły pisania dobrego raportu, to dwa elementy wysuną się na plan pierwszy. Pierwszy to stopień zaangażowania autora w problematykę badawczą, stopień zafascynowania procesem badawczym i wynikami badań. Drugim elementem jest staranność zdefiniowania i przedstawienia przedmiotu badań. Jeżeli temat jest interesujący dla autora, to również będzie interesujący dla czytelnika, na pewno dla osoby prowadzącej zajęcia, a być może i dla szerszego audytorium. Czytelnicy będą ponadto przekonani o wartości raportu, jeżeli sposób przedstawienia podstawowych idei, wyników oraz sposób pisania będą profesjonalne. Naszym celem jest zatem przedstawienie wskazówek umożliwiających skuteczne przedstawianie innym osobom wyników własnych wysiłków badawczych. Dopasowywanie formatu raportu do odbiorcy Odbiorca raportu jest równie ważny dla jego autora jak rodzaj audytorium dla mówcy przygotowującego przemówienie. Im bardziej zróżnicowane będzie audytorium, tym ogólniejsze przedstawiane treści i tym luźniejszy będzie ich format. Raporty przeznaczone dla profesjonalistów powinny mieć charakter wysoce techniczny i powinny być mocno wyspecjalizowane. Pamiętając o audytorium, autor raportu może zatem wybrać właściwy format, określić stopień jego szczegółowości i słownictwo zrozumiałe dla odbiorcy. Odwoływanie się do odbiorcy pomaga również autorowi ustalić, czy założenia leżące u podstaw raportu zostaną dostrzeżone i zrozumiane. Mówiąc krótko, strategia autora — wyrażona przez wewnętrzną strukturę 568 raportu — powinna uwzględniać docelowego odbiorcę, nigdy zaś nie powinna być przypadkowa. Rodzaje raportów Badania realizowane w ramach nauk społecznych generalnie dzielimy na dwa rodzaje: badania jakościowe i badania ilościowe. W badaniach jakościowych można wykorzystywać takie elementy opisu badań ilościowych, jak diagramy i wykresy. Opis badań ilościowych zaś może wykraczać poza liczby i dotyczyć analizowania powiązań pomiędzy formalnym wzorem a miejscem mierzonej zmiennej w teorii. Dlatego nie należy mylić narzędzi wykorzystywanych do prezentacji wyników z charakterem raportu. Niezależnie jednak od celu i treści raportu podstawowe zasady dotyczące struktury raportu zarówno z badań jakościowych, jak i ilościowych są w gruncie rzeczy takie same. Raporty z badań jakościowych. Badania jakościowe, wyrastające z tradycji Ver-stehen, tj. głębokiego rozumienia zjawisk społecznych, mają zasadniczo charakter indukcyjny. Osoby prowadzące badania jakościowe wykorzystują badania terenowe, zwłaszcza analizę przypadku i obserwację uczestniczącą (por. rozdział 12). Badacz stara się nie ingerować w przebieg zjawisk. Raport z takich badań będzie zatem zawierać dużo materiału opisowego. W raporcie powinno się również wykazać, w jaki sposób zebrane obserwacje stały się podstawą wyodrębienia i analizowania zmiennych (indukcja) oraz w jaki sposób można te zmienne wbudować w teorię. Ważną rzeczą, o której należy pamiętać, pisząc raport z badań jakościowych, jest przestrzeganie podstawowych założeń i pojęć teoretycznych oraz unikanie włączania zbyt wielu szczegółowych danych uzyskanych w badaniach terenowych. Może to bowiem przeszkadzać i utrudniać przedstawianie podstawowej linii argumentacji. Raport z badań ilościowych. Ponieważ badania ilościowe są dedukcyjne, więc badacze przeprowadzają operacjonalizację zmiennych, manipulują zmiennymi empirycznymi, dokonują predykcji i testowania. W badaniach ilościowych kładzie się duży nacisk na metodologię, procedurę badawczą i statystyczne miary trafności. W rapc>tc\e, iMto \\oicvovN^cV\ ccwmno się zatem wyraźnie pokazywać drogę od teorii do operacjonalizacji pojęć, od wyboru metodologii i procedur badawczych do zebranych danych, od testów statystycznych do otrzymanych rezultatów i — w efekcie — wniosków. Jeżeli w raporcie przedstawia się procedurę testowania hipotez, to każda hipoteza powinna być jasno nazwana (np. 1, 2 itd. czy A, B itd.), a nawet uwydatniona za pomocą innej czcionki czy podkreślenia. Metoda ta ułatwia czytelnikowi identyfikowanie postawionych pytań i ich związku z wynikami badań. Wyróżnianie pytań ułatwia organizowanie wywodu oraz przyciąga uwagę czytelnika. Jest to ważny element, ponieważ większość tekstu w raportach z badań ilościowych to słowny opis danych prezentowanych w tabelach. Dlatego wyraźne zaznaczanie pytań badawczych pomaga czytelnikowi śledzić prowadzony wywód, a także analizować wnioski końcowe będące podsumowaniem danych w kontekście metodologicznym i teoretycznym. Raport ustny. Raporty z badań wygłaszane na zajęciach to powszechnie stosowane narzędzie wprowadzające studenta nie tylko w proces pisania raportów, ale 569 także w świat naukowych opinii. Krótki raport ustny z własnych badań wymaga nie tylko opracowania materiału pod kątem treści, ale również uwzględnienia zarówno sposobu jego wygłaszania, jak i audytorium, dla którego jest przeznaczony. Krótko mówiąc, raport słowny może być traktowany jako streszczenie czy zakończenie ostatecznej wersji raportu pisemnego. Dlatego też wszystko to, co powiedzieliśmy o organizacji raportu pisemnego, ma tu zastosowanie, chociaż inaczej rozłożone zostaną poszczególne akcenty. W prezentacji słownej musimy zwracać większą uwagę na główne punkty naszego raportu, tempo mówienia i ton głosu — nie chcemy bowiem, aby odbiorcy zasnęli bądź wpadli w nadmierny krytycyzm. Próbne wygłoszenie raportu pomoże nie tylko kontrolować ilość materiału, jaką można przedstawić w przeznaczonym na to czasie, ale również pomoże znaleźć takie sposoby wygłaszania, które sprawią, że raport będzie interesujący dla słuchaczy. Prezentacje ustne wygłaszane dla profesjonalnego odbiorcy w czasie konferencji powinny uwzględniać te same podstawowe zasady, ale na poziomie bardziej wyrafinowanym. Dlatego warto myśleć o referatach wygłaszanych na zajęciach jako o sposobie ćwiczenia umiejętności mówienia i prezentowania. Wybór tematu Wybór tematu badań jest najważniejszym i chyba najtrudniejszym etapem procesu badawczego. Aktualne wydarzenia, doświadczenie życiowe czy zagadki intelektualne pobudzają ciekawość i są źródłem oryginalnych tematów badawczych. Unikajcie tematów, które były już wiele razy realizowane przez innych studentów czy naukowców, i to bez względu na to, jak kuszące wydają się wam na pierwszy rzut oka. Jeżeli macie wątpliwości, to skonsultujcie się ze swoim opiekunem. Jednak nawet nadmiernie często realizowane tematy, takie jak alkoholizm, mogą być interesujące, jeżeli podchodzi się do nich w sposób oryginalny. Można sprawdzić, czy właściwie i poprawnie rozumie się realizowany temat poprzez ujęcie celu raportu w postaci jednego z następujących pytań: Czego chcę się dowiedzieć? Co chcę zbadać? Do czego chcę się przyczynić? Czy cel badania można sformułować w postaci pytań typu „kto", „co" lub „kiedy" i odpowiedzieć na nie kolejno, w sposób analityczny, czy też należy ująć temat historycznie? Czy temat można przedstawić w postaci hipotezy, która następnie zostanie przetestowana za pomocą ściśle eksperymentalnych metod? Unikajcie problemów, których nie można przetłumaczyć na jasne i precyzyjne tematy badawcze. Takie problemy bowiem są albo niejasne, albo zbyt szerokie, lub też nie nadają się do badania w sposób, jaki wybraliście. Dwoma najważniejszymi kryteriami wyboru tematu dla studentów jest jego zgodność z realizowanymi zajęciami i możliwość zebrania danych empirycznych. Szybki przegląd dostępnej literatury nie tylko wprowadzi was w realizowany temat i będzie źródłem wielu pomysłów, ale również pomoże się upewnić, czy wybrany temat da się zrealizować, czy też powinien zostać przeformułowany lub zawężony. Możecie zaoszczędzić wiele cennego czasu i trudu, jeżeli wcześniej przeczytacie podstawową literaturę. Wykonalność. Termin „wykonalność" jest często traktowany jako kryterium wyboru problemu badawczego, ale co tak naprawdę oznacza? W obszarze badań podstawowe znaczenie terminu „wykonalność" najczęściej jest wiązane z teoretyczną 570 złożonością wyjaśnianych zdarzeń lub pojęć, z ilością i dostępnością adekwatnych danych i czasem koniecznym na zebranie i przeanalizowanie danych, zanim będzie można rozpocząć pisanie raportu. Dla studenta wykonalność może oznaczać liczbę książek i artykułów, które musi przeczytać w ramach przeglądu literatury. Dla naukowca zaś wykonalność może oznaczać liczbę wyjazdów zagranicznych niezbędnych do zebrania danych znajdujących się w archiwach rządowych czy liczbę i złożoność modeli teoretycznych potrzebnych do wyjaśnienia badanego zjawiska. Każdy badacz musi sam odpowiedzieć na pytanie, w jakim stopniu jego temat badawczy jest wykonalny, i określić w ten sposób ramy przygotowywanego raportu. Zawsze lepiej ograniczyć temat i dokładnie go przeanalizować, niż rozszerzać jego zakres do takich rozmiarów, że nie ma ani czasu, ani źródeł, ani przestrzeni, aby adekwatnie przedstawić sensowną dyskusję. Dla badacza z uniwersytetu w Chicago na przykład analiza dochodów pochodzących z podatków od własności zebranych wstanie Illinois w latach 1919-1929 może być bardziej wykonalnym tematem niż problem zbierania podatków od własności w Chicago w okresie przed Wielkim Kryzysem. W tym przypadku, jeżeli dane dotyczące stanu Illinois są lepiej zorganizowane w ramach istniejących plików, to większa dostępność danych ułatwi przeprowadzenie procedur analitycznych i statytystycznych nawet wtedy, kiedy zebranie wszystkich danych może zabrać więcej czasu. Główny cel raportu Po wybraniu tematu badawczego badacz musi zadecydować, jaki jest podstawowy cel raportu. Jeżeli cel ten jest wąsko określony, specyficzny i wyznacza strukturę raportu, to pisanie raportu będzie znacznie łatwiejsze. Raporty z badań są zazwyczaj skoncentrowane wokół odpowiedzi na pięć zasadniczych pytań: „kto", „co", gdzie", „kiedy" i „jak". Szóste pytanie, „dlaczego", jest pytaniem podstawowym. Celem raportu badawczego jest zatem przedstawienie wyników, które są empirycznie i logicznie powiązane z jakąś koncepcją przyczynowo-ści, czyli teorią. Autor ma wolną rękę w uwypuklaniu tylko jednego z tych pytań, w każdej konkretnej części raportu. Wybór celu powinien być podyktowany przez własne zainteresowania (mimo że w niektórych przypadkach temat mógł zostać narzucony przez opiekuna) i oczywiście dostępność danych. Cel większości raportów z badań można również określić, organizując go wokół trzech ogólnych kategorii: opisu wydarzenia czy techniki badawczej, bada-n i a nowych pomysłów czy nietypowych wydarzeń i wyjaśnienia związków przyczynowych. Czwartą kategorią obejmującą zarówno wyniki, jak i wnioski są propozycje rozwiązań problemów społecznych'. We wprowadzeniu do raportu należy jasno przedstawić swoje cele i założenia. Raporty badawcze, na przykład, przedstawiają wstępne wyniki poszukiwań i wyznaczają etapy dalszych badań. Treść i uzasadnienie propozycji zmian nie muszą być oparte na podzielanych powszechnie wartościach i powszechnie przyjmowanych założeniach. Przez jasne określenie własnych celów i założeń możecie się upewnić, czy wasz raport został umieszczony we właściwym kontekście. Tym samym czytelnik może lepiej ocenić wasz raport. 1 Earl Babbie (1995), The Practice ofSocial Research, New York: Wadsworth, dodatek B, s. A-10. 571 Struktura raportu Raporty badawcze mają zawyczaj stosunkowo jasną strukturę ułatwiającą komunikowanie treści. Nic nie jest bardziej frustrujące od czytania niejasnych raportów dotyczących interesujących badań czy wyników. Dlatego chociaż każdy autor ma pewien stopień swobody co do wyboru własnego stylu i narzędzi prezentacji (np. tabel czy rysunków), to opisując swoje badania, należy przestrzegać podanego niżej wzoru. Wprowadzenie. Wprowadzenie powinno w sposób jasny i zwięzły określać cel pisania raportu. Powinno wiązać rodzaj raportu (ljp. badawczy) z postawionymi konkretnymi pytaniami i otrzymanymi wnioskami. (Streszczenie jest jeszcze bardziej zwięzłym wprowadzeniem i generalnie wyprzedza tekst w publikowanych artykułach). We wprowadzeniu zatem prezentuje się przegląd treści i, co ważniejsze, wkład badań do danej dyscypliny. I chociaż to ostatnie stwierdzenie można uważać za wychodzące poza zakres raportów przygotowywanych przez studentów, jednak w ten sposób określa się wprost wartość naukową postawionych pytań czy analizowanych problemów. Odwołajcie się do własnej wyobraźni, pisząc zdanie rozpoczynające wprowadzenie. Zdanie to jest po tytule elementem najbardziej przyciągającym uwagę2. Wasze umiejętności stylistyczne będą tutaj najważniejsze. Można wskazać wiele możliwych strategii: można na przykład zacytować dramatyczne wydarzenie, które opisano w wiadomościach, można przytoczyć istotny i mający związek z tematem komentarz, wskazać na paradoks, jaki ujawnił się w badaniach, czy wyraźnie uwypuklić cel badania. Następnie należy zwięźle określić cel raportu. Unikajcie rozwlekłych wyjaśnień dotyczących celu badania w częściach raportu nie poświęconych omówieniu wyników. W tej części należy również omówić ograniczenia metodologiczne i teoretyczne raportu, ale w sposób, który nie lekceważy waszego wkładu. Jeżeli opiekun pracy studenta uważa, iż badanie warto było przeprowadzić, to jest to wystarczający argument. Wielu początkujących autorów sądzi, że ponieważ wprowadzenie otwiera raport, przeto powinno zostać napisane na początku. To błędny pogląd. Dla wielu autorów napisanie pierwszych słów tekstu jest bardzo trudne i może opóźniać cały proces pisania. Jeżeli zorganizujecie swoją pracę właściwie i naszkicujecie cały tekst i jeżeli jesteście w pełni przekonani, co chcecie powiedzieć (chociaż mogą wam się przydarzyć interesujące niespodzianki — pisanie bowiem zawsze wymaga myślenia i myślenie zawsze gdzieś was zaprowadzi), to zanim napiszecie wprowadzenie, przygotujcie najpierw projekt całego raportu. Przegląd literatury. Dzięki temu, że nauka powstaje w sposób systematyczny, realizowane badania naukowe opierają się na wynikach i pomysłach innych osób. Zatem badania naukowe nigdy nie są prowadzone w pustce, bez względu na to, jak bardzo innowacyjny jest realizowany temat czy zastosowana procedura. Dlatego przegląd literatury jest konieczny, aby można było określić miejsce własnych badań. W przeglądzie literatury streszcza się wcześniejsze badania i przegląd ten można 2 Michael Meyer (1991), The Little, Brown Guide to Writing Research Papers, New York: Harper-Collins, s. 113-114. 572 przedstawić na wiele sposobów. Wykorzystywane strategie mogą się różnić, jednak zawsze powinny wynikać z celu raportu. Badając trafność konkretnego testu statystycznego, można na przykład dokonać przeglądu sposobu wykorzystywania tego testu w określonym obszarze problemowym. Po jasnym i krótkim omówieniu zalet i wad testu można określić wkład własnego badania do dyskusji nad jego trafnością. Przegląd literatury można również zorganizować wokół szkół myślenia takich, jak szkoła Freuda, Junga i Skinnera w psychologii, wokół sposobów rozwiązywania problemu inflacji czy okresów historycznych, takich jak na przykład wojna wietnamska. Niezależnie od wybranej strategii przegląd literatury powinien być dokonany selektywnie i odwoływać się jedynie do tych źródeł, które są silnie powiązane z raportem i końcowymi wnioskami. Należy pamiętać, że dokonując przeglądu literatury, nie zawsze w sposób uprawniony można odwołać się do wszystkich źródeł. Korzystajcie z tekstów naukowych, w których przedstawia się określone teorie lub omawia określone hipotezy badawcze. Artykuły umieszczane w gazetach nie będą tu zatem właściwe3. Można z nich korzystać na etapie zbierania danych, gdyż ich celem jest raczej przekazywanie informacji niż ich interpretowanie. Tym samym można je traktować jako źródło informacji o tym, co się zdarzyło, lub informacji o danych statystycznych wtedy, gdy inne, właściwsze — z metodologicznego punktu widzenia — źródła nie są dostępne. Metodologia i wyniki. Tę część raportu poświęca się szczegółowemu omówieniu zastosowanej procedury badawczej, jej podstaw metodologicznych, czynników decydujących o wyborze przypadku lub procedury oraz wynikom. Nie należy w tym miejscu raz jeszcze opisywać celu badania, chyba że pomoże to czytelnikowi prześledzić rozwiązania metodologiczne. W tej części trzeba przedstawić przyjęte hipotezy, wzory wykorzystane do testowania wyników, tabele zawierające wyniki analiz statystycznych (por. s. 577, na której omówiono zasady prezentacji tabel) w sposób tym bardziej uporządkowany, im bardziej prowadzone badania miały charakter empiryczny czy ilościowy. Jak powiedzieliśmy już 'wcześniej, kolejne numerowanie hipotez ułatwia organizowanie tekstu. Ponieważ tabele powinny zostać włączone do tekstu w takim porządku, w jakim omówiono kolejne zmienne, więc wprowadzając odpowiednie dane do tekstu, wystarczy odnieść się jedynie do numeru tabeli (np. por. tabela 3), kiedy włączasz odpowiednie dane do tekstu. Wyniki badań jakościowych można — w zależności od zastosowanej metodologii — omówić zgodnie z ich historycznym powstawaniem, czy też zorganizować tekst wokół badanych pojęć. Omówienie wyników. W tej części raportu przedstawia się większość informacji dotyczących analizy otrzymanych rezultatów — waszą interpretację wyników, ich związek z pytaniem badawczym, z poprzednimi badaniami (na przykład to, czy je potwierdzają, czy też nie) oraz konsekwencje dla dalszych badań. Pisząc tę część, wykorzystajcie swoje umiejętności analityczne i wyobraźnię, stawiając dodatkowe pytania, wyciągając wnioski, oceniając poprawność zastosowanej metody czy istotność otrzymanych wyników. Dlatego warto rozpocząć od przypomnienia celu badania, a następnie pokazania, czy otrzymane wyniki potwierdzają lub nie wyjścio- 1 Ibidem. 573 wą hipotezę badawczą, czy też trafność przyjętej strategii postępowania. Warto również ocenić własny wkład bez zbytniego podkreślania negatywnych wyników czy problemów, jakie pojawiły się w trakcie badań. Mówiąc krótko — wasza prezentacja powinna być jasna, zwięzła, wyważona i na temat. Wnioski. Wnioski pisze się po to, aby zamknąć cykl badań, przejść od wcześniejszych badań do miejsca raportu w zgromadzonej wiedzy naukowej. Wymaga to powiązania wniosków teoretycznych czy metodologicznych z aktualnym stanem badań. Wnioski to również możliwość sugerowania nowych dróg badań — pomysłów, w jaki sposób można kontynuować to, co sami zrobiliście. Chociaż rekomendacje dla dalszych badań mogą wydawać się wielkim ciężarem dla osoby początkującej, to stwarzają one możliwość popisania się swoją wyobraźnią, pomagają umieścić własne wyniki w ciągu badań, podkreślają skromność i świadomość tego, że raport to jedynie niewielki wkład do ciągle powiększającego się obszaru wiedzy. Ta część może mieć objętość jedynie paragrafu, ale bez niej zabraknie zakończenia pracy. Jeżeli wyprowadzone wnioski są bardzo krótkie, to można je włączyć do części poświęconej omówieniu wyników. Pisanie raportu Szkic raportu. Napisanie raportu, po wysiłku włożonym w prowadzenie badań, może okazać się rzeczą najtrudniejszą. Pisanie jest wyzwaniem, ponieważ zmusza do myślenia i do krytycyzmu. O stylu pisania powiemy jedynie tyle, że proste, krótkie zdania są lepsze zwłaszcza wtedy, gdy macie zamiar przedstawić złożone pomysły lub procedury. Wczesny start jest dobry dla pisania raportu. Mniej lub bardziej chronologicznie opiszcie zastosowane procedury i to, co ustaliliście. Strategia taka — oprócz ułatwienia podsumowania i zapamiętania całego materiału — stwarza możliwość zweryfikowania starych pomysłów i tworzenia nowych. Ta forma streszczenia staje się w zasadzie pierwszym szkicem ostatecznego raportu. Po napisaniu wstępnego szkicu przejrzyjcie go kilka razy i poprawcie, jeżeli będzie to konieczne. W trakcie któregoś z przeglądów spójrzcie na swój tekst z pozycji' czytelnika, a nie autora. Jeżeli jako czytelnik jesteście w stanie śledzić przyjętą linię argumentacji, to następnie poszukajcie słabych punktów w przedstawionym rozumowaniu oraz podkreślcie usterki stylu. Taki przegląd może sprawić, że zweryfikujecie swój sposób myślenia i być może zechcecie coś zmienić. Bywa też inspiracją do nowych pomysłów, o których można wspomnieć teraz, a zrealizować w innych badaniach. Dlatego warto przygotować tyle szkiców, ile się uda i na ile jest czas. Redagowanie. Raport z badań musi być nie tylko napisany zgodnie ze strukturą, jaką opisaliśmy, ale również musi zostać dobrze zredagowany. Redagowanie oznacza sprawdzanie, czy w tekście pojawiły się jedynie te szczegóły, które są istotne z punktu widzenia zastosowanej metody lub przyjętej argumentacji. Bądźcie świadomi jednak tego, że jest taki moment, który kończy całą pracę — moment, w którym zdacie sobie sprawę z tego, że dalsze czytanie tekstu nie odsłania wam już więcej problemów. To moment zakończenia pracy. Tekst należy redagować, pamiętając o jego odbiorcy. Przypuśćmy na przykład, 574 że piszemy raport z badań terenowych poświęconych postawom wobec nieregulowa-nego dnia pracy. Jeżeli wasz raport jest przeznaczony dla osób prowadzących badania terenowe lub dla statystyków, to prawdopodobnie włączycie do niego więcej szczegółów metodologicznych i matematycznych niż wtedy, gdy waszymi czytelnikami byliby sprzedawcy. W raporcie przeznaczonym dla tych ostatnich możecie przekazać więcej informacji na temat badanej populacji czy rodzaju zadanych pytań. Na koniec, kiedy będziecie już zadowoleni z przygotowanego raportu, powinniście przejrzeć go pod kątem stylu oraz błędów gramatycznych i ortograficznych. Komputery osobiste są tu ogromnym ułatwieniem, można bowiem skorzystać z programów poprawiających ortografię i styl, a samo przenoszenie paragrafów nie nastręcza żadnych technicznych trudności. Proces ten — pomijając stronę techniczną — tak czy inaczej wymaga dużej koncentracji. Jeżeli nie macie dostępu do drukarki i przynajmniej część poprawek trzeba będzie nanieść ręcznie, to pamiętajcie, że zbyt wiele odręcznych poprawek — nawet jeżeli są to tylko błędy maszynowe — może sprawiać wrażenie nieprofesjonalizmu i zmniejszyć zainteresowanie czytelników tym fragmentem pracy. Jeżeli na stronie pojawi się więcej niż dwie poprawki, to należy ją na nowo wydrukować lub przepisać. Długość. Dwa czynniki decydują o długości raportu badawczego: jego cel i temat. Cele pisania raportu są różne i dla studenta takim celem może być na przykład zwiększenie własnych umiejętności badawczych. Innym czynnikiem wpływającym na długość tekstu może być liczba stron, jaką mamy do dyspozycji. Opiekun waszej pracy może wymagać napisania jedynie trzech stron, jeżeli jest to ćwiczenie, ale już trzydziestu stron w przypadku pracy ocenianej na stopień. Prace magisterskie i doktorskie są oczywiście jeszcze dłuższe. Artykuły w czasopismach mogą zostać ograniczone przez wydawców do czterdziestu stron, a artykuły monograficzne do około pięćdziesięciu. Artykuły dotyczące statystyki bywają z kolei krótkie, ponieważ wiele informacji podawanych jest w postaci równań. Jeżeli długość pracy jest ograniczona, to posługujcie się skrótowymi sposobami prezentowania materiału, takimi jak na przykład wykresy ilustrujące modele przyczynowe. Tonacja i problem seksizmu. Przygotowując raport, należy uwzględnić dwa czynniki stylistyczne: tonację i język seksistowski. Decydując o tym, jak formalny czy nieformalny powinien być nasz sposób pisania, trzeba zawsze pamiętać o odbiorcach tekstu. Formalizacja narzuca bardziej sztywną strukturę zdań i większą wewnętrzną organizację. Ani styl formalny, ani styl nieformalny nie wyłącza humoru, natomiast jeden i drugi wymaga spójności. Jakikolwiek styl wybierzecie, upewnijcie się, że dobrze się w nim czujecie, aby uniknąć ciężkiej, niezręcznej prozy, pisania nie na temat czy utraty naukowego celu pracy. Należy unikać w raporcie języka seksistowskiego, i to bez względu na to, czy posługujecie się stylem formalnym czy nieformalnym. Współczesne podręczniki stylistyki dostarczają wielu propozycji zdań, które można wprowadzić zamiast tradycyjnych, męskoosobowych sformułowań. Plagiaty. Dlaczego w podręczniku dotyczącym metodologiii badań społecznych zamieszczamy część poświęconą p\agiatomr! Czy rne }esl ocz^vńs>te, że wytotz^s-tywanie pomysłów i słów innych osób bez poinformowania o tym jest niemoralne 575 i nielegalne? Niestety, plagiaty pojawiają się wszędzie, także i w akademiach. Ze względu na presję publikowania czy konieczność zaliczenia przedmiotu, ludzie mają często wielką ochotę „pożyczyć" od innych, zakładając, że nikt tego nie odkryje. Jednakże, jak powiedzieliśmy wcześniej, rozwój wiedzy oparty jest na pracy poprzedników. Wiedza przyrasta krok po kroku i dlatego naprawdę łatwo jest kogoś „złapać" na popełnianiu plagiatu. Co więcej, opiekun pracy zna najprawdopodobniej wystarczająco dobrze to, czego się wymaga od studenta, oraz na tyle dobrze zna materiał objęty tematem badawczym, aby się zorientować, że popełniono plagiat. P/agiatorstwo zatem to nie tylko zła, lecz również ryzykowna strategia. Większość studentów może popełniać plagiat nieintencjonalnie. Nie zawsze jest do końca jasne, kiedy należy stosować cudzysłów lub kiedy podać numer strony obok informacji o autorze tekstu i jego tytule. Dlatego poniżej przedstawiamy reguły pozwalające uniknąć plagiatu. Reguły te mają wspomóc tych, którzy wstydzą się plagiatu, oraz zniechęcić tych, którzy chcieliby go popełnić. 1. Kiedy dokładnie przytaczacie słowa innej osoby we własnym tekście, zawsze używajcie cudzysłowu i podawajcie autora, tytuł pracy i numer strony. W USA, ogólnie rzecz biorąc, prawa atorskie zostają naruszone wtedy, gdy ciąg co najmniej ośmiu słów jest cytowany bez wskazania źródła. Poniżej przedstawiamy przykłady — oparte na punkcie 69 z przykładu 4.1 — które można potraktować jako wskazówki. Plagiat: Procedury badawcze powinny zostać w raporcie w pełni i dokładnie opisane, łącznie z wszelkimi dowodami, bez względu na to, w jakim stopniu potwierdzają one hipotezy badawcze. Prawidłowo: Przedstawiając wyniki, „procedury badawcze powinny zostać w raporcie w pełni i dokładnie opisane, łącznie z wszelkimi dowodami, bez względu na to, na ile potwierdzają one hipotezy badawcze..." (Reynolds, 1979, s. 447-448). 2. Jeżeli parafrazujecie autora, to należy podać jego nazwisko i tytuł pracy. Prawidłowo: Bez względu na to, czy wyniki potwierdzają hipotezy badawcze, należy w raporcie w pełni i dokładnie opisać stosowane procedury badawcze (Reynolds, 1979, s. 447-448). 3. Nigdy nie wolno przedstawiać pomysłu innego autora — nawet jeżeli został on przerobiony — jako własnego. Należy powołać się na tego autora i podać oryginalne źródło. Jeżeli sami, niezależnie, doszliście do takich samych wniosków, jakie można znaleźć w literaturze, to należy to jasno powiedzieć i zacytować autorów myślących podobnie. Prawidłowo: Sądzę, że zgodnie z zasadami normatywnymi naukowej metodologii przedstawionymi w pracy Frankfort-Nachmias i Nachmiasa (1995), wszystkie procedury wykorzystane do zbierania danych, bez względu na to, czy wyniki potwierdzają hipotezy badawcze, powinny zostać w raporcie w pełni i dokładnie opisane. Reguła ta została ujęta w postaci zasady normatywnej przez Paula Davisona Reynoldsa (1979, s. 447-448). 4. Nie należy pisać o rzeczach powszechnie znanych tak długo, jak długo jesteście przekonani, że informacje te są wszystkim dostępne. Fakt, że Waszyngton, stolica kraju, nie ma swojej reprezentacji w Senacie, może być na przykład znany wszystkim studentom studiującym historię Ameryki, natomiast przyczyny tego sta- 576 nu rzeczy mogą być im nie znane. Dlatego też omawiając te przyczyny, należy podać wykorzystane źródło. Wydaje się, że najlepszym sposobem uniknięcia plagiatu jest po prostu uczciwość. Jeżeli macie wątpliwości, to cytujcie źródła, z których korzystacie. Pamiętajcie, że pisanie o zasługach innych świadczy też o waszych umiejętnościach badawczych. Tabele Tabele i ryciny pozwalają na zwięzłe przedstawienie otrzymanych wyników. Wykorzystuje sieje we wszystkich badaniach ilościowych. Można je stosować również w badaniach jakościowych, aby ułatwić przedstawianie argumentów teoretycznych — por. na przykład rycina 1.1 i 2.1. Ryciny te zawierają jedynie słowa — pojęcia — streszczające to, co zostało omówione w tekście. Poniżej przedstawiamy podstawowe wskazówki techniczne ułatwiające konstruowanie tabel4: 1. Tabele powinny być samoobjaśniające, tj. zrozumiałe bez odwoływania się do tekstu. Dlatego powinny być one jasne, zaplanowane w terminach badanego związku i dokładne. Kolumny, w których dane są podsumowywane, należy umieścić na końcu. 2. Każda tabela czy wykres powinny mieć własne kolejne oznaczenie (np. tabela 1, rycina 2). 3. Tytuł powinien w jasny i zwięzły sposób odwoływać się do treści tabeli (co, gdzie, kiedy). Pod tytułem należy umieścić informację o rodzaju danych zawartych w tabeli (np. procenty, liczebności, waluta). Jeżeli informacje takie nie znajdą się pod tytułem, to powinny być przedstawione w główkach odpowiednich kolumn tabeli. 4. Należy wyraźnie odróżnić od siebie nagłówki wierszy i kolumn i ewentualnie je ponumerować, aby stały się bardziej czytelne. 5. Nagłówki kolumn powinny zawierać zmienne niezależne, a nagłówki wierszy — zmienne zależne. 6. Wartości liczbowe przedstawione w tabeli powinny zostać wyśrodkowane, przecinki powinny wypadać w tym samym miejscu, a dane powinny być wpisywane na tym samym poziomie co nagłówki wierszy. 7. Jedynymi dostępnymi skrótami, jakie można stosować w tabeli, są „b.d." (brak danych) oraz N (liczebność). Wartość N można umieścić w nawiasie zaraz po przedstawionych w tabeli danych procentowych (jeżeli są niskie), a zawsze na dole kolumny po informacji „ogółem 100%" (por. tabelę 16.6). 8. Można używać gwiazdek czy innych symboli jako sposobu oznaczania przypisów lub źródeł danych. Starajcie się jednak ograniczać te środki do minimum, aby nie „zaśmiecać" teksu i nie narażać czytelników na popełnienie b\ędu (por. tabelę \&.5). 9. Przypisy wyjaśniające powinny być umieszczone zaraz pod tabelą, w pełnej formie. Źródła danych, również kompletne, należy podać pod przypisami. 4 Na podstawie wskazówek przygotowanych przez Davida G. Wegge'a, St. Norbert College. 577 Trzeba pamiętać, że tabela ma pomagać czytelnikowi. Dlatego numery tabel, liczby czy inne środki wizualne powinny być konsekwencją zarówno przyjętego sposobu pisania, jak i ilości zebranych danych. Nie przytłaczajcie czytelnika tabelami, które nic nie wnoszą do tekstu. Dokumentacja Wiele dyscyplin opracowało swój własny format dokumentowania wykorzystanych źródeł. Przedstawione niżej trzy sposoby podawania informacji o tytułach książkowych są ilustracją trzech najczęściej stosowanych form w tym zakresie: American Psychological Association, Publication Manuał ofthe American Psycho-logical Association, wyd. 4, Washington, D.C.: APA, 1994. The Chicago Manuał of Style, wyd. 14, Chicago: University of Chicago Press, 1993. Gibaldi Joseph, MLA Handbookfor Writers of Research Papers, wyd. 4, New York: The Modern Language of America, 1995. Czasopisma także mają własny styl dokumentowania. Podstawowe podręczniki można kupić w księgarniach uniwersyteckich lub znaleźć w bibliotekach. Najczęściej wyboru formatu dokonuje promotor pracy. I chociaż różne dyscypliny preferują różne formaty, to wiadomo jedno — zawsze należy konsekwentnie stosować ten sam sposób. ¦ Literaturo dodatkowa Brzeziński J. (1997), Metodologia badań psychologicznych, wyd. 2, Warszawa: Wyd. Nauk. PWN. Morison M. (1999), Jak pisać prace pisemne i prace badawcze oraz jak zdać egzamin z psychologii, Poznań: Zysk i S-ka Wydawnictwo. Morison M., Pey J. (1999), Pisanie esejów z socjologii. Poradnik dla studentów, Poznań: Zysk i S-ka Wydawnictwo. ¦HHH1 Dodatek C: Znak sumowania (X) W statystyce często korzysta się ze wzorów zawierających sumę wielu składników. Aby uprościć zapis takiej sumy, stosuje się grecką literę X(duża sigma), która oznacza operację sumowania (dodawania). Zatem pojawienie się X oznacza, że wszystkie wielkości znajdujące się po prawej stronie od niej powinny zostać zsumowane. Jeżeli chcemy dodać dziesięć wyników, to zazwyczaj piszemy to w sposób następujący: X, + X2 + X3 + X4 + X5 + X6 + X7 + X8 + X9 + X10. To samo wyrażenie możemy zapisać prościej A1+A2 + ...+A10, co oznacza dokładnie to samo. Trzy kropki (...) oznaczają „i tak dalej". To samo polecenie można też zapisać jeszcze inaczej: 10 Ix,, Znak X nakazuje dodać do siebie wszystko to, co po nim występuje (wartości X,), rozpoczynając od przypadku wskazanego w wyrażeniu poniżej X0 = 1) i kończąc na tym, który został wymieniony powyżej (10). Przykład ten możemy przeczytać następująco: dodaj (X) wszystkie obserwacje (X,), począwszy od pierwszej (/= 1), a kończąc na dziesiątej (10). Jeślibyśmy chcieli dodać do siebie tylko wielkość czwartą i piątą, to zapisalibyśmy to jako: 5 1=4 Chcąc z kolei wskazać, że należy dodać wszystkie przypadki i nie wymieniać konkretnej ich liczby, możemy posłużyć się literą N i zapisać to tak: N lx,. n=\ Zgodnie z tym zapisem dodamy wszystkie wielkości od pierwszej do N-tej. W ten sposób generalnie zapisujemy polecenie dodania wszystkich wielkości, bez względu na ich liczbę. W sytuacji, w której zakres sumowania jest oczywisty, pomija się zazwyczaj podawanie zakresu pizy l/\ zapisuje się w sposób następujący. Ix,. 579 czy nawet lx. Zapis ten mówi, że należy dokonać sumowania wszystkich przypadków branych pod uwagę. Zasady czytania zapisu ze znakiem X Jest wiele zasad posługiwania się znakiem X- Na przykład zapis: N N N !(Xi+Yi) = lXl + lYi 1=1 1=1 1=1 oznacza, że dodawanie sumy dwóch zmiennych (A" i Y) jest tym samym co dodanie ich sum. Nie ma zatem znaczenia, czy ktoś dodaje każdą wartość Xt do każdej wartości Yt i następnie sumuje wyniki dodawania od 1 do N, czy też najpierw dodaje do siebie wszystkie wartości Xh następnie wszystkie wartości Y„ a potem dodaje dwie sumy do siebie. Wyniki w obu wypadkach będą takie same. Kolejną zasadę ilustruje równanie: N N / . fCJi.j — K / . Aj. i=l i=l Stała k może zajmować różną pozycję względem znaku sumowania. Oznacza to, że mając polecenie mnożenia każdej z wartości przez stałą kXl+kX2 + ...+kXN, możemy dodać do siebie wszystkie wartości i następnie pomnożyć otrzymaną sumę przez stałą. Otrzymany wynik będzie taki sam. Trzecia zasada jest następująca: N 2,k = kN. i=i Dodawanie stałych wartości jest zatem równe iloczynowi tej stałej i liczby wskazującej na to, ile razy została ona dodana. Zgodnie z jeszcze inną regułą: [lXiJ = (X,+X2 + ...+XN)2 = X]+Xl + ...+X2N + 2X,X2 + 2X,Xi + ... + 2XN_]XN *Xj+X22 + ...+X2N. 580 ¦¦ Musimy zatem odróżniać od siebie dwa wyrażenia: X Xj oraz (H 1 CD O to O >> A N O UJ i— < O ©ioa*-a\coOCNt-- —¦ rN oc ^L>© r-to^OrO^OOOt^rOOs^ —' n O oo t^ a o »o -1 "o rj- - ro«ri^ir^cj\r^ooa ONrOvOON©^^^©^ONrnroCJ^ONrnr--00O'--'^0V~i-^OC7\ ro o — (N^-in-o-ooooNh^^^ocmM —¦ — m t~- "O ^ t N n O O o-s oo o t-~ "O t|- n co co co co vi ^O •—< Tf to^cotnr-cNoor-Ot/^oo^oosOCNtooo ¦^t^C'oo^-^-r-»nr-o«or^v^or^'^i- — roto ©Vł(>viOOC-JcOOC7vC"J©co-- — \Q C?\ ~~ "O ^O—'—¦ cnf\10cNOCV)sOOO\OTfrc\l©0^f,«0 © to © —¦ ^ to co -<3- — oc ^o © v> — V)0NcorosOl>0©©c0'—' — -—'©vj —' m '—> »o r— •-• mTroooooviov)OV)0 r^Tf-in^oo-^-ooinO r^os —i — m — onoovi^oo ^©coco©vicoior^©ioON^as'0'^-™vico©rooocNONOO ^^oov^co\0(^cxDcocooo^^co©^occ^©r^^osc»o^^c^as—'©cn O^tNOOOOM^mOhiOmOOsf^MtOOOaoONtCJ t^oor^ri-^o^c^^i-^o^o^rsioc^otofNłos-^-oor-j^OTffntn ^^^^sf-^sO^t/ir^oooOyOcO^Otnr^rOto.—«OsTfio© so cnj •—< co ^o — r^otofoto-^rn^^^oto-—•oor-c^r-c^^f^o ^ooc^^oioo^cł^n^^ooh^M/i^fO^ooofi^o rJ-t^Or^OOO-^fNOrOrO^OO^O —< O 00 Tf —> OS ^O O O V) fN so — oofnh^oa-vio\t^(NO\noo-vivc«r)0(Nt "O^^-rnr-oooa-^^MoiM^oufTr^o^ocOM OsoosO^ONV^cors1r—«vsr~^©fOVii—-~h.—¦©—h©co«Nco©Os t^VscO^ — ^rNSOcOOr^sO^rr^cofNOOco^oorNIOco — ^ ^a\ONv^cNV)r^i>.v(^osr^r^rorotosor^^^r--r--^>coro \OOscooo — r^ooooTf©assoosc^cst'«3-cocNcg\L)'-H©cor-~r-- — osc>r^vL>r^oooor~co©osoooor-r-as —< co cn Os r^- co oo o> ooror-oofsc^ — — tnr-^ooTj-r-r-oofOfNrt-o^t — vi — — nviox»«'j'(N'-lOo^hhONOo^oo^^oo^wooo-*— as\ooov>ioosr^ooccr^rNcooor^toso©ooas,3-©©©to On(M'C^hC>OrvJC>fS4h^>-(N(NC^Vi^(fl--(Nrnr'l cNvtr- — sov)0 —¦ r- cn oo © v©v)r-~cor^ooocO'— cn —'tosoosoo — TtNOsr-oo^-r^r-'*^ M^fN^flOM^^O^nwnMtMO^C^OOOMfN^rort v)invifNooo^i-^t^Oror^(N^ovłOoo,^-rofor~oo-^'in^ooc) — vi(N>L)--^viMnoooorjh«i-iocNicosoooas — (n ¦* o »c o « Ovico©OsasasosroooviOsON-Jcor--ro©OssocN-^-co©© V)\O0ona\C(N~ ^t-^OONOrO — r-(N-HTfror--^00(Nr-ro oooohO-ifN-^^oom^yicAyioo-N^rtt^^M oosoco^r^cN^©r^r^--vicN^c>--oo^c>--'^L>V)\C)iOcocooo orN|rł-rNjr^r--c>^ca^vioor*-iavOr--^fS-^rsr--oO'^-(N(^(N —'rNc0Tfrv'i>or-.000sO—-CNco^ [582] «*i o rn Os ~r oj V. vi ¦t r- oj oj -t O 1*1 i/l X O T Ot N * o- o V O m -T •O 01 O (T -T sc -r O O V o r^ •r. -t r-» p- DC os rn o -f ri «» O ^ P- O V oj VI m -r p- r- ¦* o 01 V- »Ai <; -o -ł P -> O o oi es «ri sC r*- O m oj r- -^f ^r m r-i -f VI i—i Os sC r> o* o O r- t -/- V in kfi rn o r- o C^ VI -T oi ^-. ^'; *-f —¦ CN ^c o r- VI r* sC — O" -p *t -r. r^ r-~ vCJ os r- i/-, ^ sO / vi r-- X. c^ -f r- ao O oj -r r> r- r<\ <¦; Q o r- n U", m Ol ^ n C- o- -T SC r* Ol 1/1 O O] v, sO Ol sfi — Ol r- 'i- « OJ lt, >c r- m Os o* o m iC Ol o o ^~ ^O r- oo os o (N M (N n M er. «o — p- O ro Q o ^r 'r, « O »n iy i O só V ¦/ r*i ¦:/: o- X: -* O DC 90 os r- (-*". l^- r- >o c~; OS r- Os Os OJ r- Ol in / r « i/'. c^ •* r- O O DC vn r»i V. M ,—i — Ol o ni ¦* If > V. c^ DC ^C o> r*l « ¦rr r*1 -i- -* r- Ol m t * Os i/', O -i- r- r- — ^r DC m O oi o> ry. SO DC ^t Os -T C~:- VI i/, DC X. -t O O r- tC lO, — r- -* ;y. Ol r- -> i/, o sC OJ r- Os « r Ol i/i Os m O 00 r*i 1"- oi '/-, Ol O -V". OJ r- * O o| 1*1 Os Ol "t sO >o 00 V: r- t- fM — Ol •r. O] -t DC r- Ol r- i/") — O m r- rn i/i V. r- V -y. ci DC oi -t — O -t DC r- r*i O OJ Jf. DC Ol r«i ~ r> V. Ol « ;y. r- O ^ DC — *o m —i O f#1 ^r DC -«ł r- :-- C-5 O r«l OJ sO Os r- so /1 00 — r- r- O D^- p* r^ r- ¦/-. r- Os r- V :jc ir, P- o| rn DC o O* Ol P-- _ '-r ł/1 -/- r^ 00 rr M" r^- r- /; r- Os n 'i- ~>- i/i r~- r^ O sO sC «n DC Ol i/i — sO r*- V Ol P- sO '/, r- p Os r- c^ O o* i/l o^ O o o OJ o - N rn 't r-i S.O SC Ol P- r*i Tf r: r*l OJ r- O y r^ <* DC Ol — sC m OJ ¦T- r-: t/1 o „o r: 0* -r. 1/ 1 i/i ^t O" SC O io> t^ r- m Ol r-, p- O r- Os ^o r*i 1/1 00 ¦* O Ol i/, r*i n :> r*l m c^ o DC wi Ol Ol o 00 Ol iv^< tO -r o 1- 1/I i/l O p- Os 1/1 o O- m to l/l Os Ol r- m Ol DC 1/1 DC r, O r- V; O 'Tf ^ m ^t O] i/i 00 T- DC O — ^r ^t O Cr- 00 r- r~- rn ir, o n", p i/1 O sO i/i / 00 Tf i/i — OJ 1- ^C O oj r*- r^ r- rn -t Ol O r- i/i r- ^r r*i r> o 00 i/i sO o OJ 1/1 Ol i/i O 'C, 1/1 Ol rn r lOi (-1 r~ DC O Ol O O] O l/, IV. _l DC ^t 00 V m m r*\ 1/1 m '.> C3 -/ m sO rr- n r- DC i/l yr> DC *t ¦¦ Tf "i- o r~ ri ^r ;- SC O — rn te « ¦ O r-j a 3C fi ^r p- DC — rn rn OJ o- sr; SO ri O 0> o* :/-- rn ^ ~t o- DC DC a^ t/1 ^t i/i 1/1 c> T o| CJ Os r> :>n V SC P^ r^ OC '-r i/, Ol Os — c> rn i-O, o> -r -T iA r> ^, / m *c >/i m in to r- Ol sC V; rr o. »<¦ VI — DC tO r- i/l m r- P-- o VI '-> i/i P- i/i Os »c. V r- sO Ol ^1- Ot >—' -ł C^ \0 r- oo on o m m m m ^t T> X "^r "> m O t Os o ¦¦-/-. r- m r~- dc; VI VI r> s.O r^ o* •^r ^D O Os VI O VI OJ —1 r~- oc 1> O •^t rr- :*- P- 1/1 to sO p- O sT. O ^r r- O O O O] m X ^ O] O ^ Ol m OJ -r ¦y to Ol '"t Y CA tO ^r 'O DC r- t ¦— 'n m i—i m — SO tO sC sO VI VI sO tO rn to o 0> r- -ł r- —i -i- 'i- i/l O) ^r r^ Os dc; :~ ¦y te r VI p rr OJ VI p ^1- "/¦: SO *r P«- c^ DC cr O r- VI o- ^-i DC Ol r-» V. V -t r> r] ^ ^r oi Os O rr o m sO JC m o so OJ DC r> OJ m rn p-~ i/i ^r :./-. 00 /¦ i; DC O VI o| O c^ ¦ V Os sO o- ¦T Ol SC DC Os — Ol r- Ol tO DC ^r r- m ¦ OJ r- ¦* O) m Tf Ol O r- r- ^C DC V sC o O] o VI er. o ,o Ol r- Os ¦y. m p- ^i- "> » m DC r> tO r^ m DC m -o «» r^, o r* n VI OJ r- p- l/l O* OJ r> V" p- m V; ¦* o- to to Ol VI CN r^ ^f o <: OJ Ol sh P- r- -t Os p Os C DC -r o m sC Os rn r- VI o- •—h rN m tj- vi -^ ^ -3- Tj ^t >o r-, DC r- m ^1- p V- r- VI VI O" l~- OJ sO OJ i/i ^3- VI DC o~ DC DC tO P- o — fN OJ ^f rn o OJ P- 1/1 r- OJ O rf; dc; OJ OJ Vj fN r- o i-'-. i/i O DC r- m r- r~~ P- OJ o1', VI r- Os p- ^t VI ^r Ol VI p -* rN o — m VI 1— Ol m o- nH 1*1 P- Os m X r- VI X V; tO m m ¦*t OJ -i- i— sO OJ r- rO sO -c 1*1 ^r OJ m rn Ol OJ <*¦ Os O" o- V JC tO — ^ r- m —i O* VI i/i r- r> ¦«t Os sO -T X rn VI r- ^; Ol r- VI Os i/i O OJ VI — TC DC Ol O VI ^r Ol VI r- m %o rn to rn OJ i/i •^1- DC O^ m VI DC P 1- r> rn o rr- -r -t tO ^r p- oi ^T VI T-, Os sO r> i/. VI DC P*- •/, r- fn OJ OJ r^ vi r~ --1- r> / ^* O 1*1 Os -/. i- -1- -r m CN m o Ol >—¦ rn tN CnI fN m oc tp o m co oo o in - OJ O DC vi — r> OJ X sC Os r> Os rn r-- m Os VI o DC OJ Cl OJ r- m ^i- r^ O] sC Oj r- m -:; Ol OS rr rn O l/-, Tf m rn m O DC m m o PM O Ol DC o rn i/i o- r> O] T m m ¦* OJ r- o X O VI sC o SO I—1 VI * OJ Ol t Ol o tO o r- rn rr ^_; to o -f DC VI VI a~ sO O o* — no r- oo on o "* ^ ^t ¦«*¦ */i [583] oooNOesaNr-NONov)OOoocS''3-—< - oo r- en r- hOOO\i/lTt«ltNOOO\in — "<1- es es © es — On en oo v> ©r^ — enenONCScnOeS esNOrtvir^viNO©vi — r-^r-ON — ONONr-CSVi©QOViaNViOC — On© •¦3-viONNooNoor^Nor--ON©Noesen Tj-r--vt©viencsvi — ^j- ^o 't >n ^ r- on © r- —'Tt-^esr-- — v)ONesr-- ON©cncsoor^cSQO,*1-1Oen©viON On vi — \o — vi —¦ — © en r- r- oo _ O — OONOOO©enNOOOOOONenNO ONvim^oom-rnłNrtooooo\h ł/irnes^Nor- — no — enNOoor--"^- enoNooaNvioooocs©enooNoesr-- M1-Mmm^O-i\On(NNO'-'ł -NOOm^ocONON---os—i oo —'On © es -^ r- m —¦ —' m m o oo in (s ©^©encsenc-^tcsr-^ ONenenooooenOOC^*/"!^©^- ~r--r--r--oNr--©ONvi — no — v>o "3"oo©ONCsviviNoesvimNONO cno — oooooenenr--r--©t-- — oo m no m -h O o v, ł/i — C*l r- Y1 (S cs o <* o^ (N o ^c o o f C*l \ft ri O v, C^ Cl DC 5 ri m r*- vi DC DC m ON -l- r- * es r~~ O ^c DC ON DC «ł fr) tri o- O r- •O •o * _ (N x~~- o- m -3- VI o ri nC r- g* © 1- m DC o- nD CS -t ON o r» CS © r-- sC DC rn in m DC oc v, vj l> sC © ^t O CS *r •O * o " m O m O" ^c * , en t-» ri CS rn o DC r- ^T o^ O fS '-r, DC o m Tf ^t DC nC DC O^ sC c* o m r- O DC O o^ cN sC Ot o rn o^ —' nC DC fi O * m en Vics- cnONONcsviNo©©cs- vi enoo©©r--esesvicnoooNooooen tj- — ~-ONON^j-viv-i©ONenoo — ON(NhTj-«\0"/inhNnhKiW esr--©r-^i-enNooocsen- en oo en vi © no -^- (N vi en tt ON VI NO en ^ es © en vi NO ON — en r- ^r (N r- - on © Tf no oo en On — o t r- Tf vieS'V) t~~00(N(NN0^OTt^(N(NO^ ooonoo — es — es©NOenNovi©No o vi vi es cni r- ^f en r- o — On es o o on m on ¦^i- vi r- no on en r- — Tt oo r- ^t NO — ON CS NO — vi tj- oo en es — vi ^t vi VI CS V) Tt VI en — CS nO NO CO CS O CS en on no en - o o — r*~> —* r*~t CS — t- en ON O ^t en on on no en r- en — — Vi CS CS ^t ^- Ti (N Tf no Tj* — vi -^r CO OO NO ^O V) Tt V) en no t^- ^t cs r~- vn vi NO O - - \t oo cs o —< en O \t rf fS r- V) NO 00 NO OO tj- vi i—¦ r- tj- O no cs en cs en en cs oo r-- on c~- no cs no en -^ — oo v-j o ^t vi — no rr O - T On On 00 NO no nd O O en O •— - On NO -h O en ¦—i CS Tt r- o o On Tf ON V) r^ o on ^> On OO O en V") OO O CS O en en v~i o a n -'•—'C—onoo — on V-)ONOO-env-i"»n»^iChoav inr-o—i»<-)r-(NTtfNO-^ — r^isO»nv"i- r*1 O OO r- r<) o\NOooa-^b-Noo^cc--*-. -^ ,—¦ \or-ccun©r-c*"i — -rj- m © \D d ci r«l OO ¦— i^irtirir^Omr^M3r-OTimt--r^(N(N'^^) t - vo t o - (^rsu-ioooow-i-^-i^ir-ooooo^oom^or^o oooo^OTiMtin-a-ooowm-oooomr^hoo^oos'-' vi r*i o <— — ^ »ri ł— v-ir*icsoo*nd^-r*iooTr,r--aN'~ rn ^o O oo oo — ~ r— n oo >n — m o m oo oo o - ci^j-ONw-iomuioomrs r^--\ooooc»OTf-^fv4c>oo^)0'^r^rr^r^r^o wi — t-^ •—' m o -g- t-- o(Noor-'^-o-h~^^nxm"nnl'Minn'Ooci aNQommor*im»^©sooi ©m^rNoo^-Tfr^ior-—¦ «^r^^-»n--'--,io>^i<>(Nos,ri-©(>fNr^,^'r^--rvi\0(NooTt© r^^oofioor^sorNfNc-ir^r-©^^^)^—- © »n o ^ oo oo m on — ^©(Nr^i^oo-rt^omrNir^o^i^tOiooOfMoooTry^r^ Tf — r-v-i—•o^cooNOrNoo,or--txi^or-—•-— — ^omot^ ^o 1^1 in o oo o - aNc*->cs>or^ycmOfsn(J'-tNooo\y3 O\^t^--^c^^rn^or~-inr-->ocstoirir^rsooov-^t—-©•^¦*^ ~©ONr^»ri(NOoo©«^t(Nooosr^GOoQrr^D — r^r-r-(Nrsoo «nON{N>rioor*-iiov^Nor--ooio(Nr--r^^Of^©©^t»n — oooooo r^^cofor^^©^^c^ON^^ — ^^^©OAC^^ooc^^nc^! cc^coooo^r^ONf^«n^cor^rn^o^o,or4r^r--fS-^rnf*-i-— t-* f^inm^O^OO^Oł^f^ —¦ O © r*1 — rn^OON^OOO^O^OGO -'t^^^>n'1¦•-ooowoo^¦o^^^(Nrs'noo'n^)m^^'t — ONCN-—•oou-tmo — ©-— r^fif^(N^-r^»n©ONQo©'—¦ -o o r^rnrnr^ONooONr^oo--cN^r^fivX5©'«cioor*-)r*-iOCNTi-^tr^ Tf GO tnTtv^ONr^^c<)r^ONNOr-i,>ovo©r r- ^o © r*i o^i--^rooom [585] Dodatek E: Powierzchnia pod krzywg normalng Proporcje całkowitego pola powierzchni (1,00) pod krzywą normalną odpowiadające odległościom pomiędzy średnią a współrzędnymi Z wyrażonymi w postaci jednostek odchylenia standardowego od średniej. Z 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09 0.0 0000 0040 0080 0120 0159 0199 0239 0279 0319 0359 0.1 0398 0438 0478 0517 0557 0596 0636 0675 0714 0753 0.2 0793 0832 0871 0910 0948 0987 1026 1064 1103 1141 0,3 1179 1217 1255 1293 1331 1368 1406 1443 1480 1517 0.4 1554 1591 1628 1664 1700 1736 1772 1808 1844 1879 0.5 1915 1950 1985 2019 2054 2088 2123 2157 2190 2224 0.6 2257 2291 2324 2357 2389 2422 2454 2486 2518 2549 0.7 2580 2612 2642 2673 2704 2734 2764 2794 2823 2852 0.8 2881 2910 2939 2967 2995 3023 3051 3078 3106 3133 0.9 3159 3186 3212 3238 3264 3289 3315 3340 3365 3389 1.0 3413 3438 3461 3485 3508 3531 3554 3577 3599 3621 1.1 3643 3665 3686 3718 3729 3749 3770 3790 3810 3830 1.2 3849 3869 3888 3907 3925 3944 3962 3980 3997 4015 1.3 4032 4049 4066 4083 4099 4115 4131 4147 4162 4177 1.4 4192 4207 4222 4236 4251 4265 4279 4292 4306 4319 1.5 4332 4345 4357 4370 4382 4394 4406 4418 4430 4441 1.6 4452 4463 4474 4485 4495 4505 4515 4525 4535 4545 1.7 4554 4564 4573 4582 4591 4599 4608 4616 4625 4633 1.8 4641 4649 4656 4664 4671 4678 4686 4693 4699 4706 1.9 4713 4719 4726 4732 4738 4744 4750 4758 4762 4767 2.0 4773 4778 4783 4788 4793 4798 4803 4808 4812 4817 2.1 4821 4826 4830 4834 4838 4842 4846 4850 4854 4857 2.2 4861 4865 4868 4871 4875 4878 4881 4884 4887 4890 2.3 4893 4896 4898 4901 4904 4906 4909 4911 4913 4916 2,4 4918 4920 4922 4925 4927 4929 4931 4932 4934 4936 2.5 4938 4940 4941 4943 4945 4946 4948 4949 4951 4952 2.6 4953 4955 4956 4957 4959 4960 4961 4962 4963 4964 2.7 4965 4966 4967 4968 4969 4970 4971 4972 4973 4974 2,8 4974 4975 4976 4977 4977 4978 4979 4980 4980 4981 2.9 4981 4982 4983 4984 4984 4984 4985 4985 4986 4986 3,0 4986,5 4987 4987 4988 4988 4988 4989 4989 4989 4990 3,1 4990,0 4991 4991 4991 4992 4992 4992 4992 4993 4994 3.2 4993,129 3.3 4995,166 3.4 4996,631 3.5 4997,674 3.6 4998,409 3.7 4998,922 3.8 4999,277 3.9 4999,519 4.0 4999,683 4.5 4999,966 5.0 4999,997133 Na podstawie: Harold O. Rugg(1917), Statisticał Methods Applied to Education, Boston; Houghton Mifflin, s. 389-390. Przedruk za zgodą wydawcy. 1586] Dodatek F: Rozkład t Poziom istotności dla testu jednostronnego df 0,10_________0^05________0,025__________Ofll________0,005 0,0005 Poziom istotności dla testu dwustronnego 0,20 0,10 0,05 0,02 0,01 0,001 1 3,078 6,314 12,706 31,821 63,657 636,619 2 1,886 2,920 4,303 6,965 9,925 31,598 3 1,638 2,353 3,182 4,541 5,841 12,941 4 1,533 2,132 2,776 3,747 4,604 8,610 5 1,476 2,015 2,571 3,365 4,032 6,859 6 1,440 1,943 2,447 3,143 3,707 5,959 7 1,415 1,895 2,365 2,998 3,499 5,405 8 1,397 1,860 2,306 2,896 3,355 5,041 9 1,383 1,833 2,262 2,821 3,250 4,781 10 1,372 1,812 2,228 2,764 3,169 4,587 11 1,363 1,796 2,201 2,718 3,106 4,437 12 1,356 1,782 2,179 2,681 3,055 4,318 13 1,350 1,771 2,160 2,650 3,012 4,221 14 1,345 1,761 2,145 2,624 2,977 4,140 15 1,341 1,753 2,131 2,602 2,947 4,073 16 1,337 1,746 2,120 2,583 2,921 4,015 17 1,333 1,740 2,110 2,567 2,898 3,965 18 1,330 1,734 2,101 2,552 2,878 3,922 19 1,328 1,729 2,093 2,539 2,861 3,883 20 1,325 1,725 2,086 2,528 2,845 3,850 21 1,323 1,721 2,080 2,518 2,831 3,819 22 1,321 1,717 2,074 2,508 2,819 3,792 23 1,319 1,714 2,069 2,500 2,807 3,767 24 1,318 1,711 2,064 2,492 2,797 3,745 25 1,316 1,708 2,060 2,485 2,787 3,725 26 1,315 1,706 2,056 2,479 2,779 3,707 27 1,314 1,703 2,052 2,473 2,771 3,690 28 1,313 1,701 2,048 2,467 2,763 3,674 29 1,3 \\ \,699 2,045 2,462 2,156 3, ,659 30 1,310 1,697 2,042 2,457 2,750 3,646 40 1,303 1,684 2,021 2,423 2,704 3,551 60 1,296 1,671 2,000 2,390 2,660 3,460 120 1,289 1,658 1,980 2,358 2,617 3,373 oo 1,282 1,645 1,960 2,326 2,576 3,291 Skrót na podstawie: R.A. Fisher, F. Yates (1974), Statistical Tables for Biological, Agriculturał and Medical Research, wyd. 6, London: Longman, tab. III. Wykorzystano za zgodą autorów i Kongman Group Ltd. [587] Dodatek G. Wartości krytyczne rozkładu F 0,05 poziom istotności równy 0,05 0,01 poziom istotności równy 0,01 Liczba stopni swobody w mianowniku 1 2 3 4 5 6 7 8 Liczba stopni swobody 9 10 11 12 w liczniku 14 16 20 24 30 40 50 75 100 200 500 00 1 161 200 216 225 230 234 237 239 241 242 243 244 245 246 248 249 250 251 252 253 253 254 254 254 4052 4999 5403 5625 5764 5859 5928 5981 6022 6056 6082 6106 6142 6169 6208 6234 6258 6286 6302 6323 6334 6352 6361 6366 2 18,51 19,00 19,16 19,25 19,30 19,53 19,36 19,37 19,38 19,39 19,40 19,41 19,42 19,43 19,44 19,45 19,46 19,47 19,47 19,48 19,49 19,49 19,50 19,50 98,49 99,00 99,17 99,25 99,30 99,33 99,34 99,36 99,38 99,40 99,41 99,42 99,43 99,44 99,45 99,46 99,47 99,48 99,48 99,49 99,49 99,49 99,50 99,50 3 10,13 9,55 9,28 9,12 9,01 8,94 8,88 8,84 8,81 8,78 8,76 8,74 8,71 8,69 8,66 8,64 8,62 8,60 8,58 8,57 8,56 8,54 8,54 8,53 34,12 30,82 29,46 28,71 28,24 27,91 27,67 27,49 27,34 27,23 27,13 27,05 26,92 26,83 26,69 26,60 26,50 26,41 26,35 26,27 26,23 26,18 26,14 26,12 4 7,71 6,94 6.5') 6,39 6,26 6,16 6,09 6,04 6,00 5,96 5,93 5,91 5,87 5,84 5,80 5,77 5,74 5,71 5,70 5,68 5.66 5,65 5,64 5,63 21,20 18,00 16,69 15,98 15,52 15,21 14,98 14,80 14,66 14,54 14,45 14,37 14,24 14,15 14,02 13,93 13,83 13,74 13,69 13,61 13,57 13,52 13,48 13,46 5 6,61 5,79 5,41 5,19 5,05 4,95 4,88 4,82 4,78 4,74 4,70 4,68 4,64 4,60 4.56 4,53 4,50 4,46 4,44 4,42 4,40 4,38 4,37 4,36 16,26 13,27 12,06 11,39 10,97 10,67 10,45 10,27 10,15 10,05 9,96 9,89 9,77 9,68 9,55 9,47 9,38 9,29 9,24 9,17 9,13 9,07 9,04 9,02 6 5,99 5,14 4,76 4,53 4,39 4,28 4,21 4,15 4,10 4,06 4,03 4,00 3,96 3.92 3,87 3,84 3,81 3,77 3,75 3,72 3,71 3,69 3,68 3,67 13,74 10,92 9,78 9,15 8,75 8,47 8,26 8,10 7,98 7,87 7,79 7,72 7,60 7,52 7,39 7,31 7,23 7,14 7,09 7,02 6,99 6,94 6,90 6,88 7 5,59 12,25 4,47 9.55 4.35 8,45 4,12 7,85 3,97 7,46 3,87 7.19 3,79 7,00 3,73 6,84 3,68 6,71 3,63 6,62 3,60 6,54 3,57 6,47 3,52 6,35 3,49 6,27 3,44 6,15 3,41 6,07 3,38 5,98 3,34 5,90 3,32 5,85 3,29 5,78 3,28 5,75 3,25 5,70 3,24 5,67 3.23 5.65 5,32 4,46 4,07 3,84 3,69 3,58 3,50 !¦ 11,26 8,65 7,59 7,01 6,63 6,37 6,19 6 5,12 4,26 3,i 4,84 3,59 3,36 3,20 3,09 9,65 7,20 6,22 5,67 5,32 3,74 44 3,39 3,34 3,31 3,28 03 5,91 5,82 5,74 5,67 3,63 3,48 3,37 3,29 8,40 6,11 3,23 3,18 10,56 8,02 6,99 6,42 6,06 5,80 5,62 4,96 4,10 3,71 3,48 3,33 3,22 3,14 10,04 7,56 6,55 5,99 5,64 5,39 5,21 5,07 3,00 2,92 4,75 3,88 3,49 3,26 3,11 9,33 6,93 5,95 5,41 5,06 4,82 4,65 4,67 3,80 3,41 3,18 3,02 2,92 2,84 9,07 6,70 5,74 5,20 4,86 4,62 4,44 4,41 3,55 3,16 2,93 2,77 4,30 3,34 3,11 2,96 2,85 2,77 8,86 6,51 5,56 5,03 4,69 4,46 4,28 4,54 3,68 3,29 3,06 2,90 2,79 2,70 8,68 6,36 5,42 4,89 4,56 4,32 4,14 4,49 3,63 3,24 3,01 2,85 2,74 2,66 8,53 6,23 5,29 4,77 4,44 4,20 4,03 4,45 3,59 3,20 2,96 2,81 2,70 2,62 5,18 4,67 4,34 4,10 3,93 2,66 2,58 8,28 6,01 5,09 4,58 4,25 4,01 3,85 2,64 3,13 3,10 1,07 3,23 3,20 3,15 3,12 3,08 3,05 3,03 3,00 2,98 2,96 2,94 2,93 5,56 5,48 5,36 5,28 5,20 5,11 5,06 5,00 4,96 4,91 4,88 4,86 3,02 2,98 2,93 2,90 2,86 2,82 2,80 2,77 2,76 2,73 2,72 2,71 5,47 5,35 5,26 5,18 5,11 5,00 4,92 4,73 4,64 4,56 4,51 4,45 4,41 4,36 4,33 4,31 3,07 3,02 5,06 2,94 2,91 4,95 4,85 4,78 4,71 2,82 2,77 2,74 2,70 2,67 2,64 2,61 2,59 2,56 2,55 2,54 2,95 2,90 2,8 2,82 2,79 2,74 2,70 4,60 4,52 4,41 4,33 4,25 4,17 4,12 4,05 4,01 3,96 3,93 3,91 2,61 2,57 2,53 2,50 2,47 2,45 2,42 2,41 2,40 4,74 4,63 2,85 3,89 2,55 3,79 2,51 4,54 4,46 4,40 4,29 4,21 4,02 3,94 3,86 3,74 3,70 3,66 3,62 3,60 2,72 2,69 2,64 2,60 2,54 2,50 2,46 2,42 2,40 2,36 2,35 2,32 2,31 2,30 4,50 4,39 4,30 4,22 4,16 4,05 3,98 3,86 3,78 3,70 3,61 3,56 3,49 3,46 3,41 3,38 3,36 2,72 2,67 2,63 2,60 2,55 2,51 2,46 2,42 2,38 2,34 2,32 2,28 2,26 2,24 2,22 2,21 4,19 4,10 4,02 3,96 3,85 3,78 3,67 3,59 3,51 2,70 2,65 2,60 2,56 2,53 4,14 4,03 3,94 3,86 3,80 2,48 2,44 2,39 2,35 2,31 3,70 3,62 3,51 3,42 3,37 3,30 3,27 3,21 3,18 3,16 2,27 2,24 2,21 2,19 2,16 2,14 2,13 3,06 3,02 3,00 3,43 3,34 3,26 3,21 3,14 2,59 2,55 2,51 2,43 2,39 2,33 2,29 2,25 2,21 2,18 2,15 2,12 2,10 2,08 2,07 4,00 3,89 3,i !,59 2,54 2,49 3,73 3,67 2,45 2,42 3,56 3,48 3,36 3,29 3,20 3,12 3,07 3,00 2,97 2,92 2,89 2,87 2,37 2,33 2,28 2,24 2,20 2,16 2,13 2,09 2,07 2,04 2,02 2,01 2,89 2,86 2,80 2,77 2,75 3,78 3,69 3,61 3,55 3,45 3,37 3,25 3,18 3,10 3,01 2,50 2,45 2,41 2,38 2,33 2,29 2,23 2,19 2,15 2,11 2,08 2,04 2,02 1,97 1,96 3,68 3,59 3,52 3,45 3,35 3,27 3,16 3,08 3,00 2,92 2,86 2,79 2,76 2,70 2,67 2,65 2,46 2,41 2,37 2,34 2,29 2,25 2,19 2,15 Ul 2,07 2,04 2,00 1,98 1,95 1,93 1,92 3,71 3,60 3,51 3,44 3,27 3,19 3,07 3,00 2,91 2,83 2,78 2,71 2,68 2,62 2,59 2,57 cd. dodatku G Liczba stopni swobody w mianowniku i Liczba stopni swobody w liczniku 9 10 11 12 14 16 100 200 500 oo 19 4,38 3,52 3,13 2,90 2,74 2,63 2,55 2,48 2,43 2,38 2,34 2,31 2,26 2,21 2,15 2,11 2,07 2,02 2,00 1,96 1,94 1,91 1,90 1,88 8,18 5,93 5,01 4,50 4,17 3,94 3,77 3,63 3,52 3,43 3,36 3,30 3,19 3,12 3,00 2,92 2,84 2,76 2,70 2,63 2,60 2,54 2,51 2,49 20 4,35 3,49 3,10 2,87 2,71 2,60 2,52 2,45 2,40 2,35 2,31 2,28 2,23 2,18 2,12 2,08 2,04 1,99 1,96 1,92 1,90 1,87 1,85 1,84 8,10 5,85 4,94 4,43 4,10 3,87 3,71 3,56 3,45 3,37 3,30 3,23 3,13 3,05 2,94 2,86 2,77 2,69 2,63 2,56 2,53 2,47 2,44 2,42 21 4,32 3,47 3,07 2,84 2,68 2,57 2,49 2,42 2,37 2,32 2,28 2,25 2,20 2,15 2,09 2,05 2,00 1,96 1,93 1,89 1,87 1,84 1,82 1,81 8,02 5,78 4,87 4,37 4,04 3,81 3,65 3,51 3,40 3,31 3,24 3,17 3,07 2,99 2,88 2,80 2,72 2,63 2,58 2,51 2,47 2,42 2,38 2,36 22 4,30 3,44 3,05 2,82 2,66 2,55 2,47 2,40 2,35 2,30 2,26 2,23 2,18 2,13 2,07 2,03 1,98 1,93 1,91 1,87 1,84 1,81 1,80 1,78 7,94 5,72 4,82 4,31 3,99 3,76 3,59 3,45 3,35 3,26 3,18 3,12 3,02 2,94 2,83 2,75 2,67 2,58 2,53 2,46 2,42 2,37 2,33 2,31 23 4,28 3,42 3,03 2,80 2,84 2,53 2,45 2,38 2,32 2,28 2,24 2,20 2,14 2,10 2,04 2,00 1,96 1,91 1,88 1,84 1,82 1,79 1,77 1,76 7,88 5,66 4,76 4,26 3,94 3,71 3,54 3,41 3,30 3,21 3,14 3,07 2,97 2,89 2,78 2,70 2,62 2,53 2,48 2,41 2,37 2,32 2,28 2,26 24 4,26 3,40 3,01 2,78 2,62 2,51 2,43 2,36 2,30 2,26 2,22 2,18 2,13 2,09 2,02 1,98 1,94 1,89 1,86 1,82 1,80 1,76 1,74 1,73 7,82 5,61 4,72 4,22 3,90 3,67 3,50 3,36 3,25 3,17 3,09 3,03 2,93 2,85 2,74 2,66 2,58 2,49 2,44 2,36 2,33 2,27 2,23 2,21 25 4,24 3,38 2,99 2,76 2,60 2,49 2,41 2,34 2,28 2,24 2,20 2,16 2,11 2,06 2,00 1,96 1,92 1,87 1,84 1,80 1,77 1,74 1,72 1,71 7,77 5,57 4,68 4,18 3,86 3,63 3,46 3,32 3,21 3,13 3,05 2,99 2,89 2,81 2,70 2,62 2,54 2,45 2,40 2,32 2,29 2,23 2,19 2,17 26 4,22 3,37 2,98 2,74 2,59 2,47 2,39 2,32 2,27 2,22 2,18 2,15 2,10 2,05 1,99 1,95 1,90 1,85 1,82 1,78 1,76 1,72 1,70 1,69 7,72 5,53 4,64 4,14 3,82 3,59 3,42 3,29 3,17 3,09 3,02 2,96 2,86 2,77 2,66 2,58 2,50 2,41 2,36 2,28 2,25 2,19 2,15 2,13 27 4,21 3,35 2,96 2,73 2,57 2,46 2,37 2,30 2,25 2,20 2,16 2,13 2,08 2,03 1,97 1.93 1,88 1,84 1,80 1,76 1,74 1,71 1,68 1,67 7,68 5,49 4,60 4,11 3,79 3,56 3,39 3,26 3,14 3,06 2,98 2,93 2,83 2,74 2,63 2,55 2,47 2,38 2,33 2,25 2,21 2,16 2,12 2,10 28 4,20 3,34 2,95 2,71 2,56 2,44 2,36 2,29 2,24 2,19 2,15 2,12 2,06 2,02 1,96 1.91 1,87 1,81 1,78 1.75 1,72 1,69 1,67 1,65 7,64 5,45 4,57 4,07 3,76 3,53 3,36 3,23 3,11 3,03 2,95 2,90 2,80 2,71 2,60 2,52 2,44 2,35 2,30 2,22 2,18 2,13 2,09 2,06 29 4,18 3,33 2,93 2,70 2,54 2,43 2,35 2,28 2,22 2,18 2,14 2,10 2,05 2,00 1,94 1,90 1,85 1,80 1,77 1,73 1.71 1,68 1.65 1,64 7,60 5,42 4,54 4,04 3,73 3,50 3,33 3,20 3,08 3,00 2,92 2,87 2,77 2,68 2,57 2,49 2,41 2,32 2,27 2,19 2,15 2,10 2,06 2,03 I 3. s 5 Os r~- s T. 5 5 § - 5 * p 3C 1- w, sO ? -- * •* !- t !• c^ s 5 3 3 90 Os Os 5 SO 5 5 5 R 5 3 !• Q oc F 5 P - 5? P - r ^ ¦* !• T A 5 s. M O SO Ą O. ł R * 8 "ł - « K 00 L ą ą ~ oo R SO P "i- g o 3 r-sO 5 5 3 ^C 5 s o> 3 - s JC OC oc -ł 5 R 00 v> OO Q P — 5 r- 3 Os SO rr L ¦ •6 5 s© s, tfi '• Q s- V"! p* 5 sO 00 00 u-i se m oe IN q ą p 5 3 !• S SO OS SO Os 3 5 ?- S- o- r- so im b 5 P P r^ r< — r* r^ 3 g s 35 8 R rł »^» rs 5 2,47 1,87 2,43 s 2,40 l,M 2,58 1,93 2,54 1,92 2,51 - 1 oo 9 3^ ri H ł-< r-l — «-^ OC; f^ —* rf SO "* ** ri 5 3 * -. fS — fs| — — fS — r* — R 3 — sc ri ri r» oo °- ^ ri ri o r* p- r-j •— — » os 5 I oc r- oo r| ri •*/ — »s 5 5 3 I — Vt — [591] cd. dodatku G Liczba stopni swobody w liczniku Liczba stopni swobody w mianowniku ! 2 3 4 5 6 7 8 9 10 11 12 14 16 20 24 30 40 50 75 100 200 500 oo 65 3,99 3,14 2,75 2,51 2,36 2,24 2,15 2,08 2,02 1,98 1,94 1,90 1,85 1,80 1,73 1,68 1,63 1,57 1,54 1,49 1,46 1,42 1,39 1,37 7,04 4,95 4,10 3,62 3,31 3,09 2,93 2,79 2,70 2,61 2,54 2,47 2,37 2,30 2,18 2,09 2,00 1,90 1,84 1,76 1,71 1,64 1,60 1,56 70 3,98 3,13 2,74 2,50 2,35 2,23 2,14 2,07 2,01 1,97 1,93 1,89 1,84 1,79 1,72 1,67 1,62 1,56 1,53 1,47 1,45 1,40 1,37 1,35 7,01 4,92 4,08 3,60 3,29 3,07 2,91 2,77 2,67 2,59 2,51 2,45 2,35 2,28 2,15 2,07 1,98 1,88 1,82 1,74 1,69 1,62 1,56 1,53 80 3,96 3,11 2,72 2,48 2,33 2,21 2,12 2,05 1,99 1,95 1,91 1,88 1,82 1,77 1,70 1,65 1,60 1,54 1,51 1,45 1,42 1,38 1,35 1,32 6,96 4,88 4,04 3,56 3,25 3,04 2,87 2,74 2,64 2,55 2,48 2,41 2,32 2,24 2,11 2,03 1,94 1,84 1,78 1,70 1,65 1,57 1,52 1,49 100 3,94 3,09 2,70 2,46 2,30 2,19 2,10 2,03 1,97 1,92 1,88 1,85 1,79 1,75 1,68 1,63 1,57 1,51 1,48 1,42 1,39 1,34 1,30 1,28 6,90 4,82 3,98 3,51 3,20 2,99 2,82 2,69 2,59 2,51 2,43 2,36 2,26 2,19 2,06 1,98 1,89 1,79 1,73 1,64 1,59 1,51 1,46 1,43 125 3,92 3,07 2,68 2,44 2,29 2,17 2,08 2,01 1,95 1,90 1,86 1,83 1,77 1,72 1,65 1,60 1,55 1,49 1,45 1,39 1,36 1,31 1,27 1,25 6,84 4,78 3,94 3,47 3,17 2,95 2,79 2,65 2,56 2,47 2,40 2,33 2,23 2,15 2,03 1,94 1,85 1,75 1,68 1,59 1,54 1,46 1,40 1,37 150 3,91 3,06 2,67 2,43 2,27 2,16 2,07 2.00 1,94 1,89 1,85 1,82 1,76 1,71 1,64 1,59 1,54 1,47 1,44 1,37 1,34 1,29 1,25 1,22 6,81 4,75 3,91 3,44 3,14 2,92 2,76 2,62 2,53 2,44 2,37 2,30 2,20 2,12 2,00 1,91 1,83 1,72 1,66 1,56 1,51 1,43 1,37 1,33 200 3,89 3,04 2,65 2,41 2,26 2,14 2,05 1,98 1,92 1,87 1,83 1,80 1,74 1,69 1,62 1,57 1,52 1,45 1,42 1,35 1,32 1,26 1,22 1,19 6,76 4,71 3,88 3,41 3,11 2,90 2,73 2,60 2,50 2,41 2,34 2,28 2,17 2,09 1.97 1,88 1,79 1,69 1,62 1,53 1.48 1,39 1,33 1,28 400 3,86 3,02 2,62 2,39 2,23 2,12 2,03 1,96 1,90 1,85 1,81 1,78 1,72 1,67 1,60 1,54 1,49 1,42 1,38 1,32 1,28 1,22 1,16 1,13 6,70 4,66 3,83 3,36 3,06 2,85 2,69 2,55 2,46 2,37 2,29 2,23 2,12 2,04 1,92 1,84 1,74 1,64 1,57 1,47 1,42 1,32 1,24 1,19 1000 3,85 3,00 2,61 2,38 2,22 2,10 2,02 1,95 1,89 1,84 1,80 1,76 1,70 1,65 1,58 1,53 1,47 1,41 1,36 1,30 1,26 1,19 1,13 1,08 6,66 4,62 3,80 3,34 3,04 2,82 2,66 2,53 2,43 2,34 2,26 2,20 2,09 2,01 1,89 1,81 1,71 1,61 1,54 1,44 1,38 1,28 1,19 1,11 co 3,84 2,99 2,60 2,37 2,21 2,09 2,01 1,94 1,88 1,83 1,79 1,75 1,69 1,64 1,57 1,52 1,46 1,40 1,35 1,28 1,24 1,17 1,11 1,00 6,64 4,60 3,78 3,32 3,02 2,80 2,64 2,51 2,41 2,32 2,24 2,18 2,07 1,99 1,87 1,79 1,69 1,59 1,52 1,41 1,36 1,25 1,15 1,00 Na podstawie: George W. Snedecor, William G. Cochran, Stałistical Methods, wyd. 7, © 1980 by the Iowa State Uniyersity Press, 2121 South State Avenue, Ames, Iowa 50010. Dodatek H: Wartości krytyczne statystyki U w teście Manna-Whitneya Wartości krytyczne U na poziomie a = 0,001 (założony kierunek) i a = 0,002 (brak założeń co do kierunku) \v2 9 10 11 12 13 14 15 16 17 18 19 20 1 2 3 0 0 0 0 4 0 0 0 1 1 1 2 2 3 3 3 5 1 1 2 2 3 3 4 5 5 6 7 7 6 2 3 4 4 5 6 7 8 9 10 11 12 7 3 5 6 7 8 9 10 11 13 14 15 16 8 5 6 8 9 11 12 14 15 17 18 20 21 9 7 8 10 12 14 15 17 19 21 23 25 26 10 8 10 12 14 17 19 21 23 25 27 29 32 11 10 12 15 17 20 22 24 27 29 32 34 37 12 12 14 17 20 23 25 28 31 34 37 40 42 13 14 17 20 23 26 29 32 35 38 42 45 48 14 15 19 22 25 29 32 36 39 43 46 50 54 15 17 21 24 28 32 36 40 43 47 51 55 59 16 19 23 27 31 35 39 43 48 52 56 60 65 17 21 25 29 34 38 43 47 52 57 61 66 70 18 23 27 32 37 42 46 51 56 61 66 71 76 19 25 29 34 40 45 50 55 60 66 71 77 82 20 26 32 37 42 48 54 59 65 70 76 82 88 Wartości krytyczne U na poziomie a = 0,01 (założony kierunek) i a = 0,02 (brak założeń co do kierunku) 9 10 11 12 13 14 15 16 17 18 19 20 1 2 0 0 0 0 0 0 1 1 3 1 1 1 2 2 2 3 3 4 4 4 5 4 3 3 4 5 5 6 7 7 8 9 9 10 5 5 6 7 8 9 10 11 12 13 14 15 16 6 7 8 9 11 12 13 15 16 18 19 20 22 7 9 11 12 14 16 17 19 21 23 24 26 28 8 11 13 15 17 20 22 24 26 28 30 32 34 9 14 16 18 21 23 26 28 31 33 36 38 40 10 16 19 22 24 27 30 33 36 38 41 44 47 11 18 22 25 28 31 34 37 41 44 47 50 53 12 21 24 28 31 35 38 42 46 49 53 56 60 13 23 27 31 35 39 43 47 51 55 59 63 67 14 26 30 34 38 43 47 51 56 60 65 69 73 15 28 33 37 42 47 51 56 61 66 71 76 82 16 31 36 41 46 51 56 61 66 71 76 82 87 17 33 38 44 49 55 60 66 71 77 82 88 93 18 36 41 47 53 59 65 70 76 82 88 94 100 19 38 44 50 56 63 69 75 82 88 94 101 107 20 40 47 53 60 67 73 80 87 93 100 107 114 Wartości krytyczne U na poziomie a = 0,025 (założony kierunek) i a = 0,05 (brak założeń co do kierunku) \ Ni 9 10 11 12 13 14 15 16 17 18 19 20 1 2 0 0 0 1 1 1 1 1 2 2 2 2 3 2 3 3 4 4 5 5 6 6 7 7 8 4 4 5 6 7 8 9 10 11 11 12 13 13 5 7 8 9 11 12 13 14 15 17 18 19 20 6 10 11 13 14 16 17 19 21 22 24 25 27 7 12 14 16 18 20 22 24 26 28 30 32 34 8 15 17 19 22 24 26 29 31 34 36 38 41 9 17 20 23 26 28 31 34 37 39 42 45 48 10 20 23 26 29 33 36 39 42 45 48 52 55 11 23 26 30 33 37 40 44 47 51 55 58 62 12 26 29 33 37 41 45 49 53 57 61 65 69 13 28 33 37 41 45 50 54 59 63 67 72 76 14 31 36 40 45 50 55 59 64 67 74 78 83 15 34 39 44 49 54 59 64 70 75 80 85 90 16 37 42 47 53 59 64 70 75 81 86 92 98 17 39 45 51 57 63 67 75 81 87 93 99 105 18 42 48 55 61 67 74 80 86 93 99 106 112 19 45 52 58 65 72 78 85 92 99 106 113 119 20 48 55 62 69 76 83 90 90 105 112 119 127 [594] Wartości krytyczne U na poziomie a kierunku) 0,05 (założony kierunek) i a = 0,10 (brak założeń co do \^ N2 9 10 11 12 13 14 15 16 17 18 19 20 1 0 0 2 1 1 1 2 2 2 3 3 3 4 4 4 3 3 4 5 5 6 7 7 8 9 9 10 11 4 6 7 8 9 10 11 12 14 15 16 17 18 5 9 11 12 13 15 16 18 19 20 22 23 25 6 12 14 16 17 19 21 23 25 26 28 30 32 7 15 17 19 21 24 26 28 30 33 35 37 39 8 18 20 23 26 28 31 33 36 39 41 44 47 9 21 24 27 30 33 36 39 42 45 48 51 54 10 24 27 31 34 37 41 44 48 51 55 58 62 11 27 31 34 38 42 46 50 54 57 61 65 69 12 30 34 38 42 47 51 55 60 64 68 72 77 13 33 37 42 47 51 56 61 65 70 75 80 84 14 36 41 46 51 56 61 66 71 77 82 87 92 15 39 44 50 55 61 66 72 77 83 88 94 100 16 42 48 54 60 65 71 77 83 89 95 101 107 17 45 51 57 64 70 77 83 89 96 102 109 115 18 48 55 61 68 75 82 88 95 102 109 116 123 19 51 58 65 72 80 87 94 101 109 116 123 130 20 54 62 69 77 84 92 100 107 115 123 130 138 Na podstawie: D. Auble (1953), Exlended Tables for the Mann-Whilney Statistks, „Bullelin of the Institute of Educational Research at Indiana University", 1:2: tab. I, 3, 5 i 7 za zgodą wydawcy; przedruk z Sidney Siegel (1956), Nonparametric Statistics for the Behavioral Sciences, New York: Mc Graw-Hill, tab. K. r~ vi oo vi r- fN — NO NO — oo_ oo^ oj^ ^ ^ o" m" no" oo" d — -"< — ^ CN r-» cn vj r- oo •^¦ONOomr- VI M (N h M no © CN fN On tJ- r^ -h oo i^ fN On vi ~- no es" n-' no' r-" on" ^-* cn" ^t-" no" r-" CN N (N o) N mmmmm •o O —i t~- no m —< tj- r*- oo ^o (N m rs o no" on" «-J m" vT fN vi © ^o on \ rn no O^ m ^d, on vi" o" oo' on" —" fN" m" ¦¦ _^ ,_ ,_ —> CN fN CN fN ^O Ti — o> \o vi r^ cn -^- r~ o o vi r- m r-- o cn ^f- r^ r- Tf -* no o fN vi oo © m oo" o" *-T cn" —< <—¦ fN cn cn on cn on o oo mi tj- —i tt oo oo vi O NO fN NO ON CN VI OO —• m ^r m t~- oo rN fN —¦ fN vi <—• — ^ tj- m ~ oo vi .— (» o n t \q oo o> -^ rn on" —" fN" m" ^f-" vT no" oo" on" t oo n oo i- -* r-- o n© r- \o - O rf^ no_ o© O ¦-h1 (sf m" mi «^- no — OO CN V> 00 (N m vj ^o r- On — on cn rN oo QN .— — CN CN —' oo o —• cn m -rf no f- x a o " rs)TfrV)*or-- oo oo *o ^j- m cn — o o on on t 't t Tt Ti-^^rmm i/") OO no vi in tt T T tj- tt "f (N »C VI 0> « O Tf -o" r-~" oo" oC o" t—• » - ^t 4 o ^t- r^ooovi in -h x \d - o moNNO^o —> fN vi o no m ^ cn o r- (N O 4 0\ tt - O tN in m , o o ~* —'•' fN rN m Tf tj-" vi ^o' r-" r--" oo" on" m m (Nj -- n vi >ri "^ on vi — no es a oo o *t © © On no m oo n co — tJ- OO —' VI ON CS NO On en en Tf no r- DC o -^ es en en en en ci Tf * Tf v» no t-- © en om o vo on ^r oo es ¦<*¦ vi no r- no On en^ nc^ ©^ r*\ vO_ On^ cS^ v^ o" es" en' vT no" r-" oo o —; enenenen en en en tJ- ~<3" m 00 00 rs . Ci CS ^r C* NC ^t vC r> ^ v-, vO f- n ^t * * © — ^t- rs m rs vi Cl f- r- O r» V, oo ^T « r> ^r «c oo Cl v-, Cl vi ^L: r^ oe rs rs rn m ci O ci Cl ci ci * + O * rN iv-, m r- vfi IN m _ nO r- xC o 0> 00 nO ¦* nO ao rs rn łfl r*- o m 1— ze r> o rs Cl * v-, ^c l-» Ov N rs CS rs rs Cl ci m rn Cl Cl Cl o oc r> ci V", v-, rs r- o^ o sC o r-- o rs m r- r> fi m <* VI r^ v, r- 00 r> o rs "^r V") es rs CS es tN (S rs rs en Cl Cl Cl Cl Cl m or. r> M sC rs sc O" _, — o O vi ci Cft r- ^r m o sC f- JC o- O o — rs ci Cl &\ © ^" CS rn t **j c™ ^-< ¦-»> i™«> •—¦ v-i \-i -— cs cs cs cs cscscscs cs enenenen ooooooc^ r~~ r-or-t-- no n©nonono mmmm m enenenen m mmmm en en en en m m^ en e*\ r*\ en^ en^ cn^ m^ m^ no" c-~" oo" on" o" *-* cs" en" -*T vi" no t— oo On __^_^_-- fsj eseseses cs cscscscs r- cs on r- o oo — o cs no cs —¦ ¦— m-^twiNO oo ©cstnu cj\ i/1 tJ- f*-! CS_ >— ^- O On OO^ r~^ 00 Oa On O ~- r^ — w-* CS CS, en "^ vi no CS en "3" *• CS CS, CS CS \ csr-NOoo vi ^ h (N o o en oo >r» ¦ . ovi^-ir- t^- .-i oo \d •**¦ cs ooor--^ O oo r-~ v-) rt en —¦ o on^ oo^ r~^ v^ ^ r r-resen^i/C^crt-roo"©© on o •—• es ¦ in vi ^ m o •—< OO On en CS ¦^¦OnOOOn OO no vi ^f -^- ^-Tl"V->r^ On •—! en NO On O OO NO^ ^ CS^ O^ 00^ NO^ -^ CS^ "-J ON^ t--^ VI o" o" •—<" es" en" ^ ^ vT no" t-^ oo" oo" On" S -H 1H — ^H ^-H^H^ ^- ^^H^CN| CNOt^^^ i—i OO >— OO •—' On ^^OOOOen r~ a - vi on moN^t—i t~- vicsoon no en ¦—i oo vi en o oo^ 'O en^ —^ O^ t-^ oo" On" o" o" •—" esT en" en" -^ vT no no" r- »/-i no r— c— vi Oencsr-- on vi t*- ^ v-»ONOen -^ OOnOnOn O CS^r— CS^ Os Vj^ CS^ On^ NO^ CS^ G\ NO^ -^ --^ OO^ v^ en^ l-T r-T oo" On" On" gT —' — e>|" en ^t Tl" vj no oovimo r— rs no no Tf oo os vi no n O-^enNO On 't On Vi rs On r-NOV1Vi Tf O NO N OO Vl-—OOV~t ł—t OO Vi Ol ON no" r-" r-" oo" oo" on" o" o" —* cs" cs en ^f Tf [597] Słowniczek analiza czynnikowa (ang. factor analysis) technika statystyczna polegająca na klasyfikowaniu dużej liczby powiązanych zmiennych do ograniczonej liczby wymiarów, czyli czynników. analiza procesu interakcji (ang. interaction process analysis) pomiar dwunastu typów niezależnych zachowań, które można wykorzystywać do kodowania i analizowania interakcji wewnątrz grupy. Jest to technika wysoce ustrukturowana wykorzystująca zarówno ustrukturowane kategorie obserwacji, jak i elementy eksperymentu laboratoryjnego. analiza szeregów czasowych (ang. time-series design) plan quasi-eksperymentalny, w którym pomiar początkowy i pomiar końcowy dokonywany jest w wielu momentach przed i po wprowadzeniu zmiennej niezależnej. analiza ścieżek (ang. path analysis) technika wykorzystująca zarówno dwuzmiennową, jak i wielo-zmiennową analizę regresji do testowania związków przyczynowych pomiędzy zmiennymi uwzględnionymi w modelu. Składa się z trzech etapów: wyrysowania, na podstawie teorii lub zbioru hipotez, diagramu powiązań (ścieżek), obliczenia współczynników ścieżek (efektów bezpośrednich) za pomocą analizy regresji oraz ustalenia efektów pośrednich. analiza treści (ang. content analysis) systematyczna, ilościowa analiza danych, których źródłem są rejestry i dokumenty archiwalne. analiza zajmowanych pozycji fizycznych (ang. physical location analysis) badanie sposobów, w jaki ludzie poruszają się w naturalnie powstającej przestrzeni społecznej. ankieta pocztowa (ang. mail ąuestionnaire) metoda badań sondażowych, w której ankiety są wysyłane pocztą do respondentów, a ich odpowiedzi tworzą zbiór danych będący podstawą testowania hipotez. anonimowość (ang. anonymity) ochrona osób uczestniczących w badaniach poprzez oddzielenie danych identyfikujących te osoby od udzielonych przez nie informacji. artefakty pomiarowe (ang. measurement artifacts) stronnicze wyniki będące rezultatem sytuacji, w której stosowane procedury pomiarowe, takie jak kamera czy arkusze testowe, mogą być źródłem wskazówek dotyczących tego, co jest przedmiotem eksperymentu. autentyczność (ang. authenticity) szczerość prywatnych zapisów. autobiografia tematyczna (ang. topical autobiography) prywatne zapiski koncentrujące się na jakimś aspekcie osobistego życia. badania panelowe (ang. panel) badania sondażowe, w których stwarza się warunki bardzo zbliżone do wymaganych w planach eksperymentalnych, polegających na przeprowadzeniu badania przed i po wprowadzeniu zmiennej niezależnej. Efekt ten osiąga się dzięki badaniu tej samej próby osób w dwóch lub więcej punktach czasowych. błąd ekologizmu (ang. ecological fallacy) przenoszenie wniosków z bardziej złożonej na prostszą jednostkę analizy, z wyższego na niższy poziom. błąd fałszywej konkretyzacji (ang. fallacy of reification) błąd polegający na traktowaniu abstrakcji jako rzeczywistości, zamiast jako wytworu myślenia. błąd I rodzaju (ang. Type I error) błąd odrzucenia prawdziwej hipotezy zerowej. błąd II rodzaju (ang. Type II error) błąd zaakceptowania fałszywej hipotezy zerowej. błąd indywidualizmu (ang. individualistic fallacy) powstaje, gdy wnioski dotyczące grup, społeczeństw czy narodów są bezpośrednio wyprowadzane z danych otrzymanych dla jednostek. 599 Wąd pomiaru (ang. measurement error) wszelkie zróżnicowanie nie wynikające z rzeczywistych różnic między mierzonymi właściwościami. błąd predykcji (ang. error of prediction) odchylenie rzeczywistych obserwacji od tych przewidzianych na podstawie linii regresji. błąd standardowy (ang. standard error) miara statystyczna wskazująca, jak dalece dokładnie otrzymane wyniki odzwierciedlają rzeczywiste wartości parametrów w populacji. Oblicza się go z rozkładu wszystkich wartości średnich wokół średniej tych wartości; jest to odchylenie standardowe rozkładu z próby. błąd wynikający z braku odpowiedzi (ang. nonresponse error) stronniczość badania wynikająca z faktu, że część respondentów nie udziela odpowiedzi w badaniach sondażowych, a zatem nie zostaje uwzględniona w badanej próbie. czasowy terminarz (ang. time sampling) procedura wybierania jednostek obserwacji w różnych punktach czasu w taki sposób, aby zapewnić reprezentatywność obserwacji wybranych ciągłych działań. czynniki pojawiające się poza planem badawczym (ang. extrinsic factors) stronniczość wynikająca z różnego doboru osób do grupy kontrolnej i grupy eksperymentalnej. czynniki związane z planem badawczym (ang. intrinsic factors) obejmują te zmienne, które pojawiły się w trakcie prowadzenia badania i mogły spowodować zmiany w badanych osobach lub obiektach, a także w narzędziu pomiarowym. Do czynników tych zaliczamy też efekt oddziaływania samego badania. czyszczenie danych (ang. data cleaning) proces poprzedzający analizę zebranych informacji, w którym wychwytuje się i poprawia błędnie wprowadzone dane i niespójne kody. Na ogół dane są czyszczone za pomocą specjalnych programów komputerowych, które testują, czy kody zostały wprowadzone konsekwentnie. definicja ostensywna (ang. ostensive definition) definicja opisująca znaczenie danego pojęcia poprzez przykłady. Może zostać wykorzystana jako termin pierwotny zarówno w procesie budowania teorii, jak i w badaniach. definicja pojęciowa (ang. conceptual definition) definicja, w której dane pojęcie jest opisywane za pomocą terminów pierwotnych i terminów pochodnych. definicje operacyjne (ang. operational definitions) zbiór procedur łączących poziom pojęciowo-teore-tyczny z poziomem empiryczno-obserwacyjnym. Definicje operacyjne składają się ze zbioru procedur opisujących działania, jakie musi podjąć badacz, aby ustalić istnienie lub stopień istnienia zjawiska opisywanego przez pojęcie. dobór wiązany (ang. matching) metoda kontroli polegająca na wyrównywaniu grupy eksperymentalnej i grupy kontrolnej ze względu na czynniki nie związane z planem badawczym, o których można założyć, że mają związek z hipotezą badawczą. dobrowolność (ang. voluntarism) wolny wybór, czy uczestniczyć w badaniach naukowych, czy też nie. Zasada ta gwarantuje, że zgoda na narażenie się na znane ryzyko została wyrażona całkowicie dobrowolnie. dodatkowe zachowania werbalne (ang. extralinguistic behavior) pozatreściowe aspekty zachowania, takie jak: szybkość mówienia, głośność, tendencja do przerywania, specyficzne akcentowanie. Słowa i kontekst językowy to tylko niewielki fragment dającego się obserwować zachowania. Stanowią istotne źródło danych, często określane jako zachowania parajęzykowe albo język ciała. dojrzewanie (ang. maturation) procesy biologiczne, psychologiczne lub społeczne, które mogą — wraz z upływem czasu — przyczynić się do powstawania zmian w badanych osobach lub obiektach. Zmiany te mogą wpłynąć na zmienną zależną i prowadzić do błędnych wniosków. dyferencjał semantyczny (ang. semantic differential) rodzaj skali szacunkowej, umożliwiającej pomiar reakcji respondenta na pewien obiekt lub pojęcie, polegający na wskazaniu swojego wyboru na skali dwubiegunowej, opisanej na każdym z krańców kontrastowymi przymiotnikami. 600 dylemat etyczny (ang. ethical dilemma) powstaje, gdy badacz musi podjąć decyzję, czy prowadzić badania pomimo wątpliwej etycznie procedury. efekt pośredni (ang. indirect effect) powstaje, gdy wpływ jednej zmiennej na drugą odbywa się poprzez trzecią zmienną, tzw. zmienną pośredniczącą. eksperyment terenowy (ang. field experimentation) badania odbywające się w środowisku naturalnym; badacz manipuluje jedną lub więcej zmiennymi niezależnymi w warunkach, które są na tyle kontrolowane, na ile pozwala sytuacja. empirycyści logiczni (ang. logie empiricists) badacze wychodzący z założenia, że można uzyskać wiedzę obiektywną, badając zarówno świat społeczny, jak i świat przyrodniczy. empiryczny (ang. empirical) odwołujący się do spostrzeżeń, doświadczenia i zachowania. epistemologia (ang. epistemology) badanie podstaw wiedzy. gamma (ang. gamma) współczynnik związku wskazujący na kierunek i siłę związku pomiędzy zmiennymi porządkowymi. grupa eksperymentalna (ang. experimental group) grupa wystawiona na działanie zmiennej niezależnej w planie eksperymentalnym. grupa kontrolna (ang. control group) grupa w planie eksperymentalnym, która nie jest poddawana oddziaływaniu zmiennej niezależnej. grupy kontrastowe (ang. contrasted groups) porównywanie grup, o których wiadomo, że różnią się pod względem jakichś istotnych cech. hipoteza (ang. hypothesis) proponowana przez nas odpowiedź, jakiej można udzielić na pytanie badawcze. Jest wyrażana w formie związku pomiędzy zmienną zależną i zmienną niezależną. hipoteza badawcza (ang. research hypothesis) hipoteza formułowana w procesie statystycznej weryfikacji hipotez, odzwierciedlająca to, co badacz spodziewa się potwierdzić w swoich badaniach. Nie jest bezpośrednio weryfikowana. Przyjmuje się ją, gdy badacz odrzuci hipotezę zerową. hipoteza zerowa (ang. nuli hypothesis) stwierdzenie braku związku pomiędzy zmiennymi. Hipoteza zerowa zostaje odrzucona, jeśli otrzymana wartość statystyki jest mało prawdopodobna przy założeniu prawdziwości tej hipotezy. histogram (ang. histogram) graficzny sposób przedstawiania rozkładu częstości dla zmiennej interwa-łowej i stosunkowej. Histogram przypomina wykres słupkowy, jednak bez przerw pomiędzy kolejnymi prostokątami. Prostokąty są umieszczane jeden po drugim, aby pokazać, że zmienna ma charakter ciągły; ich wysokość odzwierciedla procent lub częstość w danym interwale. historia (ang. history) wszelkie zdarzenia zewnętrzne pojawiające się w czasie badania, które mogą wpłynąć na osoby badane i stworzyć podstawy konkurencyjnego wyjaśnienia zmian wartości zmiennej zależnej. indeks (ang. index) złożona miara zbudowana na dwóch lub więcej wskaźnikach czy pozycjach kwestionariuszowych. indukcja analityczna (ang. analytic inductioń) podejście teoretyczne w badaniach terenowych, w którym badacz rozpoczyna od sformułowania wstępnych hipotez, weryfikowanych następnie na podstawie obserwacji niewielkiej liczby przypadków. Jeżeli zbadane przypadki nie spełniają hipotezy, to jest ona albo odrzucana, albo przeformułowywana. instrumentacja (ang. instrumentation) proces zmian w narzędziu pomiarowym w okresie pomiędzy pomiarem początkowym a pomiarem końcowym. Aby powiązać różnicę pomiędzy wynikami w pomiarze początkowym i pomiarze końcowym ze zmienną niezależną, należy wykazać, że powtórny pomiar dokonany za pomocą identycznego narzędzia, w nie zmienionych warunkach, dostarczy takich samych wyników. interakcja (ang. interaction) wykazanie różnego związku pomiędzy zmiennymi w różnych kategoriach zmiennej kontrolnej. 601 intersubiektywnosc (ang. intersubjectivity) możliwość wymiany informacji, dzięki którym naukowcy mogą poznać i ocenić metody stosowane przez innych i przeprowadzić podobne badania, aby ocenić trafność otrzymanych danych i wyprowadzonych wniosków. interwałowy poziom pomiaru (ang. interval level) poziom pomiaru, na którym można określić dokładną odległość pomiędzy kolejnymi obserwacjami i wyrazić ją w stałych jednostkach. istotność informacji (ang. sensitivity of Information) odnosi się do zakresu, w jakim informacje zbierane przez badacza mają charakter prywatny lub potencjalnie zagrażający osobie badanej. Im bardziej osobiste są informacje udzielane przez osobę badaną, tym większy obowiązek zapewnienia ich ochrony spoczywa na badaczu. izomorfizm (ang. isomorphism) podobieństwo lub identyczność struktur. jednorazowa analiza przypadku (ang. one-shot case study) dokonanie pomiaru jednej grupy lub jednego zdarzenia w jednym punkcie czasowym, zazwyczaj po wystąpieniu tego zjawiska, które, naszym zdaniem, jest przyczyną obserwowanych zmian. jednostka analizy (ang. unit ofanalysis) najbardziej elementarna część badanego zjawiska. Określa wybór schematu badawczego, metod zbierania danych oraz metod analizy danych. jednostka analizy treści (ang. recording unit) najmniejszy element treści, który występuje w przekazie (jednostką jest pojedyncze wystąpienie określonego elementu treści). jednostka doboru próby (ang. sampling unit) pojedynczy element populacji, z której pobierana jest próba lub — jak w przypadku losowania grupowego — grupa takich elementów. jednostka kontekstu (ang. context unit) większy fragment treści, który można analizować w trakcie charakteryzowania jednostek analizy. jednowymiarowość (ang. unidimentionality) zasada, zgodnie z którą poszczególne pozycje składające się na skalę odzwierciedlają pojedynczy wymiar i mogą zostać umieszczone na kontinuum odnoszącym się do jednego i tylko jednego pojęcia. klasyczny plan eksperymentalny (ang. classic experimental design) plan eksperymentalny, stosowany zazwyczaj w naukach biologicznych i społecznych, składający się z dwóch porównywanych ze sobą grup: grupy eksperymentalnej i grupy kontrolnej. Grupy te są równoważne z wyjątkiem tego, że w grupie eksperymentalnej działa zmienna niezależna, natomiast nie ma jej w grupie kontrolnej. kod (ang. codę) liczba przyporządkowana obserwacji. Kody powinny być zawsze takie same dla tych przypadków czy jednostek analizy, dla których zachodzą identyczne warunki. kodowanie (ang. coding) przypisywanie kodów w postaci liczb (lub innych symboli) każdej kategorii składającej się na analizowaną zmienną. kodowanie dedukcyjne (ang. deductive coding) kodowanie wymagające zapisywania danych zgodnie ze schematem opracowanym, zanim zostanie zastosowane narzędzie pomiarowe. kodowanie indukcyjne (ang. inductive coding) badacz tworzy schemat kodowania na podstawie reprezentatywnej próbki odpowiedzi czy próby innych danych i następnie wykorzystuje go do pozostałych danych. kompetencja (ang. competence) założenie, że każda decyzja jest podejmowana przez osobę odpowiedzialną, dojrzałą, posiadającą niezbędne informacje do podjęcia tej decyzji. komputery duże (ang. mainframe computers) komputery, które organizują pracę użytkowników poprzez uruchamianie programów i monitorowanie urządzeń wejścia i wyjścia. kontekst odkrycia (ang. context of discovery) działania prowadzące do odkrycia; na początkowych etapach poszukiwań ani sformalizowane reguły, ani logika nie powinny być traktowane jako przewodnik tych działań. kontekst uzasadniania (ang. context of justifwation) działania naukowców podejmowane wtedy, gdy próbują oni zweryfikować — w sposób logiczny i empiryczny — twierdzenia nauki. kontrola (ang. control) procedura umożliwiająca wyeliminowanie możliwych źródeł wariancji mogą- 602 cych zniekształcić wyniki badań. Do metod kontroli należy technika wprowadzania stałej wartości zmiennej albo w warunkach eksperymentalnych, albo w trakcie analizy statystycznej. korelacja cząstkowa (ang. partial correlation) metoda statystycznej kontroli polegająca na matematycznym korygowaniu korelacji dwóch zmiennych, która została stworzona po to, aby wyeliminować wpływ innych zmiennych na zmienną zależną i niezależną. kowariancja (ang. covariatiion) współzmienność dwóch lub więcej zjawisk. kryterium najmniejszych kwadratów (ang. criterion ofleast sąuares) kryterium, według którego minimalizuje się sumę kwadratów pionowych odległości pomiędzy linią regresji a rzeczywistymi obserwacjami. krzywa normalna (ang. normal curve) jeden z rozkładów teoretycznych posiadających ogromne znaczenie w statystyce. Podstawowe własności to: (1) jest krzywą symetryczną i gładką, (2) wartość modalna, mediana i średnia leżą dokładnie w środku rozkładu, (3) jest oparta na nieskończonej liczbie przypadków, (4) związek pomiędzy liczebnościami a wartościami zmiennej jest wyrażony za pomocą jednego wzoru matematycznego, (5) pomiędzy średnią a określoną wartością zmiennej wyrażoną w jednostkach odchylenia standardowego istnieje stała proporcja przypadków. książka kodowa (ang. codebook) książka tworzona przez badacza, w której znajdują się informacje o tym, jakie kody liczbowe zostały przypisane każdej kategorii składającej się na określoną jednostkę obserwacji. kwantyfikatory (ang. ąuantifiers) kategorie odpowiedzi stosowane w skalach szacunkowych, które odzwierciedlają stopień intensywności każdej konkretnej oceny. kwartały spisowe (ang. census błock) najmniejsze obszary geograficzne, dla których zbiera się dane do spisu powszechnego. lambda — współczynnik przewidywalności Guttmana (ang. lambda — Guttman coefficient of pre-dictability) miara związku wskazująca na kierunek i silę zależności pomiędzy zmiennymi nominalnymi. linia regresji (ang. regression linę) linia spełniająca kryterium najmniejszych kwadratów, tzn. jest to linia najlepiej dopasowana do danych empirycznych. list intencyjny (ang. cover letter) list dołączony do ankiety pocztowej. logika (ang. logie) stwierdzenia uniwersalnie trafne, pewne i niezależne od świata empirycznego. losowanie grupowe (ang. cluster sample) rodzaj losowania probabilistycznego często stosowanego w badaniach prowadzonych na dużą skalę, ponieważ jest to najmniej kosztowny schemat doboru próby. Polega na losowaniu najpierw większych zbiorowości (grup), a następnie na losowaniu jednostek w ramach Vyc\\ grap. ładunek czynnikowy (ang. factor loading) współczynnik korelacji pomiędzy zmienną a czynnikiem. manipulacja (ang. manipulation) procedura ułatwiająca badaczom wprowadzenie pewnych form kontroli zmiennej niezależnej — zwłaszcza w warunkach laboratoryjnych. Procedura ta gwarantuje, że zmienna niezależna wyprzedziła zmienną zależną. mediana (ang. median) miara tendencji centralnej definiowana jako punkt, poniżej i powyżej którego znajduje się 50% obserwacji. metoda połówkowa (ang. split-half method) metoda szacowania rzetelności polegająca na podzieleniu narzędzia pomiarowego na dwie odpowiadające sobie części i skorelowaniu wyników otrzymanych w każdej z części oddzielnie. metoda powtórnego testowania (ang. test-retest method) metoda szacowania rzetelności narzędzia pomiarowego polegająca na dwukrotnym przebadaniu tej samej grupy osób tym samym narzędziem pomiarowym i obliczeniu współczynnika korelacji pomiędzy dwoma zbiorami wyników. metodologia (ang. methodology) system jasno określonych regut i procedur, do których odwołują się badania będące podstawą ewaluacji wiedzy. 603 metropolitalne obszary statystyczne (ang. Metropolitan Statistical Areas — MSA) jedno lub więcej hrabstw o dużym skupieniu populacji i okolicznych społeczności, które pozostają ze sobą w ścisłej interakcji. miara nieinwazyjna (ang. unobtrusive measure) metoda zbierania danych, w której osoba badana nie jest świadoma tego, że jest poddawana pomiarowi, i istnieje niewielkie niebezpieczeństwo, że akt pomiaru będzie wymuszał zmiany zachowania mogące stronniczo wpłynąć na zebrane dane. miara rzetelności (ang. reliability measure) miara statystyczna przyjmująca wartości od 0 (kiedy pomiar nie zawiera niczego ponad błąd) do 1 (kiedy błąd został całkowicie wyeliminowany). miara zróżnicowania jakościowego (ang. measure of qualitative variation) wskaźnik zróżnicowania oparty na stosunku ogólnej, zaobserwowanej liczby różnic do liczby maksymalnie możliwych różnic w danym rozkładzie. miary erozji (ang. erosion measures) nieinwazyjne miary oparte na analizie znaków pozostawianych po użyciu jakiegoś obiektu. miary przyrostu (ang. accretion measures) nieinwazyjne miary składowanych obiektów fizycznych. miary rozproszenia (ang. measures of dispersion) statystyczne miary odzwierciedlające stopień zróżnicowania wyników w rozkładzie. miary tendencji centralnej (ang. measures of central tendency) miary statystyczne odzwierciedlające „typowe" czy „przeciętne" charakterystyki rozkładu częstości. miejsca objęte spisem (ang. Census Designated Places — CDS) gęsto zaludnione okręgi, które nie mają własnych, prawnie określonych granic czy władz. moc dyskryminacyjna (ang. discriminative power — DP) właściwość testu pozwalająca na sprawdzenie, czy wybrana przez niego pozycja umożliwia odróżnianie ludzi o wysokich wynikach (zdecydowanie pozytywna postawa) od ludzi o niskich wynikach (zdecydowanie negatywna postawa). moda (ang. modę) miara tendencji centralnej definiowana jako kategoria danych, która powtarza się najczęściej. model (ang. model) abstrakcyjne przedstawienie rzeczywistości w celu uporządkowania i uproszczenia naszego spojrzenia na tę rzeczywistość poprzez odtworzenie podstawowych jej cech charakterystycznych. nauka (ang. science) całokształt wiedzy osiąganej za pomocą środków naukowej metodologii. nauka normalna (ang. normal science) rutynowa weryfikacja teorii (czy paradygmatu) dominującej w danym momencie historycznym. nauka rewolucyjna (ang. revolutionary science) nagły rozwój konkurencyjnego paradygmatu, który jest stopniowo przyjmowany przez naukowców. obserwacja kontrolowana (ang. controlled obseryation) metoda, której istotąjest jasne i wyraźne określenie, co, jak i gdzie należy obserwować; metoda wysoce usystematyzowana i mało elastyczna. obserwacja nie kontrolowana (ang. noncontrolled observation) metoda obserwacji mało usystematyzowanej, w której momenty obserwacji są rzadko określane i która jest często związana z badaniami jakościowymi. obserwacja prosta (ang. simple observation) metoda pomiaru nieinwazyjnego, w którym osoba obserwująca nie jest rozpoznawana przez osoby obserwowane. obserwacja uczestnicząca (ang. participant observation) metoda zbierania danych, najbardziej powiązana ze współczesnymi badaniami terenowymi, w której badacz staje się członkiem grupy, którą chce badać. obserwator w pełni uczestniczący (ang. complete participant) pozycja przyjmowana przez obserwatora, gdy jego rola jest całkowicie utajniona, ceł badania nie jest znany osobom badanym, a badacz stara się zostać członkiem obserwowanej grupy. obszar odrzucenia (ang. region of rejection) obszar wyznaczony pod krzywą rozkładu z próby określony przez hipotezę zerową i obejmujący te wartości otrzymanej statystyki, które pozwalają na odrzucenie hipotezy zerowej. W teście jednostronnym obszar odrzuceń znajduje się po jednej stronie rozkładu, w teście dwustronnym mamy dwa obszary odrzuceń leżące po dwóch stronach rozkładu. 604 odchylenie przeciętne (ang. mean deviation) miara otrzymana przez obliczenie różnic pomiędzy każdym wynikiem a średnią, dodanie bezwzględnych wartości tych różnic i podzielenie otrzymanej sumy przez liczbę obserwacji. odchylenie standardowe (ang. standard deviatioń) powszechnie stosowana miara zróżnicowania, której wielkość zależy od stopnia rozproszenia wyników. odpowiedniość (ang. congruence) zgodność pomiędzy definicjami pojęciowymi i definicjami operacyjnymi. odsetek odpowiedzi (ang. response ratę) procent osób, które udzieliły odpowiedzi w badaniach kwestionariuszowych. opinia (ang. opinion) werbalny przejaw postawy. paradygmat (ang. paradigm) dominująca teoria w określonym momencie historycznym. parajęzyk (ang. paralanguage) pozatreściowe aspekty zachowania, takie jak szybkość mówienia, głośność czy tendencja do przerywania. Zachowania te są znane również jako dodatkowe zachowania werbalne. parametr (ang. parameter) wartość zmiennej określona dla populacji. pełen spis statystyczny (ang. complete cout census) spis populacji i gospodarstw domowych realizowany co dziesięć lat, który w zamierzeniu ma objąć wszystkie rodziny w państwie. Zawiera jedynie podstawowe dane demograficzne każdego członka rodziny oraz kilka pytań na temat gospodarstwa domowego. plan badawczy (ang. research design) rodzaj „projektu" kierującego badaczem na etapie zbierania, analizowania i interpretowania danych. plan czynnikowy (ang. factorial design) plan badawczy pozwalający na jednoczesne badanie wpływu dwóch lub więcej zmiennych niezależnych na zmienną zależną i na wykrywanie interakcji pomiędzy zmiennymi. plan dla rozszerzonych szeregów czasowych (ang. extended time-series design) plan badawczy, w którym dane są traktowane jako część szerszych szeregów czasowych, dzięki czemu możliwe jest kontrolowanie czynnika dojrzewania. plan korelacyjny (ang. correlational design) najpowszechniejszy plan badawczy stosowany w naukach społecznych, najczęściej kojarzony z badaniami sondażowymi. Polega na wykorzystywaniu danych do badania związku pomiędzy właściwościami i dyspozycjami, pozwala na określenie związków przyczynowych pomiędzy tymi właściwościami i dyspozycjami lub na prosty opis związku przed podjęciem próby jego przyczynowej interpretacji. plan przekrojowy (ang. cross-sectional design) plan badawczy najczęściej wykorzystywany w badaniach sondażowych, służący do badania związku pomiędzy właściwościami a dyspozycjami. Dzięki zastosowaniu odpowiednich metod statystycznych może osiągnąć status planu jedynie z pomiarem końcowym grupy kontrolnej. plan z pomiarem początkowym i pomiarem końcowym (ang. pretest-posttest design) plan preekspe-rymentalny, w którym dokonuje się porównania wartości zmiennej zależnej otrzymanej przed i po wprowadzeniu zmiennej niezależnej. plany łączone (ang. combined designs) łączenie dwóch lub więcej planów badawczych w jeden schemat, dzięki czemu zwiększają się możliwości wyprowadzania wniosków. plany z kontrolą szeregów czasowych (ang. control-series designs) plany ąuasi-eksperymentalne, które stwarzają możliwość kontrolowania czynnika historii, dojrzewania i efektu powtórnego badania, występujących zarówno w grupie eksperymentalnej, jak i w grupie kontrolnej. podejście rozumiejące (ang. interpretive approach) przekonanie, że zjawiska znajdujące się w centrum zainteresowania nauk społecznych są zdecydowanie mniej stabilne niż zjawiska, którymi zajmują się nauki przyrodnicze. 605 podstawa doboru próby (ang. sampling frame) lista jednostek doboru próby wykorzystywana w procesie pobierania próby z populacji. podzbiór (ang. subset) każdy układ elementów należących do populacji, który nie obejmuje wszystkich elementów definiowanych jako populacja. pojęcie (ang. concept) abstrakcja reprezentująca obiekt, własność obiektu lub pewne zjawiska, które badacze wykorzystują do opisywania świata empirycznego. pomiar (ang. measurement) przypisywanie — zgodnie z określonymi regułami — liczb lub innych symboli własnościom empirycznym. pomiar końcowy (ang. posttest) pomiar przeprowadzany po zadziałaniu zmiennej niezależnej. pomiar początkowy (ang. pretest) pomiar przeprowadzany przed wprowadzeniem zmiennej niezależnej. populacja (ang. population) całkowity zbiór obiektów poddawanych analizie. porównanie (ang. comparison) procedura polegająca na wykazaniu, że dwie zmienne są ze sobą powiązane. porządkowy poziom pomiaru (ang. ordinal level) poziom pomiaru, który umożliwia uporządkowanie wszystkich obserwacji (na przykład od „największej" do „najmniejszej"), nie pozwala natomiast na precyzyjne zmierzenie odległości pomiędzy dwoma obiektami. postawa (ang. attitude) wszelkie skłonności, uprzedzenia, opinie, lęki i przekonania co do określonego obiektu. poufność (ang. confidentiality) nieujawnianie tożsamości osób badanych. poziom istotności (ang. level of significance) prawdopodobieństwo odrzucenia hipotezy zerowej, gdy jest ona prawdziwa. Jest to prawdopodobieństwo popełnienia błędu I rodzaju. poziom nominalny (ang. nominał level) poziom pomiaru, na którym właściwości obiektów wpadających do jednej klasy są identyczne, a różne, gdy obiekty wpadają do różnych kategorii. Jest to najniższy poziom pomiaru. poziom pomiaru (ang. level of measurement) stopień, w jakim liczby opisują cechy badanej zmiennej. Im wyższy poziom pomiaru, tym więcej możliwości zastosowania odpowiednich metod statystycznych. prawo do prywatności (ang. rightprivavy) prawo jednostki do wyboru czasu i okoliczności — i co ważniejsze — zakresu, w jakim chce ona lub nie chce ujawniać swoich postaw, wierzeń, zachowań i opinii. problem badawczy (ang. research problem) problem intelektualny wymagający rozwiązania w postaci badań naukowych. proces badawczy (ang. research process) całościowy schemat działań, które naukowcy podejmują w celu wytworzenia wiedzy; paradygmat naukowych dociekań. proporcjonalne zmniejszenie błędu (ang. proportional reduction oferror) metoda wykorzystywana do pomiaru siły związku pomiędzy dwiema zmiennymi, gdy jedną zmienną wykorzystujemy do przewidywania drugiej. prosta próba losowa (ang. simple random sample) podstawowy sposób doboru probabilistycznego, w którym każdy element składający się na całą populację ma takie samo, niezerowe prawdopodobieństwo dostania się do próby. próba (ang. sample) część populacji. próba kwotowa (ang. ąuota sample) próba nieprobabilistyczna tworzona w taki sposób, aby uzyskać maksymalne podobieństwo próby do wyjściowej populacji. próba nieprobabilistyczna (ang. nonprobability sample) metoda doboru próby, w której nie ma możliwości określenia prawdopodobieństwa włączenia określonego elementu do próby. próba probabilistyczna (ang. probabilistic sample) próba, dla której możemy określić prawdopodobieństwo, z jakim każda jednostka może znaleźć się w próbie. Dzięki temu gwarantujemy, że wyniki otrzymane na podstawie badania różnych prób pochodzących z tej samej populacji nie będą się różniły od wartości parametrów populacji o więcej niż określoną wielkość. 606 próba reprezentatywna (ang. representative sample) część badanej populacji, która jest w maksymalnym stopniu reprezentatywna w stosunku do populacji, z której została pobrana. Dana próba jest uważana za próbę reprezentatywną, jeśli wyprowadzane przez badacza wnioski na podstawie badania próby są podobne do wniosków, które badacz otrzymałby, gdyby przebadał całą populację. próba systematyczna (ang. systematic sample) próba, do której włączany jest co fc-ty element z populacji, począwszy od pierwszego elementu, który zostaje wybrany w sposób losowy. Liczba * jest wartością stałą. próba warstwowa (ang. stratified sample) schemat probabilistycznego doboru próby, w którym najpierw dzieli się populację na homogeniczne warstwy, a następnie przeprowadza się losowanie w każdej z warstw. przedział ufności (ang. confidence interval) miara określająca przedział wartości, do którego wpada określony procent średnich z próby. przeglądanie danych (ang. data editing) proces, który trwa zarówno w trakcie, jak i po zakończeniu fazy kodowania i polega na sprawdzaniu, czy nie popełniono błędów, czy jakieś dane nie zostały opuszczone oraz czy wszystkie arkusze kwestionariusza wypełniono jak należy. przewidywanie (ang. prediction) proces przewidywania przyszłych zdarzeń na podstawie zdarzeń, które wystąpiły wcześniej. przypadki negatywne (ang. negative cases) stwierdzenia i działania przemawiające na rzecz odrzucenia hipotezy badawczej. Badacze porównują przypadki negatywne i pozytywne, aby określić, czy można zmodyfikować hipotezę w taki sposób, by lepiej pasowała do danych, lub też, czy należy badaną hipotezę całkowicie odrzucić. przypominanie (ang. follow up) strategia wykorzystywana w ankietach pocztowych do zapewnienia sobie właściwego odsetka odpowiedzi (np. wysyłanie przypominających pocztówek lub powtórne przesyłanie kwestionariusza). pytania alternatywne (ang. contingency ąuestions) pytania dotyczące jednej grupy respondentów, gdyż odnoszą się one tylko do niektórych osób. pytania dotyczące faktów (ang. factual ąuestions), inaczej pytania metryczkowe, tworzy się po to, aby otrzymać od respondenta obiektywne informacje dotyczące ich pochodzenia, środowiska, nawyków. pytania o podwójnej treści (ang. double-barreled ąuestions) łączą dwa lub więcej pytań, które mogą się okazać kłopotliwe dla respondentów, którzy zgadzają się tylko z jedną częścią tego pytania, a nie zgadzają się z drugą. pytania tabelaryczne (ang. matrix ąuestions) zwane też macierzowymi, metoda organizowania w całość dużego zbioru pytań szacunkowych, które mają te same kategorie odpowiedzi. pytanie (ang. ąuestion) podstawa wszystkich kwestionariuszy. Kwestionariusz musi przekładać cele badawcze na konkretne pytania. Odpowiedzi na te pytania są źródłem danych wykorzystywanych do testowania hipotez badawczych. pytanie fdtrujące (ang. filter ąuestion) w kwestionariuszu pytanie, które poprzedza pytanie alternatywne: pytanie alternatywne zadaje się w zależności od odpowiedzi na pytanie filtrujące. pytanie otwarte (ang. open-ended ąuestion) pytanie, które nie jest wyposażane w żadną konkretną odpowiedź, a wszystko, co mówi respondent, jest w całości zapisywane. pytanie sugerujące (ang. leading ąuestion) tak sformułowane pytanie, że respondent odczytuje je jako wymagające od niego określonej odpowiedzi. pytanie zagrażające (ang. threatening ąuestion) pytanie, które może wprowadzić respondenta w zakłopotanie. pytanie zamknięte (ang. close-ended ąuestion) pytanie wyposażone w zbiór odpowiedzi, z którego respondenci wybierają tę, która jest najbliższa ich poglądom, r Pearsona (ang. Pearson's r) współczynnik korelacji Pearsona według momentu iloczynowego. Jest to 607 statystyka pozwalająca ustalić wielkość i kierunek zależności pomiędzy zmiennymi interwałowymi. Jest najczęściej wykorzystywany w analizie korelacji. racjonalizm (ang. rationalism) wykorzystywanie twierdzeń zasadniczo prawdziwych, logicznie możliwych i dopuszczalnych. randomizacja (ang. randomization) metoda kontroli dających się przewidzieć oraz nie dających się przewidzieć efektów zakłócających, polegająca na losowym przyporządkowywaniu osób badanych do grupy eksperymentalnej i do grupy kontrolnej. rangowanie (ang. ranking) metoda stosowana w badaniach kwestionariuszowych, gdy badacze chcą uzyskać informacje o stopniu ważności czy pierwszeństwa, jaki ludzie przypisują zbiorowi postaw czy obiektów. Rangowanie jest użytecznym narzędziem, ponieważ pozwala ustalić relatywny porządek zbioru obiektów czy ocen. realizm eksperymentalny (ang. experimental realism) stopień, w jakim sytuacja eksperymentalna jest traktowana przez uczestników eksperymentu jako rzeczywista. realizm życiowy (ang. mundane realism) zakres, w jakim zdarzenia z sytuacji laboratoryjnej zachodzą w rzeczywistym życiu. regresja wielokrotna (ang. multiple regression) technika statystyczna umożliwiająca określenie związku pomiędzy zmienną interwalową a dwiema lub więcej zmiennymi interwałowymi, porządkowymi lub nominalnymi. rejestry aktuarialne (ang. actuarial records) oficjalne dokumenty zawierające charakterystyki demograficzne danej populacji, udostępniane przez instytucje przechowujące takie dokumenty. replikacja (ang. replication), czyli powtarzanie badań dokładnie w taki sam sposób, w jaki przeprowadzili je badacze i naukowcy; chroni przed niezamierzonymi błędami i oszustwami. rozkład częstości (ang. freąuency distribution) liczba danych posiadających taką samą wartość dla danej zmiennej. rozkład normalny (ang. normal distribution) rodzaj rozkładu symetrycznego o ogromnym znaczeniu w statystyce. Jest to krzywa zdefiniowana matematycznie. W pewnych warunkach można traktować rozkład częstości danej zmiennej jako dobre przybliżenie do rozkładu normalnego. rozkład skośny (ang. skewed distribution) rozkład, w którym więcej przypadków pojawia się na jednym z krańców rozkładu. rozkład z próby (ang. sampling distribution) teoretyczny rozkład każdej statystyki, którą można obliczyć dla prób pobranych z populacji. rozstęp (ang. rangę) miara odległości pomiędzy najwyższym i najniższym wynikiem w rozkładzie. rozstęp ćwiartkowy (ang. interąuartile rangę) różnica pomiędzy dolnym i górnym kwartylem (tj. L?, i Q3)- Ponieważ jest to miara rozproszenia jedynie środkowej części rozkładu, więc jest mniej wrażliwa na wyniki skrajne. równanie liniowe (ang. linear relation) związek pomiędzy dwiema zmiennymi X i Y przedstawiony w postaci równania Y=a + bX, gdzie aibto wartości stałe. Wykresem tego równania jest linia prosta. rzetelność (ang. reliability) stałość instrumentu pomiarowego; określa wielkość błędu związanego z danym narzędziem pomiarowym. rzetelność kodowania (ang. coding reliability) stopień zgodności pomiędzy różnymi osobami kodującymi, które dokonują klasyfikacji odpowiedzi osób badanych zgodnie ze schematem kodowania. siła związku (ang. magnitude of relation) stopień, w jakim dwie zmienne współzmieniają się wprost proporcjonalnie lub odwrotnie proporcjonalnie. skala Guttmana (ang. Guttman scalę) metoda skalowania opracowana z myślą włączenia empirycznego testu jednowymiarowości zbioru pozycji do procesu konstrukcji skali. Jeżeli zbiór pozycji skali pokrywa ten sam wymiar postawy, to poszczególne pozycje można uporządkować na tym kontinuum ze względu na stopień, w jakim dotyczą one tego kontinuum. 608 skala Likerta (ang. Likert scalę) skala oparta na sumowaniu rang, przeznaczona do badania postaw. skalowanie (ang. rating) wyrażanie sądu przez respondenta poprzez wykorzystanie uporządkowanego zbioru kategorii takich, jak: „całkowicie się zgadzam", „pożądane" czy „bardzo często". skanowanie optyczne (ang. optical scanning) metoda przenoszenia i przetwarzania danych w gotowy format komputerowy. Skaner czyta znaki naniesione czarnym ołówkiem i automatycznie tworzy plik danych. sondowanie (ang. probing) technika stosowana przez osobę prowadzącą wywiad do stymulowania dyskusji i otrzymywania większej ilości informacji. statystyka (ang. statistic) wartość parametru otrzymana na podstawie danych z próby, a nie z populacji. statystyka opisowa (ang. descriptive statistics) procedury statystyczne wykorzystywane do opisywania i analizowania danych, umożliwiające badaczowi opracowanie i ustrukturalizowanie danych w skuteczny i sensowny sposób. Dostarcza narzędzi pozwalających na opisanie dużych zbiorowości danych i zredukowanie otrzymanych informacji do czytelnej formy. stopnie swobody (ang. degrees offreedom — df) właściwość statystyki z próby określająca rozkład z próby. stosunkowy poziom pomiaru (ang. ratio level) poziom pomiaru, na którym zdefiniowano punkt zerowy. strategia badań-przed-teorią (ang. research-then-theory strategy) plan badawczy, w którym obserwacja empiryczna, opis cech, pomiar i analiza otrzymanych wyników poprzedzają etap budowania teorii. strategia lejka (ang. funnel seąuence) technika tworzenia kwestionariusza polegająca na rozpoczynaniu od pytań ogólnych, a następnie na stopniowym ich zawężaniu. strategia teorii-przed-badaniami (ang. theory-then research strategy) plan badawczy, w którym najpierw formułuje się założenia teoretyczne, a następnie prowadzi badania empiryczne pozwalające na przyjęcie lub odrzucenie tych założeń. stronniczość eksperymentatora (ang. experimenter bias) sytuacja, która powstaje, gdy eksperymentator przekazuje swoje oczekiwania co do zachowania osób badanych. Zachowanie to, chociaż nie jest zamierzonym elementem postępowania badawczego, może wpłynąć na osoby uczestniczące w badaniu. struktury pojęciowe (ang. conceptual framework) poziom zaawansowania teorii polegający na systematycznym wbudowywaniu kategorii deskryptywnych w szerszą strukturę formułowanych twierdzeń. system klasyfikacji ad hoc (ang. ad hoc classificatory system) ustalenia teoretyczne dotyczące kategorii arbitralnych, skonstruowanych w celu ustrukturalizowania i opracowania obserwacji empirycznych. system teoretyczny (ang. theoretical system) połączenie taksonomii, struktur pojęciowych, opisów, wyjaśnień i predykcji w strukturę pozwalającą na pełne wyjaśnienie zjawiska empirycznego. ścieżki spisowe (ang. census tracts) małe, definiowane na poziomie lokalnym, obszary statystyczne w okręgach metropolitalnych, a także hrabstwa, których przeciętna populacja waha się w granicach 4000 mieszkańców. średnia arytmetyczna (ang. arithmetic mean) suma wszystkich obserwacji podzielona przez ich liczbę. tabela wielodzielcza (ang. cross tabulation) tabela obrazująca związek pomiędzy dwiema lub więcej zmiennymi, w postaci prezentacji wszystkich kombinacji kategorii badanych zmiennych. tabele cząstkowe (ang. partial tables) odzwierciedlają jedynie część całkowitego związku pomiędzy zmienną zależną i zmienną niezależną. taksonomia (ang. taxonomy) poziom zaawansowania teorii, która składa się z systemu kategorii skonstruowanych odpowiednio do obserwacji empirycznych w taki sposób, że można opisać związki pomiędzy kategoriami. tsai-b Kendalla (ang. KendaWs tau-b) współczynnik związku pomiędzy zmiennymi porządkowymi oparty na rangach. tautologia (ang. tautology) twierdzenia, które są prawdziwe tylko na mocy ich formy logicznej. technika form równoległych (ang. parallel-forms techniąue) technika, która ma przezwyciężyć ograniczenia metody powtórnego testowania (test-retest). Aby zastosować tę technikę, badacz musi stwo- 609 rzyć dwie równolegle wersje narzędzia pomiarowego. Następnie dokonuje się pomiaru tej samej grupy osób badanych za pomocą obu form i koreluje otrzymane dwa zbiory wyników w celu otrzymania miary rzetelności. technika rozbudowywania (ang. elaboration) metoda wprowadzania innej zmiennej po to, aby określić sposób powiązania zmiennej niezależnej i zmiennej zależnej. technika znanej grupy (ang. known-group techniaue) polega na przebadaniu określonym narzędziem pomiarowym grup ludzi o znanych cechach, aby na tej podstawie określić kierunek różnic pomiędzy grupami. teoria aksjomatyczna (ang. ajciomatic theory) system teoretyczny składający się ze zbioru pojęć i definicji operacyjnych; zbiór twierdzeń opisujących sytuacje, w których teoria ta ma zastosowanie; zbiór powiązanych ze sobą stwierdzeń (aksjomatów i twierdzeń); a także system reguł logicznych wykorzystanych do powiązania wszystkich pojęć w ramach systemu oraz do dedukcyjnego wyprowadzania twierdzeń. teoria bazowa (ang. grounded theory) w badaniach terenowych tworzenie teorii, która jest ściśle bezpośrednio powiązana z konkretnymi sytuacjami badania. Tworząc taką teorię, badacz najpierw — na podstawie danych — tworzy kategorie pojęciowe, a następnie zbiera nowe dane, aby ujednoznacznić i dopracować te kategorie. Pojęcia i hipotezy są wyprowadzane bezpośrednio z danych. termin pierwotny (ang. primitive terms) pojęcie, którego nie można zdefiniować za pomocą innych pojęć. termin pochodny (ang. derived term) termin, który można zdefiniować za pomocą terminów pierwotnych. terminarz (ang. log) zapis wydarzeń, spotkań, wizyt i innych zdarzeń, jakie nastąpiły w określonym czasie. test chi-kwadrat — X1 (ang- chi-sąuare test — %2) test statystyczny opracowany do oceny, czy różnica pomiędzy liczebnościami otrzymanymi a liczebnościami oczekiwanymi na podstawie modelu teoretycznego jest istotna statystycznie. Wyniki testu pozwalają na podjęcie decyzji, czy liczebności poszczególnych kategorii są jednakowe, czy rozkład jest rozkładem normalnym lub czy dwie zmienne są niezależne. test dwustronny (ang. two-tailed test) test statystyczny, w którym skrajne wyniki pozwalające na odrzucenie hipotezy zerowej znajdują się zarówno po prawej, jak i po lewej stronie rozkładu. test jednostronny (ang. one-tailed) test statystyczny, w którym skrajne wyniki pozwalające na odrzucenie hipotezy zerowej znajdują się po jednej lub po drugiej stronie rozkładu. test Manna-Whitneya (ang. Mann-Whitney test) test nieparametryczny stosowany wtedy, gdy badacz chce przetestować hipotezę zerową mówiącą o tym, że dwie próby zostały pobrane z tej samej populacji wobec hipotezy alternatywnej mówiącej o tym, że dwie populacje różnią się od siebie. test nieparametryczny (ang. nonparametric test) test statystyczny, który nie wymaga wcale lub wymaga przyjęcia niewielu założeń dotyczących rozkładu w populacji. test parametryczny (ang. parametric test) test, w którym przyjmuje się określone założenia co do wartości parametru w populacji. test różnic między średnimi (ang. difference-between-means-test) jest wykorzystywany do oceny istotności różnicy pomiędzy średnimi, aby można było określić stopień powiązania między zmiennymi. test t (ang. t test) test weryfikacji hipotez pozwalający przyjąć lub odrzucić hipotezę zerową, w którym wykorzystywana jest statystyka t mająca rozkład t. trafność (ang. validity) stopień, w jakim narzędzie pomiarowe mierzy to, co z założenia powinno mierzyć. trafność doboru próby (ang. sampling validity) stopień, w jakim określona populacja (np. zbiór wszystkich przypadków w świecie rzeczywistym) jest adekwatnie reprezentowana przez dane narzędzie pomiarowe. trafność fasadowa (ang. face validity) subiektywna ocena trafności narzędzia pomiarowego dokonana przez badacza. Dotyczy zakresu, w jakim narzędzie pomiarowe wydaje się mierzyć to, co założy! sobie badacz. trafność prognostyczna (ang. predictive yalidity) ocena narzędzia pomiarowego poprzez porównywa- 610 nie wyników jednego narzędzia z wynikami otrzymanymi za pomocą innego narzędzia pomiarowego, tzw. kryterium. trafność teoretyczna (ang. construct validity) proces wiązania narzędzia pomiarowego z ogólnymi podstawami teoretycznymi w celu określenia, czy narzędzie pomiarowe jest powiązane z wykorzystywanymi pojęciami i założeniami teoretycznymi. trafność wewnętrzna (ang. internat validity) w badaniach eksperymentalnych dane pozwalające wyeliminować możliwość, że to inne czynniki — a nie zmienna niezależna — są odpowiedzialne za zróżnicowanie zmiennej zależnej. trafność zewnętrzna (ang. external validity) zakres, w jakim wyniki badań można uogólniać na większe zbiorowości osób i przenosić na inne warunki społeczne czy polityczne. triangulacja (ang. triangulation) więcej niż jeden sposób zbierania danych w ramach jednolitego planu badawczego w celu przetestowania tej samej hipotezy. uczestnik jako obserwator (ang. participant-as-observer) rola przyjmowana przez badaczy w badaniach terenowych. Przyjmując tę rolę, badacze informują grupę o prowadzonych badaniach i starają się stać aktywnymi członkami grupy. uniwersalizacja (ang. generalizability) stopień, w jakim wyniki badań można uogólnić na większe populacje i na inne sytuacje badawcze. utrata osób badanych (ang. experimental mortality) czynnik opisujący problemy związane ze zmniejszeniem próby, który powoduje, iż badacz nie jest w stanie zebrać kompletu danych do wszystkich badanych przypadków. Jeżeli osoby badane wypadają selektywnie z próby eksperymentalnej i próby kontrolnej, to końcowa próba osób, dla których zebrano wszystkie dane, może być stronnicza. Verstehen rozumienie ludzkiego zachowania oparte na empatii. wariancja (ang. variance) miara zróżnicowania ilościowego odzwierciedlająca przeciętne rozproszenie rozkładu. Jest to kwadrat odchylenia standardowego. wartość czynnikowa (ang. factor score) wartość otrzymana dla danego przypadku w czynniku, którą oblicza się poprzez pomnożenie współczynników wartości czynnikowej dla każdej zmiennej przez standaryzowane wartości tej zmiennej obliczone dla tego przypadku. wnioskowanie (ang. inference) wyprowadzanie twierdzeń nauki z przyjętych wcześniej założeń. wnioskowanie statystyczne (ang. inferential statistics) pozwala badaczowi na podejmowanie decyzji dotyczących całej populacji na podstawie danych otrzymanych z próby pochodzącej z tej populacji. wskazówki sugerujące (ang. demand characteristics) stronniczość pojawiająca się wtedy, gdy osoby badane zdają sobie sprawę, że znajdują się w sytuacji eksperymentalnej, są świadome tego, że są obserwowane, i sądzą, że oczekuje się od nich określonych reakcji. Mogą zatem reagować bezpośrednio na inne czynniki niż manipulacja eksperymentalna. Ich reakcje mogą natomiast odzwierciedlać, jakie zachowania — ich zdaniem — ma w zamierzeniu wywołać manipulacja eksperymentalna. wskaźnik (ang. indicator) empiryczny, obserwowany element pojęcia. wskaźnik postawy (ang. attitude index) wynik globalny obliczony dla skonstruowanego a priori zbioru pytań, który jest traktowany jako wskaźnik stopnia nasilenia postawy danej osoby. współczynnik korelacji (ang. correlation coefficient) miara liniowego związku pomiędzy dwiema zmiennymi interwałowymi. Współczynnik korelacji według momentu iloczynowego r Pearsona pozwala określić kierunek i wielkość związku. współczynnik korelacji wielokrotnej (ang. coefficient of multiple correlation) współczynnik korelacji pomiędzy wieloma zmiennymi niezależnymi i zmienną zależną. współczynnik odtwarzalności (ang. coefficient of reproducibility — CR) miara pozwalająca ocenić, w jakim zakresie można odtworzyć ogólny wzorzec odpowiedzi na pozycje skali typu Guttmana na podstawie wyniku globalnego uzyskanego w tej skali. Im mniejsza liczba błędnie przewidzianych wyników dla pozycji skali, tym wyższy będzie współczynnik odtwarzalności. 611 współczynnik zmienności (ang. coejficient of variation) miara zróżnicowania oparta na odchyleniu standardowym i średniej odzwierciedlająca względne zróżnicowanie. Jest definiowana jako stosunek odchylenia standardowego do średniej rozkładu. współczynniki ścieżek (ang. path coefficients) standaryzowane współczynniki regresji odzwierciedlające w analizie ścieżek powiązania przyczynowe pomiędzy zmiennymi. wybieranie numerów telefonicznych za pomocą liczb losowych (ang. random-digit dialing — RDD) losowe wybieranie numerów telefonicznych polegające na losowym doborze centrali telefonicznej i przypisaniu jej losowych numerów mieszczących się między 0001 a 9999. wyczerpywalnosc (ang. exhaustiveness) reguła nakazująca, aby liczba kategorii była wystarczająca i obejmowała wszystkie możliwe odpowiedzi respondentów. wyjaśnianie (ang. explanation) systematyczna i empiryczna analiza czynników wywołujących jakieś zdarzenie czy zjawisko. wyjaśnianie dedukcyjne (ang. deductive explanation) polega na pokazaniu, że dane zjawisko może być wyprowadzone z ustalonego prawa ogólnego. wyjaśnianie probabilistyczne (ang. probabilistic explanation) odwołuje się do uogólnień wyrażających albo arytmetyczny stosunek jednego zjawiska do drugiego (n procent zX=Y), albo jest uogólnieniem wyrażającym określone tendencje/skłonności: (X ma skłonność do wywoływania Y). wykres kołowy (ang. pie chart) graficzny sposób przedstawiania różnic pomiędzy częstościami czy procentami uzyskanymi dla zmiennych nominalnych i porządkowych. Liczebności lub procenty w odpowiednich kategoriach są wyrażane w postaci części koła. wykres słupkowy (ang. bar chart) graficzne narzędzie przedstawiania danych nominalnych i porządkowych. Tworzy się go przez naniesienie kategorii zmiennej na osi poziomej i narysowanie — dla każdej kategorii — prostokątów o jednakowej szerokości. Kolejne prostokąty są od siebie oddzielone, a wysokość każdego jest proporcjonalna do liczby lub procentu przypadków w danej kategorii. wynik standardowy (ang. standard score) punkt rozkładu, którego średnia wynosi 0, a odchylenie standardowe równe jest 1. wyrażanie zgody w sposób racjonalny (ang. reasonably informed consent) strategia takiego przekazywania informacji osobom badanym, aby znalazło się w nich sześć podstawowych elementów. wyrażenie zgody na podstawie przedstawionych informacji (ang. informed consent) wyrażenie zgody przez osoby biorące udział w badaniach po poinformowaniu ich o faktach, które mogą wpłynąć na ich chęć wzięcia udziału w tych badaniach. wywiad nieukierunkowany (ang. nondirective interview) najmniej ustrukturowana forma wywiadu, w której badacz nie kieruje się wcześniej przygotowanym planem, a także nie zadaje pytań w ustalonej kolejności. Badacz może swobodnie wybierać obszary badania i zadawać specyficzne pytania w trakcie wywiadu. wywiad osobisty (ang. personal intemiew) sytuacja bezpośredniej relacji interpersonalnej, w której osoba prowadząca wywiad zadaje respondentowi pytania opracowane w taki sposób, aby udzielone odpowiedzi pozostawały w związku z hipotezą badawczą. wywiad telefoniczny ze wspomaganiem komputerowym (ang. computer-assisted telephone intemie-wing — CATI) rodzaj sondażu telefonicznego, w którym osoba prowadząca wywiad siedzi przed terminalem komputerowym i zadaje pytanie przez telefon, gdy pojawi się ono na monitorze komputera. Gdy odpowiedź respondenta zostanie wpisana i zakodowana, na dysku pojawi się kolejne pytanie. wywiad według ustrukturowanego planu (ang. schedule-structured interview) wywiad, w którym zadawane pytania (ich sposób sformułowania i kolejność zadawania) są ustalone i identyczne dla wszystkich respondentów. wywiad zogniskowany (ang. focused intemiew) rodzaj wywiadu osobistego (według ustalonego planu), w którym porusza się tematy istotne z punktu widzenia hipotezy badawczej, a respondentom zosta- 612 wia się duży margines swobody w wyrażaniu własnych poglądów. Wywiad ogniskuje się na tych doświadczeniach badanych osób, które dotyczą badanej sytuacji. wzajemna rozłączność (ang. mutual exclusivity) zgodnie z regułą wzajemnej rozłączności kategorie opracowane dla każdej zmiennej powinny być tak zaprojektowane, aby każdy przypadek czy jednostka analizy mogły być zaliczone do jednej i tylko jednej kategorii. zachowania niewerbalne (ang. nonverbal behavior) ruchy ciała (np. mimika twarzy), które wyrażają emocje, takie jak gniew, zdumienie czy strach. zachowania przestrzenne (ang. spatial behavior) działania jednostki zmierzające do strukturalizacji przestrzeni, która ją otacza, np. kontrolowanie odległości od innych osób czy obiektów. zachowanie językowe (ang. linguistic behavior) treść wypowiedzi i strukturalne cechy mowy. zagregowane dane ważone (ang. weighted aggregate) dane wykorzystywane do konstruowania indeksu, które odzwierciedlają względny wpływ poszczególnych wskaźników na wartość całego indeksu. założenia nauki (ang. assumption of science) podstawowe przesłanki, które nie są dowiedzione i których się nie dowodzi, a które stanowią warunki wstępne konieczne do prowadzenia naukowej dyskusji. zaplanowane zróżnicowanie (ang. planned variation design) schemat badawczy, w którym badacze wprowadzają systematycznie zróżnicowane bodźce (zmienne niezależne) po to, aby ocenić ich efekt przyczynowy. zasady etyki (ang. codes ofethics) reguły postępowania opracowane przez stowarzyszenia profesjonalne, dotyczące specyficznych problemów i zagadnień często spotykanych w czasie prowadzenia badań w określonej dyscyplinie, które są wykorzystywane jako wskazówki etycznego sposobu prowadzenia badań. zjawisko artefaktu regresji (ang. regression artifact) błąd pojawiający się wtedy, gdy osoby badane zostały przyporządkowane do grupy eksperymentalnej na podstawie skrajnie wysokich wyników zmiennej zależnej, uzyskanych przez nie w pomiarze początkowym. Kiedy się zdarzy, a zebrane miary nie będą rzetelne, to osoby, które uzyskały wyniki poniżej średniej w pomiarze początkowym, będą uzyskiwać lepsze wyniki w powtórnym badaniu. I odwrotnie, osoby, które uzyskały wyniki powyżej średniej w pomiarze początkowym, będą — w powtórnym badaniu — wypadać gorzej. zmienna (ang. variable) własność empiryczna, która może przybierać dwie lub więcej wartości. zmienna ciągła (ang. continuous variable) zmienna, która nie ma określonej minimalnej jednostki. zmienna dyskretna (ang. discrete variable) zmienna mająca minimalną jednostkę. zmienna kontrolowana (ang. control variable) zmienna, która jest kontrolowana, czy też inaczej utrzymywana na stałym poziomie w celu zbadania, czy wpływa ona na związek pomiędzy zmienną niezależną i zależną; jest wykorzystywana po to, aby sprawdzić, czy obserwowany związek pomiędzy zmienną niezależną i zależną nie jest związkiem pozornym. zmienna niezależna (ang. independent variable) zmienna wyjaśniająca, tj. zakładana hipotetycznie przyczyna zmian wartości zmiennej zależnej. zmienna pośrednicząca (ang. intervening variable) zmienna pośrednicząca pomiędzy zmienną niezależną a zmienną zależną. Zmienna niezależna wpływa na zmienną zależną poprzez zmienną pośredniczącą. zmienna warunkowa (ang. conditional variable) warunek konieczny istnienia związku pomiędzy zmienną niezależną i zmienną zależną. zmienna wyjaśniająca (ang. explanatory variable) nazywana także zmienną niezależną. Zmienna, o której badacz zakłada, że jest przyczyną zmian wartości zmiennej zależnej. zmienna zależna (ang. dependent variable) zmienna, którą badacz chce wyjaśnić. znaczenie teoretyczne (ang. theoretical impact) znaczenie, jakie ma dane pojęcie w kontekście teorii, w której się pojawiło. zrozumienie (ang. comprehension) ważny element zgody na udział w badaniach, wyrażający się w przekonaniu, że osoby uczestniczące w badaniach wyraziły zgodę na podstawie właściwej wiedzy o procedurze badawczej, jeśli jest ona mniej lub bardziej ryzykowna. związek (ang. relatioń) współwystępowanie czy współzmienność dwóch lub więcej zmiennych. 613 związek dodatni (ang. positive relation) związek, w którym wraz ze wzrostem wartości jednej zmiennej rosną wartości drugiej zmiennej. związek pozorny (ang. spurious relation) związek między zmienną niezależną i zmienną zależną, który wydaje się oczywisty, a który jest fałszywy, ponieważ można go wyjaśnić za pomocą zmiennych innych niż uwzględnione w hipotezie badawczej. związek typu bodziec—reakcja (ang. stimulus-response relationship) związek, w którym badacz może manipulować zmienną niezależną. związek typu właściwość—dyspozycja (ang. property-disposition relationship) związek pomiędzy jakąś cechą charakteryzującą osobę (właściwością) a odpowiadającymi jej postawami czy skłonnościami (dyspozycjami). związek ujemny (ang. negative relation) związek, w którym wraz ze wzrostem wartości jednej zmiennej maleją wartości drugiej zmiennej. Podziękowania Tabela 10.1 na podstawie: Don A. Dillman, James A. Christensen, Edward H. Carpenter, Ralph M. Brooks, Increasing Mail Questionnaire Response: A Four State Comparison, „American Sociological Review", 39 (1974): 755 oraz Don A. Dillman, Dan E. Moore, Improving Response Rates to Mail Sur-veys: Results from Five Surveys, referat nie opublikowany przedstawiony na corocznej konferencji American Association for Public Opinion Research, Hershey, Pa., 1983. Przedruk za zgodą American Sociological Association i Dona D. Dillmana. Przykład 10.1 na podstawie: Samuel Devons, A Questionnaire for Questioners, „Public Opinion Quar-terly", 39, (1975): 255-256. Przedruk za zgodą UnWersity of Chicago Press. Przykład 10.2, 10.3 i 10.4 na podstawie: Raymond L. Gorden, Intenriewing: Strategy, Techniąues, and Tactics. wyd. 3 (Homewood, 111.: Dorsey Press, 1980), s. 48-50. Copyright © 1975 by Raymond L. Gorden. Przedruk za zgodą autora. Przykład 11.4 na podstawie: Angus Campbell, Howard Shuman, Racial Attitudes in Fifteen American Cities (Ann Arbor: Social Science ArchWe, 1973). Przedruk za zgodą Institute for Social Research, Center for Political Studies, UnWersity of Michigan. Przykład 13.1 na podstawie: Inter-university Consortium for Political and Social Research, Guide to Resources and Semices, 1994-1995 (Ann Arbor: UnWersity of Michigan, Institute for Social Research, Center for Political Studies, 1994), s. xxiii. Przedruk za zgodą ICPSR. Tabela 14.1 na podstawie: Paul F. Lazarsfeld, Alan Barton Qualitative Measurement in the Social Sciences: Classification, Typologies, and Indices, w: „The Policy Science", red. Daniel Lerner, Harold D. Lasswell (Stanford, Calif.: Stanford UnWersity Press, 1951), s. 161. Przedruk za zgodą Stanford Uni-versity Press. Przykład 14.2 na podstawie: National Opinion Research Center, UnWersity of Chicago, General Social Survey, 1972-1989: Cummulative Codebook (Storrs, Conn.: Roper Center for Public Opinion Research, 1989). Przedruk za zgodą wydawcy. Rycina 14.1 na podstawie: James L. Gibson, Richard D. Bingham, dvii Liberties and the Nazis. Copyright © 1985 by Praeger Publishers. Przedruk za zgodą wydawcy. Tabela 15.2 na podstawie: Alison Landes, Jacąuelyn Quiram, Nancy R. Jacobs, red., Child Abuse: Betraying a Trust (Wylie, Tex.: Information Plus, 1995), s. 33. Przedruk za zgodą Information Plus. Tabela 16.5 na podstawie: Susan J. Carroll, The Personal ls Political: The Intersection of Private Lives and Public Roles among Women and Men in Ellective and Appointive Office, „Women and Poli-tics", 9, ni 2 (1989). Przedruk za zgodą Haworth Press, Inc. Tabela 16.7 na podstawie: Elizabeth Addel Cook, Ted G. Jeleń, Clyde Wilcox, The Social Bases of Abortion Attitudes, (Boulder, Colo.: Westview Press, 1992). Copyright © 1992 by Westview Press. Przedruk za zgodą wydawcy. Tabela 16.10 na podstawie: Social and Political Survey: Winter 1989, Social Science Research Fa-cility, UnWersity of Winsconsin, Milwaukee. Przedruk za zgodą. 615 Rycina 17.8 i 17.9 na podstawie: Gary L. Tomkins, A Causal Model of State Welfare Expenditures, „Journal of Politics", 37 (1975): 406, 409. Copyright © 1975 by the University of Texas Press. Przedruk za zgodą autora i wydawcy. Tabela 18.7 na podstwie: Jules J. Wanderer, An lndex of Riot Severity and Sonie correlates, „American Journal of Sociology", 74 (1969): 503. Przedruk za zgodą University of Chicago Press. Tabela 19.6 na podstawie: Jane Riblett Wilkie, Changes in U.S. Men 's Attitudes Toward the Family Provider Role, 1972-1989, „Gender and Society", 7, nr 2 (June 1993): 261-279. Copyright © 1993 by Sagę Publications, Inc. Przedruk za zgodą wydawcy. Rycina A.2 do A.6 i A.9 do A.ll (wszystkie pochodzą z programu SPSS dla Windows Release 5.0). Przedruk za zgodą SPSS Inc. Dodatek B (wskazówki dotyczące opracowywania tabel) przygotowano na podstawie konspektu zajęć opracowanego przez Davida Wegge'a z St. Norbert College. Przedruk za zgodą autora. Dodatek D skrót z: William H. Beyer (red.), Handbook of Tables for Probability abd Statistics, Se-cond Edition (Cleveland: Chemical Rubber Company, 1968). Copyright © 1968 by The Chemical Rubber Company, CRC Press, Inc. Przedruk za zgodą wydawcy. Dodatek E na podstawie: Harold O. Rugg, Statistical Methods Applied to Education (Boston: Hough-ton Mifflin Company, 1917), s. 389-390. Przedruk za zgodą wydawcy. Dodatek F oraz I skrót na podstawie: Ronald A. Fisher, Frank Yates, Statistical Tables for Biolo-gical, Agricultural and Medical Research, Sixth Edition, tabela III i IV. Przedruk za zgodą Longman Group, Ltd. działającej w imieniu osób zarządzających spuścizną literacką Sir Ronalda A. Fishera, F.R.S. i Dr. Franka Yatesa, F.R.S. Dodatek G na podstawie: George W. Snedecor, William G. Cochran, Statistical Methods, Seventh Edition, Copyright © 1980 by the Iowa State University Press. Przedruk za zgodą wydawcy. Dodatek H na podstawie: D. Auble, Extended Tables for the Mann-Whitney Statistics, „Bulletin of the Institute of Educational Research at Indiana University", I, nr 2 (1953), tabele 1, 3, 5 i 7. Przedruk za zgodą Department of Education, Indiana University.