Problem(y) indukcji

Wprowadzenie do filozofii techniki (fragmenty)

Problem(y) indukcji

Val Dusek
tłumacz: Zbigniew Kasprzyk

Wprowadzenie do filozofii techniki

ISBN: 978-83-7505-548-1
wyd.: WAM 2011

Wybrane fragmenty
Wstęp
Filozofia nauki a technika
Problem(y) indukcji

Problem(y) indukcji

Na początku XVIII wieku szkocki filozof DAVID HUME (1711-1776) sformułował tak zwany problem indukcji. Ściśle mówiąc, jest to problem uzasadnienia indukcji. HUME przyznawał, że posługujemy się metodą indukcyjną w rozumowaniu, uważał jednak, że jest to tylko wynik przyzwyczajenia. (Nieco później amerykański filozof GEORGE SANTAYANA (1863-1952) nazwał to „zwierzęcą wiarą”). Spodziewamy się oto, że przyszłość będzie taka sama jak przeszłość. HUME zapytał, jak w racjonalny sposób uzasadnić wiarę w indukcję. Zwyczajowa odpowiedź na to pytanie brzmi: „indukcja się sprawdza”. HUME temu nie zaprzecza. Zwraca jednak uwagę, że odpowiadając w ten sposób, tak naprawdę myślimy: „indukcja (czy nauka ogólnie) sprawdzała się dotychczas i dlatego oczekujemy, że będzie sprawdzać się nadal”. HUME zauważa, że wnioskowanie o skuteczności indukcji w przyszłości na podstawie jej dotychczasowej skuteczności samo jest wnioskowaniem indukcyjnym, czyli opiera się na zasadzie indukcji! Odwoływanie się do dotychczasowej poprawności zasady indukcji, czyli stwierdzenie, że zasada ta „sprawdza się” jest zatem poruszaniem się po błędnym kole. Takie rozumowanie stanowi bowiem próbę uzasadnienia zasady indukcji samą zasadą indukcji. HUME wykazał, że zawodzą również inne próby uzasadnienia indukcji (na przykład zakładanie nie tyle jej pewności, co jedynie jej prawdopodobieństwa). Większość współczesnych nie rozumiała problemu, który poruszał HUME, i po prostu ignorowała jego twierdzenia. Wagę problemu dostrzegł natomiast IMMANUEL KANT (1724- 1804) i nazwał go „skandalem filozofii” (zważywszy na jego następstwa, równie dobrze mógł go nazwać skandalem nauki, chociaż większość ówczesnych naukowców nie zdawała sobie sprawy z jego istnienia). W proponowanym przez siebie rozwiązaniu KANT twierdził, że w umysł człowieka są wpisane zasady (jak przyczynowość czy konieczność), które pozwalają nam organizować doświadczenia w sposób dopuszczający występowanie regularności i umożliwiający rozumowanie indukcyjne. Rozwiązanie KANTA ma jednak swoją cenę.

Otóż o regularności natury nie można już wnioskować na podstawie samych rzeczy, oddzielonych od człowieka i istniejących poza nim, regularność ta jest bowiem tylko sposobem, w jaki porządkujemy nasze doświadczenia i wiedzę o naturze. Innymi słowy, nie wiemy i nie możemy wiedzieć, czy „rzeczy same w sobie” stosują się do określonych prawidłowości. Wiemy jedynie, że nasz umysł jest tak ustrukturowany, iż poszukuje takich prawidłowości i według nich porządkuje nasze doświadczenia. KARL POPPER (1902-1994) uznał nierozwiązalność problemu HUME'a. Stanowisko POPPERA zakłada jednak rezygnację z twierdzenia, że w nauce wykorzystuje się rozumowanie indukcyjne. Jak widać, rozmaite próby rozwiązania problemu HUME'a prowadziły do wykształcenia się takich koncepcji nauki, które znacznie odbiegały od zwyczajowo akceptowanych poglądów. Albo więc porządkujemy nasze doświadczenia w oparciu o indukcję, ale nie możemy wiedzieć, czy w naturze rzeczywiście występują ustalone prawa, albo w rzeczywistości nigdy nie stosujemy rozumowania indukcyjnego, a tylko oszukujemy siebie, że to robimy. Wprawdzie przedstawiciele pozytywizmu logicznego uważali rozpowszechnianie metody naukowej za dobrodziejstwo dla ludzkości, a w sferze polityki w większości wyrażali poglądy reformatorskie, nierzadko socjaldemokratyczne, to jednak nie zaliczali filozofii politycznej do prawdziwej, „naukowej” filozofii i — z nielicznymi wyjątkami — w analizach nauki nie wyrażali bezpośrednio własnych poglądów na sprawy społeczne. Pod tym względem godnym uwagi wyjątkiem był OTTO NEURATH (1882-1945), socjolog i filozof, który w jednoznacznie pozytywny sposób odnosił się do marksizmu (UEBEL, 1991). (NEURATH przyczynił się również do rozwoju rozwiązań technicznych na autostradach i lotniskach poprzez opracowanie niewerbalnego systemu diagramów i symboli piktograficznych, które ostrzegają kierowcę, że zbliża się do niebezpiecznego zakrętu lub że na drogę mogą wybiec dzikie zwierzęta; albo też na przykład wskazują pasażerom i klientom drogę do toalety; STADLER, 1982). Trzeba jednak pamiętać, że na początku lat pięćdziesiątych XX wieku, czyli w czasach makkartyzmu w Stanach Zjednoczonych, tłumiono nawet domniemane poparcie, jakiego przedstawiciele pozytywizmu logicznego i ich amerykańscy naśladowcy mogli udzielać socjaldemokracji (REISCH, 2005).

„Logiczny” element pozytywizmu logicznego dotyczył rekonstrukcji teorii naukowych przy zastosowaniu formalnej logiki matematycznej. Pozorny sukces, jakim zakończyła się podjęta przez BERTRANDA RUSSELLA (1872-1970) próba redukcji matematyki do logiki, zainspirował pozytywistów logicznych do usystematyzowania teorii naukowych w oparciu o założenia (aksjomaty) i rygorystyczne dedukcje logiczne. Pozytywiści na ogół traktowali naukę jako zbiór zdań i sądów. Teorie naukowe były dla nich przede wszystkim jednostkami pojęciowymi. W podobny sposób myślało wielu wcześniejszych filozofów. Jednak pozytywiści analizowali strukturę i związki twierdzeń bardziej precyzjnie i z większym rygorem niż ich poprzednicy. RUSSELLOWSKIE logiczne podstawy matematyki zainspirowały niektórych pozytywistów, przede wszystkim RUDOLFA CARNAPA (1891- 1970), do podjęcia prób sformułowania formalnej logiki indukcji. Fiasko tego programu, który prowadzono przez dziesięciolecia, przekonało niemal wszystkich filozofów nauki, że stworzenie formalnej logiki indukcji w formie proponowanej przez CARNAPA jest niemożliwe. Indukcja obejmuje bowiem nieformalne założenia i sądy (zob. rozdział 4).

Dążenie do precyzji i rygoru doprowadziło pozytywistów do krytyki ich własnego kryterium sensowności, które opierało się na doświadczeniu i obserwacji. W konsekwencji kryterium to (zasada weryfikowalności) zostało odrzucone, ale pozytywistom należy się uznanie za uczciwość i konsekwencję, które kazały im poddać krytyce własny program i uznać jego zawodność. Rezygnacja ze sztywnej zasady weryfikowalności doprowadziła do wykształcenia się stanowiska, które nazwano empiryzmem logicznym. Zwolennicy tego kierunku złagodzili zasadę weryfikacji zdań, zastępując ją kryterium sprawdzalności lub stopniowego potwierdzenia. Empiryczne kryteria znaczenia były jednak albo tak wąskie, że nie obejmowały teoretycznych elementów nauki, albo na tyle szerokie, że wprawdzie brały pod uwagę aspekty teoretyczne, ale tylko za cenę ponownego włączenia zdań metafizycznych i teologicznych w zakres twierdzeń posiadających znaczenie. W swojej pierwotnej wersji zasada weryfikacji kazała odrzucać także takie teoretyczne pojęcia z zakresu fizyki jak „elektron”. Uznawano je bowiem za pozbawione sensu. Nowa wersja tej zasady pozwalała natomiast uznać, że zdanie „Albo ten przedmiot jest czerwony, albo Bóg jest leniwy” można sprawdzić, odnosząc jego treść do danego czerwonego przedmiotu. To, z kolei, prowadziło do uznania zdania „Bóg jest leniwy” za sensowne (pełne znaczenia).

Kolejnym wiedeńskim filozofem, który osobiście znał pozytywistów logicznych i prowadził z nimi dyskusję, był KARL POPPER. Jego poglądy różniły się jednak od poglądów pozytywistów pod paroma ważnymi względami. POPPER był zdania, że nie weryfikowalność, a falsyfikowalność, czyli możliwość dowiedzenia fałszywości (obalenia) danej teorii wyznacza granicę pomiędzy naukowością a nienaukowością. Na tym właśnie opiera się POPPEROWSKIE kryterium falsyfikowalnoś c i (demarkacji), po- zwalające odróżnić naukę od tego, co nauką nie jest. POPPER twierdził również, że naukowość danej teorii jest tym większa, im większy jest stopień jej falsyfikowalności. Prowadzi to do poglądu, że nie zdania dotyczące jednostkowych faktów, a prawa naukowe mają najbardziej naukowy charakter. (Zdaniem pozytywistów to właśnie zdania dotyczące jednostkowych faktów są w pełni weryfikowalne, a zatem najbardziej zasługują na miano naukowych). Poszczególne fakty można weryfikować, co oznacza, że osiągają one najwyższy stopień prawdopodobieństwa, podczas gdy prawa naukowe obejmują nieograniczoną liczbę przypadków i w związku z tym nigdy nie mogą zostać zweryfikowane. Zdaniem POPPERA teorie naukowe są zawsze nieskończenie nieprawdopodobne, ponieważ nieskończony jest zakres ich zastosowania, ale sprawdzianowi poddaje się jedynie niewielką część płynących z nich wniosków. Dla pozytywistów nauka była przede wszystkim zbiorem faktów, a prawa naukowe służyły jedynie do ich organizowania i podsumowywania w pomocny sposób. POPPER natomiast uważał, że nauka jest przede wszystkim zbiorem praw, a jednostkowe fakty pełnią jedynie rolę testu, czyli są próbą falsyfikacji tychże praw. Jego zdaniem naukę tworzą śmiałe teorie i hipotezy oraz próby rozstrzygającego obalenia czy negatywne surowe sprawdziany tychże teorii. Na tym właśnie polega jego falsyfikacjonistyczna metoda naukowa. POPPER przyjmuje twierdzenie HUME'a o niemożności uzasadnienia indukcji, uznaje więc rozumowanie indukcyjne za mit i odrzuca je (zob. aneks 1.1). Hipotezy naukowe nie wynikają logicznie z obserwacji jednostkowych przypadków. Formułuje się je w oparciu o domysły i przypuszczenia. Dopóki dana hipoteza wytrzymuje sprawdziany, dopóty uznaje się ją za naukową: nie ma znaczenia, czy poprzedzały ją obserwacje, czy też narodziła się z marzeń lub przekonań religijnych. Słynna historia chemika FRIEDRICHA AUGUSTA KEKULÉGO (1829-1896), którego sen o wężu połykającym własny ogon natchnął do sformułowania hipotezy o pierścieniowej budowie cząsteczki benzenu (BEVERIDGE, 1957, s. 56, 76), dowodzi, że nawet wysoce nieracjonalne źródła mogą mimo wszystko rodzić sprawdzalne rezultaty.

W przeciwieństwie do pozytywistów POPPER nie uważał, że to, co niefalsyfikowalne, czyli nienaukowe, jest pozbawione sensu. Zdaniem POPPERA metafizyka może mieć znaczenie i może odgrywać pozytywną rolę w procesie formułowania teorii naukowych. Na pierwszy rzut oka poglądy POPPERA wydają się sprzeczne z intuicją, jednak płynące z nich wnioski doskonale pasują do roli, jaką w działalności naukowej odgrywa przeprowadzanie testów i przyjmowanie krytycznej postawy. Koncepcja POPPERA zgodna jest również z naczelnym miejscem, jakie w nauce zajmują prawa uniwersalne.

Stanowisko POPPERA ma także implikacje polityczne. Przyjęcie krytycznej postawy (ogólniejsze zastosowanie metody obalania teorii) ma kluczowe znaczenie dla wolności myśli i odgrywa podstawową rolę w demokracji, czyli w „społeczeństwie otwartym” (POPPER, 1945). Uznanie doraźnego charakteru prezentowanych poglądów pozwala uniknąć dogmatyzmu. Akceptowanie postaw krytycznych zachęca do otwartości umysłu i swobody wypowiedzi. Przez pojęcie „zreifikowanego dogmatyzmu” POPPER rozumiał zamknięty system myśli, który dysponuje mechanizmem pozwalającym na lekceważenie lub odrzucenie sprzeciwu i krytyki. Według POPPERA przykładami takich zamkniętych systemów są zarówno religijny fundamentalizm, jak i marksistowski totalitaryzm. POPPER uważa jednak, że również szkoły naukowe mogą wykształcić pewne strategie chroniące je przed jakąkolwiek krytyką. W ten sposób stają się — w sensie logicznym — nienaukowe, chociaż instytucje edukacyjne i finansujące mogą błędnie uważać je za element „nauki”.

Za skrajny przykład naukowca w sensie instytucjonalnym można uznać CYRILA BURTA (1883-1971) — psychologa zajmującego się ludzką inteligencją. BURT był wydawcą uznanego i bardzo rygorystycznego pisma „Journal of Statistical Psychology”; doradzał władzom Londynu podjęcie polityki edukacyjnej wprowadzającej podział na uczniów mniej i bardziej uzdolnionych; zainicjował założenie Mensy — stowarzyszenia osób z wysokim ilorazem inteligencji, a nawet otrzymał tytuł szlachecki za prace nad dziedziczeniem inteligencji. Jednak wkrótce po jego śmierci większość psychologów doszła do przekonania, że dane, które przedstawiał w późniejszych latach swojej działalności, były sfałszowane. BURT najprawdopodobniej wymyślił sobie nieistniejących asystentów. Pod róż nymi pseudonimami pisał listy i artykuły, w których w sposób niekompetentny krytykowano jego prace. Dzięki temu zyskiwał sposobność udzielania błyskotliwych odpowiedzi (HEARNSHAW, 1979). Jeśli to prawda, BURT z pewnością nie odpowiadał POPPEROWSKIEMU ideałowi naukowca w sensie normatywnym, to znaczy nie był człowiekiem uczciwym intelektualnie, otwartym na krytykę i gotowym odrzucić własne teorie. Poglądy POPPERA mają sensacyjne implikacje zarówno dla krytycyzmu społecznego, jak i dla oceny programów naukowych. Jednak ich słabą stroną z punktu widzenia filozofii techniki jest wbijanie ostrego klina pomiędzy naukę i technikę. Formułowanie i obalanie śmiałych i nieprawdopodobnych teorii jest dopuszczalne w nauce, technika jednak wymaga rzetelnych i użytecznych narzędzi. Zawalenie się mostu pociąga za sobą inne koszty niż intelektualne odrzucenie jakiejś teorii w ramach fizyki cząstek elementarnych. Uczniowie POPPERA i kontynuatorzy jego myśli, jak JOSEPH AGASSI (1985) i MARIO BUNGE (1967, rozdział 11, 1979), wnieśli istotny wkład w rozwój filozofii techniki, ale sama POPPEROWSKA teoria nauki, jakkolwiek bardzo interesująca, oderwana jest od pragmatycznych rozważań nad techniką. Niemniej jednak podejście POPPERA do nauki otwiera drogę do badań nad wpływem stanowisk filozoficznych i koncepcji metafizycznych na proces powstawania teorii naukowych. To z kolei dowodzi, że poglądy kulturowe mogą być przynajmniej tak samo ważnym źródłem teorii jak dane obserwacyjne, a poprzez zastosowanie tychże teorii mogą również pośrednio wpływać na rozwój techniki.

Jeden z najważniejszych sporów w ramach filozofii nauki dotyczy teoretycznych terminów naukowych. Toczy się on pomiędzy zwolennikami naukowego realizmu i antyrealizmu a w szczególności, jak to ujął POPPER (1962, rozdział 3), pomiędzy zwolennikami esencjalizmu instrumentalizmu. Niektóre elementy teorii naukowych są wyraźnie związane z prowadzeniem obserwacji i wykonywaniem doświadczeń. Inne wiążą się z nimi jedynie pośrednio, poprzez długie łańcuchy logicznej dedukcji — przykładem może być stosowany w fizyce termin „elektron”. Przedstawiciele naukowego realizmu twierdzą, że terminy stosowane w teoriach naukowych odnoszą się do obiektywnie realnych bytów, nawet jeżeli bytów tych nie możemy obserwować.

Natomiast zdaniem antyrealistów nie można traktować terminów teoretycznych w taki sposób, jakby dosłownie odnosiły się do faktycznie istniejących obiektów czy bytów. Zwolennicy instrumentalizmu traktują teorie naukowe wyłącznie jako narzędzia służące do przewidywania zdarzeń. Teorie nie opisują realnych, nieobserwowalnych struktur, ale są mniej lub bardziej przydatne do przewidywania faktów, które można bezpośrednio obserwować.

Metafory używane przez realistów i instrumentalistów stanowią odpowiednio podstawy podejścia teoretycznego i podejścia technicznego, które były historycznymi komponentami procesu narodzin nowożytnej nauki w epoce renesansu. Realiści często opisują teorie naukowe jako „obrazy” świata, natomiast instrumentaliści widzą w nich jedynie „narzędzia” do przewidywania. Nowożytna nauka mogła narodzić się w wyniku połączenia wiedzy światłych uczonych, którzy znali dzieła greckich klasyków i filozoficzne „obrazy świata”, ale nie mieli pojęcia o praktycznym rzemiośle, z umiejętnościami niewykształconych, ale wyszkolonych technicznie rzemieślników, którzy byli wyposażeni w odpowiednie narzędzia. Ciężkie pod względem ekonomicznym czasy renesansu połączyły zubożałych wędrownych uczonych i rzemieślników, przyczyniając się do „mariażu metafizyki i techniki” (AGASSI, 1981), czyli do powstania nauki. Pogląd, zgodnie z którym zniesienie barier klasowych doprowadziło do komunikacji pomiędzy humanistami i rzemieślnikami (ZILSEL, 2000), nazywany jest „tezą ZILSELA”. ZILSEL lokował ten proces w XVII wieku, jednak bardziej przekonujące jest datowanie go na epokę renesansu, czyli na XV wiek (ROSSI, 1970). „Człowiek renesansu”, jak LEONE BATTISTA ALBERTI (1404- 1472), twórca teorii perspektywy geometrycznej, architekt i społeczny filozof rodziny, czy LEONARDO DA VINCI (1452-1519), artysta, filozof, naukowiec i inżynier, łączył wirtuozerię techniczną w dziedzinach mechaniki i architektury ze znajomością filozoficznych i teorii naukowych. „Narzędzia” w postaci malarskiego pędzla czy dłuta rzeźbiarza były środkami do tworzenia „obrazu” w postaci renesansowego malowidła lub rzeźby. Te komponenty procesu narodzin nowożytnej nauki i techniki obecnie występują jako jedna z ulubionych metafor instrumentalizmu i realizmu, czyli dwóch różnych poglądów na relacje między nauką a rzeczywistością. Interesujące aspekty POPPEROWSKIEGO podejścia do nauki, które sprzeciwiały się zdroworozsądkowemu sposobowi myślenia, zyskały szerokie uznanie dopiero po ujawnieniu trudności pojęciowych pozytywizmu logicznego.

W latach pięćdziesiątych i sześćdziesiątych XX wieku empiryzm logiczny spotkał się ze znaczną krytyką. Przedstawiciele tego kierunku byli jednak na tyle rygorystyczni i uczciwi, że niejednokrotnie uściślali i ograniczali własne twierdzenia. Historia empiryzmu logicznego jest historią stopniowego odchodzenia od pierwotnych, prostych i prowokacyjnych tez członków Koła Wiedeńskiego. Sukcesywna redukcja empiryzmu logicznego doprowadziła do znacznego wzrostu zainteresowania alternatywnym stanowiskiem POPPERA i przysporzyła mu wielu lojalnych zwolenników.

Jednak najbardziej znaną i najbardziej wpływową teorią alternatywną była Struktura rewolucji naukowych (1962) THOMASA KUHNA (1922-1996), który spojrzał na naukę z historycznego punktu widzenia. KUHN posiadał tytuł doktora fizyki i wykładał historię nauki dla studentów kierunków humanistycznych. Czytał teksty źródłowe w oryginale. W zakłopotanie wprawiła go Fizyka ARYSTOTELESA, która współczesnemu fizykowi wydawała się kompletnym nonsensem. Pewnego popołudnia, kiedy z okna swojego pokoju przyglądał się drzewom na dziedzińcu Uniwersytetu Harwardzkiego, dostał nagłego olśnienia i uświadomił sobie, że twierdzenia ARYSTOTELESA były absolutnie sensowne w ramach struktury, która całkowicie różniła się od współczesnej.

Dla pozytywistów teorie naukowe były strukturami statycznymi. Dokonywali więc własnych, formalnych rekonstrukcji tych teorii, zamiast opisywać je w taki sposób, w jaki postrzegali je ich twórcy i ludzie im współcześni. KUHN zamierzał prezentować teorie naukowe w inny sposób, niż przedstawiano je we współczesnych podręcznikach i w formalnych rekonstrukcjach empiryzmu logicznego. Chciał mianowicie opisywać teorie w kategoriach struktur, w których rozumiano je pierwotnie. Centralne miejsce w KUHNOWSKIM opisie nauki zajmowało pojęcie paradygmatu. Paradygmat KUHNA nie jest wyłącznie jednoznacznie określoną strukturą formalną ani wyrażoną explicite teorią, lecz sposobem postrzegania świata. Paradygmaty KUHNA obejmują zatem: (a) teorie naukowe; (b) niewyrażone bezpośrednio umiejętności prowadzenia badań, których się nie zapisuje, a które nabywa się poprzez naśladowanie doświadczonego praktyka; (c) idealne wyobrażenie dobrej teorii naukowej oraz (d) koncepcje metafizyczne dotyczące istnienia podstawowych bytów. KUHN wiązał również paradygmat ze strukturą społeczności naukowej. Paradygmat łączy naukowców zajmujących się daną specjalnością, nadając określony kierunek ich teoretycznej i eksperymentalnej działalności oraz definiując dobrą naukową teorię i praktykę. W późniejszym okresie swojej działalności KUHN dokonał rozróżnienia paradygmatu rozumianego jako wzorzec (exemplar), czyli model dobrej praktyki i teorii naukowej, jak prace GALILEUSZA, NEWTONA czy EINSTEINA, i paradygmatu w rozumieniu macierzy dyscyplinarnej, czyli systemu przekonań podzielanego przez członków społeczności naukowej.

KUHNOWSKA koncepcja rozwoju paradygmatów naukowych różni się od opisów nauki, które proponowali pozytywiści czy POPPER. Zdaniem KUHNA ani indukcjonizm, ani POPPEROWSKI falsyfikacjonizm nie opisują procesu powstawania i upadku paradygmatów. Na ogół nowy paradygmat powstaje bowiem bez silnej podstawy indukcyjnej. Obalenia poszczególnych teorii można natomiast ominąć poprzez zmodyfikowanie jednej lub więcej hipotez zawartych w jej ramach. Można, na przykład, ograniczyć pierwotny zakres teorii bądź dodać do niej pomocnicze założenia. Wynika z powyższego, że żadnej teorii nie da się „obalić” w sposób rozstrzygający i ostateczny. Delikatnie zmodyfikowana wersja „obalonej” teorii może przetrwać w ramach danego paradygmatu. Logikę tej sytuacji opisuje tak zwana teza DUHEMA (zob. aneks 1.2).

Paradygmaty upadają w wyniku nagromadzenia zjawisk, które KUHN nazywa anomaliami. Anomalie nie stanowią wyraźnych przeciwieństw paradygmatów ani ich nie obalają. Naukowcy przyjmują po prostu, że anomalie najwidoczniej nie odpowiadają aktualnie obowiązującym kategoriom lub uznają je za wyjątki i ignorują. Paradygmat zostaje odrzucony tylko wówczas, gdy pojawia się nowy paradygmat i następuje zmiana wspólnoty naukowców. (W pewnym miejscu KUHN cytuje fizyka MAKSA PLANCKA, który pisał, że jest to kwestia wymierania starszego pokolenia; KUHN, 1962, s. 151).

Stanowisko KUHNA sprawiło, że powszechnie zaczęto doceniać rolę, jaką w procesie tworzenia i przyjmowania teorii naukowych odgrywają poglądy filozoficzne i ideologie społeczne. Sam KUHN nie podkreślał znaczenia filozoficznych ram teorii naukowych ani wpływu, jaki na przyjęcie nowego paradygmatu mogą mieć zewnętrzne oddziaływania społeczne, ale mimochodem sugerował fakt istnienia takich zjawisk. Jednak od momentu pojawienia się teorii KUHNA wielu filozofów, historyków i socjologów nauki próbowało odpowiedzieć na pytanie, jaką rolę w narodzinach i rozpowszechnianiu się teorii naukowych odgrywają poglądy filozoficzne, przekonania religijne oraz ideologie społeczne. Wzmocniło to również argumenty przemawiające za wpływami kultury na rozwój techniki. Skoro bowiem naukowe paradygmaty, leżące u podstaw różnych technicznych rozwiązań, zawierają elementy religijne i polityczne, to znaczy, że religia i polityka mogą wpływać na technikę, i to nie tylko w związku z uzyskaniem społecznej akceptacji, ale także w odniesieniu do samej struktury teorii naukowych wykorzystywanych w technice. Takie stanowisko, czerpiąc inspirację z teorii KUHNA, przeciwstawia się koncepcji determinizmu technicznego (zob. rozdział 6).

opr. ab/ab



« 1 »
oceń artykuł Pobieranie..

reklama

reklama

reklama