Poziom teoretyczny nauki i jej metody. teoretyczne metody poznania naukowego

W strukturze wiedzy naukowej można wyróżnić dwa poziomy: empiryczny i teoretyczny. Te dwa poziomy należy odróżnić od dwóch etapów procesu poznawczego jako całości – zmysłowego i racjonalnego. Wiedza zmysłowa jest bliska empirycznej, ale nie tożsama, wiedza racjonalna różni się od teoretycznej.

Zmysłowe i racjonalne są formami wiedzy ludzkiej w ogóle, zarówno naukowej, jak i codziennej; Wiedza empiryczna i teoretyczna jest charakterystyczna dla nauki. Wiedza empiryczna nie ogranicza się do zmysłowej; obejmuje momenty zrozumienia, zrozumienia, interpretacji danych obserwacyjnych i ukształtowania szczególnego rodzaju wiedzy – faktu naukowego. Ta ostatnia reprezentuje interakcję wiedzy zmysłowej i racjonalnej.

W wiedzy teoretycznej dominują formy wiedzy racjonalnej (pojęcia, sądy, wnioski), ale wykorzystuje się także wizualne reprezentacje modeli, takie jak idealna kula i ciało absolutnie sztywne. Teoria zawsze zawiera elementy sensoryczno-wizualne. Zatem zarówno uczucia, jak i rozum funkcjonują na obu poziomach poznania.

Różnica pomiędzy empirycznym i teoretycznym poziomem wiedzy naukowej wynika z następujących powodów (tabela 2):

Poziom odzwierciedlenia rzeczywistości,

Charakter przedmiotu badań,

Stosowane metody badawcze,

Formy wiedzy

Język oznacza.

Tabela 2

Różnica pomiędzy empirycznym i teoretycznym poziomem wiedzy

Poziomy wiedzy naukowej Poziom refleksji Przedmiot badań Metody poznania naukowego Formy wiedzy naukowej Język
Empiryczny Zjawisko Obiekt empiryczny Obserwacja, porównanie, pomiar, eksperyment Fakt naukowy Naturalny
Przemiana - - Uogólnianie, abstrakcja, analiza, synteza, indukcja, dedukcja Problem naukowy, hipoteza naukowa, prawo empiryczne -
Teoretyczny Istota Teoretyczny obiekt idealny Idealizacja, formalizacja, przejście od abstrakcji do konkretu, aksjomatyczny, eksperyment myślowy Teoria naukowa Matematyczny

Badania empiryczne i teoretyczne mają na celu zrozumienie tej samej obiektywnej rzeczywistości, jednak jej wizja i odzwierciedlenie w wiedzy następuje na różne sposoby. Badania empiryczne zasadniczo skupiają się na badaniu powiązań zewnętrznych i aspektów obiektów, zjawisk i zależności między nimi. W wyniku przeprowadzonych badań wyjaśnione zostały zależności empiryczne. Są one wynikiem indukcyjnego uogólnienia doświadczenia i reprezentują probabilistyczną wiedzę prawdziwą. Jest to na przykład prawo Boyle'a-Mariotte'a, które opisuje zależność pomiędzy ciśnieniem i objętością gazu: РV=const, gdzie Р to ciśnienie gazu, V to jego objętość. Początkowo odkrył to R. Boyle jako indukcyjne uogólnienie danych eksperymentalnych, gdy w eksperymencie odkrył zależność pomiędzy objętością gazu sprężonego pod ciśnieniem a wielkością tego ciśnienia.



Na teoretycznym poziomie poznania identyfikowane są wewnętrzne, istotne powiązania przedmiotu, które są utrwalone w prawach. Niezależnie od tego, ile eksperymentów przeprowadzimy i uogólnimy ich dane, proste uogólnienie indukcyjne nie prowadzi do wiedzy teoretycznej. Teorii nie buduje się poprzez indukcyjne uogólnianie faktów. Einstein uznał ten wniosek za jedną z ważnych lekcji epistemologicznych w rozwoju fizyki w XX wieku. Prawo teoretyczne jest zawsze rzetelną wiedzą.

Badania empiryczne opierają się na bezpośredniej, praktycznej interakcji pomiędzy badaczem a badanym przedmiotem. W tej interakcji poznaje się naturę obiektów, ich właściwości i cechy. Prawdziwość wiedzy empirycznej weryfikowana jest poprzez bezpośrednie odwołanie się do doświadczenia, do praktyki. Jednocześnie należy odróżnić przedmioty wiedzy empirycznej od obiektów rzeczywistości, które posiadają nieskończoną liczbę cech. Obiekty empiryczne to abstrakcje posiadające ustalony i ograniczony zestaw cech.

W badaniach teoretycznych brakuje bezpośredniej, praktycznej interakcji z obiektami. Bada się je tylko pośrednio, w eksperymencie myślowym, ale nie w prawdziwym. Badane tutaj teoretyczne obiekty idealne nazywane są obiektami wyidealizowanymi, obiektami abstrakcyjnymi lub konstruktami. Ich przykładami są punkt materialny, produkt idealny, ciało absolutnie stałe, gaz doskonały itp. Na przykład punkt materialny definiuje się jako ciało bez rozmiaru, ale skupiające w sobie całą masę ciała. W przyrodzie nie ma takich ciał; są one konstruowane poprzez myślenie w celu zidentyfikowania istotnych aspektów badanego obiektu. Weryfikacja wiedzy teoretycznej poprzez odwoływanie się do doświadczenia jest niemożliwa, dlatego wiąże się ją z praktyką poprzez interpretację empiryczną.

Poziomy wiedzy naukowej różnią się także funkcją: na poziomie empirycznym mamy do czynienia z opisem rzeczywistości, na poziomie teoretycznym – z wyjaśnianiem i przewidywaniem.

Poziom empiryczny i teoretyczny różnią się metodami i formami wykorzystywanej wiedzy. Badanie obiektów empirycznych odbywa się poprzez obserwację, porównanie, pomiar i eksperyment. Środkiem badań empirycznych są instrumenty, instalacje i inne środki rzeczywistej obserwacji i eksperymentu.

Na poziomie teoretycznym nie ma środków materialnej, praktycznej interakcji z badanym przedmiotem. Stosowane są tu metody specjalne: idealizacja, formalizacja, eksperyment myślowy, aksjomatyczny, przejście od abstrakcji do konkretu.

Wyniki badań empirycznych wyrażane są w języku naturalnym z dodatkiem specjalnych pojęć w postaci faktów naukowych. Rejestrują obiektywne i rzetelne informacje o badanych obiektach.

Wyniki badań teoretycznych wyrażają się w formie prawa i teorii. W tym celu tworzone są specjalne systemy językowe, w których formalizuje się i matematyzuje pojęcia nauki.

Specyfiką wiedzy teoretycznej jest jej refleksyjność, skupienie na sobie, badanie samego procesu poznania, jego metod, form i aparatu pojęciowego. W wiedzy empirycznej tego rodzaju badania z reguły nie są przeprowadzane.

W rzeczywistym poznaniu rzeczywistości wiedza empiryczna i teoretyczna zawsze oddziałują na siebie jako dwa przeciwieństwa. Dane doświadczenia, powstające niezależnie od teorii, prędzej czy później zostają objęte teorią i stają się wiedzą, wynikającymi z niej wnioskami.

Z drugiej strony teorie naukowe, powstałe na ich własnych, specjalnych podstawach teoretycznych, są konstruowane stosunkowo niezależnie, bez ścisłej i jednoznacznej zależności od wiedzy empirycznej, ale podlegają im, ostatecznie stanowiąc uogólnienie danych eksperymentalnych.

Naruszenie jedności wiedzy empirycznej i teoretycznej, absolutyzacja któregokolwiek z tych poziomów prowadzi do błędnych jednostronnych wniosków - empiryzmu lub teoretyzowania scholastycznego. Przykładami tych ostatnich są koncepcja budowy komunizmu w ZSRR w 1980 r., teoria rozwiniętego socjalizmu i antygenetyczna doktryna Łysenki. Empiryzm absolutyzuje rolę faktów i nie docenia roli myślenia, zaprzecza jego aktywnej roli i względnej niezależności. Jedynym źródłem wiedzy jest doświadczenie, wiedza zmysłowa.

Metody poznania naukowego

Rozważmy istotę ogólnonaukowych metod poznania. Metody te powstają w łonie jednej nauki, a następnie są wykorzystywane w szeregu innych. Metody takie obejmują metody matematyczne, eksperymenty i modelowanie. Ogólne metody naukowe dzielą się na te stosowane na poziomie wiedzy empirycznej i na poziomie teoretycznym. Metody badań empirycznych obejmują obserwację, porównanie, pomiar i eksperyment.

Obserwacja- systematyczne, celowe postrzeganie zjawisk rzeczywistości, podczas którego zdobywamy wiedzę o zewnętrznych aspektach, właściwościach i ich związkach. Obserwacja jest aktywnym procesem poznawczym, opierającym się przede wszystkim na pracy zmysłów człowieka i jego obiektywnej aktywności materialnej. Nie oznacza to oczywiście, że ludzkie myślenie jest wyłączone z tego procesu. Obserwator świadomie poszukuje obiektów, kierując się pewną ideą, hipotezą lub wcześniejszym doświadczeniem. Wyniki obserwacji zawsze wymagają pewnej interpretacji w świetle istniejących zasad teoretycznych. Interpretacja danych obserwacyjnych pozwala naukowcowi oddzielić fakty istotne od nieistotnych, dostrzec to, co niespecjalista mógłby zignorować. Dlatego też w dzisiejszych czasach w nauce rzadko zdarza się, aby odkryć dokonywali osoby niebędące specjalistami.

Einstein w rozmowie z Heisenbergiem zauważył, że to, czy dane zjawisko da się zaobserwować, czy nie, zależy od teorii. To teoria musi ustalić, co można zaobserwować, a czego nie.

Postęp obserwacji jako metody wiedzy naukowej jest nierozerwalnie związany z postępem narzędzi obserwacyjnych (np. teleskopu, mikroskopu, spektroskopu, radaru). Urządzenia nie tylko wzmacniają siłę zmysłów, ale także dają nam niejako dodatkowe narządy percepcji. W ten sposób urządzenia pozwalają „zobaczyć” pole elektryczne.

Aby nadzór był skuteczny, musi spełniać następujące wymagania:

Intencjonalność lub celowość

Planowość,

Działalność,

Systematyczność.

Obserwacja może mieć charakter bezpośredni, gdy obiekt oddziałuje na zmysły badacza, oraz pośredni, gdy badany posługuje się środkami i urządzeniami technicznymi. W tym drugim przypadku naukowcy wyciągają wnioski na temat badanych obiektów poprzez postrzeganie wyników interakcji obiektów nieobserwowalnych z obiektami obserwowanymi. Wniosek taki opiera się na pewnej teorii, która ustanawia pewną relację między obiektami obserwowalnymi i nieobserwowalnymi.

Niezbędnym aspektem obserwacji jest opis. Reprezentuje rejestrację wyników obserwacji za pomocą pojęć, znaków, diagramów i wykresów. Główne wymagania dotyczące opisu naukowego mają na celu zapewnienie, aby był on jak najbardziej kompletny, dokładny i obiektywny. Opis musi dawać rzetelny i adekwatny obraz samego obiektu oraz dokładnie odzwierciedlać badane zjawisko. Ważne jest, aby pojęcia użyte w opisie miały jasne i jednoznaczne znaczenie. Opis dzieli się na dwa typy: jakościowy i ilościowy. Opis jakościowy polega na ustaleniu właściwości badanego obiektu; dostarcza on najbardziej ogólnej wiedzy na jego temat. Opis ilościowy polega na wykorzystaniu matematyki i numerycznym opisie właściwości, aspektów i powiązań badanego obiektu.

W badaniach naukowych obserwacja pełni dwie główne funkcje: dostarczanie informacji empirycznych o przedmiocie oraz sprawdzanie hipotez i teorii nauki. Często obserwacja może również odgrywać ważną rolę heurystyczną, przyczyniając się do rozwoju nowych pomysłów.

Porównanie- to ustalanie podobieństw i różnic między przedmiotami i zjawiskami rzeczywistości. W wyniku porównania ustala się to, co jest wspólne dla kilku przedmiotów, a to prowadzi do znajomości prawa. Porównywać należy tylko te przedmioty, pomiędzy którymi może istnieć obiektywna wspólność. Ponadto porównań należy dokonywać w oparciu o najważniejsze, istotne cechy. Porównanie jest podstawą wnioskowania przez analogię, która odgrywa dużą rolę: właściwości znanych nam zjawisk można rozszerzyć na nieznane zjawiska, które mają ze sobą coś wspólnego.

Porównanie to nie tylko elementarna operacja stosowana w określonej dziedzinie wiedzy. W niektórych naukach porównanie osiągnęło poziom metody fundamentalnej. Na przykład anatomia porównawcza, embriologia porównawcza. Wskazuje to na coraz większą rolę porównania w procesie poznania naukowego.

Pomiar Historycznie rzecz biorąc, jako metoda rozwinęła się z operacji porównania, jednak w przeciwieństwie do niej jest potężniejszym i uniwersalnym narzędziem poznawczym.

Pomiar to procedura służąca do określenia wartości liczbowej określonej wielkości poprzez porównanie z wartością przyjętą jako jednostka miary. Aby dokonać pomiaru niezbędny jest przedmiot pomiaru, jednostka miary, urządzenie pomiarowe, konkretna metoda pomiaru oraz obserwator.

Pomiary mogą być bezpośrednie lub pośrednie. W przypadku pomiaru bezpośredniego wynik uzyskuje się bezpośrednio z samego procesu. Przy pomiarze pośrednim żądaną wielkość wyznacza się matematycznie na podstawie znajomości innych wielkości uzyskanych w wyniku pomiaru bezpośredniego. Na przykład określenie masy gwiazd, pomiary w mikrokosmosie. Pomiary pozwalają nam znaleźć i sformułować prawa empiryczne, a w niektórych przypadkach służą jako źródło do formułowania teorii naukowych. W szczególności pomiary mas atomowych pierwiastków były jednym z warunków stworzenia układu okresowego przez D.I. Mendelejewa, czyli teorii właściwości pierwiastków chemicznych. Słynne pomiary prędkości światła dokonane przez Michelsona doprowadziły później do radykalnego obalenia ustalonych koncepcji fizyki.

Najważniejszym wskaźnikiem jakości pomiaru i jego wartości naukowej jest dokładność. To drugie zależy od jakości i pracowitości naukowca, od stosowanych przez niego metod, ale przede wszystkim od dostępnych przyrządów pomiarowych. Dlatego głównymi sposobami zwiększenia dokładności pomiaru są:

Poprawa jakości działania przyrządów pomiarowych
w oparciu o pewne ustalone zasady,

Tworzenie urządzeń działających w oparciu o nowe zasady.
Pomiar jest jednym z najważniejszych warunków stosowania metod matematycznych w nauce.

Najczęściej pomiar jest metodą elementarną, stanowiącą integralną część eksperymentu.

Eksperyment– najważniejsza i złożona metoda poznania empirycznego. Przez eksperyment rozumie się metodę badania obiektu, w ramach której badacz aktywnie na niego oddziałuje, tworząc sztuczne warunki niezbędne do rozpoznania odpowiednich właściwości danego obiektu.

Eksperyment zakłada wykorzystanie obserwacji, porównania i pomiaru jako bardziej elementarnych metod badawczych. Główną cechą eksperymentu jest ingerencja eksperymentatora w procesy naturalne, co determinuje aktywny charakter tej metody poznania.

Jakie korzyści wynikają ze specyfiki eksperymentu w porównaniu z obserwacją?

Podczas eksperymentu możliwe staje się zbadanie tego
zjawiska w „czystej postaci”, czyli wykluczone są różne czynniki uboczne,
przesłaniając istotę głównego procesu.

Eksperyment pozwala badać właściwości obiektów rzeczywistości w ekstremalnych warunkach (w ultraniskich lub ultrawysokich
temperaturach, pod wysokim ciśnieniem). Może to prowadzić do nieoczekiwanych efektów, w wyniku których odkrywane są nowe właściwości obiektów. Metodę tę wykorzystano na przykład do odkrycia właściwości nadciekłości i
nadprzewodnictwo.

Najważniejszą zaletą eksperymentu jest jego powtarzalność, a jego warunki można systematycznie zmieniać.

Klasyfikacja eksperymentów odbywa się na różnych podstawach.

W zależności od celów można wyróżnić kilka rodzajów eksperymentów:

- badania- przeprowadzane w celu wykrycia, że ​​obiekt nie posiada
znane wcześniej właściwości (klasycznym przykładem są eksperymenty Rutherforda na

rozpraszanie cząstek a, w wyniku czego planetarna
struktura atomowa);

- testuj– przeprowadzane w celu sprawdzenia niektórych twierdzeń naukowych (przykładem eksperymentu weryfikacyjnego byłoby sprawdzenie hipotezy o istnieniu planety Neptun);

- zmierzenie– przeprowadzane w celu uzyskania dokładnych wartości niektórych właściwości obiektów (np. doświadczalne topienie metali, stopów; eksperymenty mające na celu badanie wytrzymałości konstrukcji).

W zależności od charakteru badanego obiektu rozróżnia się eksperymenty fizyczne, chemiczne, biologiczne, psychologiczne i społeczne.

Ze względu na metodę i wyniki badań doświadczenia można podzielić na jakościowe i ilościowe. Pierwsze z nich mają raczej charakter badawczy, eksploracyjny, drugie pozwalają na dokładny pomiar wszystkich istotnych czynników wpływających na przebieg badanego procesu.

Dowolny eksperyment można przeprowadzić albo bezpośrednio na obiekcie zainteresowania, albo z jego substytutem – modelem. W związku z tym zdarzają się eksperymenty naturalny i modelowy. Modele stosuje się w przypadkach, gdy eksperymentowanie jest niemożliwe lub niepraktyczne.

Eksperyment był najszerzej stosowany w naukach przyrodniczych. Współczesna nauka rozpoczęła się od eksperymentów G. Galileo. Jednak obecnie następuje coraz większy rozwój w badaniu procesów społecznych. To rozprzestrzenianie się eksperymentu na coraz większą liczbę dziedzin wiedzy naukowej wskazuje na rosnące znaczenie tej metody badawczej. Za jego pomocą rozwiązywane są problemy uzyskania wartości właściwości niektórych obiektów, hipotezy i teorie są testowane eksperymentalnie, a heurystyczne znaczenie eksperymentu w znajdowaniu nowych aspektów badanych zjawisk jest również ogromne. Efektywność eksperymentu wzrasta także dzięki postępowi technologii doświadczalnej. Zauważono inną osobliwość: im więcej eksperymentów wykorzystuje się w nauce, tym szybciej się ona rozwija. To nie przypadek, że podręczniki do nauk eksperymentalnych starzeją się znacznie szybciej niż podręczniki do nauk opisowych.

Nauka nie ogranicza się do empirycznego poziomu badań, idzie dalej, odkrywając istotne powiązania i zależności w badanym przedmiocie, które kształtując się w znanym człowiekowi prawie, nabierają określonej formy teoretycznej.

Na teoretycznym poziomie poznania stosuje się inne środki i metody poznania. Do metod badań teoretycznych należą: idealizacja, formalizacja, metoda wznoszenia się od abstrakcji do konkretu, aksjomatyka, eksperyment myślowy.

Metoda przejścia od abstrakcji do konkretu. Pojęcie „abstrakcyjny” używane jest głównie do scharakteryzowania wiedzy ludzkiej. Abstrakt rozumiany jest jako wiedza jednostronna, niepełna, w której uwydatnione zostają jedynie te właściwości, które interesują badacza.

Pojęcie „betonu” w filozofii może być używane w dwojakim znaczeniu: a) „konkret” – sama rzeczywistość, ujęta w całej jej różnorodności właściwości, powiązań i relacji; b) „specyficzny” – określenie wieloaspektowej, kompleksowej wiedzy o przedmiocie. Konkret w tym sensie działa jako przeciwieństwo wiedzy abstrakcyjnej, tj. wiedza, uboga w treść, jednostronna.

Na czym polega metoda wznoszenia się od abstrakcji do konkretu? Wejście od abstrakcji do konkretu jest uniwersalną formą przepływu wiedzy. Według tej metody proces poznania dzieli się na dwa stosunkowo niezależne etapy. W pierwszym etapie następuje przejście od konkretu zmysłowego do jego definicji abstrakcyjnych. Podczas tej operacji sam przedmiot zdaje się „wyparowywać”, zamieniając się w utrwalony myśleniem zbiór abstrakcji i jednostronnych definicji.

Drugi etap procesu poznania to właściwie wzniesienie się od abstrakcji do konkretu. Jej istotą jest to, że myśl przechodzi od abstrakcyjnych definicji przedmiotu do wszechstronnej, wieloaspektowej wiedzy o przedmiocie, do konkretu w poznaniu. Należy zauważyć, że są to dwie strony tego samego procesu, które mają jedynie względną niezależność.

Idealizacja– mentalne konstruowanie obiektów, które w rzeczywistości nie istnieją. Do takich idealnych obiektów zalicza się na przykład ciało całkowicie czarne, punkt materialny i punktowy ładunek elektryczny. Proces konstruowania idealnego przedmiotu z konieczności zakłada abstrakcyjną aktywność świadomości. Mówiąc więc o ciele absolutnie czarnym, abstrahujemy od faktu, że wszystkie ciała rzeczywiste mają zdolność odbijania padającego na nie światła. Inne operacje umysłowe mają również ogromne znaczenie w tworzeniu idealnych obiektów. Wynika to z faktu, że tworząc idealne przedmioty musimy osiągnąć następujące cele:

Pozbawić rzeczywiste przedmioty niektórych ich nieodłącznych właściwości;
- psychicznie obdarzyć te przedmioty pewnymi nierealnymi właściwościami. Wymaga to mentalnego przejścia do przypadku granicznego w rozwoju dowolnej własności i odrzucenia niektórych realnych właściwości obiektów.

Obiekty idealne odgrywają w nauce dużą rolę, umożliwiają znaczne uproszczenie złożonych układów, co pozwala na zastosowanie do nich matematycznych metod badawczych. Co więcej, nauka zna wiele przykładów, kiedy badanie obiektów idealnych doprowadziło do wybitnych odkryć (odkrycie zasady bezwładności przez Galileusza). Wszelka idealizacja jest uprawniona tylko w pewnych granicach; służy ona naukowemu rozwiązaniu tylko niektórych problemów. W przeciwnym razie stosowanie idealizacji może prowadzić do pewnych błędnych przekonań. Tylko na tej podstawie można prawidłowo ocenić rolę idealizacji w poznaniu.

Formalizowanie– metoda badania szerokiej gamy obiektów poprzez ukazanie ich zawartości i struktury w formie symbolicznej oraz badanie logicznej struktury teorii. Zaletą formalizacji jest:

Zapewnienie pełnego przeglądu określonego obszaru problemów, uogólnione podejście do ich rozwiązywania. Tworzony jest ogólny algorytm rozwiązywania problemów, na przykład obliczanie obszarów różnych figur za pomocą rachunku całkowego;

Stosowanie specjalnych symboli, których wprowadzenie zapewnia zwięzłość i przejrzystość zapisu wiedzy;

Nadawanie określonych znaczeń poszczególnym symbolom lub ich systemom, co pozwala uniknąć charakterystycznej dla języków naturalnych polisemii terminów. Dlatego podczas pracy ze sformalizowanymi systemami rozumowanie wyróżnia się jasnością i rygorystycznością, a wnioski mają charakter demonstracyjny;

Umiejętność tworzenia ikonicznych modeli obiektów i zastąpienia badania rzeczywistych rzeczy i procesów badaniem tych modeli. Osiąga się to uproszczenie zadań poznawczych. Języki sztuczne mają stosunkowo większą niezależność, niezależność formy znaku od treści, dlatego w procesie formalizacji możliwe jest chwilowe odwrócenie uwagi od treści modelu i zgłębienie jedynie strony formalnej. Takie odwrócenie uwagi od treści może prowadzić do paradoksalnych, ale naprawdę genialnych odkryć. Na przykład za pomocą formalizacji istnienie pozytonu przewidział P. Dirac.

Aksjomatyzacja znalazła szerokie zastosowanie w matematyce i naukach matematycznych.

Przez aksjomatyczny sposób konstruowania teorii rozumie się taką ich organizację, w której wprowadza się pewną liczbę twierdzeń bez dowodu, a całą resztę wyprowadza się z nich według pewnych reguł logicznych. Twierdzenia przyjęte bez dowodu nazywane są aksjomatami lub postulatami. Metodę tę po raz pierwszy zastosował Euklides do konstrukcji geometrii elementarnej, następnie zaczęto ją stosować w różnych naukach.

Na aksjomatycznie skonstruowany system wiedzy nakłada się szereg wymagań. Zgodnie z wymogiem spójności w systemie aksjomatów, żadne zdanie i jego zaprzeczenie nie powinny być jednocześnie wyprowadzalne. Zgodnie z wymogiem zupełności każde twierdzenie, które daje się sformułować w danym systemie aksjomatów, można w nim udowodnić lub obalić. Zgodnie z wymogiem niezależności aksjomatów, żadnego z nich nie należy wyprowadzać z innych aksjomatów.

Jakie są zalety metody aksjomatycznej? Przede wszystkim aksjomatyzacja nauki wymaga precyzyjnego zdefiniowania używanych pojęć i trzymania się rygoru wniosków. W wiedzy empirycznej jedno i drugie nie zostało osiągnięte, przez co zastosowanie metody aksjomatycznej wymaga postępu tej dziedziny wiedzy w tym zakresie. Ponadto aksjomatyzacja porządkuje wiedzę, wyklucza z niej niepotrzebne elementy oraz eliminuje niejasności i sprzeczności. Innymi słowy, aksjomatyzacja racjonalizuje organizację wiedzy naukowej.

Obecnie podejmuje się próby zastosowania tej metody w naukach niematematycznych: biologii, językoznawstwie, geologii.

Eksperyment myślowy odbywa się nie za pomocą przedmiotów materialnych, ale za pomocą idealnych kopii. Eksperyment myślowy jest idealną formą prawdziwego eksperymentu i może prowadzić do ważnych odkryć. Był to eksperyment myślowy, który pozwolił Galileuszowi odkryć fizyczną zasadę bezwładności, która stanowiła podstawę całej mechaniki klasycznej. Zasada ta nie mogła zostać odkryta w żadnym eksperymencie z rzeczywistymi obiektami, w rzeczywistym środowisku.

Metody stosowane zarówno na poziomie empirycznym, jak i teoretycznym badań obejmują uogólnianie, abstrakcję, analogię, analizę i syntezę, indukcję i dedukcję, modelowanie, metody historyczne i logiczne oraz metody matematyczne.

Abstrakcja ma najbardziej uniwersalny charakter w aktywności umysłowej. Istota tej metody polega na mentalnej abstrakcji od nieistotnych właściwości, powiązań i jednoczesnej identyfikacji jednego lub kilku aspektów badanego przedmiotu, które interesują badacza. Proces abstrakcji ma charakter dwuetapowy: wyodrębnienie tego, co istotne, identyfikacja tego, co najważniejsze; urzeczywistnienie możliwości abstrakcji, czyli faktycznego aktu abstrakcji lub rozproszenia.

Efektem abstrakcji jest powstawanie różnego rodzaju abstrakcji – zarówno pojedynczych pojęć, jak i ich systemów. Należy zauważyć, że metoda ta stanowi integralną część wszystkich innych metod o bardziej złożonej strukturze.

Kiedy abstrahujemy jakąś właściwość lub związek wielu obiektów, tworzymy w ten sposób podstawę do ich zjednoczenia w jedną klasę. W odniesieniu do indywidualnych cech każdego z obiektów wchodzących w skład danej klasy, cecha je łącząca pełni rolę wspólną.

Uogólnienie– metoda, metoda poznania, w wyniku której ustalane są ogólne właściwości i cechy przedmiotów. Operacja uogólnienia polega na przejściu od konkretnego lub mniej ogólnego pojęcia i sądu do bardziej ogólnego pojęcia lub sądu. Na przykład pojęcia takie jak „sosna”, „modrzew”, „świerk” są pierwotnymi uogólnieniami, z których można przejść do bardziej ogólnej koncepcji „drzewa iglastego”. Następnie możesz przejść do pojęć takich jak „drzewo”, „roślina”, „żywy organizm”.

Analiza– metoda poznania, której treścią jest zespół technik podziału obiektu na części składowe w celu ich wszechstronnego zbadania.

Synteza– metoda poznania, której treścią jest zespół technik łączenia poszczególnych części przedmiotu w jedną całość.

Metody te uzupełniają się, warunkują i towarzyszą sobie. Aby możliwa była analiza rzeczy, należy ją zarejestrować jako całość, co wymaga jej syntetycznego postrzegania. I odwrotnie, to drugie zakłada późniejsze rozczłonkowanie.

Analiza i synteza to najbardziej elementarne metody poznania, leżące u podstaw ludzkiego myślenia. Jednocześnie są to techniki najbardziej uniwersalne, charakterystyczne dla wszystkich jej poziomów i form.

Możliwość analizy przedmiotu jest w zasadzie nieograniczona, co logicznie wynika ze stanowiska niewyczerpalności materii. Zawsze jednak dokonuje się wyboru elementarnych elementów obiektu, zdeterminowanego celem badań.

Analiza i synteza są ściśle powiązane z innymi metodami poznania: eksperymentem, modelowaniem, indukcją, dedukcją.

Indukcja i dedukcja. Rozdzielenie tych metod opiera się na wyróżnieniu dwóch rodzajów wnioskowania: dedukcyjnego i indukcyjnego. W rozumowaniu dedukcyjnym wniosek na temat pewnego elementu zbioru wyciąga się na podstawie znajomości ogólnych właściwości całego zbioru.

Wszystkie ryby oddychają skrzelami.

Okoń - ryba

__________________________

W związku z tym okonie oddychają skrzelami.

Jedna z przesłanek dedukcji jest z konieczności twierdzeniem ogólnym. Następuje tutaj przejście myśli od ogółu do szczegółu. Ten ruch myślenia jest bardzo często wykorzystywany w badaniach naukowych. W ten sposób Maxwell na podstawie kilku równań wyrażających najogólniejsze prawa elektrodynamiki konsekwentnie opracował kompletną teorię pola elektromagnetycznego.

Szczególnie duże znaczenie poznawcze dedukcji ujawnia się w przypadku, gdy za przesłankę ogólną pełni się nowa hipoteza naukowa. W tym przypadku dedukcja jest punktem wyjścia do wyłonienia się nowego systemu teoretycznego. Powstała w ten sposób wiedza determinuje dalszy przebieg badań empirycznych i wyznacza kierunek konstruowaniu nowych uogólnień indukcyjnych.

Zatem treścią dedukcji jako metody poznania jest wykorzystanie ogólnych zasad nauki w badaniu konkretnych zjawisk.

Indukcja to wnioskowanie od szczegółu do ogółu, gdy na podstawie wiedzy o części przedmiotów danej klasy wyciąga się wniosek na temat klasy jako całości. Indukcja jako metoda poznania to zespół operacji poznawczych, w wyniku których następuje przepływ myśli od przepisów mniej ogólnych do przepisów bardziej ogólnych. Zatem indukcja i dedukcja są dokładnie przeciwnymi kierunkami toku myślenia. Bezpośrednią podstawą wnioskowania indukcyjnego jest powtarzalność zjawisk rzeczywistości. Znajdując podobne cechy w wielu obiektach danej klasy, dochodzimy do wniosku, że cechy te są nieodłączne dla wszystkich obiektów tej klasy.

Wyróżnia się następujące rodzaje indukcji:

-pełna indukcja, w którym ogólny wniosek na temat klasy obiektów jest wyciągany na podstawie badania wszystkich obiektów w tej klasie. Daje całkowitą indukcję
wiarygodne wnioski, które można wykorzystać jako dowód;

-niepełna indukcja w którym ogólny wniosek wynika z przesłanek,
nie obejmujący wszystkich przedmiotów zajęć. Istnieją trzy rodzaje niekompletności
wprowadzenie:

Indukcja poprzez proste wyliczenie lub indukcja popularna, w której ogólny wniosek o klasie przedmiotów wyciąga się na podstawie tego, że wśród zaobserwowanych faktów nie ma ani jednego, który byłby sprzeczny z uogólnieniem;

Indukcja poprzez selekcję faktów odbywa się poprzez wybranie ich z ogólnej masy według określonej zasady, zmniejszającej prawdopodobieństwo przypadkowych zbiegów okoliczności;

Indukcja naukowa, w której następuje ogólny wniosek na temat wszystkich przedmiotów danej klasy
dokonuje się na podstawie znajomości niezbędnych znaków lub związku przyczynowego
połączenia niektórych obiektów klas. Indukcja naukowa może zapewnić nie tylko
prawdopodobne, ale i wiarygodne wnioski.

Związki przyczynowe można ustalić za pomocą naukowych metod indukcyjnych. Wyróżnia się następujące kanony indukcji (reguły badań indukcyjnych Bacona-Milla):

Metoda pojedynczego podobieństwa: jeśli dwa lub więcej przypadków badanego zjawiska mają tylko jedną wspólną okoliczność i wszystkie inne
okoliczności są różne, to jest to jedyna podobna okoliczność i
istnieje przyczyna tego zjawiska;

Metoda pojedynczej różnicy: jeśli przypadki, w których występuje zjawisko
występuje lub nie występuje, różni się tylko jedną okolicznością poprzedzającą, a wszystkie pozostałe okoliczności są identyczne, to ta okoliczność jest przyczyną tego zjawiska;

Połączona metoda podobieństw i różnic, czyli
połączenie dwóch pierwszych metod;

Metoda towarzyszących zmian: jeśli zmiana w jednej okoliczności zawsze powoduje zmianę w innej, to pierwsza okoliczność
istnieje powód drugi;

Metoda resztkowa: jeśli znana jest przyczyna badanego zjawiska
niezbędne do tego okoliczności nie służą, z wyjątkiem jednej, wówczas ta jedna okoliczność jest przyczyną tego zjawiska.

Atrakcyjność indukcji polega na jej ścisłym powiązaniu z faktami i praktyką. Odgrywa dużą rolę w badaniach naukowych - w stawianiu hipotez, w odkrywaniu praw empirycznych, w procesie wprowadzania nowych koncepcji do nauki. Zwracając uwagę na rolę indukcji w nauce, Louis de Broglie napisał: „Indukcja, o ile stara się ominąć już utarte ścieżki, o ile nieubłaganie próbuje przesunąć istniejące już granice myślenia, jest prawdziwym źródłem prawdziwie naukowego postępu” 1.

Indukcja nie może jednak prowadzić do sądów uniwersalnych, w których wyrażane są wzorce. Uogólnienia indukcyjne nie mogą dokonać przejścia od empirii do teorii. Dlatego absolutyzacja roli indukcji, jak to zrobił Bacon, ze szkodą dla dedukcji, byłaby błędna. F. Engels pisał, że dedukcja i indukcja są ze sobą powiązane w taki sam niezbędny sposób, jak analiza i synteza. Tylko we wzajemnym powiązaniu każdy z nich może w pełni wykazać swoje zalety. Dedukcja jest główną metodą w matematyce; w naukach rozwiniętych teoretycznie, w naukach empirycznych dominują wnioski indukcyjne.

Metody historyczne i logiczne są ze sobą ściśle powiązane. Wykorzystuje się je w badaniu złożonych rozwijających się obiektów. Istotą metody historycznej jest to, że historia rozwoju badanego obiektu jest odtwarzana w całej jej wszechstronności, biorąc pod uwagę wszystkie prawa i przypadki. Służy przede wszystkim do badania historii ludzkości, ale odgrywa również ważną rolę w zrozumieniu rozwoju przyrody nieożywionej i żywej.

Historię obiektu rekonstruuje się logicznie w oparciu o badanie pewnych śladów przeszłości, pozostałości minionych epok, odciśniętych w formacjach materialnych (naturalnych lub wytworzonych przez człowieka). Badania historyczne charakteryzują się ciągłością chronologiczną.

________________

1 Broglie L. Ścieżkami nauki. M., s. 178.

wnikliwość rozpatrzenia materiału, analiza etapów rozwoju obiektów badawczych. Metodą historyczną prześledzi się całą ewolucję obiektu od jego powstania do stanu obecnego, bada się powiązania genetyczne rozwijającego się obiektu, wyjaśnia siły napędowe i warunki rozwoju obiektu.

Treść metody historycznej ujawnia struktura badania: 1) badanie „śladów przeszłości” jako rezultatów procesów historycznych; 2) porównanie ich z wynikami nowoczesnych procesów; 3) rekonstrukcja wydarzeń z przeszłości w ich relacjach przestrzenno-czasowych w oparciu o interpretację „śladów przeszłości” przy pomocy wiedzy o procesach współczesnych; 4) określenie głównych etapów rozwoju i przyczyn przejścia z jednego etapu rozwoju do drugiego.

Logiczną metodą badań jest reprodukcja w myśleniu rozwijającego się obiektu w postaci teorii historycznej. W badaniach logicznych abstrahuje się od wszelkich wypadków historycznych, odtwarzając historię w formie ogólnej, wolnej od wszystkiego, co nieistotne. Zasada jedności tego, co historyczne i logiczne, wymaga, aby logika myślenia podążała za procesem historycznym. Nie oznacza to, że myśl jest bierna, wręcz przeciwnie, jej aktywność polega na wyodrębnieniu z historii tego, co istotne, samej istoty procesu historycznego. Można powiedzieć, że historyczne i logiczne metody poznania są nie tylko różne, ale w dużej mierze pokrywają się. Nieprzypadkowo F. Engels zauważył, że metoda logiczna jest w istocie tą samą metodą historyczną, tyle że wolną od formy historycznej. Uzupełniają się nawzajem.

Poziom teoretyczny to wyższy poziom wiedzy naukowej. „Poziom wiedzy teoretycznej ma na celu utworzenie praw teoretycznych spełniających wymogi powszechności i konieczności, tj. działać wszędzie i zawsze.” Wynikiem wiedzy teoretycznej są hipotezy, teorie, prawa.

Wiedza teoretyczna odzwierciedla zjawiska i procesy w oparciu o ich uniwersalne, wewnętrzne powiązania i wzorce, rozumiane poprzez racjonalne przetwarzanie danych wiedzy empirycznej.

Zadanie: osiągnięcie prawdy obiektywnej w całej jej specyfice i kompletności treści.

Charakterystyczne cechy:

  • · przewaga momentu racjonalnego – koncepcje, teorie, prawa i inne formy myślenia
  • · poznanie zmysłowe jest aspektem podrzędnym
  • · skupienie się na sobie (badanie samego procesu poznania, jego form, technik, aparatu pojęciowego).

Metody: pozwalają na logiczne badanie zebranych faktów, opracowywanie koncepcji i sądów oraz wyciąganie wniosków.

  • 1. Abstrakcja - abstrakcja od szeregu właściwości i relacji obiektów mniej znaczących, przy jednoczesnym uwypukleniu ważniejszych, jest to uproszczenie rzeczywistości;
  • 2. Idealizacja - proces tworzenia obiektów czysto mentalnych, wprowadzanie zmian w badanym obiekcie zgodnie z celami badania (gaz doskonały).
  • 3. Formalizacja - ukazywanie wyników myślenia w precyzyjnych pojęciach lub stwierdzeniach.
  • 4. Aksjomatyzacja - w oparciu o aksjomaty (aksjomaty Euklidesa).
  • 5. Dedukcja - przepływ wiedzy od ogółu do szczegółu, wznoszenie się od abstrakcji do konkretu.
  • 6. Hipotetyczno-dedukcyjne - wyprowadzenie (dedukcja) wniosków z hipotez, których prawdziwe znaczenie jest nieznane. Wiedza ma charakter probabilistyczny. Obejmuje związek między hipotezami a faktami.
  • 7. Analiza - rozkład całości na części składowe.
  • 8. Synteza - łączenie uzyskanych wyników analizy elementów w układ.
  • 9. Modelowanie matematyczne – system rzeczywisty zostaje zastąpiony systemem abstrakcyjnym (modelem matematycznym składającym się ze zbioru obiektów matematycznych) o tych samych zależnościach, problem staje się czysto matematyczny.
  • 10. Refleksja – działalność naukowo-badawcza, rozpatrywana w szerokim kontekście kulturowym i historycznym, obejmuje 2 poziomy – merytoryczny (działanie ma na celu zrozumienie określonego zespołu zjawisk) i refleksyjny (poznanie zwraca się przeciwko sobie)

Strukturalne elementy wiedzy teoretycznej: problem (pytanie wymagające odpowiedzi), hipoteza (założenie przyjęte na podstawie szeregu faktów i wymagające weryfikacji), teoria (najbardziej złożona i rozwinięta forma wiedzy naukowej, zapewnia całościowe wyjaśnienie zjawiska rzeczywistości). Ostatecznym celem badań jest tworzenie teorii.

Kwintesencją teorii jest prawo. Wyraża istotne, głębokie powiązania obiektu. Formułowanie praw jest jednym z głównych zadań nauki.

Pomimo wszystkich różnic, empiryczny i teoretyczny poziom wiedzy naukowej są ze sobą powiązane. Badania empiryczne, odsłaniając nowe dane poprzez eksperymenty i obserwacje, stymulują wiedzę teoretyczną (która ją uogólnia i wyjaśnia, stawia nowe, bardziej złożone zadania). Z drugiej strony wiedza teoretyczna, rozwijając i konkretyzując swoją nową treść na gruncie empirii, otwiera nowe, szersze horyzonty wiedzy empirycznej, orientuje ją i ukierunkowuje w poszukiwaniu nowych faktów oraz przyczynia się do doskonalenia jej metod i oznacza.

100 RUR bonus za pierwsze zamówienie

Wybierz rodzaj pracy Praca dyplomowa Praca kursowa Streszczenie Praca magisterska Raport z praktyki Artykuł Raport Recenzja Praca testowa Monografia Rozwiązywanie problemów Biznes plan Odpowiedzi na pytania Praca twórcza Esej Rysunek Eseje Tłumaczenie Prezentacje Pisanie na klawiaturze Inne Zwiększanie niepowtarzalności tekstu Praca magisterska Praca laboratoryjna Pomoc on-line

Poznaj cenę

Specyfika teoretycznego poziomu poznania charakteryzuje się przewagą racjonalnej strony procesu poznawczego: pojęć, sądów, wniosków, zasad, praw. Wiedza teoretyczna jest wiedzą abstrakcyjną, zapośredniczoną.

Wiedza teoretyczna odzwierciedla obiekty, zjawiska, obiekty i procesy na podstawie ich uniwersalnych wewnętrznych powiązań i wzorców. Rozumie się je poprzez racjonalne przetwarzanie danych wiedzy empirycznej.

Integralną cechą, najbardziej charakterystyczną cechą wiedzy teoretycznej jest stosowanie takich metod i technik, jak abstrakcja - abstrakcja od nieistotnych cech przedmiotu badań, idealizacja - tworzenie często po prostu obiektów mentalnych, analiza - mentalny podział badanego przedmiot na elementy, synteza – połączenie elementów uzyskanych w wyniku analizy w system, indukcja – przesunięcie wiedzy od szczegółu do ogółu, dedukcja – przesunięcie myśli od ogółu do szczegółu itp.

Jakie są elementy strukturalne wiedzy teoretycznej? Należą do nich: problem, a dokładniej sformułowanie problemu. Problem dosłownie oznacza „przeszkodę, trudność”, definiowaną jako sytuacja charakteryzująca się niewystarczającymi sposobami, środkami do osiągnięcia określonego celu, nieznajomością sposobów jego osiągnięcia. Problemu nie charakteryzuje sama przeszkoda, ale postawa naukowca wobec przeszkody.

Jeśli mówimy o rozwiązaniu problemu, to istnieje całe spektrum różnic. Rozwiązywanie problemów może mieć charakter paliatywny lub radykalny, tymczasowy lub trwały.

Hipoteza jako forma wiedzy teoretycznej zawiera założenie sformułowane na podstawie szeregu faktów, których prawdziwe znaczenie jest niepewne i wymaga dowodu. Hipoteza jest rzeczą probabilistyczną. Jako hipoteza naukowa różni się od arbitralnych przypuszczeń tym, że opiera się na faktach.

Charakter hipotez zależy w dużej mierze od przedmiotu, w odniesieniu do którego są one stawiane. W ten sposób wyróżnia się hipotezy ogólne, szczegółowe i robocze. Hipotezy ogólne stanowią uzasadnienie założeń dotyczących różnego rodzaju wzorców. Hipotezy takie stanowią podstawę do budowania podstaw wiedzy naukowej. Hipotezy szczegółowe to rozsądne założenia dotyczące pochodzenia i właściwości poszczególnych zjawisk, poszczególnych zdarzeń. Hipotezy robocze są założeniami stawianymi z reguły na pierwszych etapach badania i stanowią jego przewodni punkt odniesienia.

Wybór wiarygodnych hipotez następuje na podstawie dowodów jako formy wiedzy. Najbardziej powszechne są indukcyjne i dedukcyjne metody dowodu. Metoda indukcyjna to ciąg wniosków, których przesłanki obejmują sądy szczegółowe i są argumentami uzasadniającymi tezę, czyli z sądów szczegółowych wyprowadza się sąd ogólny, przejście od szczegółu do ogółu w myśleniu. Rozumowanie dedukcyjne staje się obecnie coraz ważniejsze.

Teoria jako forma poznania i wiedzy, najbardziej złożona i rozwinięta, zapewnia holistyczne odzwierciedlenie wzorców określonego obszaru rzeczywistości. W swojej strukturze teoria naukowa jest systemem pojęć początkowych, początkowych i podstawowych praw, z których za pomocą definicji można utworzyć wszystkie inne pojęcia, a pozostałe prawa logicznie wywodzą się z praw podstawowych. Z metodologicznego punktu widzenia abstrakcyjny, wyidealizowany przedmiot (jako odbicie badanego obiektu rzeczywistego) odgrywa ważną rolę w tworzeniu teorii. Jest to specjalna abstrakcja zawierająca znaczenie terminów teoretycznych (produkt idealny).

Ostatecznym celem badań jest tworzenie teorii. Kwintesencja teorii – prawo. Wyraża istotne, głębokie powiązania obiektu. Formułowanie praw jest jednym z głównych zadań nauki. Wiedza teoretyczna jest najlepiej odzwierciedlona w myślący(aktywny proces uogólnionego i pośredniego odzwierciedlenia rzeczywistości), i tutaj droga przechodzi od myślenia w ustalonych ramach, według modelu, do rosnącej izolacji, twórczego rozumienia badanego zjawiska.

Główne sposoby odzwierciedlania otaczającej rzeczywistości w myśleniu to koncepcja (odzwierciedla ogólne, istotne aspekty przedmiotu), osąd (odzwierciedla indywidualne cechy obiektu); wnioskowanie (logiczny łańcuch, który daje początek nowej wiedzy). Przy wszystkich różnicach, tj. itp. poziomy wiedzy naukowej połączony. E. badania identyfikujące nowe dane poprzez eksperymenty i obserwacje, stymuluje T. poznanie(co je uogólnia i wyjaśnia, stawia przed nimi nowe, bardziej złożone zadania). Z kolei tzw. wiedza, rozwijająca i konkretyzująca swoją nową treść w oparciu o empirykę, otwiera przed m.in. nowe, szersze horyzonty. wiedzy, orientuje go i ukierunkowuje w poszukiwaniu nowych faktów, przyczynia się do udoskonalenia jego metod i środków.

Istnieją dwa poziomy wiedzy: empiryczny i teoretyczny.

Empiryczny (od greepreria - doświadczenie) poziom wiedzy to wiedza uzyskana bezpośrednio z doświadczenia przy pewnym racjonalnym przetworzeniu właściwości i zależności znanego przedmiotu. Zawsze jest podstawą, podstawą teoretycznego poziomu wiedzy.

Poziom teoretyczny to wiedza uzyskana poprzez myślenie abstrakcyjne

Człowiek rozpoczyna proces poznania przedmiotu od jego opisu zewnętrznego, ustala jego indywidualne właściwości i aspekty. Następnie zagłębia się w treść przedmiotu, odsłania prawa, jakim on podlega, przystępuje do objaśniającego wyjaśnienia właściwości przedmiotu, łączy wiedzę o poszczególnych aspektach przedmiotu w jeden, holistyczny system, a powstały w ten sposób głęboka, wszechstronna, specyficzna wiedza o przedmiocie to teoria posiadająca pewną wewnętrzną strukturę logiczną.

Konieczne jest odróżnienie pojęć „zmysłowy” i „racjonalny” od pojęć „empiryczny” i „teoretyczny”. „teoretyczne” nie należą wyłącznie do sfery wiedzy naukowej, leży w sferze poza wiedzą naukową.

Wiedza empiryczna kształtuje się w procesie interakcji z przedmiotem badań, kiedy bezpośrednio na niego wpływamy, wchodzimy z nim w interakcję, przetwarzamy wyniki i wyciągamy wnioski. Ale oddzielenie się. Pole elektromagnetyczne faktów i praw fizycznych nie pozwala jeszcze na zbudowanie systemu praw. Aby zrozumieć istotę, należy przejść na teoretyczny poziom wiedzy naukowej.

Poziom wiedzy empiryczny i teoretyczny są zawsze nierozerwalnie ze sobą powiązane i wzajemnie się warunkują. Tym samym badania empiryczne, odkrywając nowe fakty, nowe dane obserwacyjne i eksperymentalne, stymulują rozwój poziomu teoretycznego oraz stawiają nowe problemy i wyzwania. Z kolei badania teoretyczne, poprzez rozważenie i sprecyzowanie treści teoretycznych nauki, otwierają nowe perspektywy. IWI wyjaśnia i przewiduje fakty, a tym samym orientuje i kieruje wiedzą empiryczną. Wiedza empiryczna jest zapośredniczona przez wiedzę teoretyczną – wiedza teoretyczna wskazuje, jakie zjawiska i zdarzenia powinny być przedmiotem badań empirycznych i w jakich warunkach należy przeprowadzić eksperyment. Na poziomie teoretycznym identyfikowane i wyznaczane są także te granice, w obrębie których prawdziwe są wyniki na poziomie empirycznym, w których wiedza empiryczna może być wykorzystana w praktyce. Na tym właśnie polega heurystyczna funkcja teoretycznego poziomu wiedzy naukowej.

Granica między poziomem empirycznym i teoretycznym jest bardzo dowolna, a ich wzajemna niezależność jest względna. To, co empiryczne, zamienia się w teoretyczne, a to, co kiedyś było teoretyczne, na innym, wyższym etapie rozwoju, staje się empirycznie dostępne. W każdej sferze wiedzy naukowej, na wszystkich poziomach, istnieje dialektyczna jedność tego, co teoretyczne i empiryczne. Wiodąca rola w tej jedności zależności od przedmiotu, warunków i istniejących, uzyskanych wyników naukowych przypada albo na empiryczny, albo na teoretyczny. Podstawą jedności poziomu empirycznego i teoretycznego wiedzy naukowej jest jedność teorii naukowej i praktyki badawczej.

50 Podstawowe metody poznania naukowego

Każdy poziom wiedzy naukowej wykorzystuje swoje własne metody. Zatem na poziomie empirycznym stosuje się takie podstawowe metody, jak obserwacja, eksperyment, opis, pomiar i modelowanie. Na poziomie teoretycznym - analiza, synteza, abstrakcja, uogólnienie, indukcja, dedukcja, idealizacja, metody historyczne i logiczne itp.

Obserwacja to systematyczne i celowe postrzeganie obiektów i zjawisk, ich właściwości i powiązań w warunkach naturalnych lub eksperymentalnych w celu zrozumienia badanego obiektu

Główne funkcje nadzoru to:

Rejestrowanie i rejestrowanie faktów;

Wstępna klasyfikacja faktów już zarejestrowanych w oparciu o pewne zasady sformułowane na podstawie istniejących teorii;

Porównanie zarejestrowanych faktów

Wraz ze skomplikowaniem wiedzy naukowej cel, plan, zasady teoretyczne i zrozumienie wyników nabierają coraz większej wagi. W rezultacie wzrasta rola myślenia teoretycznego w obserwacji

Obserwacja jest szczególnie trudna w naukach społecznych, gdzie jej wyniki w dużej mierze zależą od postaw ideowych i metodologicznych obserwatora, jego stosunku do przedmiotu

Metoda obserwacji jest metodą ograniczoną, gdyż za jej pomocą można zarejestrować jedynie pewne właściwości i powiązania obiektu, natomiast nie jest możliwe ujawnienie ich istoty, charakteru i kierunków rozwoju. Podstawą eksperymentu jest wszechstronna obserwacja obiektu.

Eksperyment to badanie dowolnych zjawisk poprzez aktywne wpływanie na nie poprzez tworzenie nowych warunków odpowiadających celom badania lub poprzez zmianę procesu w określonym kierunku

W odróżnieniu od zwykłej obserwacji, która nie wiąże się z aktywnym wpływem na obiekt, eksperyment jest aktywną ingerencją badacza w zjawiska naturalne, w przebieg badanych. Eksperyment jest rodzajem praktyki, w której praktyczne działanie organicznie łączy się z teoretyczną pracą myślową.

Znaczenie eksperymentu polega nie tylko na tym, że nauka za jego pomocą wyjaśnia zjawiska świata materialnego, ale także na tym, że nauka, opierając się na eksperymencie, bezpośrednio opanowuje określone badane zjawiska. Dlatego eksperyment jest jednym z głównych sposobów łączenia nauki z produkcją. Przecież pozwala zweryfikować poprawność wniosków i odkryć naukowych, nowych praw i faktów. Eksperyment służy jako środek badań i wynalezienia nowych urządzeń, maszyn, materiałów i procesów w produkcji przemysłowej, niezbędny etap w praktycznym testowaniu nowych odkryć naukowych i technicznych.

Eksperyment ma szerokie zastosowanie nie tylko w naukach przyrodniczych, ale także w praktyce społecznej, gdzie odgrywa ważną rolę w poznawaniu i zarządzaniu procesami społecznymi

Eksperyment ma swoje specyficzne cechy w porównaniu do innych metod:

Eksperyment pozwala na badanie obiektów w tzw. czystej postaci;

Eksperyment pozwala na badanie właściwości obiektów w ekstremalnych warunkach, co przyczynia się do głębszego wniknięcia w ich istotę;

Ważną zaletą eksperymentu jest jego powtarzalność, dzięki czemu metoda ta nabiera szczególnego znaczenia i wartości w wiedzy naukowej.

Opis jest wskazaniem cech obiektu lub zjawiska, zarówno istotnych, jak i nieistotnych. Opis z reguły odnosi się do pojedynczych, pojedynczych obiektów w celu pełniejszego zapoznania się z nimi. Jego metoda polega na dostarczeniu jak najpełniejszej informacji o obiekcie.

Pomiar to pewien system ustalania i rejestrowania cech ilościowych badanego obiektu za pomocą różnych przyrządów i aparatury pomiarowej za pomocą pomiaru, stosunek jednej cechy ilościowej obiektu do drugiej, jednorodnej z nią, traktowanej jako jednostka; pomiaru, jest określony. Do głównych funkcji metody pomiarowej należy, po pierwsze, rejestracja ilościowych cech obiektu, a po drugie, klasyfikacja i porównanie wyników pomiarów.

Modelowanie to badanie obiektu (oryginału) poprzez tworzenie i badanie jego kopii (modelu), która w swoich właściwościach w pewnym stopniu odtwarza właściwości badanego obiektu

Modelowanie stosuje się, gdy bezpośrednie badanie obiektów jest z jakiegoś powodu niemożliwe, trudne lub niepraktyczne. Istnieją dwa główne typy modelowania: fizyczne i matematyczne. Na obecnym etapie rozwoju wiedzy naukowej szczególnie dużą rolę odgrywa modelowanie komputerowe. Komputer działający według specjalnego programu jest w stanie symulować bardzo realne procesy: wahania cen rynkowych, orbity statków kosmicznych, procesy demograficzne i inne ilościowe parametry rozwoju przyrody, społeczeństwa i poszczególnych ludzi.

Metody teoretycznego poziomu wiedzy

Analiza to podział obiektu na jego elementy składowe (boki, cechy, właściwości, relacje) w celu ich wszechstronnego zbadania

Synteza to połączenie wcześniej zidentyfikowanych części (boków, cech, właściwości, relacji) obiektu w jedną całość

Analiza i synteza są dialektycznie sprzecznymi i współzależnymi metodami poznania. Poznanie przedmiotu w jego specyficznej integralności zakłada jego wstępny podział na elementy składowe i rozważenie każdego z nich. Zadanie to realizowane jest poprzez analizę. Umożliwia podkreślenie tego, co istotne, co stanowi podstawę połączenia wszystkich stron badanego przedmiotu. Analiza dialektyczna jest środkiem wniknięcia w istotę rzeczy; Analiza, odgrywając jednak ważną rolę w poznaniu, nie dostarcza poznania konkretu, poznania przedmiotu jako jedności różnorodności, jedności różnych definicji. Zadanie to realizowane jest metodą syntezy. W konsekwencji analiza i synteza organicznie współdziałają ze sobą i wzajemnie się determinują na każdym etapie procesu poznania teoretycznego i wiedzy.

Abstrakcja to metoda abstrahowania od pewnych właściwości i zależności przedmiotu, a jednocześnie skupiania głównej uwagi na tych, które są bezpośrednim przedmiotem badań naukowych. Abstrakcja sprzyja penetracji wiedzy w istotę zjawisk, przechodzeniu wiedzy od zjawiska do istoty. Jasne jest, że abstrakcja rozczłonkowuje, szorstkuje i schematyzuje integralną poruszającą się rzeczywistość. Jednak to właśnie pozwala głębiej poznać poszczególne aspekty podmiotu „w jego czystej postaci”, a co za tym idzie, wniknąć w ich istotę.

Uogólnienie to metoda wiedzy naukowej, która rejestruje ogólne cechy i właściwości określonej grupy obiektów, dokonuje przejścia od indywidualnego do specjalnego i ogólnego, od mniej ogólnego do bardziej ogólnego.

W procesie poznania często konieczne jest wyciągnięcie na podstawie istniejącej wiedzy wniosków stanowiących nową wiedzę o nieznanym. Dokonuje się tego za pomocą metod takich jak indukcja i dedukcja

Indukcja jest metodą wiedzy naukowej, gdy na podstawie wiedzy o jednostce wyciąga się wniosek na temat ogółu. Jest to metoda rozumowania, za pomocą której ustalana jest ważność proponowanego założenia lub hipotezy. W wiedzy rzeczywistej indukcja zawsze występuje w jedności z dedukcją i jest z nią organicznie powiązana.

Dedukcja jest metodą poznania, gdy na podstawie ogólnej zasady nowa prawdziwa wiedza o jednostce zostaje z konieczności wyprowadzona z pewnych przepisów jako prawdziwa. Za pomocą tej metody jednostka poznaje się na podstawie znajomości praw ogólnych.

Idealizacja to metoda logicznego modelowania, za pomocą której tworzone są wyidealizowane obiekty. Idealizacja ma na celu procesy możliwej konstrukcji możliwych obiektów. Wyniki idealizacji nie są arbitralne. W skrajnym przypadku odpowiadają one poszczególnym rzeczywistym właściwościom obiektów lub pozwalają na ich interpretację w oparciu o dane z empirycznego poziomu wiedzy naukowej. Idealizacja wiąże się z „eksperymentem myślowym”, w wyniku którego z hipotetycznego minimum niektórych oznak zachowania obiektów odkrywane lub uogólniane są prawa ich funkcjonowania. Granice skuteczności idealizacji wyznacza praktyka i praktyka.

Metody historyczne i logiczne są organicznie połączone. Metoda historyczna polega na rozważeniu obiektywnego procesu rozwoju obiektu, jego prawdziwej historii ze wszystkimi jej zakrętami i cechami. Jest to pewien sposób odtworzenia w myśleniu procesu historycznego w jego chronologicznej kolejności i specyfice.

Metoda logiczna to sposób, w jaki myślenie odtwarza rzeczywisty proces historyczny w jego teoretycznej formie, w systemie pojęć

Zadaniem badań historycznych jest ukazanie specyficznych warunków rozwoju określonych zjawisk. Zadaniem badań logicznych jest ukazanie roli, jaką odgrywają poszczególne elementy systemu w rozwoju całości.

1.2.Metody badań teoretycznych

Idealizacja. Idealizacja to proces tworzenia obiektów mentalnych, które w rzeczywistości nie istnieją, poprzez mentalną abstrakcję z niektórych właściwości obiektów rzeczywistych i relacji między nimi lub poprzez nadawanie przedmiotom i sytuacjom tych właściwości, których nie posiadają, w celu głębszego i dokładniejsze poznanie rzeczywistości. Obiekty tego rodzaju służą jako najważniejszy sposób zrozumienia rzeczywistych obiektów i relacji między nimi. Nazywają się wyidealizowane obiekty. Należą do nich obiekty takie jak np. punkt materialny, gaz doskonały, ciało absolutnie czarne, obiekty geometryczne itp.

Idealizację czasami myli się z abstrakcją, ale jest to błędne podejście, ponieważ choć idealizacja zasadniczo opiera się na procesie abstrakcji, nie ogranicza się do niej. W logice obiekty abstrakcyjne, w przeciwieństwie do konkretnych, obejmują tylko te obiekty, które nie oddziałują w czasie i przestrzeni. Obiektów idealnych nie można uważać za realnie istniejące; są one quasi-obiektami. Każda teoria naukowa bada albo pewien fragment rzeczywistości, pewien obszar tematyczny, albo pewną stronę, jeden z aspektów rzeczywistych rzeczy i procesów. Jednocześnie teoria zmuszona jest abstrahować od tych aspektów badanych przez siebie przedmiotów, które jej nie interesują. Ponadto teoria jest często zmuszona abstrahować od pewnych różnic w przedmiotach, które bada, pod pewnymi względami. Ten proces mentalnej abstrakcji od pewnych aspektów, właściwości badanych obiektów, od pewnych relacji między nimi nazywa się abstrakcją.

Abstrakcja. Tworzenie wyidealizowanego obiektu z konieczności obejmuje abstrakcję - abstrakcję z wielu aspektów i właściwości konkretnych badanych obiektów. Ale jeśli ograniczymy się tylko do tego, nie otrzymamy jeszcze żadnego integralnego obiektu, a po prostu zniszczymy prawdziwy przedmiot lub sytuację. Po abstrakcji pozostaje jeszcze wyeksponować interesujące nas właściwości, wzmocnić je lub osłabić, połączyć i przedstawić jako właściwości jakiegoś niezależnego obiektu, który istnieje, funkcjonuje i rozwija się według własnych praw. Wszystko to stanowi oczywiście znacznie trudniejsze i twórcze zadanie niż zwykła abstrakcja. Idealizacja i abstrakcja to sposoby tworzenia przedmiotu teoretycznego. Może to być dowolny realny obiekt wyobrażony w nieistniejących, idealnych warunkach. W ten sposób powstają na przykład pojęcia „bezwładności”, „punktu materialnego”, „absolutnego ciała czarnego”, „gazu doskonałego”.

Formalizowanie(z łac. forma widok, obraz). Formalizacja odnosi się do wyświetlania obiektów z określonego obszaru tematycznego za pomocą symboli języka. Podczas formalizacji badane obiekty, ich właściwości i relacje zostają zestawione z pewnymi stabilnymi, wyraźnie widocznymi i możliwymi do zidentyfikowania strukturami materialnymi, które umożliwiają identyfikację i zapis istotnych aspektów obiektów. Formalizacja wyjaśnia treść poprzez określenie jej formy i może być przeprowadzana z różnym stopniem kompletności. Wyrażanie myślenia w języku naturalnym można uznać za pierwszy krok formalizacji. Dalsze jego pogłębianie osiąga się poprzez wprowadzanie do języka potocznego różnego rodzaju znaków specjalnych i tworzenie języków częściowo sztucznych i sztucznych. Formalizacja logiczna ma na celu identyfikację i ustalenie logicznej formy wniosków i dowodów. Pełna formalizacja teorii następuje wówczas, gdy całkowicie abstrahuje się od merytorycznego znaczenia jej pierwotnych pojęć i zapisów oraz wymienia wszystkie zasady wnioskowania logicznego stosowane w dowodach. Taka formalizacja obejmuje trzy punkty: 1) oznaczenie wszystkich początkowych, nieokreślonych terminów; 2) wymienianie wzorów (aksjomatów) przyjętych bez dowodu; 3) wprowadzenie zasad przekształcania tych wzorów w celu uzyskania z nich nowych wzorów (twierdzeń). Uderzającym przykładem formalizacji są matematyczne opisy różnych obiektów i zjawisk szeroko stosowane w nauce w oparciu o odpowiednie teorie. Pomimo powszechnego stosowania formalizacji w nauce, formalizacja ma pewne granice. W 1930 roku Kurt Gödel sformułował twierdzenie zwane twierdzeniem o niezupełności: nie da się stworzyć takiego formalnego systemu logicznie uzasadnionych formalnych reguł dowodowych, który byłby wystarczający do udowodnienia wszystkich prawdziwych twierdzeń arytmetyki elementarnej.



Modele i symulacje w badaniach naukowych . Model to materialny lub wyobrażony przedmiot, który w procesie badania zastępuje obiekt oryginalny, zachowując niektóre jego typowe cechy ważne dla tego badania. Model pozwala na naukę sterowania obiektem poprzez testowanie różnych opcji sterowania na modelu tego obiektu. Eksperymentowanie w tym celu na rzeczywistym obiekcie jest w najlepszym razie niewygodne, a często po prostu szkodliwe lub wręcz niemożliwe z wielu powodów (długi czas trwania eksperymentu, ryzyko doprowadzenia obiektu do niepożądanego i nieodwracalnego stanu itp.) .). Proces budowania modelu nazywa się modelowaniem. Modelowanie to zatem proces badania struktury i właściwości oryginału za pomocą modelu.

Istnieje modelowanie materiałowe i idealne. Modelowanie materiałowe z kolei dzieli się na modelowanie fizyczne i analogowe. Modelowanie fizyczne nazywane jest zwykle modelowaniem, w którym obiekt rzeczywisty zostaje skontrastowany z jego powiększoną lub pomniejszoną kopią, co pozwala na badania (zwykle w warunkach laboratoryjnych) za pomocą późniejszego przeniesienia właściwości badanych procesów i zjawisk z modelu na obiekt w oparciu o teorię podobieństwa. Przykłady: planetarium w astronomii, modele budynków w architekturze, modele samolotów w produkcji samolotów, modelowanie środowiskowe - modelowanie procesów w biosferze itp. Modelowanie analogowe lub matematyczne opiera się na analogii procesów i zjawisk, które mają różną naturę fizyczną, ale są opisane w ten sam sposób formalnie (za pomocą tych samych równań matematycznych). Symboliczny język matematyki umożliwia wyrażenie właściwości, aspektów, relacji obiektów i zjawisk o bardzo różnym charakterze. Zależności pomiędzy różnymi wielkościami opisującymi funkcjonowanie takiego obiektu można przedstawić za pomocą odpowiednich równań i ich układów.

Wprowadzenie(od łac. indukcja - przewodnictwo, motywacja), następuje wnioskowanie, które prowadzi do ogólnego wniosku na podstawie określonych przesłanek, jest to ruch myślenia od szczegółu do ogółu. Najważniejsza, a czasem jedyna metoda wiedzy naukowej był już dawno rozważany indukcyjny metoda. Według metodologii indukcjonistycznej, której początki sięgają F. Bacona, wiedza naukowa zaczyna się od obserwacji i stwierdzenia faktów. Po ustaleniu faktów zaczynamy je uogólniać i budować teorię. Teorię postrzega się jako uogólnienie faktów i dlatego uważa się ją za wiarygodną. Jednak nawet D. Hume zauważył, że z faktów nie można wyprowadzić twierdzenia ogólnego, dlatego też jakiekolwiek uogólnienie indukcyjne jest niewiarygodne. Powstał zatem problem uzasadnienia wnioskowania indukcyjnego: co pozwala nam przejść od faktów do twierdzeń ogólnych? D. Mil wniósł ogromny wkład w rozwój i uzasadnienie metody indukcyjnej.

Świadomość nierozwiązywalności problemu uzasadnienia indukcji oraz interpretacja wnioskowania indukcyjnego jako twierdząca o rzetelności jego wniosków skłoniła Poppera do zaprzeczenia w ogóle indukcyjnej metodzie poznania. Popper włożył wiele wysiłku w wykazanie, że procedura opisana metodą indukcyjną nie jest i nie może mieć zastosowania w nauce. Według Poppera błąd indukcjonizmu polega głównie na tym, że indukcjonizm próbuje uzasadnić teorie poprzez obserwację i eksperyment. Jednak, jak pokazał postpozytywizm, nie ma bezpośredniej drogi od doświadczenia do teorii; takie uzasadnienie jest niemożliwe. Teorie są zawsze po prostu bezpodstawnymi, ryzykownymi założeniami. Fakty i obserwacje wykorzystywane są w nauce nie do uzasadnień, nie jako podstawa do indukcji, lecz jedynie do sprawdzania i obalania teorii – jako podstawa do falsyfikacji. Usuwa to stary filozoficzny problem uzasadnienia indukcji. Fakty i obserwacje dają podstawę do hipotezy, która wcale nie jest uogólnieniem. Następnie za pomocą faktów próbują sfalsyfikować hipotezę. Fałszywy wniosek jest dedukcyjny. Indukcji w tym przypadku nie stosuje się, zatem nie ma co się zastanawiać nad jej uzasadnieniem.

Zdaniem K. Poppera w nauce podstawą nie jest metoda indukcyjna, lecz metoda prób i błędów. Podmiot wiedzący konfrontuje się ze światem nie jako tabula rasa, w którym natura maluje swój portret, człowiek w rozumieniu rzeczywistości zawsze opiera się na pewnych teoretycznych zasadach. Proces poznania nie zaczyna się od obserwacji, ale od domysłów i założeń wyjaśniających świat. Porównujemy nasze domysły z wynikami obserwacji i po sfałszowaniu odrzucamy je, zastępując nowymi domysłami. Metoda prób i błędów tworzy metodę nauki. Aby zrozumieć świat, przekonuje Popper, nie ma bardziej racjonalnego postępowania niż metoda prób i błędów – założenia i obalenia: odważne wysuwanie teorii; stara się jak najlepiej wykazać błędność tych teorii i ich chwilową akceptację, jeśli krytyka nie powiedzie się.

Odliczenie(z łac. dedukcja - wnioskowanie) to wyciąganie konkretnych wniosków na podstawie znajomości pewnych ogólnych przepisów, to ruch myśli od ogółu do szczegółu. Metoda hipotetyczno-dedukcyjna. Polega na wyprowadzaniu (dedukowaniu) wniosków z hipotez i innych przesłanek, których wartość prawdziwa nie jest znana. W wiedzy naukowej metoda hipotetyczno-dedukcyjna stała się powszechna i rozwinęła się w XVII-XVIII wieku, kiedy poczyniono znaczne postępy w dziedzinie badania mechanicznego ruchu ciał ziemskich i niebieskich. Pierwsze próby zastosowania metody hipotetyczno-dedukcyjnej podejmowano w mechanice, zwłaszcza w badaniach Galileusza. Teoria mechaniki przedstawiona w „Matematycznych zasadach filozofii naturalnej” Newtona jest systemem hipotetyczno-dedukcyjnym, którego przesłankami są podstawowe prawa ruchu. Sukces metody hipotetyczno-dedukcyjnej w mechanice oraz wpływ idei Newtona doprowadziły do ​​powszechnego stosowania tej metody w naukach ścisłych.

2.2 Formy wiedzy teoretycznej. Problem. Hipoteza. Prawo. Teoria.

Główną formą organizacji wiedzy na poziomie teoretycznym jest teoria. Wcześniej możemy podać następującą definicję teorii: teoria to wiedza o obszarze przedmiotowym, która obejmuje przedmiot jako całość, a w szczególności i jest systemem idei, pojęć, definicji, hipotez, praw, aksjomatów, twierdzeń itp. , powiązane w ściśle logiczny sposób. Jaka jest struktura teorii i jak jest ona tworzona, jest głównym problemem metodologii nauki.

Problem. Wiedza nie zaczyna się od obserwacji i faktów, zaczyna się od problemów, od napięcia między wiedzą a niewiedzą – zauważa L.A. Mikeshina. Problem to pytanie, na które odpowiedź jest teorią jako całością. Jak podkreśla K. Popper, nauka zaczyna się nie od obserwacji, ale od problemów, a jej rozwój przebiega od jednych problemów do innych – głębszych. Problem naukowy wyraża się w obecności sprzecznej sytuacji. Platon zauważył również, że na pytanie trudniej jest odpowiedzieć. Decydujący wpływ na sformułowanie problemu i sposób rozwiązania ma charakter myślenia epoki, poziom wiedzy o przedmiotach, których dotyczy problem: „w kwestii wyboru problemu, tradycji, przebiegu rozwój historyczny odgrywa znaczącą rolę.” Problemy naukowe należy odróżnić od problemów nienaukowych (pseudoproblemów), których przykładem jest problem perpetuum mobile. A. Einstein zauważył znaczenie procedury stawiania problemu w badaniach naukowych: „Sformułowanie problemu jest często ważniejsze niż jego rozwiązanie, co może być jedynie kwestią sztuki matematycznej lub eksperymentalnej. Stawianie nowych pytań, rozwijanie nowych możliwości, patrzenie na stare problemy z nowej perspektywy wymagają twórczej wyobraźni i odzwierciedlają prawdziwy sukces w nauce.” Aby rozwiązać problemy naukowe, stawia się hipotezy.

Hipoteza. Hipoteza to założenie dotyczące właściwości, przyczyn, struktury i powiązań badanych obiektów. Główną cechą hipotezy jest jej spekulatywny charakter: nie wiemy, czy okaże się ona prawdziwa, czy fałszywa. W procesie kolejnych testów hipoteza może znaleźć potwierdzenie i zyskać status wiedzy prawdziwej, jednak może się zdarzyć, że test przekona nas o fałszywości naszego założenia i będziemy musieli z niego zrezygnować. Hipoteza naukowa zwykle różni się od prostego założenia pewną zasadnością. Zestaw wymagań stawianych hipotezie naukowej można podsumować w następujący sposób: 1. Hipoteza musi wyjaśniać znane fakty; 2. Hipoteza nie może mieć sprzeczności zakazanych przez logikę formalną. Ale sprzeczności będące odzwierciedleniem obiektywnych przeciwieństw są całkiem akceptowalne; 3. Hipoteza musi być prosta („brzytwa Ockhama”); 4. Hipoteza naukowa musi być sprawdzalna; 5. Hipoteza musi być heurystyczna („wystarczająco szalona” N. Bohr).

Z logicznego punktu widzenia system hipotetyczno-dedukcyjny jest hierarchią hipotez, której stopień abstrakcji i ogólności wzrasta wraz z odległością od podstawy empirycznej. Na górze znajdują się hipotezy, które mają charakter najbardziej ogólny i dlatego mają największą moc logiczną. Z nich, podobnie jak z przesłanek, wyprowadza się hipotezy niższego poziomu. Na najniższym poziomie systemu znajdują się hipotezy, które można porównać z danymi empirycznymi. We współczesnej nauce wiele teorii skonstruowanych jest w formie układu hipotetyczno-dedukcyjnego. Istnieje inny rodzaj hipotezy, który przyciąga wiele uwagi filozofów i naukowców. Są to tzw hipotezy ad hoc(w tym przypadku). Hipotezy tego typu wyróżniają się tym, że ich moc wyjaśniająca ogranicza się jedynie do niewielkiego zakresu znanych faktów. Nie mówią nic o nowych, nieznanych jeszcze faktach i zjawiskach.

Dobra hipoteza powinna nie tylko wyjaśniać znane dane, ale także ukierunkowywać badania na poszukiwanie i odkrywanie nowych zjawisk i nowych faktów. Hipotezy doraźnie Tylko wyjaśniają, ale nie przewidują niczego nowego. Dlatego naukowcy starają się nie posługiwać takimi hipotezami, chociaż często dość trudno jest zdecydować, czy mamy do czynienia z owocną, silną heurystycznie hipotezą, czy z hipotezą doraźnie. Hipotetyczny charakter wiedzy naukowej podkreślali K. Popper, W. Quine i inni. K. Popper charakteryzuje wiedzę naukową jako hipotetyczną, wprowadza ten termin probabilizm(z łac. prawdopodobny – prawdopodobny), zauważając, że myślenie naukowe charakteryzuje się stylem probabilistycznym. Charles Pierce ukuł termin „fallibilizm” (od łac. fallibilis- omylny, omylny), argumentując, że w danym momencie nasza wiedza o rzeczywistości jest częściowa i hipotetyczna, wiedza ta nie jest absolutna, ale stanowi punkt na kontinuum zawodności i niepewności.

Najważniejszym elementem systemu wiedzy teoretycznej są prawa. Wyjątkową komórką organizującą wiedzę teoretyczną na każdym z jej podpoziomów jest – zauważa V.S. Stepina, struktura dwuwarstwowa jest modelem teoretycznym i sformułowanym na jej temat prawem teoretycznym.

Prawo. Pojęcie „prawa” jest jednym z głównych w światopoglądzie naukowym i odzwierciedla genezę nauki w kontekście kultury. Wiara w istnienie podstawowych praw natury opierała się na wierze w prawa boskie, tak charakterystycznej dla tradycji judeochrześcijańskiej: „Bóg panuje nad wszystkim poprzez bezwzględne prawo losu, które ustanowił i któremu sam się poddaje. ” A. Whitehead stawiając sobie za zadanie zrozumienie, jak powstała idea prawa nauki, wykazał, że wiara w możliwość praw naukowych była pochodną teologii średniowiecznej. W systemie świata, określanym jako Wszechświat i rozumianym jako zhierarchizowana integralność, istnienie charakteryzuje się zasadą uniwersalizmu. W kontekście stoicyzmu ustanowiono abstrakcyjne zasady prawa, które ucieleśniały tradycję prawa cesarskiego, a następnie zostały przełożone z prawa rzymskiego na światopogląd naukowy. Prawo (od greckiego „nomos” – prawo, porządek) przeciwstawia się physis, tak jak człowiek przeciwstawia się temu, co naturalne. Porządek naturalny, jak wierzyli Grecy, jest pierwotny, to jest Kosmos. Wśród Latynosów pojęcie „prawa” powstało pierwotnie w celu oznaczania i regulowania stosunków społecznych. Whitehead zwraca uwagę na decydującą rolę kontekstu kulturowego i historycznego, jakim był środowisko, w którym narodziły się fundamentalne idee przyszłego światopoglądu naukowego. „Średniowiecze ukształtowało jeden długi trening zachodnioeuropejskiego intelektu, przyzwyczajając go do porządku... Nawyk pewnego precyzyjnego myślenia wpojono w umysł Europejczyków w wyniku dominacji logiki scholastycznej i teologii scholastycznej”. Uformowana wcześniej koncepcja losu, ukazująca bezwzględny bieg rzeczy, okazała się przydatna nie tylko do zilustrowania ludzkiego życia, ale także wpłynęła na kształtujące się myślenie naukowe. Jak zauważył Whitehead, „prawa fizyki są nakazami losu”.

Idea prawa jest kluczowa w światopoglądzie, co znajdujemy potwierdzenie w wypowiedziach wybitnych postaci kultury średniowiecznej, np. F. z Akwinu, który twierdził, że istnieje prawo wieczne, jakim jest rozum, istniejący w świadomości Boga i rządzącej całym Wszechświatem, a także wśród myślicieli New Age. W szczególności R. Kartezjusz pisał o prawach, które Bóg umieścił w naturze. I. Newton za swój cel uważał zebranie dowodów na istnienie praw nadanych naturze przez Boga.

Jeśli porównamy ten styl zachodniego myślenia z tradycją myślową innych cywilizacji, zobaczymy, że ich kulturowa wyjątkowość wyznacza odmienne standardy wyjaśniania. Na przykład w języku chińskim, jak zauważył Needham, nie ma słowa odpowiadającego zachodniemu „prawu natury”. Najbliższe słowo to „Lee”, które Needham tłumaczy jako zasadę organizacji. Jednak w kulturze zachodniej, której rdzeniem jest nauka, idea prawa odpowiadała głównemu celowi światopoglądu naukowego, jakim jest obiektywne wyjaśnianie rzeczywistości poprzez zrozumienie naturalnych praw natury.

Charakteryzując dynamikę nauki w kulturze Zachodu, dziś zwyczajowo wyróżnia się trzy główne typy racjonalności naukowej: klasyczny, nieklasyczny i postnieklasyczny paradygmat racjonalności naukowej (B.S. Stepin). Postawione na początku pytanie zakłada analizę transformacji pojęcia „prawa” w tych paradygmatach, a także w różnych standardach naukowości, gdyż dziś fizyczny przykład naukowości nie jest już jedyny. Doświadczenie biologii w badaniu ewolucji, w poszukiwaniu praw ewolucji jest bardziej znaczące i dlatego istotne dla współczesnej fizyki, którą przenika „strzałka czasu” (I. Prigogine). Tradycje humanistyczne są ważne także dla analizy pytania: czy możliwe jest pewne prawo ewolucji?

Inny kontekst, w którym należy analizować przemiany wiedzy naukowej pojęcia „prawo”, wskazuje się na identyfikację różnych praktyk poznawczych czy schematów epistemologicznych reprezentujących modele wiedzy naukowej. Na przykład, czy w konstruktywistycznych modelach poznania, czy to w radykalnym konstruktywizmie, czy w konstruktywizmie społecznym, koncepcja „prawa” nauki ma jeszcze sens? Nieprzypadkowo tendencja do relatywizacji i subiektywizacji wiedzy naukowej, zauważalna we współczesnej filozofii nauki, rodzi potrzebę omówienia problemu relacji prawa do interpretacji.

Obecnie pojęciu prawa nadaje się cztery główne znaczenia. Po pierwsze, prawo jako konieczny związek między zdarzeniami, jako „spokój w zjawisku”. Prawo utożsamiane jest tu z prawami obiektywnymi, istniejącymi niezależnie od naszej wiedzy o nich (prawa obiektywne). Po drugie, prawo jako twierdzenie, które ma odzwierciedlać stan wewnętrzny przedmiotów objętych teoriami(prawa nauki). Trzeci, przez prawa rozumie się aksjomaty i twierdzenia teorii, których przedmiotem są przedmioty, których znaczenie nadawane jest przez te same teorie(teorie logiczne i matematyczne). po czwarte, prawo jako instrukcje normatywne, wypracowane przez wspólnotę, które muszą spełniać podmioty moralności i prawa (prawa moralne, prawa karne, prawa państwowe).

Dla problemów epistemologii filozoficznej ważne jest pytanie o związek praw obiektywnych z prawami nauki. Samo sformułowanie takiego pytania implikuje światopogląd na temat istnienia obiektywnych praw. D. Hume, I. Kant, E. Mach wątpili w to. Sceptycyzm Hume'a wiąże się z zaprzeczeniem prawa przyczynowości Hume'a, które głosi: nie można wiarygodnie ekstrapolować przeszłych doświadczeń na przyszłość. Fakt, że zdarzenie wydarzyło się n razy, nie pozwala nam powiedzieć, że zdarzenie to nastąpi n+1 razy. „Jakikolwiek stopień powtarzalności naszych percepcji nie może być podstawą do wniosku, że istnieje większy stopień powtarzalności pewnych obiektów, których nie postrzegamy”. Zwolennicy obiektywnego istnienia praw przyjmują punkt widzenia Hume'a, rozumiejąc prawa nauki jako hipotezy. I tak A. Poincaré argumentował, że prawa nauki, jako najlepszy wyraz wewnętrznej harmonii świata, to podstawowe zasady, przepisy, odzwierciedlające relacje między rzeczami. „Czy jednak te regulacje są arbitralne? Nie, w przeciwnym razie byłyby bezpłodne. Doświadczenie daje nam wolny wybór, ale jednocześnie nas prowadzi.”

Według I. Kanta prawa nie są przez rozum wydobywane z natury, lecz przez nią przepisywane. Opierając się na tym poglądzie, prawa nauki można rozumieć jako porządek poznawczy wpojony naszym umysłom w drodze ewolucji adaptacyjnej. Stanowisko to jest bliskie epistemologii ewolucyjnej K. Poppera. E. Mach uważał, że prawa są subiektywne i powstają w wyniku naszej psychologicznej potrzeby nie zagubienia się wśród zjawisk przyrody. We współczesnej kognitywistyce możliwe jest porównywanie praw z subiektywnymi nawykami, które z kolei wyjaśniane są w wyniku obiektywnej ewolucji.

Zatem w epistemologii koncepcja prawa nauki odzwierciedla akceptację obiektywnie istniejących interakcji w przyrodzie. Prawa nauki to pojęciowe rekonstrukcje wzorców związane z przyjęciem pewnego aparatu pojęciowego i różnymi abstrakcjami. Prawa nauki są formułowane przy użyciu sztucznych języków ich dyscypliny. Istnieją prawa „statystyczne”, oparte na hipotezach probabilistycznych, oraz prawa „dynamiczne”, wyrażone w postaci warunków uniwersalnych. Badanie praw rzeczywistości znajduje wyraz w tworzeniu teorii odzwierciedlających obszar tematyczny. Prawo jest kluczowym elementem teorii.

Teoria. Teoria przetłumaczona z języka greckiego oznacza „kontemplację” tego, co faktycznie istnieje. Wiedza naukowa epoki starożytności była teoretyczna, ale znaczenie tego terminu było zupełnie inne; teorie starożytnych Greków miały charakter spekulacyjny i w zasadzie nie były zorientowane na eksperyment. W klasycznej nauce nowożytnej teorię zaczyna się rozumieć jako pojęciowy system symboliczny zbudowany na podstawie doświadczenia. W strukturze wiedzy teoretycznej wyróżnia się teorie podstawowe i szczegółowe.

Według V.S. Stepina, w strukturze teorii jako jej podstawę znajduje się podstawowy schemat teoretyczny związany z odpowiadającym mu formalizmem matematycznym. Jeśli obiekty empiryczne można porównać z obiektami rzeczywistymi, to obiekty teoretyczne są idealizacjami, nazywa się je konstruktami, są logicznymi rekonstrukcjami rzeczywistości. „U podstaw ustalonej teorii zawsze można znaleźć wzajemnie spójną sieć obiektów abstrakcyjnych, która stanowi o specyfice tej teorii. Ta sieć obiektów nazywana jest podstawowym schematem teoretycznym.”

Zgodnie z dwoma wyodrębnionymi podpoziomami wiedzy teoretycznej, można mówić o schematach teoretycznych w ramach teorii fundamentalnej i w ramach teorii szczegółowych. U podstaw opracowanej teorii można wyróżnić podstawowy schemat teoretyczny, który zbudowany jest z małego zbioru podstawowych obiektów abstrakcyjnych, strukturalnie niezależnych od siebie i w stosunku do którego formułowane są podstawowe prawa teoretyczne. Strukturę teorii rozpatrzono analogicznie do struktury sformalizowanej teorii matematycznej i przedstawiono ją jako hierarchiczny system zdań, w którym ze zdań podstawowych wyższych poziomów ściśle logicznie wyprowadzają zdania niższych poziomów, aż do stwierdzeń bezpośrednio porównywalne z faktami doświadczalnymi. Hierarchiczna struktura instrukcji odpowiada hierarchii wzajemnie powiązanych obiektów abstrakcyjnych. Powiązania tych obiektów tworzą schematy teoretyczne na różnych poziomach. A wtedy rozwój teorii jawi się nie tylko jako działanie twierdzeń, ale także jako eksperymenty myślowe z abstrakcyjnymi przedmiotami schematów teoretycznych.

Ramy teoretyczne odgrywają ważną rolę w rozwoju teorii. Wyprowadzanie ich konsekwencji (szczególnych praw teoretycznych) z podstawowych równań teorii odbywa się nie tylko poprzez formalne operacje matematyczne i logiczne na twierdzeniach, ale także za pomocą znaczących technik - eksperymentów myślowych z abstrakcyjnymi obiektami schematów teoretycznych, które umożliwiają redukować podstawowy schemat teoretyczny do schematów szczegółowych. Ich elementami schematów teoretycznych są obiekty abstrakcyjne (konstrukty teoretyczne), pozostające ze sobą w ściśle określonych powiązaniach i relacjach. Prawa teoretyczne formułuje się bezpośrednio w odniesieniu do abstrakcyjnych obiektów modelu teoretycznego. Można je stosować do opisu rzeczywistych sytuacji doświadczalnych tylko wtedy, gdy model jest uzasadniony jako wyraz istotnych powiązań rzeczywistości występujących w takich sytuacjach.

Wiedza teoretyczna tworzona jest w celu wyjaśniania i przewidywania zjawisk i procesów rzeczywistości obiektywnej i subiektywnej. W zależności od stopnia wniknięcia w istotę badanego przedmiotu teorie naukowe dzielą się na opisowo-fenomenologiczne (empiryczne) i dedukcyjne (matematyczne, aksjomatyczne).

Zatem teoria jest abstrakcyjnie uogólnionym, konstruktywnie skonstruowanym, holistycznym i logicznie rozwijającym się modelem pojęciowym przedmiotu badań, który jest logicznie skróconą wiedzą posiadającą zdolności wyjaśniające i heurystyczne.

Ogólnie rzecz biorąc, omówione powyżej empiryczne i teoretyczne poziomy badań naukowych reprezentują warunkowe etapy holistycznego procesu naukowego. Tak scharakteryzowany gmach nauki opiera się na fundamencie wyznaczonym jako fundamenty nauki.