Modelowanie matematyczne deterministycznych procesów stochastycznych. Modele deterministyczne i stochastyczne

23 stycznia 2017 r

Model stochastyczny opisuje sytuację, w której występuje niepewność. Innymi słowy, proces charakteryzuje się pewnym stopniem losowości. Sam przymiotnik „stochastyczny” pochodzi od greckiego słowa „odgadnąć”. Ponieważ niepewność jest kluczową cechą życia codziennego, taki model może opisać wszystko.

Jednak za każdym razem, gdy go użyjemy, uzyskamy inny wynik. Dlatego coraz częściej stosuje się modele deterministyczne. Choć nie są one jak najbardziej zbliżone do rzeczywistego stanu rzeczy, zawsze dają ten sam wynik i ułatwiają zrozumienie sytuacji, upraszczając ją poprzez wprowadzenie zestawu równań matematycznych.

Główne cechy

Model stochastyczny zawsze zawiera jedną lub więcej zmiennych losowych. Stara się odzwierciedlać prawdziwe życie we wszystkich jego przejawach. W przeciwieństwie do modelu deterministycznego, model stochastyczny nie ma na celu upraszczania wszystkiego i sprowadzania tego do znanych wartości. Dlatego niepewność jest jego kluczową cechą. Modele stochastyczne nadają się do opisu wszystkiego, ale wszystkie mają następujące wspólne cechy:

  • Każdy model stochastyczny odzwierciedla wszystkie aspekty problemu, który został stworzony w celu zbadania.
  • Wynik każdego zdarzenia jest niepewny. Dlatego model uwzględnia prawdopodobieństwa. Poprawność wyników ogólnych zależy od dokładności ich obliczeń.
  • Prawdopodobieństwa te można wykorzystać do przewidywania lub opisu samych procesów.

Modele deterministyczne i stochastyczne

Dla niektórych życie jawi się jako ciąg przypadkowych zdarzeń, dla innych – procesy, w których przyczyna determinuje skutek. Rzeczywiście charakteryzuje się niepewnością, ale nie zawsze i nie we wszystkim. Dlatego czasami trudno jest znaleźć wyraźne różnice między modelami stochastycznymi i deterministycznymi. Prawdopodobieństwo jest dość subiektywnym wskaźnikiem.

Rozważmy na przykład sytuację polegającą na rzucie monetą. Na pierwszy rzut oka wydaje się, że prawdopodobieństwo wylądowania „ogonów” wynosi 50%. Dlatego należy zastosować model deterministyczny. W praktyce okazuje się jednak, że wiele zależy od zręczności graczy i perfekcji wyważenia monety. Oznacza to, że należy zastosować model stochastyczny. Zawsze są parametry, których nie znamy. W prawdziwym życiu przyczyna zawsze determinuje skutek, ale istnieje też pewien stopień niepewności. Wybór pomiędzy wykorzystaniem modeli deterministycznych i stochastycznych zależy od tego, co jesteśmy gotowi poświęcić – łatwość analizy czy realizm.

Wideo na ten temat

W teorii chaosu

Ostatnio pojęcie, który model nazywamy stochastycznym, stało się jeszcze bardziej niejasne. Wynika to z rozwoju tzw. teorii chaosu. Opisuje modele deterministyczne, które mogą dawać różne wyniki przy niewielkich zmianach parametrów początkowych. To jest jak wprowadzenie do obliczania niepewności. Wielu naukowców przyznało nawet, że jest to już model stochastyczny.

Lothar Breuer wyjaśnił wszystko z wdziękiem za pomocą poetyckich obrazów. Pisał: „Górski potok, bijące serce, epidemia ospy, słup unoszącego się dymu – to wszystko jest przykładem zjawiska dynamicznego, które czasem zdaje się charakteryzować przypadkiem. W rzeczywistości procesy takie zawsze podlegają pewnemu porządkowi, który naukowcy i inżynierowie dopiero zaczynają rozumieć. Jest to tak zwany chaos deterministyczny.” Nowa teoria brzmi bardzo wiarygodnie, dlatego wielu współczesnych naukowców jest jej zwolennikami. Jest ona jednak nadal słabo rozwinięta i dość trudna do zastosowania w obliczeniach statystycznych. Dlatego często stosuje się modele stochastyczne lub deterministyczne.

Budowa

Stochastyczny model matematyczny rozpoczyna się od wyboru przestrzeni wyników elementarnych. Statystyka nazywa to listą możliwych wyników badanego procesu lub zdarzenia. Następnie badacz określa prawdopodobieństwo każdego z elementarnych wyników. Zwykle odbywa się to w oparciu o określoną metodologię.

Prawdopodobieństwo jest jednak nadal parametrem raczej subiektywnym. Następnie badacz określa, które zdarzenia wydają się najbardziej interesujące w rozwiązaniu problemu. Następnie po prostu określa ich prawdopodobieństwo.

Przykład

Rozważmy proces konstruowania najprostszego modelu stochastycznego. Powiedzmy, że rzucamy kostką. Jeśli wypadnie „sześć” lub „jeden”, nasza wygrana wyniesie dziesięć dolarów. Proces budowy modelu stochastycznego w tym przypadku będzie wyglądał następująco:

  • Zdefiniujmy przestrzeń wyników elementarnych. Kostka ma sześć ścian, więc rzuty mogą wynosić „jeden”, „dwa”, „trzy”, „cztery”, „pięć” i „sześć”.
  • Prawdopodobieństwo każdego wyniku będzie wynosić 1/6, niezależnie od tego, ile razy rzucimy kostkami.
  • Teraz musimy określić, jakie wyniki nas interesują. To upadek krawędzi z liczbą „sześć” lub „jeden”.
  • Wreszcie możemy określić prawdopodobieństwo zdarzenia, które nas interesuje. Jest 1/3. Podsumowujemy prawdopodobieństwa obu interesujących nas zdarzeń elementarnych: 1/6 + 1/6 = 2/6 = 1/3.

Koncepcja i wynik

Modelowanie stochastyczne jest często stosowane w grach hazardowych. Ale jest też niezbędna w prognozowaniu gospodarczym, gdyż pozwala zrozumieć sytuację głębiej niż te deterministyczne. Modele stochastyczne w ekonomii są często wykorzystywane przy podejmowaniu decyzji inwestycyjnych. Pozwalają na przyjęcie założeń dotyczących opłacalności inwestycji w określone aktywa lub grupy aktywów.

Modelowanie zwiększa efektywność planowania finansowego. Z jego pomocą inwestorzy i handlowcy optymalizują alokację swoich aktywów. Stosowanie modelowania stochastycznego zawsze przynosi korzyści w dłuższej perspektywie. W niektórych branżach odmowa lub nieumiejętność jego zastosowania może doprowadzić nawet do bankructwa przedsiębiorstwa. Wynika to z faktu, że w prawdziwym życiu codziennie pojawiają się nowe ważne parametry, a jeśli nie zostaną uwzględnione, może to mieć katastrofalne skutki.

Modele matematyczne w ekonomii i programowaniu

1. Deterministyczne i probabilistyczne modele matematyczne w ekonomii. Zalety i wady

Metody badania procesów gospodarczych opierają się na wykorzystaniu modeli matematycznych – deterministycznych i probabilistycznych – reprezentujących badany proces, system lub rodzaj działalności. Modele takie dostarczają ilościowego opisu problemu i stanowią podstawę do podejmowania decyzji zarządczych przy poszukiwaniu optymalnej opcji. Na ile uzasadnione są te decyzje, czy są najlepsze z możliwych, czy wzięto pod uwagę i zważono wszystkie czynniki decydujące o optymalnym rozwiązaniu, jakie jest kryterium stwierdzenia, że ​​to rozwiązanie jest rzeczywiście najlepsze – oto zakres pytań, na jakie ogromne znaczenie dla kierowników produkcji, a odpowiedź na to pytanie można znaleźć stosując metody badań operacyjnych [Chesnokov S.V. Deterministyczna analiza danych społeczno-ekonomicznych. - M.: Nauka, 1982, s. 45].

Jedną z zasad kształtowania układu sterowania jest metoda modeli cybernetycznych (matematycznych). Modelowanie matematyczne zajmuje pozycję pośrednią między eksperymentem a teorią: nie ma potrzeby budowania rzeczywistego modelu fizycznego układu, zostanie on zastąpiony modelem matematycznym. Specyfika tworzenia systemu sterowania polega na probabilistycznym, statystycznym podejściu do procesów sterowania. W cybernetyce przyjmuje się, że każdy proces sterowania podlega przypadkowym, zakłócającym wpływom. Zatem na proces produkcyjny wpływa duża liczba czynników, których nie można uwzględniać w sposób deterministyczny. Dlatego uważa się, że na proces produkcyjny wpływają sygnały losowe. Z tego powodu planowanie przedsiębiorstwa może mieć wyłącznie charakter probabilistyczny.

Z tych powodów mówiąc o matematycznym modelowaniu procesów gospodarczych często mamy na myśli modele probabilistyczne.

Opiszmy każdy typ modelu matematycznego.

Deterministyczne modele matematyczne charakteryzują się tym, że opisują związek niektórych czynników ze wskaźnikiem efektywnym w formie zależności funkcjonalnej, tzn. w modelach deterministycznych efektywny wskaźnik modelu przedstawiany jest w postaci iloczynu, ilorazu, iloczynu algebraicznego sumy czynników lub w postaci dowolnej innej funkcji. Ten typ modeli matematycznych jest najpowszechniejszy, ponieważ będąc dość prostym w użyciu (w porównaniu z modelami probabilistycznymi), pozwala zrozumieć logikę działania głównych czynników rozwoju procesu gospodarczego, określić ilościowo ich wpływ, zrozumieć, jakie czynniki i w jakiej proporcji można i wskazane jest zmienić, aby zwiększyć efektywność produkcji.

Probabilistyczne modele matematyczne różnią się zasadniczo od deterministycznych tym, że w modelach probabilistycznych związek między czynnikami a wynikową cechą ma charakter probabilistyczny (stochastyczny): przy zależności funkcjonalnej (modele deterministyczne) ten sam stan czynników odpowiada pojedynczemu stanowi wynikowego atrybut, podczas gdy w modelach probabilistycznych jeden i ten sam stan czynników odpowiada całemu zbiorowi stanów wynikowego atrybutu [Tolstova Yu. N. Logika matematycznej analizy procesów gospodarczych. - M.: Nauka, 2001, s. 2001. 32-33].

Zaletą modeli deterministycznych jest łatwość użycia. Główną wadą jest niska adekwatność rzeczywistości, ponieważ, jak zauważono powyżej, większość procesów gospodarczych ma charakter probabilistyczny.

Zaletą modeli probabilistycznych jest to, że z reguły są one bardziej zgodne z rzeczywistością (bardziej adekwatne) niż modele deterministyczne. Wadą modeli probabilistycznych jest jednak złożoność i pracochłonność ich stosowania, dlatego w wielu sytuacjach wystarczy ograniczyć się do modeli deterministycznych.

2. Sformułowanie problemu programowania liniowego na przykładzie problemu racji żywnościowych

Po raz pierwszy sformułowanie problemu programowania liniowego w formie propozycji opracowania optymalnego planu transportu; pozwalające zminimalizować całkowity przebieg podano w pracy radzieckiego ekonomisty A. N. Tołstoja z 1930 r.

Systematyczne badania problemów programowania liniowego i rozwój ogólnych metod ich rozwiązywania były dalej rozwijane w pracach rosyjskich matematyków L. V. Kantorowicza, V. S. Niemczinowa oraz innych matematyków i ekonomistów. Również wiele prac naukowców zagranicznych, a przede wszystkim amerykańskich, poświęconych jest metodom programowania liniowego.

Problem programowania liniowego polega na maksymalizacji (minimalizowaniu) funkcji liniowej.

pod ograniczeniami

i wszystkich

Komentarz. Nierówności mogą mieć także przeciwne znaczenia. Mnożąc odpowiednie nierówności przez (-1) zawsze można otrzymać układ postaci (*).

Jeśli liczba zmiennych w układzie ograniczeń i funkcja celu w modelu matematycznym problemu wynosi 2, to można go rozwiązać graficznie.

Musimy więc maksymalizować funkcję do satysfakcjonującego układu ograniczeń.

Przejdźmy do jednej z nierówności systemu ograniczeń.

Z geometrycznego punktu widzenia wszystkie punkty spełniające tę nierówność muszą albo leżeć na prostej, albo należeć do jednej z półpłaszczyzn, na które podzielona jest płaszczyzna tej prostej. Aby się tego dowiedzieć, należy sprawdzić, który z nich zawiera kropkę ().

Uwaga 2. Jeśli , to łatwiej jest przyjąć punkt (0;0).

Warunki nieujemności definiują również odpowiednio półpłaszczyzny z liniami granicznymi. Zakładamy, że układ nierówności jest niesprzeczny, wówczas przecinające się półpłaszczyzny tworzą część wspólną, która jest zbiorem wypukłym i reprezentuje zbiór punktów, których współrzędne są rozwiązaniem tego układu – jest to zbiór dopuszczalnych rozwiązania. Zbiór tych punktów (rozwiązań) nazywany jest wielokątem rozwiązania. Może to być punkt, półprosta, wielokąt lub nieograniczony obszar wielokątny. Zatem zadaniem programowania liniowego jest znalezienie punktu w wielokącie decyzyjnym, w którym funkcja celu przyjmuje wartość maksymalną (minimalną). Punkt ten istnieje, gdy wielokąt rozwiązania nie jest pusty, a znajdująca się na nim funkcja celu jest ograniczona od góry (od dołu). W określonych warunkach, w jednym z wierzchołków wielokąta rozwiązania, funkcja celu przyjmuje wartość maksymalną. Aby wyznaczyć ten wierzchołek, konstruujemy linię prostą (gdzie h jest pewną stałą). Najczęściej przyjmuje się linię prostą. Pozostaje ustalić kierunek ruchu tej linii. Kierunek ten wyznacza gradient (antygradient) funkcji celu.

Wektor w każdym punkcie jest prostopadły do ​​linii, więc wartość f będzie rosnąć w miarę przesuwania się linii w kierunku gradientu (spadek w kierunku antygradientu). Aby to zrobić, narysuj linie proste równoległe do linii prostej, przesuwając się w kierunku gradientu (antygradientu).

Konstrukcje te będziemy kontynuować, aż linia przejdzie przez ostatni wierzchołek wielokąta rozwiązania. Ten punkt określa optymalną wartość.

Zatem znalezienie rozwiązania problemu programowania liniowego przy użyciu metody geometrycznej obejmuje następujące kroki:

Konstruowane są linie, których równania uzyskuje się poprzez zastąpienie znaków nierówności w ograniczeniach dokładnymi znakami równości.

Znajdź półpłaszczyznę określoną przez każde z ograniczeń problemu.

Znajdź wielokąt rozwiązania.

Zbuduj wektor.

Budują linię prostą.

Konstruują równoległe proste w kierunku gradientu lub antygradientu, w wyniku czego znajdują punkt, w którym funkcja przyjmuje wartość maksymalną lub minimalną, lub ustalają, że funkcja jest nieograniczona od góry (od dołu) na dopuszczalny zestaw.

Wyznacza się współrzędne maksymalnego (minimalnego) punktu funkcji i oblicza wartość funkcji celu w tym punkcie.

Problem racjonalnego żywienia (problem racji żywnościowych)

Sformułowanie problemu

Gospodarstwo prowadzi tucz bydła w celach komercyjnych. Dla uproszczenia załóżmy, że istnieją tylko cztery rodzaje produktów: P1, P2, P3, P4; Koszt jednostkowy każdego produktu wynosi odpowiednio C1, C2, C3, C4. Z tych produktów musisz stworzyć dietę, która musi zawierać: białka - co najmniej jednostki b1; węglowodany - co najmniej jednostki b2; tłuszcz - co najmniej jednostki b3. Dla produktów P1, P2, P3, P4 zawartość białek, węglowodanów i tłuszczów (w jednostkach na jednostkę produktu) jest znana i podana w tabeli, gdzie aij (i=1,2,3,4; j=1 ,2,3) - jakieś konkretne liczby; pierwszy indeks wskazuje numer produktu, drugi - numer pierwiastka (białka, węglowodany, tłuszcze).

Modele systemów, o których mówiliśmy dotychczas, są deterministyczne (pewne), tj. określenie wpływu wejściowego jednoznacznie określiło wynik systemu. Jednak w praktyce zdarza się to rzadko: opis rzeczywistych systemów jest zwykle obarczony niepewnością. Przykładowo dla modelu statycznego niepewność można uwzględnić pisząc zależność (2.1)

gdzie jest błąd znormalizowany do wyjścia systemowego.

Przyczyny niepewności są różne:

– błędy i zakłócenia w pomiarach wejść i wyjść systemu (błędy naturalne);

– niedokładność samego modelu systemu, co wymusza sztuczne wprowadzenie błędu do modelu;

– niepełne informacje o parametrach systemu itp.

Spośród różnych metod wyjaśniania i formalizowania niepewności najbardziej rozpowszechnione jest podejście chaotyczne (probabilistyczne), w którym niepewne wielkości są uważane za losowe. Opracowany aparat pojęciowy i obliczeniowy teorii prawdopodobieństwa i statystyki matematycznej pozwala na podanie konkretnych zaleceń dotyczących wyboru struktury układu i szacowania jego parametrów. Klasyfikację modeli stochastycznych układów i metody ich badania przedstawiono w tabeli. 1.4. Wnioski i zalecenia opierają się na efekcie uśredniania: przypadkowe odchylenia wyników pomiarów pewnej wielkości od jej wartości oczekiwanej znoszą się po zsumowaniu, a średnia arytmetyczna dużej liczby pomiarów okazuje się bliska wartości oczekiwanej . Matematyczne sformułowania tego efektu podaje prawo wielkich liczb i centralne twierdzenie graniczne. Prawo wielkich liczb stwierdza, że ​​jeśli są to zmienne losowe z matematycznym oczekiwaniem (wartością średnią) i wariancją, to



w wystarczająco dużym stopniu N. Wskazuje to na zasadniczą możliwość dokonania dowolnie dokładnej oceny na podstawie pomiarów. Centralne twierdzenie graniczne wyjaśniające (2.32) stwierdza, że

gdzie jest standardową zmienną losową o rozkładzie normalnym

Ponieważ rozkład wielkości jest dobrze znany i tabelaryzowany (wiadomo np., że zależność (2.33) pozwala obliczyć błąd estymacji. Niech np. chcemy dowiedzieć się, przy jakiej liczbie pomiarów wystąpił błąd estymacji ich matematyczne oczekiwanie z prawdopodobieństwem 0,95 będzie mniejsze niż 0,01, jeśli rozrzut każdego pomiaru wynosi 0,25. Z (2.33) wynika, że ​​nierówność musi być spełniona skąd N> 10000.

Oczywiście sformułowaniom (2.32), (2.33) można nadać bardziej rygorystyczną formę i można to łatwo zrobić, korzystając z koncepcji zbieżności probabilistycznej. Trudności pojawiają się przy próbie przetestowania warunków tych rygorystycznych stwierdzeń. Przykładowo prawo wielkich liczb i centralne twierdzenie graniczne wymagają niezależności poszczególnych pomiarów (realizacji) zmiennej losowej i skończoności jej wariancji. Jeśli te warunki zostaną naruszone, wnioski mogą również zostać naruszone. Na przykład, jeśli wszystkie pomiary są zbieżne: wówczas, mimo że wszystkie inne warunki są spełnione, nie może być mowy o uśrednianiu. Inny przykład: prawo wielkich liczb jest niesprawiedliwe, jeśli zmienne losowe są dystrybuowane zgodnie z prawem Cauchy'ego (z gęstością rozkładu, która nie ma skończonych matematycznych oczekiwań i rozproszeń. Ale takie prawo można znaleźć w życiu! Na przykład według Cauchy'ego: integralne oświetlenie punktów na prostym brzegu za pomocą równomiernie obracającego się reflektora umieszczonego na morzu (na statku) i włączającego się w losowych momentach.

Jeszcze większe trudności pojawiają się przy sprawdzeniu zasadności samego użycia terminu „losowy”. Co to jest zmienna losowa, zdarzenie losowe itp. Często mówi się, że wydarzenie A przez przypadek, jeśli w wyniku eksperymentu może to nastąpić (z prawdopodobieństwem R) lub nie wystąpić (z prawdopodobieństwem 1- R). Wszystko jednak nie jest takie proste. Samo pojęcie prawdopodobieństwa można skojarzyć z wynikami eksperymentów jedynie poprzez częstotliwość jego występowania w określonej liczbie (serii) eksperymentów: , gdzie NIE- liczba eksperymentów, w których wystąpiło zdarzenie, N- Łączna; eksperymenty. Jeśli liczby są wystarczająco duże N zbliżyć się do jakiejś stałej liczby r A:

to wydarzenie A można nazwać losowym i liczbą R- jego prawdopodobieństwo. W takim przypadku częstotliwości obserwowane w różnych seriach eksperymentów powinny być do siebie zbliżone (właściwość ta nazywa się stabilność statystyczna Lub jednorodność). Powyższe odnosi się również do koncepcji zmiennej losowej, ponieważ wartość jest losowa, jeśli zdarzenia są losowe (i<£<Ь} для любых чисел A,B. Częstotliwości występowania takich zdarzeń w długich seriach eksperymentów powinny grupować się wokół pewnych stałych wartości.

Zatem, aby podejście stochastyczne miało zastosowanie, muszą zostać spełnione następujące wymagania:

1) masowa skala prowadzonych eksperymentów, tj. dość duża liczba;

2) powtarzalność warunków eksperymentalnych uzasadniająca porównanie wyników różnych eksperymentów;

3) stabilność statystyczna.

Podejścia stochastycznego nie można oczywiście zastosować do pojedynczych eksperymentów: wyrażenia typu „prawdopodobieństwo, że jutro będzie padać”, „z prawdopodobieństwem 0,8 Zenit zdobędzie puchar” itp. są pozbawione sensu. Ale nawet jeśli eksperymenty są powszechne i powtarzalne, może nie być stabilności statystycznej, a sprawdzenie tego nie jest łatwym zadaniem. Znane oszacowania dopuszczalnego odchylenia częstotliwości od prawdopodobieństwa opierają się na centralnym twierdzeniu granicznym lub nierówności Czebyszewa i wymagają dodatkowych hipotez o niezależności lub słabej zależności pomiarów. Eksperymentalna weryfikacja warunku niezależności jest jeszcze trudniejsza, gdyż wymaga dodatkowych eksperymentów.

Metodologię i praktyczne przepisy dotyczące stosowania teorii prawdopodobieństwa przedstawiono bardziej szczegółowo w pouczającej książce V.N. Tutubalin, którego ideę dają poniższe cytaty:

„Niezwykle ważne jest wykorzenienie błędnego przekonania, które czasami pojawia się wśród inżynierów i przyrodników, którzy nie są dostatecznie zaznajomieni z teorią prawdopodobieństwa, że ​​wynik dowolnego eksperymentu można uznać za zmienną losową. W szczególnie ciężkich przypadkach towarzyszy temu wiara w normalne prawo rozkładu, a jeśli same zmienne losowe nie są normalne, to wierzą, że ich logarytmy są normalne”.

„Według współczesnych koncepcji zakres stosowania metod rachunku prawdopodobieństwa ogranicza się do zjawisk charakteryzujących się stabilnością statystyczną. Jednakże badanie stabilności statystycznej jest trudne i zawsze niekompletne i często daje negatywne wnioski. W rezultacie w całych dziedzinach wiedzy, na przykład w geologii, normą stało się podejście, w którym w ogóle nie sprawdza się stabilności statystycznej, co nieuchronnie prowadzi do poważnych błędów. Ponadto propaganda cybernetyki podejmowana przez naszych czołowych naukowców dała (w niektórych przypadkach!) nieco nieoczekiwany rezultat: obecnie uważa się, że tylko maszyna (a nie człowiek) jest w stanie uzyskać obiektywne wyniki naukowe.

W takich okolicznościach obowiązkiem każdego nauczyciela jest wciąż na nowo propagować tę starą prawdę, którą Piotr I próbował (bezskutecznie) wpajać rosyjskim kupcom: że trzeba handlować uczciwie, bez oszukiwania, bo w ostatecznym rozrachunku bardziej się to opłaca się."

Jak zbudować model systemu, jeśli problem jest niepewny, ale podejście stochastyczne nie ma zastosowania? Poniżej pokrótce przedstawiamy jedno z alternatywnych podejść, oparte na teorii zbiorów rozmytych.


Przypominamy, że relacja (relacja pomiędzy i) jest podzbiorem zbioru. te. jakiś zbiór par R=(( X, Na)), Gdzie,. Na przykład połączenie funkcjonalne (zależność) można przedstawić jako relację między zbiorami, w tym parami ( X, Na), dla którego.

W najprostszym przypadku R jest relacją tożsamościową jeśli.

Przykłady 12-15 w tabeli. 1. 1 zostały wynalezione w 1988 roku przez ucznia 86. klasy szkoły 292 M. Koroteeva.

Matematyk tutaj oczywiście zauważy, że minimum w (1.4), ściśle rzecz biorąc, może nie zostać osiągnięte i przy formułowaniu (1.4) konieczne jest zastąpienie rnin przez inf („infimum” jest dokładnym infimum ustawić). Nie zmieni to jednak sytuacji: formalizacja w tym przypadku nie oddaje istoty zadania, tj. przeprowadzone nieprawidłowo. Aby w przyszłości nie „przestraszyć” inżyniera, będziemy używać zapisu min, max; mając na uwadze, że w razie potrzeby należy je zastąpić bardziej ogólnymi inf, sup.

Tutaj termin „struktura” jest używany w nieco węższym znaczeniu, jak w podrozdziale. 1.1 i oznacza skład podsystemów w systemie oraz rodzaje połączeń między nimi.

Wykres jest parą ( G, R), gdzie G=(g 1 ... g n) jest skończonym zbiorem wierzchołków, a - stosunek binarny do G. Wtedy i tylko wtedy, gdy graf nazywamy nieskierowanym, w przeciwnym razie – skierowanym. Pary nazywane są łukami (krawędziami) i elementami zbioru G- wierzchołki grafu.

To znaczy algebraiczne lub transcendentalne.

Ściśle rzecz biorąc, zbiór przeliczalny jest pewną idealizacją, która nie może być zrealizowana w praktyce ze względu na skończone rozmiary systemów technicznych i ograniczenia ludzkiej percepcji. Takie wyidealizowane modele (na przykład zbiór liczb naturalnych N=(1, 2,...)) ma sens wprowadzenie dla zbiorów, które są skończone, ale mają wstępnie nieograniczoną (lub nieznaną) liczbę elementów.

Formalnie pojęcie operacji jest szczególnym przypadkiem pojęcia relacji pomiędzy elementami zbiorów. Na przykład operacja dodawania dwóch liczb określa relację 3-miejscową (trójskładnikową). R: trzy liczby (x, y, z) z) należy do relacji R(piszemy (x,y,z)), jeśli z = x+y.

Liczba zespolona, ​​argument wielomianów A(), W().

Założenie to często spotyka się w praktyce.

Jeśli wielkość nie jest znana, należy ją zastąpić w (2.33) oszacowaniem, gdzie W tym przypadku wielkość nie będzie już rozłożona normalnie, ale zgodnie z prawem Studenta, którego praktycznie nie da się odróżnić od normalnego.

Łatwo zauważyć, że (2.34) jest szczególnym przypadkiem (2.32), gdy weźmiemy pod uwagę, że zdarzenie A przyszedł J- eksperymentuję, w przeciwnym razie. W której

A dzisiaj można dodać „...i informatykę” (przyp. autora).

Modele stochastyczne

Jak wspomniano powyżej, modele stochastyczne są modelami probabilistycznymi. Ponadto w wyniku obliczeń można z wystarczającym prawdopodobieństwem stwierdzić, jaka będzie wartość analizowanego wskaźnika w przypadku zmiany współczynnika. Najczęstszym zastosowaniem modeli stochastycznych jest prognozowanie.

Modelowanie stochastyczne jest w pewnym stopniu uzupełnieniem i pogłębieniem deterministycznej analizy czynnikowej. W analizie czynnikowej modele te są stosowane z trzech głównych powodów:

  • konieczne jest badanie wpływu czynników, dla których nie da się zbudować ściśle określonego modelu czynnikowego (np. poziomu dźwigni finansowej);
  • konieczne jest zbadanie wpływu czynników złożonych, których nie można połączyć w tym samym ściśle określonym modelu;
  • konieczne jest zbadanie wpływu złożonych czynników, których nie można wyrazić jednym wskaźnikiem ilościowym (na przykład poziomem postępu naukowo-technologicznego).

W przeciwieństwie do podejścia ściśle deterministycznego, podejście stochastyczne wymaga spełnienia szeregu warunków wstępnych:

  1. obecność populacji;
  2. wystarczająca liczba obserwacji;
  3. losowość i niezależność obserwacji;
  4. jednolitość;
  5. obecność rozkładu cech zbliżonych do normalnego;
  6. obecność specjalnego aparatu matematycznego.

Budowa modelu stochastycznego odbywa się w kilku etapach:

  • analiza jakościowa (ustalenie celu analizy, zdefiniowanie populacji, określenie charakterystyki efektywnej i czynnikowej, wybór okresu, dla którego przeprowadzana jest analiza, wybór metody analizy);
  • wstępna analiza symulowanej populacji (sprawdzenie jednorodności populacji, wykluczenie obserwacji anomalnych, wyjaśnienie wymaganej liczebności próby, ustalenie praw dystrybucji badanych wskaźników);
  • konstrukcja modelu stochastycznego (regresji) (wyjaśnienie listy czynników, obliczenie oszacowań parametrów równania regresji, wyliczenie konkurencyjnych opcji modelu);
  • ocena adekwatności modelu (sprawdzenie istotności statystycznej równania jako całości i jego poszczególnych parametrów, sprawdzenie zgodności własności formalnych oszacowań z celami badania);
  • interpretacja ekonomiczna i praktyczne wykorzystanie modelu (określenie stabilności czasoprzestrzennej konstruowanej zależności, ocena właściwości praktycznych modelu).

Podstawowe pojęcia analizy korelacji i regresji

Analiza korelacji - zbiór metod statystyki matematycznej umożliwiających szacowanie współczynników charakteryzujących korelację pomiędzy zmiennymi losowymi i testowanie hipotez o ich wartościach na podstawie obliczeń ich przykładowych analogów.

Analiza korelacji to metoda przetwarzania danych statystycznych polegająca na badaniu współczynników (korelacji) pomiędzy zmiennymi.

Korelacja(co nazywa się również niepełnym lub statystycznym) objawia się średnio w przypadku obserwacji masowych, gdy danym wartościom zmiennej zależnej odpowiadają określonej liczbie prawdopodobnych wartości zmiennej niezależnej. Wyjaśnieniem tego jest złożoność relacji pomiędzy analizowanymi czynnikami, na których interakcję wpływają nieuwzględnione zmienne losowe. Dlatego związek między znakami pojawia się tylko średnio, w masie przypadków. W połączeniu korelacyjnym każda wartość argumentu odpowiada wartościom funkcji losowo rozłożonym w określonym przedziale.

W najbardziej ogólnej formie zadaniem statystyki (i odpowiednio analizy ekonomicznej) w dziedzinie badania zależności jest ilościowe określenie ich obecności i kierunku, a także scharakteryzowanie siły i formy wpływu niektórych czynników na inne. Aby go rozwiązać, stosuje się dwie grupy metod, z których jedna obejmuje metody analizy korelacji, a druga - analizę regresji. Jednocześnie wielu badaczy łączy te metody w analizę korelacji-regresji, która ma pewne podstawy: obecność szeregu ogólnych procedur obliczeniowych, komplementarność w interpretacji wyników itp.

Dlatego też w tym kontekście można mówić o szeroko rozumianej analizie korelacji – gdy zależność jest kompleksowo scharakteryzowana. Jednocześnie mamy do czynienia z analizą korelacji w wąskim znaczeniu – kiedy bada się siłę powiązania – oraz analizą regresji, podczas której ocenia się jego formę oraz wpływ jednych czynników na inne.

Same zadania analiza korelacji sprowadzają się do pomiaru bliskości związku między różnymi cechami, ustalenia nieznanych związków przyczynowych i oceny czynników, które mają największy wpływ na wynikową cechę.

Zadania Analiza regresji leżą w obszarze ustalenia postaci zależności, wyznaczenia funkcji regresji i wykorzystania równania do oszacowania nieznanych wartości zmiennej zależnej.

Rozwiązanie tych problemów opiera się na odpowiednich technikach, algorytmach i wskaźnikach, co daje podstawy do mówienia o statystycznym badaniu zależności.

Należy zauważyć, że tradycyjne metody korelacji i regresji są szeroko reprezentowane w różnych pakietach oprogramowania statystycznego dla komputerów. Badacz może jedynie prawidłowo przygotować informacje, wybrać pakiet oprogramowania spełniający wymagania analizy i być gotowym do interpretacji uzyskanych wyników. Istnieje wiele algorytmów obliczania parametrów komunikacji i obecnie nie jest wskazane ręczne przeprowadzanie tak złożonego rodzaju analizy. Procedury obliczeniowe stanowią przedmiot niezależnego zainteresowania, jednak warunkiem prowadzenia badań jest znajomość zasad badania zależności, możliwości i ograniczeń niektórych metod interpretacji wyników.

Metody oceny siły połączenia dzielą się na korelacyjne (parametryczne) i nieparametryczne. Metody parametryczne opierają się z reguły na szacunkach rozkładu normalnego i są stosowane w przypadkach, gdy badana populacja składa się z wartości zgodnych z prawem rozkładu normalnego. W praktyce stanowisko to jest najczęściej akceptowane a priori. W rzeczywistości metody te są parametryczne i zwykle nazywane są metodami korelacyjnymi.

Metody nieparametryczne nie nakładają ograniczeń na prawo rozkładu badanych wielkości. Ich zaletą jest prostota obliczeń.

Autokorelacja- zależność statystyczna pomiędzy zmiennymi losowymi z tego samego szeregu, ale wzięta z przesunięciem, np. dla procesu losowego - z przesunięciem czasowym.

Korelacja parami



Najprostszą techniką identyfikacji związku między dwiema cechami jest konstrukcja tabela korelacji:

\Y\X\ T 1 Y2 ... Y z Całkowity Y ja
X 1 f 11 ... f 1z
X 1 f 21 ... f 2z
... ... ... ... ... ... ...
Xr f k1 k2 ... f kz
Całkowity ... N
... -

Grupowanie opiera się na dwóch cechach badanych w relacji - X i Y. Częstotliwości f ij pokazują liczbę odpowiednich kombinacji X i Y.

Jeżeli f ij znajdują się w tabeli losowo, możemy mówić o braku powiązania pomiędzy zmiennymi. W przypadku powstania dowolnej kombinacji charakterystycznej f ij, dopuszczalne jest stwierdzenie związku pomiędzy X i Y. Co więcej, jeśli f ij jest skupione w pobliżu jednej z dwóch przekątnych, zachodzi bezpośrednie lub odwrotne połączenie liniowe.

Wizualną reprezentacją tabeli korelacji jest pole korelacyjne. Jest to wykres, na którym wartości X są wykreślone na osi odciętych, wartości Y na osi rzędnych, a kombinacja X i Y jest pokazana za pomocą kropek. w określonym kierunku, można ocenić obecność połączenia.

Pole korelacji nazywa się zbiorem punktów (X i, Y i) na płaszczyźnie XY (rysunki 6.1 - 6.2).

Jeżeli punkty pola korelacji tworzą elipsę, której główna przekątna ma dodatni kąt nachylenia (/), wówczas zachodzi korelacja dodatnia (przykład takiej sytuacji można zobaczyć na rysunku 6.1).

Jeżeli punkty pola korelacji tworzą elipsę, której główna przekątna ma ujemny kąt nachylenia (\), wówczas zachodzi korelacja ujemna (przykład pokazano na rysunku 6.2).

Jeśli w lokalizacji punktów nie ma wzoru, wówczas mówią, że w tym przypadku korelacja jest zerowa.

W wynikach tabeli korelacji podane są w wierszach i kolumnach dwa rozkłady – jeden dla X, drugi dla Y. Obliczmy średnią wartość Y dla każdego Xi, czyli: , Jak

Ciąg punktów (X i, ) daje wykres ilustrujący zależność średniej wartości efektywnej cechy Y od współczynnika X, – empiryczna linia regresji, wyraźnie pokazując, jak Y zmienia się wraz ze zmianami X.

Zasadniczo zarówno tablica korelacji, pole korelacji, jak i empiryczna linia regresji już wstępnie charakteryzują zależność w momencie wybrania czynnika i charakterystyk wypadkowych i konieczne jest sformułowanie założeń co do formy i kierunku zależności. Jednocześnie ilościowa ocena szczelności połączenia wymaga dodatkowych obliczeń.