Metody matematyczne w badaniach. Budowa dużej matrycy

W historii matematyki możemy z grubsza wyróżnić dwa główne okresy: matematykę elementarną i matematykę nowożytną. Kamieniem milowym, od którego zwyczajowo liczy się erę nowej (czasami nazywanej wyższej) matematyki, był XVII wiek - wiek pojawienia się analizy matematycznej. Do końca XVII wieku. I. Newton, G. Leibniz i ich poprzednicy stworzyli aparat nowego rachunku różniczkowego i rachunku całkowego, który stanowi podstawę analizy matematycznej, a być może nawet matematyczną podstawę wszystkich współczesnych nauk przyrodniczych.

Analiza matematyczna to szeroka dziedzina matematyki z charakterystycznym przedmiotem badań (ilość zmienna), unikalną metodą badawczą (analiza za pomocą nieskończenie małych lub za pomocą przejść do granic), pewnym systemem podstawowych pojęć (funkcja, granica, pochodna , różniczkowy, całkowy, szeregowy) oraz stale udoskonalany i rozwijający się aparat, którego podstawą jest rachunek różniczkowy i całkowy.

Spróbujmy dać wyobrażenie, jaki rodzaj rewolucji matematycznej nastąpił w XVII wieku, czym charakteryzuje się przejście związane z narodzinami analizy matematycznej od matematyki elementarnej do tego, co jest obecnie przedmiotem badań analizy matematycznej i co wyjaśnia jej fundamentalną rolę w całym współczesnym systemie wiedzy teoretycznej i stosowanej.

Wyobraź sobie, że masz przed sobą pięknie wykonaną kolorową fotografię burzliwej fali oceanu pędzącej na brzeg: potężnie pochylone plecy, stroma, ale lekko zapadnięta klatka piersiowa, głowa już pochylona do przodu i gotowa do upadku z szarą grzywą dręczoną przez wiatr. Zatrzymałeś moment, udało Ci się złapać falę i teraz możesz bez pośpiechu dokładnie ją przestudiować w każdym szczególe. Falę można zmierzyć i korzystając z narzędzi elementarnej matematyki można wyciągnąć wiele ważnych wniosków na temat tej fali, a co za tym idzie, wszystkich jej oceanicznych sióstr. Ale zatrzymując falę, pozbawiliście ją ruchu i życia. Jego pochodzenie, rozwój, bieg, siła, z jaką uderza w brzeg – to wszystko okazało się poza twoim polem widzenia, bo nie masz jeszcze ani języka, ani aparatu matematycznego odpowiedniego do opisu i badania nie statycznego, ale rozwój, procesy dynamiczne, zmienne i ich relacje.

„Analiza matematyczna jest nie mniej wszechstronna niż sama natura: określa wszystkie namacalne relacje, mierzy czasy, przestrzenie, siły, temperatury”. J. Fouriera

Ruch, zmienne i ich relacje otaczają nas wszędzie. Głównym przedmiotem badań nauk szczegółowych: fizyki, geologii, biologii, socjologii itp. są różne rodzaje ruchu i ich wzorce. Dlatego we wszystkich obszarach nauki niezbędny okazał się precyzyjny język i odpowiadające mu metody matematyczne do opisu i badania wielkości zmiennych. wiedza w mniej więcej takim samym stopniu, jak liczby i arytmetyka są niezbędne przy opisywaniu zależności ilościowych. Zatem analiza matematyczna stanowi podstawę języka i matematycznych metod opisu zmiennych i ich relacji. W dzisiejszych czasach bez analizy matematycznej nie da się nie tylko obliczyć trajektorii kosmicznych, działania reaktorów jądrowych, ruchu fal oceanicznych i wzorców rozwoju cyklonów, ale także ekonomicznie zarządzać produkcją, dystrybucją zasobów, organizacją procesów technologicznych, przewidywać przebieg reakcji chemicznych czy zmiany w liczbie różnych gatunków wzajemnie powiązanych w przyrodzie zwierząt i roślin, bo to wszystko są procesy dynamiczne.

Matematyka elementarna była głównie matematyką wielkości stałych, badała głównie zależności pomiędzy elementami figur geometrycznych, właściwości arytmetyczne liczb i równania algebraiczne. Jego stosunek do rzeczywistości można w pewnym stopniu porównać do uważnego, wręcz dokładnego i pełnego przestudiowania każdej ustalonej klatki filmu, który w swoim ruchu uchwycił zmieniający się, rozwijający się świat żywy, który jednak nie jest widoczny w osobnej klatce i co można zaobserwować jedynie patrząc na taśmę jako całość. Ale tak jak kino jest nie do pomyślenia bez fotografii, tak współczesna matematyka jest niemożliwa bez tej jej części, którą umownie nazywamy elementarną, bez idei i osiągnięć wielu wybitnych naukowców, czasami oddalonych od siebie dziesiątkami wieków.

Matematyka jest zjednoczona, a jej „wyższa” część łączy się z częścią „podstawową” w podobny sposób, w jaki kolejne piętro w budowanym domu łączy się z poprzednim, a szerokość horyzontów, jakie otwiera matematyka dla nas w otaczającym nas świecie zależy od tego, na które piętro tego budynku udało nam się dotrzeć. Urodzony w XVII wieku. analiza matematyczna otworzyła przed nami możliwości naukowego opisu, ilościowego i jakościowego badania zmiennych oraz ruchu w szerokim tego słowa znaczeniu.

Jakie są przesłanki powstania analizy matematycznej?

Do końca XVII wieku. Powstała następująca sytuacja. Po pierwsze, w ramach samej matematyki na przestrzeni wielu lat narosły pewne ważne klasy problemów tego samego typu (na przykład problemy pomiaru pól i objętości figur niestandardowych, problemy rysowania stycznych do krzywych) oraz metody pojawiło się rozwiązywanie ich w różnych szczególnych przypadkach. Po drugie, okazało się, że problemy te są ściśle powiązane z problemami opisu dowolnego (niekoniecznie jednolitego) ruchu mechanicznego, a w szczególności z obliczeniem jego charakterystyk chwilowych (prędkość, przyspieszenie w dowolnym momencie), a także ze znalezieniem odległość przebyta w przypadku ruchu występującego przy danej zmiennej prędkości. Rozwiązanie tych problemów było konieczne dla rozwoju fizyki, astronomii i techniki.

Wreszcie, po trzecie, do połowy XVII wieku. prace R. Kartezjusza i P. Fermata położyły podwaliny pod analityczną metodę współrzędnych (tzw. geometrię analityczną), która umożliwiła formułowanie problemów geometrycznych i fizycznych heterogenicznego pochodzenia w ogólnym (analitycznym) języku liczb i zależności numeryczne, czyli, jak teraz mówimy, funkcje numeryczne.

NIKOLAY NIKOLAEVICH LUZIN
(1883-1950)

N. N. Luzin – radziecki matematyk, założyciel radzieckiej szkoły teorii funkcji, akademik (1929).

Luzin urodził się w Tomsku i studiował w tomskim gimnazjum. Formalizm zajęć z matematyki w gimnazjum zniechęcił utalentowanego młodego człowieka i tylko zdolny nauczyciel był w stanie odkryć przed nim piękno i wielkość nauk matematycznych.

W 1901 r. Luzin wstąpił na wydział matematyki Wydziału Fizyki i Matematyki Uniwersytetu Moskiewskiego. Od pierwszych lat studiów w kręgu jego zainteresowań znalazły się zagadnienia związane z nieskończonością. Pod koniec XIX wieku. Niemiecki naukowiec G. Cantor stworzył ogólną teorię zbiorów nieskończonych, która znalazła liczne zastosowania w badaniu funkcji nieciągłych. Luzin zaczął zgłębiać tę teorię, jednak w 1905 roku przerwano mu studia. Student, który brał udział w działalności rewolucyjnej, musiał na jakiś czas wyjechać do Francji. Tam słuchał wykładów najwybitniejszych matematyków francuskich tamtych czasów. Po powrocie do Rosji Luzin ukończył uniwersytet i musiał przygotować się do objęcia stanowiska profesora. Wkrótce ponownie wyjechał do Paryża, a następnie do Getyngi, gdzie zetknął się z wieloma naukowcami i napisał swoje pierwsze prace naukowe. Głównym problemem, który interesował naukowca, było pytanie, czy mogą istnieć zbiory zawierające więcej elementów niż zbiór liczb naturalnych, ale mniej niż zbiór punktów na odcinku (problem kontinuum).

Dla dowolnego zbioru nieskończonego, który można otrzymać z odcinków za pomocą operacji sumy i przecięcia przeliczalnych zbiorów zbiorów, hipoteza ta została spełniona i aby rozwiązać problem, należało dowiedzieć się, jakie są inne sposoby konstruowania zbiorów . Jednocześnie Luzin badał, czy można przedstawić dowolną funkcję okresową, nawet o nieskończenie wielu punktach nieciągłości, jako sumę szeregu trygonometrycznego, tj. suma nieskończonej liczby drgań harmonicznych. Luzin uzyskał w tych zagadnieniach szereg znaczących wyników i w 1915 roku obronił rozprawę „Seria całkowa i trygonometryczna”, za którą od razu uzyskał stopień naukowy doktora czystej matematyki, z pominięciem istniejącego wówczas stopnia pośredniego magistra.

W 1917 Luzin został profesorem na Uniwersytecie Moskiewskim. Utalentowany nauczyciel, przyciągał najzdolniejszych uczniów i młodych matematyków. Szkoła Luzina osiągnęła swój szczyt w pierwszych latach porewolucyjnych. Uczniowie Luzina utworzyli kreatywny zespół, który żartobliwie nazwali „Lusitanią”. Wielu z nich już w czasie studiów uzyskało pierwszorzędne wyniki naukowe. Na przykład P. S. Aleksandrow i M. Ya. Suslin (1894-1919) odkryli nową metodę konstruowania zbiorów, która stała się początkiem rozwoju nowego kierunku - opisowej teorii mnogości. Badania w tym zakresie przeprowadzone przez Luzina i jego uczniów wykazały, że zwykłe metody teorii mnogości nie wystarczą do rozwiązania wielu problemów w niej pojawiających się. Naukowe przewidywania Luzina w pełni potwierdziły się w latach 60-tych. XX wiek Wielu uczniów N. N. Luzina zostało później pracownikami akademickimi i członkami-korespondentami Akademii Nauk ZSRR. Wśród nich jest P. S. Aleksandrow. A. N. Kołmogorowa. M. A. Lavrentyev, L. A. Lyusternik, D. E. Menshov, P. S. Novikov. LG Shnirelman i inni.

Współcześni matematycy radzieccy i zagraniczni w swoich pracach rozwijają idee N. N. Luzina.

Zbieg tych okoliczności spowodował, że pod koniec XVII w. dwóm naukowcom - I. Newtonowi i G. Leibnizowi - udało się niezależnie od siebie stworzyć aparat matematyczny do rozwiązywania tych problemów, podsumowując i uogólniając poszczególne wyniki swoich poprzedników, w tym starożytnego naukowca Archimedesa oraz współczesnych Newtonowi i Leibnizowi - B. Cavalieri, B. Pascal, D. Gregory, I. Barrow. Aparat ten stał się podstawą analizy matematycznej – nowej gałęzi matematyki badającej różne procesy rozwojowe, tj. zależności między zmiennymi, które w matematyce nazywane są zależnościami funkcjonalnymi lub innymi słowy funkcjami. Nawiasem mówiąc, sam termin „funkcja” był wymagany i naturalnie powstał właśnie w XVII wieku i do tej pory nabrał nie tylko ogólnego znaczenia matematycznego, ale także ogólnego naukowego.

Wstępne informacje o podstawowych pojęciach i matematycznym aparacie analizy podano w artykułach „Rachunek różniczkowy” i „Rachunek całkowy”.

Podsumowując, chciałbym zatrzymać się tylko na jednej zasadzie abstrakcji matematycznej, wspólnej dla całej matematyki i charakterystycznej dla analizy, i w związku z tym wyjaśnić, w jakiej formie analiza matematyczna bada zmienne i jaki jest sekret takiej uniwersalności jej metod badania wszelkiego rodzaju specyficzne procesy rozwojowe i ich wzajemne powiązania.

Spójrzmy na kilka ilustrujących przykładów i analogii.

Czasami nie zdajemy sobie już sprawy, że np. relacja matematyczna zapisana nie dla jabłek, krzeseł czy słoni, ale w abstrakcyjnej formie wyabstrahowanej z konkretnych obiektów, jest wybitnym osiągnięciem naukowym. Jest to prawo matematyczne, które, jak pokazuje doświadczenie, ma zastosowanie do różnych konkretnych obiektów. Oznacza to, że badając w matematyce ogólne właściwości abstrakcyjnych, abstrakcyjnych liczb, badamy w ten sposób ilościowe relacje w świecie rzeczywistym.

Przykładowo ze szkolnego kursu matematyki wiadomo, że zatem w konkretnej sytuacji można powiedzieć: „Jeśli nie dadzą mi dwóch sześciotonowych wywrotek do przewiezienia 12 ton ziemi, to mogę poprosić za trzy czterotonowe wywrotki i praca zostanie wykonana, a jeśli dadzą mi tylko jedną czterotonową wywrotkę, to będzie musiała wykonać trzy loty. Zatem znane nam obecnie abstrakcyjne liczby i wzorce numeryczne są powiązane z ich specyficznymi przejawami i zastosowaniami.

Prawa zmian określonych zmiennych i procesy rozwojowe natury są w przybliżeniu w ten sam sposób powiązane z abstrakcyjną, abstrakcyjną formą-funkcją, w której się pojawiają i są badane w analizie matematycznej.

Na przykład abstrakcyjny wskaźnik może odzwierciedlać zależność sprzedaży biletów w kinie od liczby sprzedanych biletów, jeśli 20 to 20 kopiejek - cena jednego biletu. Jeśli jednak jedziemy rowerem po autostradzie, jadąc 20 km na godzinę, to ten sam stosunek można zinterpretować jako stosunek czasu (godzin) naszej podróży rowerowej do przebytej w tym czasie odległości (kilometrów). zawsze mów, że np. kilkukrotna zmiana prowadzi do proporcjonalnej (tj. takiej samej liczby razy) zmiany wartości , a jeśli , to wniosek odwrotny również jest prawdziwy. Oznacza to w szczególności, że aby podwoić sprzedaż biletów w kinie, trzeba będzie przyciągnąć dwa razy więcej widzów, a żeby na rowerze z tą samą prędkością przejechać dwa razy dalej, trzeba będzie jechać dwa razy dłużej .

Matematyka bada zarówno najprostszą zależność, jak i inne, znacznie bardziej złożone zależności, w ogólnej, abstrakcyjnej formie, wyabstrahowanej z określonej interpretacji. Zidentyfikowane w takim badaniu właściwości funkcji lub metody badania tych właściwości będą miały charakter ogólnych technik matematycznych, wniosków, praw i wniosków mających zastosowanie do każdego konkretnego zjawiska, w którym występuje badana funkcja w formie abstrakcyjnej, niezależnie od tego, w jakim obszarze wiedzy, do której należy to zjawisko.

Tak więc analiza matematyczna jako gałąź matematyki ukształtowała się pod koniec XVII wieku. Przedmiotem badań analizy matematycznej (jak wynika ze stanowisk współczesnych) są funkcje, czyli innymi słowy zależności między wielkościami zmiennymi.

Wraz z pojawieniem się analizy matematycznej matematyka stała się dostępna do badania i odzwierciedlania procesów rozwijających się w świecie rzeczywistym; matematyka obejmowała zmienne i ruch.

Badania matematyczne ze względu na swoją uniwersalność znajdują zastosowanie w obszarach bardzo odległych od matematyki. Tłumaczy się to tym, że każdy przepis, reguła czy prawo zapisane w języku matematycznym staje się narzędziem przewidywania (prognozowania), co jest najważniejszym zadaniem każdego badania naukowego.

Podstawą matematyki tradycyjnej (klasycznej) jest system aksjomatów, z których poprzez dedukcję otrzymuje się wyniki, przedstawiane w postaci lematów, twierdzeń itp. Otrzymane na ich podstawie rozwiązania analityczne są dokładne w granicy. W ramach tych metod bada się kwestie istnienia rozwiązań, ich jednoznaczności, a także stabilności i zbieżności do rozwiązań absolutnie dokładnych przy nieograniczonym wzroście ich liczby.

Rozwój takich metod przyczynia się do rozwoju samej matematyki (pojawienie się nowych gałęzi i kierunków). Jednak przy rozwiązywaniu wielu stosowanych problemów okazują się one nieskuteczne, gdyż aby z nich skorzystać konieczne jest wprowadzenie wielu założeń, co prowadzi do tego, że model matematyczny badanego procesu okazuje się znacząco różnić od rzeczywistego proces fizyczny.

W związku z tym powstała gałąź matematyki zwana Matematyka stosowana. Główną różnicą od tradycyjnego jest to, że znajdziemy tu nie dokładne, ale przybliżone rozwiązanie z dokładnością wystarczającą do zastosowań inżynierskich, ale bez uwzględnienia założeń przyjętych w ramach matematyki klasycznej. Dokładność uzyskanych rozwiązań ocenia się poprzez porównanie z dokładnymi rozwiązaniami dowolnych problemów testowych lub z wynikami badań eksperymentalnych.

Metody matematyki stosowanej obejmują wariacyjne (Ritz, Trefftz, Kantorovich i in.), ortogonalne metody reszt ważonych (Bubnov-Galerkin, Kantorovich), kolokacje, momenty, najmniejsze kwadraty itp.; metody wariacyjno-różnicowe (elementy skończone, elementy brzegowe, metoda spektralna itp.) - Wszystkie należą do grupy tzw. metody bezpośrednie- są to takie przybliżone metody analityczne rozwiązywania problemów fizyki matematycznej, które sprowadzają rozwiązywanie równań różniczkowych i całkowych do rozwiązywania układów algebraicznych równań liniowych. Przyjrzyjmy się pokrótce chronologii rozwoju tych metod i ich istocie fizycznej.

W 1662 roku francuski matematyk P. Fermat sformułował prawo załamania światła na granicy dwóch ośrodków w następujący sposób: wszystkich możliwych dróg światła z punktu A wskazać W realizowany jest ten, w którym czas ruchu osiąga minimum. Było to jedno z pierwszych sformułowań zasady wariacyjnej.

W 1696 r. I. Bernoulli sformułował problem znalezienia długości drogi (trajektorii), po której punkt materialny przemieszcza się z punktu A pod wpływem samej grawitacji dociera do punktu w najkrótszym czasie W. Znalezienie takiej krzywej, tzw brachistochrona(najbardziej stroma krzywa opadania), sprowadza się do określenia minimum funkcjonału

w warunkach brzegowych Na (0) = 0; y(a) = ya, które są współrzędnymi punktu początkowego i końcowego ruchu.

Tutaj T - czas najbardziej stromego zejścia; G- przyspieszenie spowodowane grawitacją.

Wprowadzenie funkcjonalności (A) zapoczątkował pojawienie się rachunku wariacyjnego. Takie funkcjonały są zazwyczaj zapisywane w następujący sposób:

w warunkach brzegowych y(a) = A = stała, y(b) = B= stała

Zwykle w zagadnieniach fizyki matematycznej spotyka się ekstrema niektórych funkcji Na = y(x). Znaczenie rachunku wariacyjnego polega na tym, że wyznaczane są tutaj ekstrema wielkości bardziej złożonych niż funkcje - ekstrema funkcjonałów J =J z funkcji y(x). W związku z tym otworzyły się możliwości badania nowych obiektów fizycznych i rozwoju nowych kierunków matematycznych.

W 1774 r. L. Euler wykazał, że jeśli funkcja y(x) dostarcza minimum do całki liniowej J = J[y(x), wówczas musi spełniać pewne równania różniczkowe, zwane dalej Równania Eulera. Odkrycie tego faktu było ważnym osiągnięciem w modelowaniu matematycznym (budowaniu modeli matematycznych). Stało się jasne, że ten sam model matematyczny można przedstawić w dwóch równoważnych postaciach: w postaci funkcjonału lub w postaci równania różniczkowego Eulera (układu równań różniczkowych). W związku z tym nazywa się zastąpienie równania różniczkowego funkcjonałem Problem odwrotny rachunku wariacyjnego. Zatem rozwiązanie problemu ekstremum funkcjonału można rozpatrywać w taki sam sposób, jak rozwiązanie równania różniczkowego Eulera odpowiadającego temu funkcjonałowi. W konsekwencji matematyczne sformułowanie tego samego problemu fizycznego można przedstawić albo w postaci funkcjonału z odpowiednimi warunkami brzegowymi (ekstremum tego funkcjonału daje rozwiązanie problemu fizycznego), albo w postaci równania różniczkowego Eulera odpowiadającego do tego funkcjonału przy tych samych warunkach brzegowych (całkowanie tego równania zapewnia rozwiązanie problemu).

Do powszechnego upowszechnienia metod wariacyjnych w naukach stosowanych przyczyniło się pojawienie się w 1908 roku publikacji W. Ritza, związanej z metodą minimalizacji funkcjonałów, zwaną później Metoda Ritza. Metodę tę uważa się za klasyczną metodę wariacyjną. Jego główną ideą jest pożądana funkcja y = y(x) y dostarczanie funkcjonału (A ) Z warunki brzegowe y (a) = A, y (b) = W wartość minimalna, szukana jako seria

Gdzie Cj (ja = 0, yy) - nieznane współczynniki; (r/(d) (r = 0, P) - funkcje współrzędnych (polip algebraiczny lub trygonometryczny).

Funkcje współrzędnych mają taką postać, że dokładnie spełniają warunki brzegowe problemu.

Podstawiając (c) do (A), po określeniu pochodnych funkcjonału J z niewiadomych C, (r = 0, r) w odniesieniu do tego ostatniego otrzymuje się układ algebraicznych równań liniowych. Po określeniu współczynników C rozwiązanie problemu w postaci zamkniętej znajduje się na podstawie (c).

W przypadku użycia dużej liczby terminów serii (c) (P- 5? °о) w zasadzie możliwe jest otrzymanie rozwiązania o wymaganej dokładności. Jednak jak pokazać obliczenia konkretnych problemów, macierz współczynników C, (g = 0, P) jest wypełnioną macierzą kwadratową z dużym rozrzutem współczynników w wartościach bezwzględnych. Takie macierze są bliskie osobliwości i z reguły są źle uwarunkowane. Dzieje się tak dlatego, że nie spełniają one żadnego z warunków, w jakich matryce mogą być dobrze uwarunkowane. Przyjrzyjmy się niektórym z tych warunków.

  • 1. Dodatnia określoność macierzy (wyrazy znajdujące się na głównej przekątnej muszą być dodatnie i maksymalne).
  • 2. Widok wstęgowy matrycy względem przekątnej głównej przy minimalnej szerokości taśmy (współczynniki matrycy znajdujące się na zewnątrz taśmy są równe zeru).
  • 3. Symetryczność macierzy względem głównej przekątnej.

Pod tym względem wraz ze wzrostem przybliżeń w metodzie Ritza liczba warunku macierzy, określona przez stosunek jej maksymalnej do minimalnej wartości własnej, dąży do nieskończenie dużej wartości. A dokładność powstałego rozwiązania, ze względu na szybkie narastanie błędów zaokrągleń podczas rozwiązywania dużych układów algebraicznych równań liniowych, może nie poprawić się, ale pogorszyć.

Wraz z metodą Ritza rozwinęła się pokrewna metoda Galerkina. W 1913 r. I. G. Bubnov ustalił, że algebraiczne równania liniowe ze względu na niewiadome C, (/ = 0, P) z (c) można otrzymać bez użycia funkcjonału postaci (A). Matematyczne sformułowanie problemu w tym przypadku obejmuje równanie różniczkowe z odpowiednimi warunkami brzegowymi. Rozwiązanie, podobnie jak w metodzie Ritza, wykonuje się w postaci (c). Dzięki specjalnemu zaprojektowaniu funkcji współrzędnych φ,(x) rozwiązanie (c) dokładnie spełnia warunki brzegowe problemu. Aby wyznaczyć nieznane współczynniki C, (g = 0, P) kompilowana jest rozbieżność równania różniczkowego i wymagane jest, aby rozbieżność była ortogonalna do wszystkich funkcji współrzędnych φ 7 Cr) (/ = ja = 0, P). Ustalanie odbiorców W tym przypadku istnieją całki względem nieznanych współczynników C, (G= 0, r) otrzymujemy układ algebraicznych równań liniowych całkowicie pokrywający się z układem podobnych równań metody Ritza. Zatem przy rozwiązywaniu tych samych problemów przy użyciu tych samych układów funkcji współrzędnych metody Ritza i Bubnova-Galerkina prowadzą do tych samych wyników.

Pomimo identyczności uzyskanych wyników, istotną zaletą metody Bubnova-Galerkina w porównaniu z metodą Ritza jest to, że nie wymaga ona konstrukcji wariacyjnego analogu (funkcjonalna) równania różniczkowego. Należy pamiętać, że nie zawsze można skonstruować taki analog. W połączeniu z tą metodą Bubnova-Galerkina można rozwiązać problemy, dla których nie można zastosować klasycznych metod wariacyjnych.

Kolejną metodą należącą do grupy wariacyjnej jest metoda Kantorowicza. Jego charakterystyczną cechą jest to, że nieznane współczynniki w kombinacjach liniowych typu (c) nie są stałymi, ale funkcjami zależnymi od jednej ze zmiennych niezależnych problemu (na przykład czasu). Tutaj, podobnie jak w metodzie Bubnova-Galerkina, zestawia się rozbieżność równania różniczkowego i wymaga się, aby rozbieżność była ortogonalna do wszystkich funkcji współrzędnych (ру(дг) (j = ja = 0, P). Po zdefiniowaniu całek po nieznanych funkcjach fj(x) będziemy mieli układ równań różniczkowych zwyczajnych pierwszego rzędu. Metody rozwiązywania takich układów są dobrze rozwinięte (dostępne są standardowe programy komputerowe).

Jednym z kierunków rozwiązywania problemów wartości brzegowych jest łączne stosowanie metod analitycznych dokładnych (przekształcenia Fouriera, całkowe itp.) i przybliżonych (reszty wariacyjne, reszty ważone, kolokacje itp.). Takie zintegrowane podejście pozwala najlepiej wykorzystać pozytywne aspekty tych dwóch najważniejszych urządzeń matematyki stosowanej, ponieważ możliwe staje się, bez przeprowadzania subtelnych i uciążliwych obliczeń matematycznych, uzyskanie wyrażeń w prostej formie, które są równoważne do głównej części rozwiązania dokładnego, składającej się z nieskończonego szeregu funkcjonalnego. Do obliczeń praktycznych z reguły stosuje się tę częściową sumę kilku terminów. Przy stosowaniu takich metod, aby uzyskać dokładniejsze wyniki w początkowym odcinku współrzędnej parabolicznej, konieczne jest wykonanie dużej liczby przybliżeń. Jednak z dużym P funkcje współrzędnych z sąsiednimi indeksami prowadzą do równań algebraicznych powiązanych zależnością niemal liniową. Macierz współczynników w tym przypadku, będąca wypełnioną macierzą kwadratową, jest bliska osobliwości i z reguły okazuje się źle uwarunkowana. I kiedy P- 3? °° rozwiązanie przybliżone może nie zbiegać się nawet do rozwiązania słabo dokładnego. Rozwiązywanie układów algebraicznych równań liniowych ze źle uwarunkowanymi macierzami stwarza znaczne trudności techniczne ze względu na szybką kumulację błędów zaokrągleń. Dlatego takie układy równań muszą być rozwiązywane z dużą dokładnością obliczeń pośrednich.

Szczególne miejsce wśród przybliżonych metod analitycznych, pozwalających otrzymać rozwiązania analityczne w początkowym odcinku współrzędnej czasu (parabolicznej), zajmują metody wykorzystujące koncepcję przed zaburzeniem temperatury. Według tych metod cały proces nagrzewania lub chłodzenia ciał formalnie dzieli się na dwa etapy. Pierwszy z nich charakteryzuje się stopniową propagacją frontu zaburzenia temperatury od powierzchni ciała do jego środka, drugi zaś zmianą temperatury w całej objętości ciała, aż do wystąpienia stanu stacjonarnego. Taki podział procesu cieplnego na dwa etapy w czasie pozwala na stopniowe rozwiązywanie problemów niestacjonarnego przewodnictwa cieplnego i dla każdego etapu z osobna, z reguły już w pierwszym przybliżeniu, znalezienie zadowalających wzorów obliczeniowych dokładność, dość prosta i wygodna w zastosowaniach inżynierskich. Metody te mają także istotną wadę, jaką jest konieczność apriorycznego wyboru zależności współrzędnych pożądanej funkcji temperatury. Zwykle akceptowane są parabole kwadratowe lub sześcienne. Ta niejednoznaczność rozwiązania rodzi problem dokładności, gdyż zakładając z góry taki czy inny profil pola temperatury, za każdym razem otrzymamy inne wyniki końcowe.

Wśród metod wykorzystujących ideę skończonej prędkości ruchu frontu zaburzenia temperatury najbardziej rozpowszechniona jest metoda całkowego bilansu cieplnego. Za jego pomocą cząstkowe równanie różniczkowe można sprowadzić do zwykłego równania różniczkowego przy zadanych warunkach początkowych, którego rozwiązanie często można otrzymać w zamkniętej formie analitycznej. Na przykład metodę całkową można zastosować do przybliżonego rozwiązywania problemów, gdy właściwości termofizyczne nie są stałe, ale są określone przez złożoną zależność funkcjonalną oraz problemy, w których oprócz przewodności cieplnej należy również wziąć pod uwagę konwekcję. Metoda całkowa ma także wspomnianą powyżej wadę – aprioryczny wybór profilu temperaturowego, co rodzi problem jednoznaczności rozwiązania i prowadzi do jego małej dokładności.

Liczne przykłady zastosowania metody całkowej do rozwiązywania problemów przewodzenia ciepła podano w pracy T. Goodmana. W pracy tej, oprócz ilustracji wielkich możliwości, ukazano także jej ograniczenia. Zatem pomimo tego, że metodą całkową można z powodzeniem rozwiązać wiele problemów, istnieje cała klasa problemów, dla których metoda ta praktycznie nie ma zastosowania. Są to na przykład problemy z impulsowymi zmianami funkcji wejściowych. Powodem jest to, że profil temperatury w postaci paraboli kwadratowej lub sześciennej nie odpowiada prawdziwemu profilowi ​​temperatury dla takich problemów. Jeżeli więc rzeczywisty rozkład temperatury w badanym ciele przyjmuje postać funkcji niemonotonicznej, to w żadnym wypadku nie jest możliwe uzyskanie zadowalającego rozwiązania zgodnego z fizycznym znaczeniem problemu.

Oczywistym sposobem na poprawę dokładności metody całkowej jest zastosowanie wielomianowych funkcji temperaturowych wyższego rzędu. W tym przypadku główne warunki brzegowe i warunki gładkości na froncie zaburzenia temperatury nie są wystarczające do wyznaczenia współczynników takich wielomianów. W związku z tym istnieje potrzeba poszukiwania brakujących warunków brzegowych, które wraz z podanymi pozwoliłyby wyznaczyć współczynniki optymalnego profilu temperaturowego wyższego rzędu, uwzględniając wszystkie cechy fizyczne badany problem. Takie dodatkowe warunki brzegowe można otrzymać z głównych warunków brzegowych i pierwotnego równania różniczkowego, różniczkując je w punktach granicznych we współrzędnych przestrzennych i w czasie.

Badając różne problemy wymiany ciepła, przyjmuje się, że właściwości termofizyczne nie zależą od temperatury, a warunki liniowe przyjmuje się jako warunki brzegowe. Jeśli jednak temperatura ciała zmienia się w szerokim zakresie, to ze względu na zależność właściwości termofizycznych od temperatury równanie przewodzenia ciepła staje się nieliniowe. Jego rozwiązanie staje się znacznie bardziej skomplikowane, a znane, precyzyjne metody analityczne okazują się nieskuteczne. Metoda integralnego bilansu cieplnego pozwala przezwyciężyć pewne trudności związane z nieliniowością problemu. Na przykład redukuje cząstkowe równanie różniczkowe z nieliniowymi warunkami brzegowymi do zwykłego równania różniczkowego z danymi warunkami początkowymi, którego rozwiązanie często można uzyskać w zamkniętej formie analitycznej.

Wiadomo, że dokładne rozwiązania analityczne uzyskiwano obecnie jedynie dla problemów w uproszczonym ujęciu matematycznym, gdy nie uwzględnia się wielu ważnych charakterystyk procesów (nieliniowość, zmienność właściwości i warunków brzegowych itp.). Wszystko to prowadzi do znacznego odchylenia modeli matematycznych od rzeczywistych procesów fizycznych zachodzących w konkretnych elektrowniach. Dodatkowo dokładne rozwiązania wyrażane są przez zespolone, nieskończone szeregi funkcyjne, które w sąsiedztwie punktów granicznych i dla małych wartości współrzędnej czasowej powoli się zbiegają. Takie rozwiązania są mało przydatne w zastosowaniach inżynierskich, a zwłaszcza w przypadkach, gdy rozwiązanie problemu temperatury jest etapem pośrednim w rozwiązywaniu innych problemów (problemy z elastycznością termiczną, problemy odwrotne, problemy ze sterowaniem itp.). Pod tym względem dużym zainteresowaniem cieszą się wymienione powyżej metody matematyki stosowanej, umożliwiające uzyskanie rozwiązań, choć przybliżonych, w formie analitycznej, z dokładnością w wielu przypadkach wystarczającą do zastosowań inżynierskich. Metody te pozwalają znacznie poszerzyć zakres problemów, dla których można uzyskać rozwiązania analityczne w porównaniu z metodami klasycznymi.

Metoda projektu, która ma ogromny potencjał w kształtowaniu uniwersalnych działań edukacyjnych, staje się coraz bardziej powszechna w szkolnym systemie edukacji, jednak dość trudno jest „wpasować” metodę projektu w system klasowy. Do regularnych lekcji włączam mini-nauka. Ta forma pracy otwiera ogromne możliwości kształtowania aktywności poznawczej i zapewnia uwzględnienie indywidualnych cech uczniów, przygotowując grunt pod rozwój umiejętności przy dużych projektach.

Pobierać:


Zapowiedź:

„Jeśli uczeń w szkole nie nauczył się sam niczego tworzyć, to w życiu będzie tylko naśladował i kopiował, ponieważ niewielu jest takich, którzy nauczywszy się kopiować, byliby w stanie samodzielnie zastosować te informacje”. L.N. Tołstoj.

Cechą charakterystyczną współczesnej edukacji jest gwałtowny wzrost ilości informacji, których uczniowie muszą się nauczyć. Miarą i oceną stopnia rozwoju ucznia jest jego zdolność do samodzielnego zdobywania nowej wiedzy i wykorzystywania jej w działaniach edukacyjnych i praktycznych. Współczesny proces pedagogiczny wymaga stosowania innowacyjnych technologii w nauczaniu.

Federalny Standard Edukacyjny nowej generacji wymaga stosowania technologii typu działań w procesie edukacyjnym, a działania badawcze są zdefiniowane jako jeden z warunków realizacji głównego programu edukacyjnego;

Szczególną rolę przypisuje się takim zajęciom na lekcjach matematyki i nie jest to przypadkowe. Matematyka jest kluczem do zrozumienia świata, podstawą postępu naukowo-technicznego i ważnym składnikiem rozwoju osobistego. Ma na celu kultywowanie w człowieku umiejętności rozumienia znaczenia powierzonego mu zadania, umiejętności logicznego rozumowania oraz nabywania umiejętności myślenia algorytmicznego.

Dopasowanie metody projektu do systemu nauczania w klasie jest dość trudne. Staram się rozsądnie łączyć systemy tradycyjne i skoncentrowane na uczniu, włączając elementy dociekania do regularnych lekcji. Podam kilka przykładów.

Tak więc, studiując temat „Koło”, przeprowadzamy następujące badania ze studentami.

Studium matematyczne „Koło”.

  1. Zastanów się, jak zbudować okrąg, jakie narzędzia będą do tego potrzebne. Symbol koła.
  2. Aby zdefiniować okrąg, przyjrzyjmy się, jakie właściwości ma ta figura geometryczna. Połącz środek okręgu z punktem należącym do okręgu. Zmierzmy długość tego odcinka. Powtórzmy doświadczenie trzy razy. Wyciągnijmy wniosek.
  3. Odcinek łączący środek okręgu z dowolnym punktem na nim nazywany jest promieniem okręgu. To jest definicja promienia. Oznaczenie promienia. Korzystając z tej definicji, skonstruuj okrąg o promieniu 2 cm5 mm.
  4. Skonstruuj okrąg o dowolnym promieniu. Skonstruuj promień i zmierz go. Zapisz swoje pomiary. Skonstruuj jeszcze trzy różne promienie. Ile promieni można narysować w okręgu?
  5. Spróbujmy, znając własność punktów okręgu, podać jego definicję.
  6. Skonstruuj okrąg o dowolnym promieniu. Połącz dwa punkty na okręgu tak, aby ten odcinek przechodził przez środek okręgu. Ten odcinek nazywa się średnicą. Zdefiniujmy średnicę. Oznaczenie średnicy. Skonstruuj jeszcze trzy średnice. Ile średnic ma okrąg?
  7. Skonstruuj okrąg o dowolnym promieniu. Zmierz średnicę i promień. Porównaj je. Powtórz doświadczenie jeszcze trzy razy z różnymi okręgami. Wyciągnąć wniosek.
  8. Połącz dwa dowolne punkty na okręgu. Powstały odcinek nazywa się akordem. Zdefiniujmy akord. Zbuduj jeszcze trzy akordy. Ile cięciw ma okrąg?
  9. Czy promień jest cięciwą? Udowodnij to.
  10. Czy średnica jest cięciwą? Udowodnij to.

Prace badawcze mogą mieć charakter propedeutyczny. Po zbadaniu koła możesz rozważyć wiele interesujących właściwości, które uczniowie mogą sformułować na poziomie hipotezy, a następnie udowodnić tę hipotezę. Na przykład następujące badanie:

„Badania matematyczne”

  1. Skonstruuj okrąg o promieniu 3 cm i narysuj jego średnicę. Połącz końce średnicy z dowolnym punktem na okręgu i zmierz kąt utworzony przez cięciwy. Wykonaj te same konstrukcje dla dwóch kolejnych okręgów. Co zauważasz?
  2. Powtórz doświadczenie dla okręgu o dowolnym promieniu i sformułuj hipotezę. Czy można to uznać za sprawdzone na podstawie konstrukcji i przeprowadzonych pomiarów.

Studiując temat „Względne położenie linii na płaszczyźnie”, badania matematyczne przeprowadza się w grupach.

Zadania dla grup:

  1. Grupa.

1. W jednym układzie współrzędnych skonstruuj wykresy funkcji

Y = 2x, y = 2x+7, y = 2x+3, y = 2x-4, y = 2x-6.

2. Odpowiedz na pytania wypełniając tabelę:

WSTĘP. BADANIA OPERACYJNE DYSCYPLINOWE I CO TO ROBI

Powstanie badań operacyjnych jako samodzielnej gałęzi matematyki stosowanej datuje się na lata 40. i 50. XX wieku. Następne półtorej dekady upłynęło pod znakiem powszechnego zastosowania uzyskanych podstawowych wyników teoretycznych do różnych problemów praktycznych i związanego z tym ponownego przemyślenia potencjalnych możliwości teorii. W rezultacie badania operacyjne nabrały cech klasycznej dyscypliny naukowej, bez której podstawowe wykształcenie ekonomiczne jest nie do pomyślenia.

Wracając do zadań i problemów stanowiących przedmiot badań operacyjnych, nie sposób nie przypomnieć wkładu, jaki w ich rozwiązanie wnieśli przedstawiciele krajowej szkoły naukowej, wśród których L. W. Kantorowicz, który w 1975 r. został laureatem Nagrody Nobla za pracę nad optymalne wykorzystanie zasobów w gospodarce.

Początek rozwoju badań operacyjnych jako nauki tradycyjnie kojarzony jest z latami czterdziestymi XX wieku. Do pierwszych badań w tym kierunku można zaliczyć pracę L. V. Kantorowicza „Matematyczne metody organizacji i planowania produkcji”, opublikowaną w 1939 r. W literaturze zagranicznej za punkt wyjścia uważa się zwykle pracę J. Dantziga, opublikowaną w 1947, poświęcony rozwiązywaniu zadań ekstremalnych liniowych.

Należy zaznaczyć, że nie ma sztywnej, ustalonej i powszechnie przyjętej definicji przedmiotu badań operacyjnych. Często odpowiadając na to pytanie mówi się, że „ badania operacyjne to zespół naukowych metod rozwiązywania problemów efektywnego zarządzania systemami organizacyjnymi.”

Druga definicja: Badania operacyjne - to naukowe przygotowanie podejmowanej decyzji - to zestaw proponowanych metod przygotowania i znalezienia najskuteczniejszych lub najbardziej ekonomicznych rozwiązań.

Charakter systemów występujących w powyższej definicji pod nazwą „organizacyjne” może być bardzo różny, a ich ogólne modele matematyczne znajdują zastosowanie nie tylko w rozwiązywaniu problemów produkcyjnych i ekonomicznych, ale także w biologii, badaniach socjologicznych i innych obszarach praktycznych. Swoją drogą już sama nazwa dyscypliny wiąże się z wykorzystaniem metod matematycznych do sterowania operacjami wojskowymi.

Pomimo różnorodności problemów zarządzania organizacją, przy ich rozwiązywaniu można zidentyfikować pewną ogólną sekwencję etapów, przez które przechodzą wszelkie badania operacyjne. Zazwyczaj jest to:

1. Opis problemu.

2. Konstrukcja znaczącego (werbalnego) modelu rozważanego obiektu (procesu). Na tym etapie sformalizowany zostaje cel zarządzania obiektem, identyfikowane są możliwe działania kontrolne, które wpływają na osiągnięcie sformułowanego celu, a także opisuje się system ograniczeń działań kontrolnych.

3. Konstrukcja modelu matematycznego, czyli przełożenie skonstruowanego modelu werbalnego na postać, w której można go badać za pomocą aparatu matematycznego.

4. Rozwiązywanie problemów formułowanych na podstawie skonstruowanego modelu matematycznego.

5. Sprawdzenie uzyskanych wyników pod kątem ich adekwatności do charakteru badanego układu, w tym badanie wpływu tzw. czynników pozamodelowych i ewentualna korekta modelu pierwotnego.

6. Implementacja otrzymanego rozwiązania w praktyce.

Centralne miejsce w tym kursie zajmują zagadnienia związane z czwartym punktem powyższego diagramu. Dzieje się tak nie dlatego, że jest to najważniejsze, złożone czy interesujące, ale dlatego, że pozostałe punkty w istotny sposób zależą od specyfiki badanego systemu, przez co nie można sformułować uniwersalnych i znaczących rekomendacji co do działań, które należy przeprowadzić w ich ramach.

W najróżniejszych obszarach działalności ludzkiej występują podobne zadania: organizacja produkcji, obsługa transportu, operacje bojowe, rozmieszczenie personelu, łączność telefoniczna itp. Problemy pojawiające się w tych obszarach mają podobną formułę, mają wiele cech wspólnych i są rozwiązywane podobnymi metodami.

Przykład :

Organizowane jest jakieś celowe wydarzenie (system działań), które można zorganizować w taki czy inny sposób. Należy wybrać konkretne rozwiązanie spośród szeregu możliwych opcji. Każda opcja ma zalety i wady; nie jest od razu jasne, która jest lepsza. Aby wyjaśnić sytuację i porównać ze sobą różne opcje w oparciu o szereg cech, organizowana jest seria obliczeń matematycznych. Wyniki obliczeń pokazują, którą opcję wybrać.

Modelowanie matematyczne w badaniach operacyjnych jest z jednej strony procesem bardzo ważnym i złożonym, z drugiej zaś procesem, który praktycznie nie poddaje się naukowej formalizacji. Należy zauważyć, że wielokrotne próby określenia ogólnych zasad tworzenia modeli matematycznych doprowadziły albo do deklaracji zaleceń o charakterze bardzo ogólnym, trudnym do zastosowania do rozwiązania konkretnych problemów, albo odwrotnie, do pojawienia się recept, które faktycznie mają zastosowanie tylko do wąski zakres problemów. Dlatego bardziej przydatne wydaje się zapoznanie z techniką modelowania matematycznego na konkretnych przykładach.

1) Plan dostaw przedsiębiorstwa.

Istnieje wiele przedsiębiorstw wykorzystujących różne rodzaje surowców; Istnieje wiele baz surowcowych. Bazy połączone są z przedsiębiorstwami różnymi środkami komunikacji (kolej, transport samochodowy, transport wodny, transport lotniczy). Każdy transport ma swoje własne taryfy. Należy opracować taki plan zaopatrzenia przedsiębiorstw w surowce, aby zapotrzebowanie na surowce zostało zaspokojone przy minimalnych kosztach transportu.

2) Budowa odcinka autostrady.

Trwa budowa odcinka linii kolejowej. Mamy do dyspozycji określoną ilość zasobów: ludzi, sprzęt itp. Należy tak ustalić kolejność prac, rozmieścić ludzi i sprzęt na odcinkach toru, aby w jak najkrótszym czasie zakończyć budowę.

Produkowany jest określony rodzaj produktu. Aby zapewnić wysoką jakość produktów, konieczne jest zorganizowanie systemu kontroli pobierania próbek: określenie wielkości partii kontrolnej, zestawu testów, zasad odrzucenia itp. Wymagane jest zapewnienie określonego poziomu jakości produktu przy minimalnych kosztach kontroli.

4) Działania militarne.

Celem w tym przypadku jest zniszczenie obiektu wroga.

Podobne problemy występują często w praktyce. Mają wspólne cechy. Każde zadanie ma określony cel – cele te są podobne; określone są pewne warunki – w ramach tych warunków należy podjąć decyzję, aby wydarzenie to było jak najbardziej opłacalne. Zgodnie z tymi ogólnymi cechami stosowane są metody ogólne.

1. POJĘCIA OGÓLNE

1.1. Cel i podstawowe pojęcia w badaniach operacyjnych

Operacja - Jest to dowolny system działań (wydarzeń) połączonych jednym planem i mających na celu osiągnięcie jakiegoś celu. Jest to wydarzenie kontrolowane, czyli od nas zależy, jak dobierzemy pewne parametry charakteryzujące jego organizację.

Każdy konkretny wybór parametrów zależnych od nas nazywa się decyzja.

Cel badań operacyjnych jest wstępnym uzasadnieniem ilościowym rozwiązań optymalnych.

Parametry te, których kombinacja tworzy rozwiązanie, nazywane są elementy rozwiązania. Elementami rozwiązania mogą być różne liczby, wektory, funkcje, cechy fizyczne itp.

Przykład : transport ładunków jednorodnych.

Istnieją punkty wyjścia: A 1 , A 2 , A 3 ,…, A M .

Dostępne kierunki: W 1 , W 2 , W 3 ,…, W N .

Elementami rozwiązania będą tutaj liczby X ja , pokazujące, ile ładunku zostanie wysłane z i-tego punktu wyjścia do J miejsce docelowe.

Kombinacja tych liczb: X 11 , X 12 , X 13 ,…, X 1 M ,…, X N 1 , X N 2 ,…, X nm tworzy rozwiązanie.

Aby porównać różne opcje, musisz mieć jakieś kryterium ilościowe - wskaźnik wydajności ( W). Ten wskaźnik nazywa się funkcja docelowa.

Wskaźnik ten dobiera się tak, aby odzwierciedlał docelową orientację operacji. Wybierając rozwiązanie staramy się, aby wskaźnik ten dążył do maksimum lub minimum. Jeśli W jest dochodem, to W max; i jeśli W jest natężeniem przepływu, to W min.

Jeżeli wybór zależy od czynników losowych (pogoda, awaria sprzętu, wahania popytu i podaży), wówczas jako wskaźnik efektywności wybierana jest wartość średnia – oczekiwanie matematyczne.

Jako wskaźnik efektywności czasami wybiera się prawdopodobieństwo osiągnięcia celu. Tutaj celowi operacji towarzyszą czynniki losowe i działa według schematu TAK-NIE.

Aby zilustrować zasady wyboru wskaźnika efektywności, wróćmy do wcześniej omówionych przykładów:

1) Plan dostaw przedsiębiorstwa.

Wskaźnik wydajności widoczny jest w celu. R– liczba – koszt transportu, . W takim przypadku należy spełnić wszystkie ograniczenia.

2) Budowa odcinka autostrady.

Czynniki losowe odgrywają dużą rolę w problemie. Jako wskaźnik efektywności wybiera się średni oczekiwany czas zakończenia budowy.

3) Kontrola próbek produktów.

Naturalnym wskaźnikiem efektywności, jaki sugeruje sformułowanie problemu, jest średni oczekiwany koszt kontroli w jednostce czasu, pod warunkiem, że system kontroluje zapewnienie określonego poziomu jakości.

W towarzystwie fizycznego lub matematyczny modelowanie. Modelowanie fizyczne... układów i ich pracochłonność badanie. Matematyczny modelowanie odbywa się za pomocą... do modelowania należy wykonać następujące czynności operacje: 1. wejdź do menu...

  • Badanie wzmacniacze całkujące i różniczkujące oparte na wzmacniaczach operacyjnych

    Praca laboratoryjna >> Łączność i komunikacja

    Praca ma charakter eksperymentalny badanie właściwości i cechy... to jedna z głównych matematyczny operacje i jego elektryczne wykonanie... DB Oscylogramy napięć wyjściowych przy badania w trybie impulsowym: Wzmacniacz całkujący...

  • Matematyczny metody analizy ekonomicznej

    Test >> Modelowanie ekonomiczne i matematyczne

    Niektóre metody matematyczny programowanie i metody badania operacje, po przybliżenia optymalizacyjne – część metod matematyczny programowanie, badania operacje, ekonomiczny...

  • Matematyczny gry jako sposób na rozwój logicznego myślenia

    Praca dyplomowa >> Pedagogika

    Rozwój logicznego myślenia. Przedmiot badania: matematyczny gry za pomocą... akcji wykorzystujących logikę operacje. Działania mentalne stanowią... praktyczne elementy pracy. Złożony operacje myślenie abstrakcyjne przeplatające się z...

  • I geometria. Główną cechą wyróżniającą analizę na tle innych dziedzin jest obecność funkcji zmiennych jako przedmiotu badań. Jednocześnie, jeśli elementarne sekcje analizy w programach i materiałach edukacyjnych są często łączone z elementarną algebrą (na przykład istnieje wiele podręczników i kursów zatytułowanych „Algebra i początki analizy”), wówczas współczesna analiza w dużej mierze wykorzystuje metody współczesnych przekrojów geometrycznych, przede wszystkim geometria różniczkowa i topologia.

    Fabuła

    Oddziel gałęzie „analizy nieskończenie małych”, jak teoria równań różniczkowych zwyczajnych (Euler, Johann Bernoulli, D'Alembert), rachunek wariacyjny (Euler, Lagrange), teoria funkcji analitycznych (Lagrange, Cauchy, później Riemann ), zaczęły się jeszcze bardziej rozdzielać w XVIII - pierwszej połowie XIX wieku. Jednak za początek powstawania analizy jako niezależnej nowoczesnej sekcji uważa się prace z połowy XIX wieku dotyczące sformalizowania kluczowych pojęć analizy klasycznej - liczby rzeczywistej, funkcji, granicy, całki, przede wszystkim w pracach Cauchy’ego i Bolzano, a pełną formę uzyskał w latach 70. – 80. XIX w. w dziełach Weierstrassa, Dedekinda i Cantora. W związku z tym powstała teoria funkcji zmiennej rzeczywistej oraz, w rozwoju metod pracy z funkcjami analitycznymi, teoria funkcji zmiennej zespolonej. Naiwna teoria mnogości stworzona przez Cantora pod koniec XIX wieku dała impuls do pojawienia się koncepcji przestrzeni metrycznych i topologicznych, co znacząco zmieniło cały zestaw narzędzi analitycznych, podnosząc poziom abstrakcji badanych obiektów i przesuwając przejście od liczb rzeczywistych do pojęć nienumerycznych.

    Na początku XX wieku, głównie dzięki staraniom francuskiej szkoły matematycznej (Jordan, Borel, Lebesgue, Baer), powstała teoria miary, dzięki której uogólniono pojęcie całki, a teorię funkcji skonstruowano zmienną rzeczywistą. Również na początku XX wieku analiza funkcjonalna zaczęła nabierać kształtu jako niezależna podsekcja współczesnej analizy, badająca topologiczne przestrzenie wektorowe i ich odwzorowania. Termin „analiza funkcjonalna” wprowadził Hadamard, oznaczając gałąź rachunku wariacyjnego rozwiniętą na przełomie XIX i XX wieku przez grupę matematyków włoskich i francuskich (m.in. Volterrę, Arcelę). W 1900 roku Fredholm opublikował artykuł na temat równań całkowych, który dał impuls do rozwoju teorii równań całkowych, rozwoju ogólnej teorii integracji (Lebesgue'a) i powstania analizy funkcjonalnej. W 1906 roku w pracy Hilberta zarysowano teorię spektralną, w tym samym roku ukazała się praca Frécheta, w której po raz pierwszy wprowadzono do analizy abstrakcyjne przestrzenie metryczne. W latach 10-tych XX wieku wyjaśniono pojęcia separowalności i po raz pierwszy zastosowano do analizy ogólne metody topologiczne (Hausdorff), opanowano przestrzenie funkcjonalne i rozpoczęto tworzenie ogólnej teorii przestrzeni unormowanych (Hilbert, Ries, Banach, Hahna). W latach 1929-1932 ukształtowała się aksjomatyczna teoria przestrzeni Hilberta (John von Neumann, Marshall Stone, Rees). W 1936 roku Sobolew sformułował koncepcję funkcji uogólnionej (później w latach 40. niezależnie od niego Laurent Schwartz doszedł do podobnej koncepcji), która rozpowszechniła się w wielu obszarach analiz i znalazła szerokie zastosowanie w zastosowaniach (np. Uogólniona funkcja funkcja jest δ (\ displaystyle \ delta)-funkcja Diraca). W latach 30. - 50. XX wieku znaczące wyniki uzyskano w analizie funkcjonalnej dzięki zastosowaniu ogólnych narzędzi algebraicznych (kraty wektorowe, algebry operatorowe, algebry Banacha).

    Do połowy XX wieku takie dziedziny jak teoria układów dynamicznych i teoria ergodyczna (George Birkhoff, Kolmogorov, von Neumann) uzyskały niezależny rozwój, wyniki analizy harmonicznej zostały znacząco uogólnione poprzez zastosowanie ogólnych średnich algebraicznych - grup topologicznych i reprezentacje (Weil, Piotr, Pontriagin). Od lat 40. – 50. XX w. metody analizy funkcjonalnej znalazły zastosowanie w dziedzinach stosowanych, w szczególności w pracach Kantorowicza z lat 30. – 40. XX w. narzędzia analizy funkcjonalnej stosowano w matematyce obliczeniowej i ekonomii (programowanie liniowe). W latach pięćdziesiątych XX wieku w pracach Pontryagina i jego uczniów powstała teoria sterowania optymalnego w ramach rozwoju metod rachunku wariacyjnego.

    Począwszy od drugiej połowy XX wieku wraz z rozwojem topologii różniczkowej do analizy dołączył nowy kierunek - analiza na rozmaitościach, zwana „analizą globalną”, która właściwie zaczęła nabierać kształtu już wcześniej, bo w latach dwudziestych XX wieku, w ramach teorii Morse’a teoria jako uogólnienie rachunku wariacyjnego (zwanego ogólnie „wariacyjnym” przez rachunek Morse’a, w dużym skrócie angielski rachunek wariacyjny). W tym kierunku mieszczą się takie kierunki, jak teoria osobliwości (Whitney) i teoria katastrof (Tom i Masera,), które powstały w latach 70. XX wieku w pracach Zimana i Arnolda.

    Klasyczna analiza matematyczna

    Klasyczna analiza matematyczna - dział, który właściwie całkowicie odpowiada historycznej „analizie nieskończenie małych”, składa się z dwóch głównych elementów: rachunku różniczkowego i całkowego. Podstawowe pojęcia - granica funkcji, różniczka, pochodna, całka, wyniki główne - wzór Newtona-Leibniza łączący całkę oznaczoną z funkcją pierwotną oraz szereg Taylora - rozwinięcie szeregowe funkcji nieskończenie różniczkowalnej w sąsiedztwie punktu.

    Termin „analiza matematyczna” zwykle odnosi się do tej klasycznej części i jest używany głównie w programach i materiałach edukacyjnych. Jednocześnie nauka podstaw analizy jest uwzględniona w większości programów szkół średnich, a mniej lub bardziej kompletne studia z tego przedmiotu w programach pierwszych lat studiów wyższych dla szerokiego zakresu specjalności, w tym wielu w naukach humanistycznych. W angloamerykańskiej tradycji edukacyjnej termin „rachunek różniczkowy” używany jest do określenia klasycznej analizy matematycznej.

    Teoria funkcji zmiennej rzeczywistej(czasami nazywany krótko - teoria funkcji) powstał w wyniku sformalizowania pojęć liczby rzeczywistej i funkcji: jeśli w klasycznych sekcjach analizy uwzględniono tylko funkcje, które w sposób naturalny pojawiają się w określonych problemach, to w teorii funkcji same funkcje stają się badany jest przedmiot badań, ich zachowanie i relacje między ich właściwościami. Jednym z wyników ilustrujących specyfikę teorii funkcji zmiennej rzeczywistej jest fakt, że funkcja ciągła nie może mieć w żadnym punkcie pochodnej (co więcej, zgodnie z wcześniejszymi koncepcjami klasycznej analizy matematycznej, różniczkowalność wszystkich funkcji ciągłych była nie kwestionowano).

    Główne kierunki teorii funkcji zmiennej rzeczywistej:

    Teoria funkcji zmiennej zespolonej

    Przedmiotem badań teorii funkcji zmiennej zespolonej są funkcje numeryczne określone na płaszczyźnie zespolonej do 1 (\ displaystyle \ mathbb (C) ^ (1)) lub złożoną przestrzeń euklidesową do n (\ displaystyle \ mathbb (C) ^ (n)), podczas gdy najdokładniej zbadane funkcje analityczne odgrywają ważną rolę łączącą w prawie wszystkich gałęziach analizy matematycznej. W szczególności koncepcja funkcji analitycznej jest uogólniana na dowolne przestrzenie Banacha, dlatego wiele wyników teorii funkcji zmiennej zespolonej znalazło uogólnienie w analizie funkcjonalnej.

    Analiza funkcjonalna

    Analizę funkcjonalną jako przekrój charakteryzuje obecność jako przedmiotu badań topologicznych przestrzeni wektorowych i ich odwzorowań z narzuconymi im różnymi warunkami algebraicznymi i topologicznymi. Przestrzenie funkcyjne odgrywają kluczową rolę w analizie funkcjonalnej, czego klasycznym przykładem są przestrzenie wszystkich mierzalnych funkcji, których p (\ displaystyle p)-ty stopień jest całkowalny; jednocześnie już L 2 (\ displaystyle L ^ (2))- przestrzeń nieskończenie wymiarowa (przestrzeń Hilberta) i przestrzenie o nieskończonych wymiarach są nieodłącznie związane z analizą funkcjonalną do tego stopnia, że ​​czasami cały jej przekrój definiuje się jako część matematyki badającej przestrzenie nieskończenie wymiarowe i ich odwzorowania. Najważniejszą formą przestrzeni w klasycznych przekrojach analizy funkcjonalnej są przestrzenie Banacha – znormalizowane przestrzenie wektorowe, kompletne w metryce generowanej przez normę: znaczna część przestrzeni interesujących w praktyce to takie, są wśród nich wszystkie przestrzenie Hilberta, spacje L p (\ displaystyle L ^ (p)), Przestrzenie Hardy'ego, Przestrzenie Sobolewa. Ważną rolę w analizie funkcjonalnej odgrywają struktury algebraiczne będące przestrzeniami Banacha - kraty Banacha i algebry Banacha (m.in. - do ∗ (\ displaystyle C ^ (*))-algebry, algebry von Neumanna).

    Abstrakcyjna analiza harmoniczna uogólnia metody klasyczne na struktury abstrakcyjne przy użyciu takich pojęć, jak miara Haara i reprezentacje grupowe. Najważniejszym wynikiem przemiennej analizy harmonicznej jest twierdzenie Pontryagina o dwoistości, dzięki któremu prawie wszystkie klasyczne wyniki analizy harmonicznej opisywane są stosunkowo prostymi ogólnymi środkami algebraicznymi. Dalszym rozwinięciem tej teorii jest nieprzemienna analiza harmoniczna, która ma ważne zastosowania w mechanice kwantowej.

    Równania różniczkowe i całkowe

    W teorii równań całkowych, oprócz klasycznych metod rozwiązywania, istnieją takie kierunki, jak teoria Fredholma, która wywarła zauważalny wpływ na ukształtowanie się analizy funkcjonalnej jako niezależnej części, w szczególności przyczyniając się do powstania koncepcji Hilberta przestrzeń.

    Teoria układów dynamicznych i teoria ergodyczna

    Z głównych kierunków badania równań różniczkowych jako niezależne sekcje wyłoniła się teoria układów dynamicznych, która bada ewolucję w czasie układów mechanicznych, oraz teoria ergodyczna, mająca na celu uzasadnienie fizyki statystycznej. Pomimo aplikacyjnego charakteru zagadnień, w rozdziałach tych zawarto szeroki wachlarz pojęć i metod o ogólnym znaczeniu matematycznym, w szczególności takich jak pojęcia stabilności i ergodyczności.

    Analiza globalna

    Analiza globalna- dział analizy zajmujący się badaniem funkcji i równań różniczkowych na rozmaitościach i wiązkach wektorowych; Czasami ten kierunek nazywa się „analizą rozmaitości”.

    Jednym z pierwszych obszarów analizy globalnej jest teoria Morse'a i jej zastosowanie do problemów geodezyjnych na rozmaitościach Riemanna; Kierunek ten nazwano ogólnie „rachunkiem wariacyjnym”. Głównymi wynikami są lemat Morse'a opisujący zachowanie gładkich funkcji na gładkich rozmaitościach w niezdegenerowanych punktach osobliwych oraz taki niezmiennik homotopii jak kategoria Lyusternika-Shnirelmana. Wiele konstrukcji i stwierdzeń jest uogólnionych na przypadek nieskończenie wymiarowych rozmaitości ( Odmiany Hilberta *, Odmiany Banacha). Wyniki uzyskane w ramach globalnej analizy punktów osobliwych znalazły szerokie zastosowanie do rozwiązywania problemów czysto topologicznych, takich jak np. Twierdzenie Botta o okresowości, który w dużej mierze posłużył jako podstawa niezależnej gałęzi matematyki - K (\ displaystyle K)-teorie, a także twierdzenie o h (\ displaystyle h)-kobordyzm, którego konsekwencją jest spełnienie hipotezy Poincarégo dla wymiarów większych niż 4.

    Kolejnym dużym blokiem obszarów analizy globalnej, szeroko stosowanym w fizyce i ekonomii, jest teoria osobliwości, teoria bifurkacji i teoria katastrof; Głównym kierunkiem badań w tym bloku jest klasyfikacja zachowania równań różniczkowych lub funkcji w sąsiedztwie punktów krytycznych oraz identyfikacja cech charakterystycznych odpowiednich klas.

    Analiza niestandardowa

    Analiza niestandardowa to formalizacja kluczowych pojęć analizy za pomocą logiki matematycznej, główną ideą jest formalna aktualizacja nieskończenie dużych i nieskończenie małych wielkości oraz logiczne formalizacja manipulacji nimi. Jednocześnie niestandardowe narzędzia analityczne okazują się bardzo wygodne: uzyskują wyniki, których nie udało się wcześniej uzyskać klasycznymi narzędziami ze względu na brak przejrzystości