Absoluutvead vähimruutudes. Katseandmete lähendamine

Lähendame funktsiooni 2. astme polünoomiga. Selleks arvutame normaalse võrrandisüsteemi koefitsiendid:

, ,

Loome tavalise vähimruutude süsteemi, mille vorm on:

Süsteemi lahendust on lihtne leida:, , .

Seega leitakse 2. astme polünoom: .

Teoreetiline teave

Tagasi lehele<Введение в вычислительную математику. Примеры>

Näide 2. Polünoomi optimaalse astme leidmine.

Tagasi lehele<Введение в вычислительную математику. Примеры>

Näide 3. Normaalse võrrandisüsteemi tuletamine empiirilise sõltuvuse parameetrite leidmiseks.

Tuletame koefitsientide ja funktsioonide määramiseks võrrandisüsteemi , mis teostab antud funktsiooni punktide kaupa ruutkeskmise lähenduse. Koostame funktsiooni ja kirjutage üles selle jaoks vajalik äärmuslik tingimus:

Siis on tavaline süsteem järgmine:

Saime tundmatute parameetrite jaoks lineaarse võrrandisüsteemi, mida on lihtne lahendada.

Teoreetiline teave

Tagasi lehele<Введение в вычислительную математику. Примеры>

Näide.

Eksperimentaalsed andmed muutujate väärtuste kohta X Ja juures on toodud tabelis.

Nende joondamise tulemusena saadakse funktsioon

Kasutades vähima ruudu meetod, lähendage neid andmeid lineaarse sõltuvusega y=kirves+b(leidke parameetrid A Ja b). Uurige, kumb kahest reast paremini (vähimruutude meetodi mõttes) joondab katseandmeid. Tee joonistus.

Vähimruutude meetodi (LSM) olemus.

Ülesandeks on leida lineaarsed sõltuvuskoefitsiendid, mille juures kahe muutuja funktsioon A Ja bvõtab väikseima väärtuse. See tähendab, et antud A Ja b katseandmete ruuduhälbete summa leitud sirgest on väikseim. See on kogu vähimruutude meetodi mõte.

Seega taandub näite lahendamine kahe muutuja funktsiooni ekstreemumi leidmisele.

Valemite tuletamine koefitsientide leidmiseks.

Koostatakse ja lahendatakse kahest võrrandist koosnev süsteem kahe tundmatuga. Funktsiooni osatuletiste leidmine muutujate järgi A Ja b, võrdsustame need tuletised nulliga.

Lahendame saadud võrrandisüsteemi mis tahes meetodiga (näiteks asendusmeetodil või Crameri meetod) ja saada valemid koefitsientide leidmiseks vähimruutude meetodi (LSM) abil.

Antud A Ja b funktsiooni võtab väikseima väärtuse. Selle fakti tõestus on toodud allpool lehe lõpus olevas tekstis.

See on kogu vähimruutude meetod. Valem parameetri leidmiseks a sisaldab summasid , , , ja parameetrit n— katseandmete hulk. Soovitame nende summade väärtused eraldi välja arvutada.

Koefitsient b leitud pärast arvutamist a.

On aeg meenutada algset näidet.

Lahendus.

Meie näites n = 5. Nõutavate koefitsientide valemites sisalduvate summade arvutamise mugavuse huvides täidame tabeli.

Tabeli neljanda rea ​​väärtused saadakse, korrutades iga numbri 2. rea väärtused 3. rea väärtustega i.

Tabeli viienda rea ​​väärtused saadakse iga numbri 2. rea väärtuste ruudustamisel i.

Tabeli viimases veerus olevad väärtused on ridade väärtuste summad.

Koefitsientide leidmiseks kasutame vähimruutude meetodi valemeid A Ja b. Asendame neisse vastavad väärtused tabeli viimasest veerust:

Seega y = 0,165x+2,184— soovitud ligikaudne sirgjoon.

Jääb välja selgitada, milline ridadest y = 0,165x+2,184 või lähendab paremini algandmeid, st teeb hinnangu vähimruutude meetodil.

Vähimruutude meetodi vea hindamine.

Selleks peate arvutama nendest ridadest saadud algandmete ruuduhälbete summa Ja , vastab väiksem väärtus joonele, mis lähendab paremini algandmeid vähimruutude meetodi tähenduses.

Alates , siis otse y = 0,165x+2,184 lähendab paremini algandmeid.

Vähimruutude (LS) meetodi graafiline illustratsioon.

Graafikutelt on kõik selgelt näha. Punane joon on leitud sirgjoon y = 0,165x+2,184, sinine joon on , roosad täpid on algandmed.

Miks seda vaja on, milleks kõik need ligikaudsed hinnangud?

Mina isiklikult kasutan seda andmete silumise, interpoleerimise ja ekstrapoleerimise probleemide lahendamiseks (algses näites võidakse neil paluda leida vaadeldava väärtuse väärtus y juures x=3 või millal x=6 kasutades vähimruutude meetodit). Kuid me räägime sellest hiljem saidi teises jaotises.

Lehe ülaosa

Tõestus.

Nii et kui leitakse A Ja b funktsioon võtab väikseima väärtuse, siis on vajalik, et selles punktis funktsiooni teist järku diferentsiaali ruutkuju maatriks oli positiivne kindel. Näitame seda.

Teist järku diferentsiaalil on vorm:

See on

Seetõttu on ruutvormi maatriksil vorm

ja elementide väärtused ei sõltu A Ja b.

Näitame, et maatriks on positiivne kindel. Selleks peavad nurgelised alaealised olema positiivsed.

I järgu nurgeline moll . Ebavõrdsus on range, sest punktid ei lange kokku. Järgnevalt viitame sellele.

Teist järku nurgeline moll

Tõestame seda matemaatilise induktsiooni meetodil.

Järeldus: leitud väärtused A Ja b vastavad funktsiooni väikseimale väärtusele Seetõttu on vähimruutude meetodi nõutavad parameetrid.

Pole aega seda välja mõelda?
Telli lahendus

Lehe ülaosa

Prognoosi koostamine vähimruutude meetodil. Näide probleemi lahendamisest

Ekstrapoleerimine on teaduslik uurimismeetod, mis põhineb mineviku ja oleviku suundumuste, mustrite ja seoste levitamisel prognoositava objekti tulevase arenguga. Ekstrapoleerimismeetodid hõlmavad liikuva keskmise meetod, eksponentsiaalse silumise meetod, vähimruutude meetod.

Essents vähimruutude meetod seisneb vaadeldud ja arvutatud väärtuste vaheliste ruutude hälvete summa minimeerimises. Arvutatud väärtused leitakse valitud võrrandi - regressioonivõrrandi abil. Mida väiksem on vahemaa tegelike väärtuste ja arvutatud väärtuste vahel, seda täpsem on regressioonivõrrandil põhinev prognoos.

Kõvera valiku aluseks on uuritava nähtuse olemuse teoreetiline analüüs, mille muutust peegeldab aegrida. Mõnikord võetakse arvesse kaalutlusi seeria tasemete tõusu olemuse kohta. Seega, kui toodangu kasvu oodatakse aritmeetilises progressioonis, siis silumine toimub sirgjooneliselt. Kui selgub, et kasv on geomeetrilises progressioonis, siis tuleb silumine teha eksponentsiaalfunktsiooni abil.

Vähimruutude meetodi töövalem : Y t+1 = a*X + b, kus t + 1 – prognoosiperiood; Уt+1 – prognoositav näitaja; a ja b on koefitsiendid; X on aja sümbol.

Koefitsientide a ja b arvutamine toimub järgmiste valemite abil:

kus Uf – dünaamika seeria tegelikud väärtused; n – aegridade tasemete arv;

Aegridade tasandamine vähimruutude meetodil kajastab uuritava nähtuse arengumustrit. Trendi analüütilises väljenduses käsitletakse aega sõltumatu muutujana ja seeria tasemed toimivad selle sõltumatu muutuja funktsioonina.

Nähtuse areng ei sõltu sellest, mitu aastat on alguspunktist möödunud, vaid sellest, millised tegurid, mis suunas ja millise intensiivsusega selle arengut mõjutasid. Siit on selge, et nähtuse areng aja jooksul on nende tegurite toime tulemus.

Kõvera tüübi õige määramine, analüütilise sõltuvuse tüüp ajast on ennustava analüüsi üks keerulisemaid ülesandeid .

Trendi kirjeldava funktsiooni tüübi valimine, mille parameetrid määratakse vähimruutude meetodil, toimub enamikul juhtudel empiiriliselt, konstrueerides mitmeid funktsioone ja võrreldes neid üksteisega vastavalt funktsiooni väärtusele. keskmine ruutviga, arvutatakse järgmise valemiga:

kus UV on dünaamika seeria tegelikud väärtused; Ur – dünaamika seeria arvutatud (silutud) väärtused; n – aegridade tasemete arv; p – trendi (arengutrendi) kirjeldavates valemites määratletud parameetrite arv.

Vähimruutude meetodi puudused :

  • kui püütakse kirjeldada uuritavat majandusnähtust matemaatilise võrrandi abil, on prognoos lühikest aega täpne ja regressioonivõrrand tuleks uue teabe ilmnemisel ümber arvutada;
  • standardsete arvutiprogrammide abil lahendatava regressioonivõrrandi valimise keerukus.

Näide vähimruutude meetodi kasutamisest prognoosi koostamiseks

Ülesanne . Piirkonnas on tööpuudust iseloomustavad andmed, %

  • Koostage piirkonna töötuse määra prognoos novembriks, detsembriks, jaanuariks järgmiste meetoditega: liikuv keskmine, eksponentsiaalne silumine, vähimruutud.
  • Arvutage saadud prognooside vead iga meetodi abil.
  • Võrrelge tulemusi ja tehke järeldused.

Vähimruutude lahendus

Selle lahendamiseks koostame tabeli, milles teeme vajalikud arvutused:

ε = 28,63/10 = 2,86% prognoosi täpsus kõrge.

Järeldus : Arvutuste tulemusel saadud tulemuste võrdlemine liikuva keskmise meetod , eksponentsiaalse silumise meetod ja vähimruutude meetodit, võime öelda, et keskmine suhteline viga eksponentsiaalse silumise meetodil arvutamisel jääb vahemikku 20-50%. See tähendab, et sel juhul on prognoosi täpsus vaid rahuldav.

Esimesel ja kolmandal juhul on prognoosi täpsus kõrge, kuna keskmine suhteline viga on alla 10%. Kuid libiseva keskmise meetod võimaldas saada usaldusväärsemaid tulemusi (novembri prognoos - 1,52%, prognoos detsembriks - 1,53%, prognoos jaanuariks - 1,49%), kuna keskmine suhteline viga selle meetodi kasutamisel on väikseim - 1 ,13%.

Vähima ruudu meetod

Teised artiklid sellel teemal:

Kasutatud allikate loetelu

  1. Teaduslikud ja metoodilised soovitused sotsiaalsete riskide diagnoosimiseks ning väljakutsete, ohtude ja sotsiaalsete tagajärgede prognoosimiseks. Venemaa Riiklik Sotsiaalülikool. Moskva. 2010;
  2. Vladimirova L.P. Prognoosimine ja planeerimine turutingimustes: Õpik. toetust. M.: kirjastus "Dashkov ja Co", 2001;
  3. Novikova N.V., Pozdeeva O.G. Rahvamajanduse prognoosimine: Haridus- ja metoodiline käsiraamat. Jekaterinburg: Uurali kirjastus. olek ökon. Ülikool, 2007;
  4. Slutskin L.N. MBA kursus äriprognoosidest. M.: Alpina Business Books, 2006.

MNC programm

Sisestage andmed

Andmed ja lähendamine y = a + b x

i- katsepunktide arv;
x i- fikseeritud parameetri väärtus punktis i;
y i- mõõdetud parameetri väärtus punktis i;
ωi- mõõta kaalu ühes punktis i;
y i, arvut.- erinevus mõõdetud ja regressiooniga arvutatud väärtuse vahel y punktis i;
S x i (x i)- veahinnang x i mõõtmisel y punktis i.

Andmed ja lähendamine y = k x

i x i y i ωi y i, arvut. Δy i S x i (x i)

Klõpsake diagrammil

MNC võrguprogrammi kasutusjuhend.

Sisestage andmeväljale igale eraldi reale x ja y väärtused ühes katsepunktis. Väärtused tuleb eraldada tühikuga (tühik või tabeldusmärk).

Kolmas väärtus võib olla punkti w kaal. Kui punkti kaal pole määratud, on see võrdne ühega. Valdav enamus juhtudel on katsepunktide kaalud teadmata või arvutamata, s.t. kõiki katseandmeid peetakse samaväärseteks. Mõnikord ei ole kaalud uuritud väärtuste vahemikus absoluutselt samaväärsed ja neid saab isegi teoreetiliselt arvutada. Näiteks spektrofotomeetrias saab kaalusid arvutada lihtsate valemite abil, kuigi see on tööjõukulude vähendamiseks enamasti tähelepanuta jäetud.

Andmeid saab lõikepuhvri kaudu kleepida kontorikomplekti, näiteks Microsoft Office'i Exceli või Open Office'i Calci arvutustabelist. Selleks valige arvutustabelis kopeeritavate andmete vahemik, kopeerige lõikepuhvrisse ja kleepige andmed selle lehe andmeväljale.

Vähimruutude meetodi abil arvutamiseks on vaja vähemalt kahte punkti, et määrata kaks koefitsienti "b" - joone kaldenurga puutuja ja "a" - väärtus, mille joon lõikab y-teljel.

Arvutatud regressioonikoefitsientide vea hindamiseks peate määrama katsepunktide arvuks rohkem kui kaks.

Vähimruutude meetod (LSM).

Mida suurem on katsepunktide arv, seda täpsem on koefitsientide statistiline hinnang (Student-i koefitsiendi vähenemise tõttu) ja seda lähemal on hinnang üldvalimi hinnangule.

Väärtuste saamine igas katsepunktis on sageli seotud märkimisväärsete tööjõukuludega, seetõttu tehakse sageli kompromissiline arv katseid, mis annavad juhitava hinnangu ja ei too kaasa liigseid tööjõukulusid. Reeglina valitakse kahe koefitsiendiga lineaarse vähimruutude sõltuvuse katsepunktide arv vahemikus 5-7 punkti.

Lineaarsete suhete vähimate ruutude lühiteooria

Oletame, et meil on eksperimentaalsete andmete kogum väärtuspaaride kujul ["y_i", "x_i"], kus i on ühe katselise mõõtmise arv vahemikus 1 kuni n; "y_i" – mõõdetud suuruse väärtus punktis "i"; „x_i” – parameetri väärtus, mille me määrame punktis „i”.

Vaatleme näiteks Ohmi seaduse toimimist. Muutes pinget (potentsiaalide erinevust) elektriahela sektsioonide vahel, mõõdame seda sektsiooni läbiva voolu suurust. Füüsika annab meile eksperimentaalselt leitud sõltuvuse:

"I = U/R",
kus "I" on voolutugevus; `R` - takistus; "U" - pinge.

Sel juhul on "y_i" mõõdetav vooluväärtus ja "x_i" on pinge väärtus.

Teise näitena vaadeldakse valguse neeldumist aine lahuses. Keemia annab meile valemi:

"A = ε l C",
kus "A" on lahuse optiline tihedus; `ε` - lahustunud aine läbilaskvus; `l` - tee pikkus, kui valgus läbib lahusega küveti; "C" on lahustunud aine kontsentratsioon.

Sel juhul on „y_i” optilise tiheduse „A” mõõdetud väärtus ja „x_i” on meie poolt määratud aine kontsentratsiooni väärtus.

Vaatleme juhtumit, kui suhteline viga määramises "x_i" on oluliselt väiksem kui mõõtmise suhteline viga "y_i". Samuti eeldame, et kõik mõõdetud väärtused "y_i" on juhuslikud ja normaalse jaotusega, st. järgige normaaljaotuse seadust.

Kui "y" on lineaarne sõltuvusest "x", võime kirjutada teoreetilise sõltuvuse:
y = a + b x.

Geomeetrilisest vaatenurgast tähistab koefitsient "b" sirge kaldenurga puutujat x-telje suhtes ja koefitsient "a" - y väärtust joone lõikepunktis. joon y-teljega (x = 0).

Regressioonijoone parameetrite leidmine.

Katses ei saa 'y_i' mõõdetud väärtused olla täpselt teoreetilisel sirgel mõõtmisvigade tõttu, mis on reaalses elus alati omased. Seetõttu tuleb lineaarvõrrandit esitada võrrandisüsteemiga:
"y_i = a + b x_i + ε_i" (1),
kus ε_i on y tundmatu mõõtmisviga i-ndas katses.

Sõltuvust (1) nimetatakse ka regressioon, st. kahe suuruse sõltuvus üksteisest statistilise olulisusega.

Sõltuvuse taastamise ülesanne on leida katsepunktidest [`y_i`, `x_i`] koefitsiendid `a` ja `b`.

Tavaliselt kasutatakse seda koefitsientide "a" ja "b" leidmiseks vähima ruudu meetod(MNC). See on maksimaalse tõenäosuse põhimõtte erijuhtum.

Kirjutame (1) ümber kujul `ε_i = y_i - a - b x_i`.

Siis on vigade ruudu summa
"Φ = summa_(i=1)^(n) ε_i^2 = summa_(i=1)^(n) (y_i - a - b x_i)^2". (2)

Vähimruutude (vähimruutude) põhimõte on minimeerida summa (2) parameetrite "a" ja "b" suhtes.

Miinimum saavutatakse, kui summa (2) osatuletised koefitsientide "a" ja "b" suhtes on võrdsed nulliga:
`frac(osaline Φ)(osaline a) = murd(osaline summa_(i=1)^(n) (y_i - a - b x_i)^2)(osaline a) = 0
`murd(osaline Φ)(osaline b) = murd(osasumma_(i=1)^(n) (y_i - a - b x_i)^2)(osaline b) = 0

Laiendades tuletisi, saame kahe tundmatuga võrrandisüsteemi:
`summa_(i=1)^(n) (2a + 2bx_i — 2y_i) = summa_(i=1)^(n) (a + bx_i — y_i) = 0
`summa_(i=1)^(n) (2bx_i^2 + 2ax_i — 2x_iy_i) = summa_(i=1)^(n) (bx_i^2 + ax_i — x_iy_i) = 0`

Avame sulud ja kanname nõutavatest koefitsientidest sõltumatud summad teisele poolele, saame lineaarvõrrandisüsteemi:
`summa_(i=1)^(n) y_i = a n + b summa_(i=1)^(n) bx_i
`summa_(i=1)^(n) x_iy_i = a summa_(i=1)^(n) x_i + b summa_(i=1)^(n) x_i^2

Lahendades saadud süsteemi, leiame koefitsientide "a" ja "b" valemid:

`a = frac(summa_(i=1)^(n) y_i summa_(i=1)^(n) x_i^2 — summa_(i=1)^(n) x_i summa_(i=1)^(n ) x_iy_i) (n summa_(i=1)^(n) x_i^2 — (summa_(i=1)^(n) x_i)^2)" (3.1)

`b = frac(n summa_(i=1)^(n) x_iy_i — summa_(i=1)^(n) x_i summa_(i=1)^(n) y_i) (n summa_(i=1)^ (n) x_i^2 — (summa_(i=1)^(n) x_i)^2)" (3.2)

Nendel valemitel on lahendused, kui `n > 1` (joone saab konstrueerida vähemalt 2 punkti abil) ja kui determinant `D = n summa_(i=1)^(n) x_i^2 - (summa_(i= 1) )^(n) x_i)^2 != 0`, st. kui katse x_i punktid on erinevad (st kui joon ei ole vertikaalne).

Regressioonisirgekoefitsientide vigade hindamine

Koefitsientide "a" ja "b" arvutamise vea täpsemaks hindamiseks on soovitav kasutada palju katsepunkte. Kui `n = 2`, on koefitsientide viga võimatu hinnata, sest ligikaudne joon läbib üheselt kahte punkti.

Määratakse juhusliku suuruse `V` viga vigade kogunemise seadus
`S_V^2 = summa_(i=1)^p (frac(osaline f)(osaline z_i))^2 S_(z_i)^2,
kus "p" on veaga "S_(z_i)" parameetrite "z_i" arv, mis mõjutavad viga "S_V";
"f" on funktsioon "V" sõltuvusest väärtusest "z_i".

Paneme kirja koefitsientide `a` ja `b` vea jaoks vigade kogunemise seaduse
`S_a^2 = summa_(i=1)^(n)(murd(osaline a)(osaline y_i))^2 S_(y_i)^2 + summa_(i=1)^(n)(frac(osaline a) )(osaline x_i))^2 S_(x_i)^2 = S_y^2 summa_(i=1)^(n)(frac(osaline a)(osaline y_i))^2 `,
`S_b^2 = summa_(i=1)^(n)(murd(osaline b)(osaline y_i))^2 S_(y_i)^2 + summa_(i=1)^(n)(murd(osaline b) )(osaline x_i))^2 S_(x_i)^2 = S_y^2 summa_(i=1)^(n)(frac(osaline b)(osaline y_i))^2 `,
sest "S_(x_i)^2 = 0" (varem tegime reservatsiooni, et viga "x" on tühine).

S_y^2 = S_(y_i)^2 – viga (dispersioon, ruudus standardhälve) y mõõtmisel, eeldades, et viga on kõigi y väärtuste puhul ühtlane.

Asendades saadud avaldistes valemid "a" ja "b" arvutamiseks

`S_a^2 = S_y^2 frac(summa_(i=1)^(n) (summa_(i=1)^(n) x_i^2 — x_i summa_(i=1)^(n) x_i)^2 ) (D^2) = S_y^2 frac((n summa_(i=1)^(n) x_i^2 — (summa_(i=1)^(n) x_i)^2) summa_(i=1) ^(n) x_i^2) (D^2) = S_y^2 frac(summa_(i=1)^(n) x_i^2) (D)" (4.1)

`S_b^2 = S_y^2 frac(summa_(i=1)^(n) (n x_i — summa_(i=1)^(n) x_i)^2) (D^2) = S_y^2 frac( n (n summa_(i=1)^(n) x_i^2 — (summa_(i=1)^(n) x_i)^2)) (D^2) = S_y^2 frac(n) (D) (4.2)

Enamikus reaalsetes katsetes ei mõõdeta "Sy" väärtust. Selleks on vaja ühes või mitmes plaani punktis läbi viia mitu paralleelset mõõtmist (katset), mis suurendab katse aega (ja võib-olla ka maksumust). Seetõttu eeldatakse tavaliselt, et `y` kõrvalekallet regressioonisirgest võib pidada juhuslikuks. Dispersiooni y hinnang arvutatakse sel juhul valemi abil.

`S_y^2 = S_(y, ülejäänud)^2 = frac(summa_(i=1)^n (y_i - a - b x_i)^2) (n-2)".

"n-2" jagaja ilmub, kuna meie vabadusastmete arv on vähenenud kahe koefitsiendi arvutamise tõttu, kasutades sama katseandmete valimit.

Seda hinnangut nimetatakse ka regressioonijoone S_(y, rest)^2 suhtes jääkvariatsiooniks.

Koefitsientide olulisust hinnatakse Studenti t-testi abil

"t_a = frac(|a|) (S_a)", "t_b = frac(|b|) (S_b)"

Kui arvutatud kriteeriumid `t_a`, `t_b` on väiksemad kui tabelikriteeriumid `t(P, n-2)`, siis arvestatakse, et vastav koefitsient ei erine antud tõenäosusega `P` oluliselt nullist.

Lineaarse seose kirjelduse kvaliteedi hindamiseks saate Fisheri kriteeriumi abil võrrelda väärtusi "S_(y, rest)^2" ja "S_(bar y)" keskmisega.

`S_(bar y) = murd(summa_(i=1)^n (y_i — riba y)^2) (n-1) = frac(summa_(i=1)^n (y_i — (summa_(i=) 1)^n y_i) /n)^2) (n-1) – dispersiooni y valimi hinnang keskmise suhtes.

Regressioonivõrrandi efektiivsuse hindamiseks sõltuvuse kirjeldamiseks arvutatakse Fisheri koefitsient
"F = S_(bar y) / S_(y, ülejäänud)^2",
mida võrreldakse tabeli Fisheri koefitsiendiga "F(p, n-1, n-2)".

Kui "F > F(P, n-1, n-2)", peetakse erinevust regressioonivõrrandit kasutava seose y = f(x) kirjelduse ja keskmist kasutava kirjelduse vahel tõenäosusega statistiliselt oluliseks. "P". Need. regressioon kirjeldab sõltuvust paremini kui y levik keskmise ümber.

Klõpsake diagrammil
tabelisse väärtuste lisamiseks

Vähima ruudu meetod. Vähimruutude meetod tähendab tundmatute parameetrite a, b, c, aktsepteeritud funktsionaalse sõltuvuse määramist

Vähimruutude meetod viitab tundmatute parameetrite määramisele a, b, c,… aktsepteeritud funktsionaalne sõltuvus

y = f(x,a,b,c,…),

mis annaks vea keskmise ruudu (dispersiooni) miinimumi

, (24)

kus x i, y i on katsest saadud arvupaaride hulk.

Kuna mitme muutuja funktsiooni ekstreemumi tingimuseks on tingimus, et selle osatuletised on võrdsed nulliga, siis parameetrid a, b, c,… määratakse võrrandisüsteemist:

; ; ; … (25)

Tuleb meeles pidada, et parameetrite valimiseks funktsiooni tüübi järel kasutatakse vähimruutude meetodit y = f(x) määratletud

Kui teoreetilistest kaalutlustest lähtudes ei saa teha järeldusi selle kohta, milline peaks olema empiiriline valem, siis tuleb lähtuda visuaalsetest esitustest, eelkõige vaadeldavate andmete graafilistest esitustest.

Praktikas piirduvad need enamasti järgmist tüüpi funktsioonidega:

1) lineaarne ;

2) ruutkeskne a.

Vähima ruudu meetod

Vähima ruudu meetod ( OLS, OLS, tavalised vähimruudud) - üks regressioonanalüüsi põhimeetodeid regressioonimudelite tundmatute parameetrite hindamiseks näidisandmete abil. Meetod põhineb regressioonijääkide ruutude summa minimeerimisel.

Tuleb märkida, et vähimruutude meetodit ennast võib nimetada meetodiks ülesande lahendamiseks mis tahes valdkonnas, kui lahendus peitub või vastab mõnele nõutavate muutujate mõne funktsiooni ruutude summa minimeerimise kriteeriumile. Seetõttu saab vähimruutude meetodit kasutada ka antud funktsiooni ligikaudseks esitamiseks (lähendamiseks) teiste (lihtsamate) funktsioonidega, leides suuruste komplekti, mis rahuldavad võrrandeid või piiranguid, mille arv ületab nende suuruste arvu. , jne.

MNC olemus

Olgu antud (seletatud) muutuja vahelise tõenäosusliku (regressiooni) seose (parameetriline) mudel y ja paljud tegurid (selgitavad muutujad) x

kus on tundmatute mudeliparameetrite vektor

- juhuslik mudeliviga.

Olgu ka nende muutujate väärtuste näidisvaatlused. Laskma olema vaatlusnumber (). Siis on vaatluse muutujate väärtused. Seejärel on parameetrite b antud väärtuste puhul võimalik arvutada selgitatud muutuja y teoreetilised (mudel) väärtused:

Jääkide suurus sõltub parameetrite b väärtustest.

Vähimruutude meetodi (tavaline, klassikaline) olemus on leida parameetrid b, mille jääkide ruutude summa (ingl. Ruudude jääksumma) on minimaalne:

Üldjuhul saab selle probleemi lahendada numbrilise optimeerimise (minimeerimise) meetoditega. Sel juhul räägivad nad sellest mittelineaarsed vähimruudud(NLS või NLLS – inglise keel) Mittelineaarsed vähimruudud). Paljudel juhtudel on võimalik saada analüütiline lahendus. Minimeerimisülesande lahendamiseks on vaja leida funktsiooni statsionaarsed punktid, diferentseerides seda tundmatute parameetrite b suhtes, võrdsustades tuletised nulliga ja lahendades saadud võrrandisüsteemi:

Kui mudeli juhuslikud vead on tavaliselt jaotatud, neil on sama dispersioon ja need ei ole korrelatsioonis, on OLS-i parameetrite hinnangud samad, mis maksimaalse tõenäosuse hinnangud (MLM).

OLS lineaarse mudeli puhul

Olgu regressioonisõltuvus lineaarne:

Lase y on selgitatud muutuja vaatluste veeruvektor ja faktorivaatluste maatriks (maatriksi read on antud vaatluse faktoriväärtuste vektorid, veerud on antud teguri väärtuste vektorid kõigis vaatlustes). Lineaarse mudeli maatriksesitus on järgmine:

Siis on seletatava muutuja hinnangute vektor ja regressioonijääkide vektor võrdsed

Vastavalt sellele on regressioonijääkide ruutude summa võrdne

Diferentseerides selle funktsiooni parameetrite vektori suhtes ja võrdsustades tuletised nulliga, saame võrrandisüsteemi (maatriksi kujul):

.

Selle võrrandisüsteemi lahendus annab lineaarse mudeli vähimruutude hinnangute üldvalemi:

Analüütilistel eesmärkidel on kasulik selle valemi viimane esitus. Kui regressioonimudelis andmed tsentreeritud, siis selles esituses on esimene maatriks tegurite valimi kovariatsioonimaatriksi tähendus ja teine ​​on sõltuva muutujaga tegurite kovariatsioonide vektor. Kui lisaks andmed on ka normaliseeritud MSE-le (st lõpuks standarditud), siis esimene maatriks omab tegurite valimi korrelatsioonimaatriksi tähendust, teine ​​vektor - sõltuva muutujaga tegurite valimikorrelatsioonide vektor.

Mudelite OLS-i hinnangute oluline omadus konstantiga- konstrueeritud regressiooni joon läbib näidisandmete raskuskeskme, see tähendab, et võrdsus on täidetud:

Eriti äärmisel juhul, kui ainsaks regressoriks on konstant, leiame, et ainsa parameetri (konstandi enda) OLS-hinnang on võrdne seletatava muutuja keskmise väärtusega. See tähendab, et aritmeetiline keskmine, mis on tuntud oma heade omaduste poolest suurte arvude seaduste järgi, on ka vähimruutude hinnang – see täidab sellest kõrvalekaldumise miinimumruutsumma kriteeriumi.

Näide: lihtsaim (paaripõhine) regressioon

Paaris lineaarse regressiooni korral on arvutusvalemid lihtsustatud (saate teha ilma maatriksalgebrata):

OLS-i hinnangute omadused

Esiteks märgime, et lineaarsete mudelite puhul on OLS-i hinnangud lineaarsed hinnangud, nagu ülaltoodud valemist. Erapooletute OLS-hinnangute puhul on vajalik ja piisav regressioonanalüüsi kõige olulisema tingimuse täitmiseks: teguritest sõltuv juhusliku vea matemaatiline ootus peab olema võrdne nulliga. Eelkõige on see tingimus täidetud, kui

  1. juhuslike vigade matemaatiline ootus on null ja
  2. tegurid ja juhuslikud vead on sõltumatud juhuslikud muutujad.

Teine tingimus - tegurite eksogeensuse tingimus - on fundamentaalne. Kui see omadus ei ole täidetud, võime eeldada, et peaaegu kõik hinnangud on äärmiselt ebarahuldavad: need pole isegi järjepidevad (st isegi väga suur hulk andmeid ei võimalda meil sel juhul kvaliteetseid hinnanguid saada ). Klassikalisel juhul tehakse tugevam eeldus tegurite determinismi kohta, mitte juhuslikule veale, mis tähendab automaatselt, et eksogeensuse tingimus on täidetud. Üldjuhul piisab hinnangute järjepidevuse tagamiseks eksogeensuse tingimuse täitmisest koos maatriksi konvergentsiga mõnele mitteainsuse maatriksile, kui valimi suurus suureneb lõpmatuseni.

Selleks, et lisaks järjepidevusele ja erapooletusele oleksid (tavaliste) vähimruutude hinnangud ka efektiivsed (parimad lineaarsete erapooletute hinnangute klassis), peavad olema täidetud juhusliku vea täiendavad omadused:

Neid eeldusi saab formuleerida juhusliku veavektori kovariatsioonimaatriksi jaoks

Neid tingimusi rahuldavat lineaarset mudelit nimetatakse klassikaline. Klassikalise lineaarse regressiooni OLS-i hinnangud on erapooletud, järjepidevad ja kõige tõhusamad hinnangud kõigi lineaarsete erapooletute hinnangute klassis (ingliskeelses kirjanduses kasutatakse mõnikord lühendit SININE (Parim lineaarne aluseta hindaja) - parim lineaarne erapooletu hinnang; vene kirjanduses tsiteeritakse sagedamini Gaussi-Markovi teoreemi). Nagu on lihtne näidata, on koefitsientide hinnangute vektori kovariatsioonimaatriks võrdne:

Üldine OLS

Vähimruutude meetod võimaldab üldistamist. Selle asemel, et minimeerida jääkide ruutude summat, saab minimeerida jääkide vektori mõnda positiivset kindlat ruutvormi, kus on mingi sümmeetriline positiivne kindla kaaluga maatriks. Tavaline vähimruutude kasutamine on selle lähenemisviisi erijuhtum, kus kaalumaatriks on võrdeline identiteedimaatriksiga. Nagu on teada sümmeetriliste maatriksite (või operaatorite) teooriast, toimub selliste maatriksite puhul lagunemine. Järelikult saab määratud funktsionaalset kujutada järgmiselt, st seda funktsionaalset saab esitada mõne teisendatud “jääkide” ruutude summana. Seega saame eristada vähimruutude meetodite klassi – LS meetodid (Least Squares).

On tõestatud (Aitkeni teoreem), et üldistatud lineaarse regressioonimudeli puhul (milles juhuslike vigade kovariatsioonimaatriksile piiranguid ei seata) on kõige tõhusamad (lineaarsete erapooletute hinnangute klassis) nn hinnangud. generalised Least Squares (GLS – Generalized Least Squares)- LS-meetod kaalumaatriksiga, mis on võrdne juhuslike vigade pöördkovariatsioonimaatriksiga: .

Võib näidata, et lineaarse mudeli parameetrite GLS-hinnangute valemil on vorm

Nende hinnangute kovariatsioonimaatriks on seega võrdne

Tegelikult seisneb OLS-i olemus algandmete teatud (lineaarses) teisenduses (P) ja tavalise OLS-i rakendamises teisendatud andmetele. Selle teisenduse eesmärk on, et teisendatud andmete juhuslikud vead rahuldaksid juba klassikalisi eeldusi.

Kaalutud OLS

Diagonaalse kaalumaatriksi (ja seega juhuslike vigade kovariatsioonimaatriksi) korral on meil nn kaalutud vähimruutud (WLS). Sel juhul on mudeli jääkide kaalutud ruutude summa minimeeritud, see tähendab, et iga vaatlus saab "kaalu", mis on pöördvõrdeline selle vaatluse juhusliku vea dispersiooniga: . Tegelikult teisendatakse andmed vaatlusi kaaludes (jagades juhuslike vigade hinnangulise standardhälbega võrdelise summaga) ja kaalutud andmetele rakendatakse tavalist OLS-i.

Mõned MNC kasutamise erijuhud praktikas

Lineaarse sõltuvuse lähendamine

Vaatleme juhtumit, kui teatud skalaarsuuruse sõltuvuse uurimise tulemusena teatud skalaarsuurusest (Selleks võib olla näiteks pinge sõltuvus voolutugevusest: , kus on konstantne väärtus, takistus juht), viidi läbi nende suuruste mõõtmised, mille tulemusena saadi väärtused ja neile vastavad väärtused. Mõõtmisandmed tuleb fikseerida tabelis.

Tabel. Mõõtmistulemused.

Mõõtmine nr.
1
2
3
4
5
6

Küsimus on: millise koefitsiendi väärtuse saab valida sõltuvuse kõige paremaks kirjeldamiseks? Vähimruutude meetodi kohaselt peaks see väärtus olema selline, et väärtuste väärtustest kõrvalekallete ruudu summa

oli minimaalne

Ruuthälvete summal on üks ekstreemum – miinimum, mis võimaldab seda valemit kasutada. Leiame sellest valemist koefitsiendi väärtuse. Selleks teisendame selle vasaku külje järgmiselt:

Viimane valem võimaldab meil leida koefitsiendi väärtuse, mis on ülesandes nõutav.

Lugu

Kuni 19. sajandi alguseni. teadlastel puudusid kindlad reeglid sellise võrrandisüsteemi lahendamiseks, milles tundmatute arv on võrrandite arvust väiksem; Kuni selle ajani kasutati privaatseid tehnikaid, mis sõltusid võrrandite tüübist ja kalkulaatorite nutikusest ning seetõttu jõudsid erinevad kalkulaatorid samade vaatlusandmete põhjal erinevatele järeldustele. Gauss (1795) oli esimene, kes meetodit kasutas ning Legendre (1805) avastas ja avaldas selle iseseisvalt selle kaasaegse nime all (prantsuse keeles. Méthode des moindres quarrés ) . Laplace seostas meetodi tõenäosusteooriaga ja Ameerika matemaatik Adrain (1808) käsitles selle tõenäosusteoreetilisi rakendusi. Meetod oli laialt levinud ja seda täiustasid Encke, Besseli, Hanseni jt edasised uuringud.

OLS-i alternatiivsed kasutusvõimalused

Vähimruutude meetodi ideed saab kasutada ka muudel juhtudel, mis pole regressioonanalüüsiga otseselt seotud. Fakt on see, et ruutude summa on üks levinumaid vektorite lähedusmõõte (Eukleidiline meetrika lõplike mõõtmetega ruumides).

Üks rakendus on lineaarvõrrandisüsteemide "lahendus", milles võrrandite arv on suurem kui muutujate arv

kus maatriks ei ole ruudukujuline, vaid ristkülikukujuline.

Sellisel võrrandisüsteemil üldjuhul lahendus puudub (kui auaste on tegelikult suurem muutujate arvust). Seetõttu saab seda süsteemi "lahendada" ainult sellise vektori valimisel, et minimeerida "kaugust" vektorite ja . Selleks saate rakendada süsteemi võrrandite vasaku ja parema külje erinevuste ruutude summa minimeerimise kriteeriumi, st. Lihtne on näidata, et selle minimeerimisülesande lahendamine viib järgmise võrrandisüsteemi lahendamiseni

Pärast nivelleerimist saame funktsiooni järgmisel kujul: g (x) = x + 1 3 + 1 .

Neid andmeid saame ligikaudselt hinnata lineaarse seose y = a x + b abil, arvutades vastavad parameetrid. Selleks peame rakendama niinimetatud vähimruutude meetodit. Samuti peate tegema joonise, et kontrollida, milline joon joondab katseandmeid kõige paremini.

Yandex.RTB R-A-339285-1

Mis täpselt on OLS (vähimruutude meetod)

Peamine asi, mida peame tegema, on leida sellised lineaarse sõltuvuse koefitsiendid, mille korral kahe muutuja funktsiooni väärtus F (a, b) = ∑ i = 1 n (y i - (a x i + b)) 2 on väikseim. Teisisõnu, teatud a ja b väärtuste korral on esitatud andmete ruudus kõrvalekaldete summa saadud sirgjoonest minimaalne. See on vähimruutude meetodi tähendus. Näite lahendamiseks peame vaid leidma kahe muutuja funktsiooni ekstreemumi.

Kuidas tuletada koefitsientide arvutamise valemeid

Koefitsientide arvutamise valemite tuletamiseks peate looma ja lahendama kahe muutujaga võrrandisüsteemi. Selleks arvutame avaldise F (a, b) = ∑ i = 1 n (y i - (a x i + b)) 2 osatuletised a ja b suhtes ning võrdsustame need 0-ga.

δ F (a , b) δ a = 0 δ F (a , b) δ b = 0 ⇔ - 2 ∑ i = 1 n (y i - (a x i + b)) x i = 0 - 2 ∑ i = 1 n ( y i - (a x i + b)) = 0 ⇔ a ∑ i = 1 n x i 2 + b ∑ i = 1 n x i = ∑ i = 1 n x i y i a ∑ i = 1 n x i + ∑ b i = a 1 n x i + ∑ b i = i = i ∑ i = 1 n x i 2 + b ∑ i = 1 n x i = ∑ i = 1 n x i y i a ∑ i = 1 n x i + n b = ∑ i = 1 n y i

Võrrandisüsteemi lahendamiseks võite kasutada mis tahes meetodeid, näiteks asendust või Crameri meetodit. Selle tulemusena peaks meil olema valemid, mida saab kasutada koefitsientide arvutamiseks vähimruutude meetodil.

n ∑ i = 1 n x i y i - ∑ i = 1 n x i ∑ i = 1 n y i n i = 1 n - i i = 1 n x i 2 b = ∑ i = 1 n ∑ i = 1 n ∑ i

Oleme välja arvutanud muutujate väärtused, mille juures funktsioon toimib
F (a , b) = ∑ i = 1 n (y i - (a x i + b)) 2 võtab minimaalse väärtuse. Kolmandas lõigus tõestame, miks see täpselt nii on.

See on vähimruutude meetodi rakendamine praktikas. Selle valem, mida kasutatakse parameetri a leidmiseks, sisaldab ∑ i = 1 n x i, ∑ i = 1 n y i, ∑ i = 1 n x i y i, ∑ i = 1 n x i 2, samuti parameetrit
n – see tähistab katseandmete hulka. Soovitame teil arvutada iga summa eraldi. Koefitsiendi b väärtus arvutatakse kohe pärast a.

Läheme tagasi algse näite juurde.

Näide 1

Siin on meil n võrdne viiega. Koefitsientide valemites sisalduvate nõutavate summade arvutamise mugavamaks muutmiseks täidame tabeli.

i = 1 i=2 i=3 i=4 i=5 ∑ i = 1 5
x i 0 1 2 4 5 12
y i 2 , 1 2 , 4 2 , 6 2 , 8 3 12 , 9
x i y i 0 2 , 4 5 , 2 11 , 2 15 33 , 8
x i 2 0 1 4 16 25 46

Lahendus

Neljas rida sisaldab andmeid, mis on saadud teise rea väärtuste korrutamisel kolmanda väärtustega iga üksiku st. Viies rida sisaldab ruudus teise andmeid. Viimane veerg näitab üksikute ridade väärtuste summasid.

Kasutame vajalike koefitsientide a ja b arvutamiseks vähimruutude meetodit. Selleks asendage nõutud väärtused viimasest veerust ja arvutage summad:

n ∑ i = 1 n x i y i - ∑ i = 1 n x i ∑ i = 1 n y i n ∑ i = 1 n - ∑ i = 1 n x i 2 b = ∑ i = 1 a n ∑ n i = 1 n ∑ i 33, 8 - 12 12, 9 5 46 - 12 2 b = 12, 9 - a 12 5 ⇒ a ≈ 0, 165 b ≈ 2, 184

Selgub, et nõutav ligikaudne sirge näeb välja selline y = 0, 165 x + 2, 184. Nüüd peame kindlaks määrama, milline rida on andmetele paremini ligikaudne - g (x) = x + 1 3 + 1 või 0, 165 x + 2, 184. Hindame vähimruutude meetodil.

Vea arvutamiseks peame leidma sirgjoonte σ 1 = ∑ i = 1 n (y i - (a x i + b i)) 2 ja σ 2 = ∑ i = 1 n (y i) andmete ruuduhälbete summa. - g (x i)) 2, vastab miinimumväärtus sobivamale reale.

σ 1 = ∑ i = 1 n (y i - (a x i + b i)) 2 = = ∑ i = 1 5 (y i - (0, 165 x i + 2, 184)) 2 ≈ 0, 019 σ 2 = ∑ i 1 n (y i - g (x i)) 2 = = ∑ i = 1 5 (y i - (x i + 1 3 + 1)) 2 ≈ 0,096

Vastus: alates σ 1< σ 2 , то прямой, наилучшим образом аппроксимирующей исходные данные, будет
y = 0,165 x + 2,184.

Vähimruutude meetod on selgelt näidatud graafilisel illustratsioonil. Punane joon tähistab sirget g (x) = x + 1 3 + 1, sinine joon tähistab y = 0, 165 x + 2, 184. Algandmed on tähistatud roosade täppidega.

Selgitame, miks on vaja täpselt seda tüüpi lähendusi.

Neid saab kasutada ülesannetes, mis nõuavad andmete silumist, samuti nendes, kus andmeid tuleb interpoleerida või ekstrapoleerida. Näiteks ülalpool käsitletud ülesandes võiks leida vaadeldava suuruse y väärtuse x = 3 või x = 6 korral. Oleme sellistele näidetele pühendanud eraldi artikli.

OLS-meetodi tõestus

Selleks, et funktsioon saaks a ja b arvutamisel minimaalse väärtuse, on vajalik, et antud punktis kujuga F (a, b) funktsiooni diferentsiaali ruutkuju maatriks = ∑ i = 1 n (y i - (a x i + b)) 2 on positiivne kindel. Näitame teile, kuidas see peaks välja nägema.

Näide 2

Meil on teise järgu diferentsiaal järgmisel kujul:

d 2 F (a ; b) = δ 2 F (a ; b) δ a 2 d 2 a + 2 δ 2 F (a ; b) δ a δ b d a d b + δ 2 F (a ; b) δ b 2 d 2 b

Lahendus

δ 2 F (a ; b) δ a 2 = δ δ F (a ; b) δ a δ a = = δ - 2 ∑ i = 1 n (y i - (a x i + b)) x i δ a = 2 ∑ i = 1 n (x i) 2 δ 2 F (a; b) δ a δ b = δ δ F (a; b) δ a δ b = = δ - 2 ∑ i = 1 n (y i - (a x i + b) ) x i δ b = 2 ∑ i = 1 n x i δ 2 F (a ; b) δ b 2 = δ δ F (a ; b) δ b δ b = δ - 2 ∑ i = 1 n (y i - (a x i + b)) δ b = 2 ∑ i = 1 n (1) = 2 n

Teisisõnu võime selle kirjutada nii: d 2 F (a ; b) = 2 ∑ i = 1 n (x i) 2 d 2 a + 2 2 ∑ x i i = 1 n d a d b + (2 n) d 2 b.

Saime ruutkujulise maatriksi M = 2 ∑ i = 1 n (x i) 2 2 ∑ i = 1 n x i 2 ∑ i = 1 n x i 2 n .

Sel juhul ei muutu üksikute elementide väärtused sõltuvalt a-st ja b-st. Kas see maatriks on positiivne? Sellele küsimusele vastamiseks kontrollime, kas selle nurgelised alaealised on positiivsed.

Arvutame esimest järku nurk-molli: 2 ∑ i = 1 n (x i) 2 > 0 . Kuna punktid x i ei lange kokku, on ebavõrdsus range. Peame seda edasistes arvutustes meeles.

Arvutame teist järku nurk-molli:

d e t (M) = 2 ∑ i = 1 n (x i) 2 2 ∑ i = 1 n x i 2 ∑ i = 1 n x i 2 n = 4 n ∑ i = 1 n (x i) 2 - 12 n i = i

Seejärel jätkame ebavõrdsuse n ∑ i = 1 n (x i) 2 - ∑ i = 1 n x i 2 > 0 tõestamist matemaatilise induktsiooni abil.

  1. Kontrollime, kas see võrratus kehtib suvalise n korral. Võtame 2 ja arvutame:

2 ∑ i = 1 2 (x i) 2 - ∑ i = 1 2 x i 2 = 2 x 1 2 + x 2 2 - x 1 + x 2 2 = = x 1 2 - 2 x 1 x 2 + x 2 2 = x 1 + x 2 2 > 0

Saime õige võrdsuse (kui väärtused x 1 ja x 2 ei lange kokku).

  1. Oletame, et see ebavõrdsus kehtib n korral, st. n ∑ i = 1 n (x i) 2 - ∑ i = 1 n x i 2 > 0 – tõene.
  2. Nüüd tõestame n + 1 kehtivust, st. et (n + 1) ∑ i = 1 n + 1 (x i) 2 - ∑ i = 1 n + 1 x i 2 > 0, kui n ∑ i = 1 n (x i) 2 - ∑ i = 1 n x i 2 > 0 .

Arvutame:

(n + 1) ∑ i = 1 n + 1 (x i) 2 - ∑ i = 1 n + 1 x i 2 = = (n + 1) ∑ i = 1 n (x i) 2 + x n + 1 2 - ∑ i = 1 n x i + x n + 1 2 = = n ∑ i = 1 n (x i) 2 + n x n + 1 2 + ∑ i = 1 n (x i) 2 + x n + 1 2 - - ∑ i = 1 n x 2 i 2 + x n + 1 ∑ i = 1 n x i + x n + 1 2 = = ∑ i = 1 n (x i) 2 - ∑ i = 1 n x i 2 + n x n + 1 2 - x n + 1 i + 1 i = 1 n x n (x i) 2 = = ∑ i = 1 n (x i) 2 - ∑ i = 1 n x i 2 + x n + 1 2 - 2 x n + 1 x 1 + x 1 2 + + x n + 1 2 - 2 x n + 1 x 2 + x 2 2 + . . . + x n + 1 2 - 2 x n + 1 x 1 + x n 2 = = n ∑ i = 1 n (x i) 2 - ∑ i = 1 n x i 2 + + (x n + 1 - x 1) 2 + (x n + 1) - x 2) 2 + . . . + (x n - 1 - x n) 2 > 0

Sulgudes sisalduv avaldis on suurem kui 0 (alusel, mida me 2. sammus eeldasime) ja ülejäänud liikmed on suuremad kui 0, kuna need kõik on arvude ruudud. Oleme ebavõrdsust tõestanud.

Vastus: leitud a ja b vastavad funktsiooni F (a, b) = ∑ i = 1 n (y i - (a x i + b)) 2 väikseimale väärtusele, mis tähendab, et need on vähimruutude meetodi nõutavad parameetrid (LSM).

Kui märkate tekstis viga, tõstke see esile ja vajutage Ctrl+Enter

Kui teatud füüsikaline suurus sõltub teisest suurusest, saab seda sõltuvust uurida, mõõtes y-d x erinevatel väärtustel. Mõõtmiste tulemusena saadakse mitmeid väärtusi:

x 1, x 2, ..., x i, ..., x n;

y 1 , y 2 , ..., y i , ... , y n .

Sellise katse andmete põhjal on võimalik koostada sõltuvuse y = ƒ(x) graafik. Saadud kõver võimaldab hinnata funktsiooni ƒ(x) kuju. Sellesse funktsiooni sisenevad konstantsed koefitsiendid jäävad aga teadmata. Neid saab määrata vähimruutude meetodil. Katsepunktid ei asu reeglina täpselt kõveral. Vähimruutude meetod eeldab, et katsepunktide kõverast kõrvalekallete ruutude summa, s.o. 2 oli väikseim.

Praktikas kasutatakse seda meetodit kõige sagedamini (ja kõige lihtsamalt) lineaarse seose korral, s.o. Millal

y = kx või y = a + bx.

Lineaarne sõltuvus on füüsikas väga levinud. Ja isegi kui suhe on mittelineaarne, püüavad nad tavaliselt sirgjoone saamiseks graafiku koostada. Näiteks kui eeldada, et klaasi n murdumisnäitaja on seotud valguse lainepikkusega λ seosega n = a + b/λ 2, siis kantakse graafikule n sõltuvus λ -2-st.

Mõelge sõltuvusele y = kx(algopunkti läbiv sirgjoon). Koostame väärtuse φ meie punktide sirgest kõrvalekallete ruutude summa

φ väärtus on alati positiivne ja osutub seda väiksemaks, mida lähemal on meie punktid sirgele. Vähimruutude meetod väidab, et k väärtus tuleks valida nii, et φ-l oleks miinimum


või
(19)

Arvutus näitab, et k väärtuse määramise ruutkeskmise viga on võrdne

, (20)
kus n on mõõtmiste arv.

Vaatleme nüüd veidi raskemat juhtumit, kui punktid peavad valemile vastama y = a + bx(sirge, mis ei läbi alguspunkti).

Ülesanne on leida saadaolevast väärtuste hulgast x i, y i a ja b parimad väärtused.

Koostame jälle ruutkuju φ, mis võrdub punktide x i, y i sirgest kõrvalekallete ruudu summaga

ja leida a ja b väärtused, mille jaoks φ on miinimum

;

.

.

Nende võrrandite ühislahendus annab

(21)

A ja b määramise ruutkeskmised vead on võrdsed

(23)

.  (24)

Mõõtmistulemuste töötlemisel sellel meetodil on mugav koondada kõik andmed tabelisse, milles on eelnevalt välja arvutatud kõik valemites (19)(24) sisalduvad summad. Nende tabelite vormid on toodud allolevates näidetes.

Näide 1. Uuriti pöörleva liikumise dünaamika põhivõrrandit ε = M/J (algopunkti läbiv sirgjoon). Momendi M erinevatel väärtustel mõõdeti teatud keha nurkiirendust ε. On vaja kindlaks määrata selle keha inertsimoment. Jõumomendi ja nurkkiirenduse mõõtmise tulemused on loetletud teises ja kolmandas veerus tabel 5.

Tabel 5
n M, N m e, s -1 M 2 M ε ε - kM (ε - kM) 2
1 1.44 0.52 2.0736 0.7488 0.039432 0.001555
2 3.12 1.06 9.7344 3.3072 0.018768 0.000352
3 4.59 1.45 21.0681 6.6555 -0.08181 0.006693
4 5.90 1.92 34.81 11.328 -0.049 0.002401
5 7.45 2.56 55.5025 19.072 0.073725 0.005435
– – 123.1886 41.1115 – 0.016436

Valemi (19) abil määrame:

.

Ruutkeskmise vea määramiseks kasutame valemit (20)

0.005775kg-1 · m -2 .

Vastavalt valemile (18) on meil

; .

S J = (2,996 0,005775) / 0,3337 = 0,05185 kg m2.

Olles määranud usaldusväärsuse P = 0,95, kasutades Studenti koefitsientide tabelit n = 5 jaoks, leiame t = 2,78 ja määrame absoluutse vea ΔJ = 2,78 0,05185 = 0,1441 ≈ 0,2 kg m2.

Kirjutame tulemused vormile:

J = (3,0 ± 0,2) kg m2;


Näide 2. Arvutame metalli takistuse temperatuurikoefitsiendi vähimruutude meetodil. Vastupidavus sõltub lineaarselt temperatuurist

Rt = R 0 (1 + α t°) = R 0 + R 0 α t°.

Vaba liige määrab takistuse R 0 temperatuuril 0 ° C ja kalde koefitsient on temperatuuriteguri α ja takistuse R 0 korrutis.

Mõõtmiste ja arvutuste tulemused on toodud tabelis ( vaata tabelit 6).

Tabel 6
n t°, s r, ohm t-¯t (t-¯t) 2 (t-¯t)r r - bt - a (r - bt - a) 2 .10 -6
1 23 1.242 -62.8333 3948.028 -78.039 0.007673 58.8722
2 59 1.326 -26.8333 720.0278 -35.581 -0.00353 12.4959
3 84 1.386 -1.83333 3.361111 -2.541 -0.00965 93.1506
4 96 1.417 10.16667 103.3611 14.40617 -0.01039 107.898
5 120 1.512 34.16667 1167.361 51.66 0.021141 446.932
6 133 1.520 47.16667 2224.694 71.69333 -0.00524 27.4556
515 8.403 – 8166.833 21.5985 – 746.804
∑/n 85.83333 1.4005 – – – – –

Valemite (21), (22) abil määrame

R 0 = ¯ R- α R 0 ¯ t = 1,4005 - 0,002645 85,83333 = 1,1735 Ohm.

Leiame α definitsioonis vea. Kuna , siis vastavalt valemile (18) on meil:

.

Kasutades valemeid (23), (24) saame

;

0.014126 Ohm.

Olles määranud usaldusväärsuse väärtusele P = 0,95, kasutades Studenti koefitsientide tabelit n = 6 jaoks, leiame t = 2,57 ja määrame absoluutvea Δα = 2,57 0,000132 = 0,000338 kraad -1.

α = (23 ± 4) 10 -4 rahe-1 P = 0,95 juures.


Näide 3. Newtoni rõngaste abil on vaja määrata läätse kõverusraadius. Mõõdeti Newtoni rõngaste raadiused r m ja määrati nende rõngaste m arvud. Newtoni rõngaste raadiused on võrrandi abil seotud läätse R kõverusraadiusega ja rõnga numbriga

r 2 m = mλR - 2d 0 R,

kus d 0 läätse ja tasapinnalise paralleelse plaadi vahelise pilu paksus (või läätse deformatsioon),

langeva valguse lainepikkus λ.

λ = (600 ± 6) nm;
r2 m = y;
m = x;
λR = b;
-2d 0 R = a,

siis võtab võrrand kuju y = a + bx.

.

Mõõtmiste ja arvutuste tulemused sisestatakse tabel 7.

Tabel 7
n x = m y = r 2, 10 -2 mm 2 m -¯m (m-¯m) 2 (m -¯ m) a y - bx - a, 10 -4 (y - bx - a) 2 , 10 -6
1 1 6.101 -2.5 6.25 -0.152525 12.01 1.44229
2 2 11.834 -1.5 2.25 -0.17751 -9.6 0.930766
3 3 17.808 -0.5 0.25 -0.08904 -7.2 0.519086
4 4 23.814 0.5 0.25 0.11907 -1.6 0.0243955
5 5 29.812 1.5 2.25 0.44718 3.28 0.107646
6 6 35.760 2.5 6.25 0.894 3.12 0.0975819
21 125.129 – 17.5 1.041175 – 3.12176
∑/n 3.5 20.8548333 – – – – –