Johdatus taaksepäin eliminointiin

Kun ihminen ja kone koputtavat kohti digitaalista evoluutiota, monipuoliset tekniikkakoneet kirjanpitoon saadakseen itsensä paitsi koulutetulle, myös älykkäästi koulutetulle tulemaan paremmin tunnistamaan reaalimaailman esineet. Tällainen aikaisemmin käyttöön otettu tekniikka nimeltään ”Taaksepäin eliminointi”, jonka tarkoituksena oli suosia välttämättömiä ominaisuuksia ja poistaa samalla epäasianmukaiset ominaisuudet, jotta koneen optimointi olisi parempi. Koko koneen suorittama objektintunnistuksen taito on suhteessa siihen, mitä ominaisuuksia se harkitsee.

Ominaisuudet, joilla ei ole viittausta ennustettuun tuotokseen, on poistettava koneesta ja se päätetään poistamalla taaksepäin. Minkä tahansa todellisen sanaobjektin koneen tunnistama hyvä tarkkuus ja aikakompleksisuus riippuvat sen oppimisesta. Joten taaksepäin eliminointi on jäykkä rooli ominaisuuksien valinnassa. Se laskee ominaisuuksien riippuvuusprosentin riippuvaisesta muuttujasta ja löytää sen kuulumisen merkityksen mallissa. Tämän akkreditoimiseksi se tarkistaa lasketun nopeuden normaalilla merkitsevyystasolla (esimerkiksi 0, 06) ja tekee päätöksen ominaisuuden valinnasta.

Miksi meillä on takautuva eliminointi ?

Ei-välttämättömät ja tarpeettomat piirteet ajavat konelogiikan monimutkaisuutta. Se vie aikaa ja mallin resursseja tarpeettomasti. Joten edellä mainitulla tekniikalla on osaava rooli muotoilla malli yksinkertaiseksi. Algoritmi viljelee mallin parasta versiota optimoimalla sen suorituskyvyn ja typistämällä kuluttamattomat nimetyt resurssit.

Se vähentää mallin vähiten huomionarvoisia piirteitä, jotka aiheuttavat melua regressioviivan valinnassa. Asiaankuulumattomien esineiden piirteet voivat johtaa luokitteluun ja ennustamiseen. Yhteisön merkityksettömät piirteet voivat muodostaa mallin epätasapainon suhteessa muiden esineiden muihin merkittäviin piirteisiin. Taaksepäin poistaminen edistää mallin sopivuutta parhaaseen tapaukseen. Siksi taaksepäin eliminointia suositellaan käytettäväksi mallissa.

Kuinka hakea taaksepäin poistamista?

Taaksepäin eliminointi alkaa kaikista ominaisuusmuuttujista, testaamalla sitä riippuvaisella muuttujalla mallikriteerin valitun sovituksen alla. Se alkaa hävittää muuttujat, jotka huonontavat sopeutumisviivaa. Toistetaan tätä poistoa, kunnes malli saavuttaa hyvän istuvuuden. Alla on vaiheet, joilla harjoitellaan taaksepäin tapahtuvaa eliminointia:

Vaihe 1: Valitse sopiva merkitystaso asettuaksesi koneen malliin. (Otetaan S = 0, 06)

Vaihe 2: Syötä mallille kaikki saatavilla olevat riippumattomat muuttujat riippuvaisen muuttujan suhteen ja tietokoneita kaltevuus ja sieppaus regressio- tai sovituslinjan piirtämiseksi.

Vaihe 3: Siirrä kaikki riippumattomat muuttujat, joilla on suurin arvo (ota I), yksi kerrallaan ja jatka seuraavaa paahtoleipää: -

a) Jos I> S, suorita 4. vaihe.
b) Muuta keskeyttää ja malli on täydellinen.

Vaihe 4: Poista valittu muuttuja ja lisää liikettä.

Vaihe 5: Taota malli uudelleen ja laske laskureitin kaltevuus ja leikkaus uudelleen jäännösmuuttujilla.

Edellä mainitut vaiheet esitetään yhteenvetona niiden piirteiden hylkäämisessä, joiden merkitsevyysaste on suurempi kuin valittu merkitsevyysarvo (0, 06), jotta vältetään resurssien ylin luokittelu ja ylikuormitus, jotka havaittiin korkeina monimutkaisina.

Taaksepäin poistamisen ansiot ja haitat

Seuraavassa on joitain jäljempänä yksityiskohtaisesti esitettyjä taaksepäin poistamisen ansioita ja haittoja:

1. Ansiot

Takautuvan eliminoinnin ansiot ovat seuraavat:

  • Nopea koulutus: Kone koulutetaan joukolla käytettävissä olevia kuvion piirteitä, jotka tehdään hyvin lyhyessä ajassa, jos epäolennaiset ominaisuudet poistetaan mallista. Tietojoukon nopea koulutus tulee kuvaan vain, kun malli käsittelee merkittäviä ominaisuuksia ja sulkee pois kaikki melumuuttujat. Se tekee harjoittelusta yksinkertaisen monimutkaisen. Mutta mallia ei saisi suorittaa vajaalla asentamisella, mikä johtuu ominaisuuksien puutteesta tai riittämättömistä näytteistä. Otosominaisuuden tulisi olla runsaasti mallia parhaan luokituksen saamiseksi. Mallin kouluttamiseen kuluvan ajan tulisi olla vähemmän säilyttäen luokittelutarkkuus ja jättää ilman ennustemuuttujaa.
  • Alempi monimutkaisuus: Mallin monimutkaisuus sattuu olemaan suuri, jos malli pohtii ominaisuuksien laajuutta, mukaan lukien kohina ja toisiinsa liittymättömät ominaisuudet. Malli vie paljon tilaa ja aikaa tällaisen ominaisuuksien käsittelyyn. Tämä voi lisätä kuvion tunnistuksen tarkkuutta, mutta nopeus voi sisältää myös kohinaa. Mallin niin korkeasta monimutkaisuudesta päästävä eroon, taaksepäin tapahtuva eliminaatioalgoritmi pelaa vaadittua roolia uuttauttamalla ei-toivotut ominaisuudet mallista. Se yksinkertaistaa mallin käsittelylogiikkaa. Vain harvat olennaiset ominaisuudet ovat riittävät vetoamaan sopivaan sisältöön, joka sisältää kohtuullisen tarkkuuden.
  • Paranna suorituskykyä: Mallin suorituskyky riippuu monista näkökohdista. Malli optimoidaan käyttämällä taaksepäin eliminointia. Mallin optimointi on mallin kouluttamiseen käytetyn aineiston optimointi. Mallin suorituskyky on suoraan verrannollinen sen optimointiasteeseen, joka riippuu merkittävän tiedon taajuudesta. Taaksepäin tapahtuvaa eliminaatioprosessia ei ole tarkoitettu aloittamaan muutos mistä tahansa matalataajuisesta ennustajasta. Mutta se alkaa muuttaa vain korkeataajuuksisilta tiedoilta, koska lähinnä mallin monimutkaisuus riippuu siitä osasta.
  • Ohita ylenmääräinen asennus: Yliasennus tapahtuu, kun mallilla on liian monta tietojoukkoa ja suoritetaan luokittelu tai ennustaminen, jossa jotkut predikaattorit saivat muiden luokkien kohinan. Tässä asennuksessa mallin piti antaa odottamattoman suuri tarkkuus. Liian sopivalla mallilla ei ehkä voida luokitella muuttujaa logiikan aiheuttaman sekaannuksen vuoksi, joka johtuu liian monista ehdoista. Taaksepäin tapahtuva eliminointitekniikka rajoittaa ylimääräisen piirteen ylimääräisen sovittamisen välttämiseksi.

2. Haitat

Taaksepäin eliminoinnin haitat ovat seuraavat:

  • Taaksepäin eliminointimenetelmässä ei voida selvittää, mikä ennustaja on vastuussa toisen ennusteen hylkäämisestä, koska se saavuttaa merkityksensä. Esimerkiksi, jos ennustajalla X on jotain merkitystä, joka oli tarpeeksi hyvä asumaan mallissa Y-ennustajan lisäämisen jälkeen. Mutta X: n merkitys vanhenee, kun toinen ennustaja Z tulee malliin. Joten taaksepäin tapahtuva eliminaatioalgoritmi ei ilmene minkäänlaisesta riippuvuudesta kahden ennustajan välillä, joka tapahtuu ”Eteenvalintatekniikassa”.
  • Sen jälkeen kun mallin ominaisuudet on hylätty taaksepäin eliminoivan algoritmin avulla, ominaisuutta ei voida valita uudelleen. Lyhyesti sanottuna, taaksepäin eliminoinnilla ei ole joustavaa lähestymistapaa ominaisuuksien / ennustajien lisäämiseen tai poistamiseen.
  • Normit merkitsevyysarvon (0, 06) valitsemiseksi mallissa ovat joustamattomia. Taaksepäin tapahtuvassa eliminoinnissa ei ole joustavaa menettelyä, jonka avulla voidaan paitsi valita, myös muuttaa merkityksettömää arvoa, jotta saataisiin paras mahdollinen sopiva tietojoukko.

johtopäätös

Takautuva eliminointitekniikka toteutettiin mallin suorituskyvyn parantamiseksi ja sen monimutkaisuuden optimoimiseksi. Sitä käytetään elävästi useissa regressioissa, joissa malli käsittelee laajaa tietojoukkoa. Se on helppo ja yksinkertainen lähestymistapa verrattuna eteenpäinvalintaan ja ristiinvalidointiin, jossa optimoinnin ylikuormitus esiintyy. Taaksepäin tapahtuva eliminaatiotekniikka aloittaa niiden ominaisuuksien poistamisen, joilla on korkeampi merkitysarvo. Sen päätavoite on tehdä mallista vähemmän monimutkainen ja kieltää liiallinen tilanne.

Suositellut artikkelit

Tämä on opas taaksepäin poistamiseen. Tässä keskustellaan siitä, kuinka taaksepäin tapahtuvaa eliminointia voidaan soveltaa ansioiden ja haittojen lisäksi. Voit myös katsoa seuraavia artikkeleita saadaksesi lisätietoja-

  1. Hyperparametrinen koneoppiminen
  2. Klusterointi koneoppimisessa
  3. Java-virtuaalikone
  4. Valvomaton koneoppiminen

Luokka: