Johdatus koneoppimismenetelmiin

Tässä artikkelissa nähdään pääpiirteet koneenoppimisen yhtyemenetelmistä. Ensemble oppiminen on yhdistelmä monipuolisia koneoppimistekniikoita ennakoivaksi malliksi ennustamisen parantamiseksi. Ensemble-oppiminen on hankittu ennustavan datan varianssin vähentämiseksi. Tämän tyyppisen oppimisen on tarkoitus minimoida mallin puolueellisuus. Ensemble oppiminen on monimallijärjestelmä, jossa eri luokittelijat tai tekniikat yhdistetään strategisesti luokittelemaan tai ennakoimaan monimutkaisesta ongelmasta parempia tarkkuuksia. Tällaisen oppimisen tavoitteena on minimoida huono valinta mallista. Se nimittää luottamuksen mallin tekemään päätökseen. Ajatus optimaalisten ominaisuuksien valinnasta on toteutunut yhtyeoppimisessa.

Ensemble-menetelmien tyypit koneoppimisessa

Ensemble Methods -menetelmät auttavat luomaan useita malleja ja yhdistämään ne sitten parempien tulosten tuottamiseksi. Jotkut ryhmämenetelmät luokitellaan seuraaviin ryhmiin:

1. Peräkkäiset menetelmät

Tällaisessa Ensemble-menetelmässä on peräkkäin generoituja perusopiskelijoita, joissa datariippuvuus on. Kaikilla muilla perusopiskelijan tiedoilla on jonkin verran riippuvuutta aiemmista tiedoista. Joten, aikaisemmat väärinkäytetyt tiedot viritetään sen painon perusteella, jotta kokonaisjärjestelmän suorituskyky paranee.

Esimerkki : tehostaminen

2. Rinnakkaismenetelmä

Tällaisessa Ensemble-menetelmässä perusopiskelija luodaan rinnakkaisjärjestyksessä, jossa datariippuvuus ei ole olemassa. Jokainen tieto perusopiskelijasta luodaan itsenäisesti.

Esimerkki : pinoaminen

3. Homogeeninen kokonaisuus

Tällainen ryhmämenetelmä on yhdistelmä samantyyppisiä luokittelijoita. Mutta tietojoukko on erilainen jokaisella luokittelijalla. Tämä saa yhdistetyn mallin toimimaan tarkemmin kunkin mallin tulosten yhdistämisen jälkeen. Tämän tyyppinen ryhmämenetelmä toimii suuren määrän tietojoukkoja. Homogeenisessa menetelmässä ominaisuuksien valintamenetelmä on sama eri harjoitustiedoille. Se on laskennallisesti kallis.

Esimerkki: Suositut menetelmät, kuten pakkaaminen ja lisääminen, kuuluvat homogeeniseen kokonaisuuteen.

4. Heterogeeninen yhtye

Tällainen ryhmämenetelmä on yhdistelmä erityyppisiä luokittelijoita tai koneoppimismalleja, joissa kukin luokittelu perustuu samaan tietoon. Tällainen menetelmä toimii pienissä tietoaineistoissa. Heterogeenisessä ominaisuuksien valintamenetelmä on erilainen samalle harjoitustiedolle. Tämän yhdistelmämenetelmän kokonaistulos suoritetaan laskemalla keskiarvo kunkin yhdistetyn mallin kaikista tuloksista.

Esimerkki : pinoaminen

Kokoonpanomenetelmien tekninen luokitus

Alla on ensemble Methodsin tekninen luokitus:

1. Pussitus

Tämä ryhmämenetelmä yhdistää kaksi koneoppimallia eli Bootstrapping ja Aggregation yhdeksi kokonaismalliksi. Pussitusmenetelmän tavoitteena on vähentää mallin suurta varianssia. Päätöspuilla on varianssi ja alhainen puolueellisuus. Suuri tietojoukko on (esimerkiksi 1000 näytettä) alinäytteistetty (sanotaan esimerkiksi, että 10 alinäytettä kullakin kuljettaa 100 datatietoa). Useita päätöspuita rakennetaan jokaiselle osa-otteen koulutustiedolle. Samalla kun poimitaan otantamenetelmää koskevia tietoja eri päätöksentekopuista, huolta koulutustietojen liiallisesta asettamisesta jokaiselle päätöspuulle vähennetään. Mallin tehokkuuden vuoksi jokaista yksittäistä päätöksentekopuuta kasvatetaan syvällä sisältäen alinäytteistetyn koulutustiedon. Kunkin päätöksenteon puun tulokset yhdistetään lopullisen ennusteen ymmärtämiseksi. Yhdistetyn tiedon varianssi vähenee. Mallin ennustamisen tarkkuus pussitusmenetelmässä riippuu käytetyn päätöksentekopuun määrästä. Otosdatan eri osa-otos valitaan satunnaisesti korvaamalla. Kunkin puun tuotoksella on korkea korrelaatio.

2. Tehostaminen

Vahvistava kokonaisuus yhdistää myös erilaisia ​​samantyyppisiä luokittelijoita. Tehostaminen on yksi peräkkäisistä yhdistelmämenetelmistä, joissa jokainen malli tai luokittelu suoritetaan ominaisuuksien perusteella, joita seuraava malli hyödyntää. Tällä tavalla korotusmenetelmä tekee vahvemman oppijamallin heikosta oppijamallista keskiarvottamalla heidän painonsa. Toisin sanoen vahvempi koulutettu malli riippuu useista heikosta koulutetusta mallista. Heikko oppija tai kulumisharjoitettu malli on sellainen, joka korreloi vähemmän todellisen luokituksen kanssa. Mutta seuraava heikko oppija korreloi hiukan paremmin todellisen luokittelun kanssa. Tällaisten heikkojen oppijoiden yhdistelmä antaa vahvan oppijan, joka korreloi hyvin todellisen luokituksen kanssa.

3. Pinoaminen

Tämä menetelmä yhdistää myös useita luokituksia tai regressiotekniikoita käyttämällä meta-luokittelijaa tai metamallia. Alemman tason mallit koulutetaan täydellisellä harjoitustiedotiedolla ja sitten yhdistelmämalli koulutetaan alemman tason mallien tulosten kanssa. Toisin kuin korottaminen, jokainen alemman tason malli on suoritettu rinnakkain. Alemman tason malleja koskevaa ennustetta käytetään seuraavan mallin syöttökoulutuksen tietojoukkoon ja ne muodostavat pinon, jossa mallin yläkerros on enemmän koulutettu kuin mallin alakerros. Yläkerroksen mallissa on hyvä ennustetarkkuus ja ne rakennettiin alemman tason malleihin. Pino kasvaa, kunnes paras ennustus suoritetaan pienimmällä virheellä. Yhdistetyn mallin tai metamallin ennustaminen perustuu erilaisten heikkojen tai alemman kerroksen mallien ennustamiseen. Se keskittyy tuottamaan vähemmän puolueellista mallia.

4. Satunnainen metsä

Satunnainen metsä eroaa hiukan pussista, koska siinä käytetään syviä puita, jotka on asennettu bootstrap-näytteisiin. Kunkin jännityksen lähtö yhdistetään varianssin vähentämiseksi. Kasvatessamme kutakin puuta sen sijaan, että luisimme käynnistyslohkonäytettä tietojoukon havainnoinnin perusteella, otamme myös tietojoukon ominaisuuksien perusteella ja käytämme puun rakentamiseen vain satunnaista osajoukkoa sellaisesta näytteestä. Toisin sanoen tietojoukon näytteenotto perustuu ominaisuuksiin, jotka vähentävät eri lähdöiden korrelaatiota. Satunnainen metsä on hyvä päättämään puuttuvista tiedoista. Satunnaisella metsällä tarkoitetaan otoksen osajoukon satunnaista valintaa, joka vähentää mahdollisuuksia saada liittyviä ennustusarvoja. Jokaisella puulla on erilainen rakenne. Satunnainen metsä johtaa metsän painotuksen lisääntymiseen hiukan, mutta kaikkien puiden vähemmän liittyvien ennusteiden keskiarvottamisen seurauksena syntyvä varianssi pienenee ja antaa yleisesti paremman suorituskyvyn.

johtopäätös

Kokoonpanon monimallimalli toteutetaan syvän oppimisen malleilla, joissa monimutkaista tietoa on tutkittu ja käsitelty luokittelijan sellaisten erilaisten yhdistelmien avulla paremman ennustamisen tai luokituksen saamiseksi. Jokaisen mallin ennusteen yhtymäoppimisessa tulee olla enemmän korreloimattomia. Tämä pitää mallin puolueellisuuden ja varianssin mahdollisimman pienenä. Malli on tehokkaampi ja ennakoi tuotoksen minimivirheellä. Kokonaisuus on valvottu oppimisalgoritmi, koska malli on koulutettu aiemmin tietosarjan avulla ennusteen tekemistä varten. Yhtyeopinnoissa komponenttien luokittimien lukumäärän tulisi olla sama kuin luokkamerkintöjen korkean tarkkuuden saavuttamiseksi.

Suositellut artikkelit

Tämä on opas ryhmämenetelmiin koneoppimisessa. Tässä keskustellaan tärkeistä tyyppisistä ryhmämenetelmistä koneoppimisessa yhdessä teknisen luokittelun kanssa. Voit myös käydä läpi muiden ehdotettujen artikkeleidemme saadaksesi lisätietoja -

  1. Johdatus yhtyetekniikoihin
  2. Koneoppimisen elinkaari edut
  3. Koneoppimisen algoritmit
  4. 24 suosituinta koneoppimishaastattelua koskevaa kysymystä

Luokka: