Piilotetut yksiköt -argumentilla syvissa hermoverkoissa on ratkaiseva rooli verkon koon ja muodon mukauttamisessa. Syvät neuroverkot koostuvat useista kerroksista, joista jokainen koostuu joukosta piilotettuja yksiköitä. Nämä piilotetut yksiköt ovat vastuussa tulo- ja lähtötietojen monimutkaisten suhteiden tallentamisesta ja esittämisestä.
Ymmärtääksemme kuinka piiloyksiköiden argumentti mahdollistaa räätälöinnin, meidän on perehdyttävä syvien hermoverkkojen rakenteeseen ja toimintaan. Tyypillisessä syvässä neuroverkossa syöttökerros vastaanottaa raakatulodatan, joka sitten kulkee sarjan piilotettuja kerroksia läpi ennen kuin se saavuttaa tuloskerroksen. Jokainen piilotettu kerros koostuu useista piilotetuista yksiköistä, ja nämä yksiköt on yhdistetty edellisen ja seuraavien tason yksiköihin.
Kunkin kerroksen piilotettujen yksiköiden lukumäärää sekä verkon kerrosten määrää voidaan mukauttaa kulloisenkin ongelman mukaan. Piilotettujen yksiköiden määrän lisääminen kerroksessa antaa verkon kaapata monimutkaisempia kuvioita ja suhteita dataan. Tämä voi olla erityisen hyödyllistä käsiteltäessä suuria ja monimutkaisia tietojoukkoja.
Lisäksi verkon muotoa voidaan myös mukauttaa säätämällä kerrosten määrää. Lisäämällä verkkoon tasoja, se voi oppia tietojen hierarkkisia esityksiä, joissa jokainen kerros kaappaa eri abstraktiotasoja. Tämä hierarkkinen esitys voi olla hyödyllinen tehtävissä, kuten kuvantunnistuksessa, jossa esineitä voidaan kuvata yhdistämällä matalan tason ominaisuuksia (esim. reunat) ja korkean tason käsitteitä (esim. muodot).
Harkitse esimerkiksi syvää neuroverkkoa, jota käytetään kuvan luokitukseen. Syötekerros vastaanottaa kuvan pikseliarvoja, ja myöhemmät piilotetut tasot vangitsevat yhä monimutkaisempia kuvioita, kuten reunoja, pintakuvioita ja muotoja. Viimeinen piilotettu kerros yhdistää nämä kuviot tehdäkseen ennusteen kuvan luokasta. Räätälöimällä piilotettujen yksiköiden ja kerrosten määrää voimme hallita verkon kykyä kaapata kuvien eri yksityiskohtia ja monimutkaisuutta.
Piilotetut yksiköt -argumentti mahdollistaa koon ja muodon mukauttamisen lisäksi myös aktivointitoimintojen mukauttamisen. Aktivointitoiminnot määrittävät piilotetun yksikön lähdön sen tulon perusteella. Eri aktivointifunktioita voidaan käyttää epälineaarisuuden tuomiseen verkkoon, jolloin se voi oppia ja esittää monimutkaisia suhteita tiedoissa. Yleisiä aktivointitoimintoja ovat sigmoid-, tanh- ja rectified lineaar unit (ReLU).
Piilotetut yksiköt -argumentti syvissa hermoverkoissa tarjoaa joustavuutta verkon koon ja muodon mukauttamiseen. Säätämällä piilotettujen yksiköiden ja kerrosten määrää sekä aktivointitoimintojen valintaa voimme räätälöidä verkon kyvyn kaapata ja edustaa datan taustalla olevia kuvioita ja suhteita.
Muita viimeaikaisia kysymyksiä ja vastauksia liittyen Syvät hermoverkot ja estimaattorit:
- Voidaanko syväoppiminen tulkita syvään hermoverkkoon (DNN) perustuvan mallin määrittelemiseksi ja opettamiseksi?
- Voiko Googlen TensorFlow-kehys nostaa abstraktiotasoa koneoppimismallien kehittämisessä (esim. koodaus korvaamalla konfiguraatiolla)?
- Pitääkö paikkansa, että jos aineisto on suuri, tarvitsee vähemmän arviointia, mikä tarkoittaa, että arvioinnissa käytettävän aineiston osaa voidaan pienentää aineiston koon kasvaessa?
- Voiko kerrosten lukumäärää ja solmujen määrää yksittäisissä kerroksissa helposti hallita (lisäämällä ja poistamalla) muuttamalla syvän hermoverkon (DNN) piiloargumenttina toimitettua taulukkoa?
- Mistä tunnistaa, että malli on yliasennettu?
- Mitä ovat hermoverkot ja syvät neuroverkot?
- Miksi syviä hermoverkkoja kutsutaan syväksi?
- Mitkä ovat solmujen lisäämisen edut ja haitat DNN:hen?
- Mikä on katoavan gradientin ongelma?
- Mitkä ovat syvien hermoverkkojen käytön haittoja lineaarisiin malleihin verrattuna?
Katso lisää kysymyksiä ja vastauksia Deep neuroverkot ja estimaattorit -osiossa