Lai atpazītu, vai modelis ir pārāk pielāgots, ir jāsaprot pārmērīgas uzstādīšanas jēdziens un tā ietekme uz mašīnmācību. Pārmērīga pielāgošana notiek, ja modelis īpaši labi darbojas apmācību datos, bet nespēj vispārināt uz jauniem, neredzētiem datiem. Šī parādība kaitē modeļa prognozēšanas spējām un var izraisīt sliktu veiktspēju reālās pasaules scenārijos. Saistībā ar dziļajiem neironu tīkliem un aprēķiniem pakalpojumā Google Cloud Machine Learning ir vairāki rādītāji, kas var palīdzēt noteikt pārmērību.
Viena izplatīta pārmērības pazīme ir būtiska atšķirība starp modeļa veiktspēju apmācības datos un tā veiktspēju pēc validācijas vai testa datiem. Ja modelis ir pārāk pielāgots, tas "iegaumē" apmācības piemērus, nevis apgūst pamatā esošos modeļus. Rezultātā tas var sasniegt augstu precizitāti apmācības komplektā, bet grūti veikt precīzas prognozes par jauniem datiem. Novērtējot modeļa veiktspēju atsevišķā validācijas vai testa komplektā, var novērtēt, vai nav notikusi pārmērība.
Vēl viena pārklāšanās pazīme ir liela atšķirība starp modeļa apmācību un validācijas kļūdu līmeni. Apmācības procesā modelis mēģina minimizēt savu kļūdu, pielāgojot tā parametrus. Tomēr, ja modelis kļūst pārāk sarežģīts vai tiek apmācīts pārāk ilgi, tas var sākt piemērot troksni apmācības datos, nevis pamatā esošajos modeļos. Tas var radīt zemu apmācību kļūdu līmeni, bet ievērojami augstāku validācijas kļūdu līmeni. Šo kļūdu īpatsvara tendences uzraudzība var palīdzēt noteikt pārmērību.
Turklāt modeļa zuduma funkcijas darbības novērošana var sniegt ieskatu par pārmērību. Zaudējumu funkcija mēra neatbilstību starp prognozētajiem modeļa rezultātiem un faktiskajiem mērķiem. Pārmērīgi pielāgotā modelī treniņu datu zudumu funkcija var turpināt samazināties, kamēr validācijas datu zudumi sāk pieaugt. Tas norāda, ka modelis arvien vairāk specializējas apmācību piemēriem un zaudē vispārināšanas spēju.
Lai novērstu pārmērīgu ietilpību, var izmantot arī regulācijas metodes. Regularizācija ievieš soda termiņu zaudējumu funkcijai, neļaujot modelim kļūt pārāk sarežģītam. Tādi paņēmieni kā L1 vai L2 legalizēšana, pamešana vai agrīna apstāšanās var palīdzēt mazināt pārmērību, pievienojot modeļa mācīšanās procesam ierobežojumus.
Ir svarīgi atzīmēt, ka pārmērību var ietekmēt dažādi faktori, tostarp apmācības datu lielums un kvalitāte, modeļa arhitektūras sarežģītība un izvēlētie hiperparametri. Tāpēc ir ļoti svarīgi rūpīgi izvērtēt šos faktorus, apmācot un novērtējot modeļus, lai izvairītos no pārmērīgas uzstādīšanas.
Pārmērīgas pielāgošanas atpazīšana dziļos neironu tīklos un novērtētājos ietver validācijas vai testa datu veiktspējas analīzi, apmācības un validācijas kļūdu īpatsvara atšķirības uzraudzību, zaudēšanas funkcijas uzvedības novērošanu un legalizācijas metožu izmantošanu. Izprotot šos rādītājus un veicot atbilstošus pasākumus, var mazināt pārmērīgas uzstādīšanas kaitīgo ietekmi un izveidot stabilākus un vispārināmākus modeļus.
Citi jaunākie jautājumi un atbildes par Dziļi neironu tīkli un novērtētāji:
- Vai dziļo mācīšanos var interpretēt kā tāda modeļa definēšanu un apmācību, kura pamatā ir dziļais neironu tīkls (DNN)?
- Vai Google TensorFlow ietvars ļauj paaugstināt abstrakcijas līmeni mašīnmācīšanās modeļu izstrādē (piemēram, aizstājot kodēšanu ar konfigurāciju)?
- Vai ir pareizi, ka, ja datu kopa ir liela, ir nepieciešams mazāk novērtēt, kas nozīmē, ka novērtēšanai izmantotās datu kopas daļu var samazināt, palielinot datu kopas lielumu?
- Vai var viegli kontrolēt (pievienojot un noņemot) slāņu skaitu un mezglu skaitu atsevišķos slāņos, mainot masīvu, kas tiek piegādāts kā dziļā neironu tīkla (DNN) slēptais arguments?
- Kas ir neironu tīkli un dziļie neironu tīkli?
- Kāpēc dziļos neironu tīklus sauc par dziļajiem?
- Kādas ir vairāku mezglu pievienošanas priekšrocības un trūkumi DNN?
- Kas ir izzūdoša gradienta problēma?
- Kādi ir dziļo neironu tīklu izmantošanas trūkumi salīdzinājumā ar lineārajiem modeļiem?
- Kādus papildu parametrus var pielāgot DNN klasifikatorā, un kā tie veicina dziļā neironu tīkla precizēšanu?
Skatiet vairāk jautājumu un atbilžu sadaļā Deep neironu tīkli un novērtētāji