- Vad är Minibatch -diskriminering?
- Hur förhindrar du att GAN: er kollapsar?
- Hur kan jag förbättra min GAN -utbildning?
- Varför är GAN instabil?
Vad är Minibatch -diskriminering?
Minibatch -diskriminering är en diskriminerande teknik för generativa kontradiktoriska nätverk där vi diskriminerar mellan hela minibatcher av prover snarare än mellan enskilda prover. Detta är avsett att undvika kollaps av generatorn.
Hur förhindrar du att GAN: er kollapsar?
En noggrant tunnad inlärningshastighet kan mildra några allvarliga GAN -problem som modekollaps. Specifikt, sänk inlärningshastigheten och gör om träningen när lägesfall kollapsar. Vi kan också experimentera med olika inlärningshastigheter för generator och diskriminator.
Hur kan jag förbättra min GAN -utbildning?
Ytterligare tips och tricks
- Funktionsmatchning. Utveckla ett GAN med hjälp av halvt övervakat lärande.
- Minibatch -diskriminering. Utveckla funktioner över flera prover i en minibatch.
- Historiskt medelvärde. Uppdatera förlustfunktionen för att inkludera historik.
- Ensidig etikettutjämning. ...
- Virtuell batchnormalisering.
Varför är GAN instabil?
Det faktum att GAN är sammansatta av två nätverk, och var och en av dem har sin förlustfunktion, resulterar i det faktum att GANs är i sig instabila- dyka lite djupare in i problemet, förlusten av Generator (G) kan leda till GAN-instabilitet , vilket kan vara orsaken till att gradienten försvinner när ...