Neben Katzen möchten wir auch einen Eindruck davon vermitteln, wie Gesichter von Menschen mit einem Autoencoder generiert werden können. Dazu nutzen wir das YaleFaces-Datenpaket:
Das Datenpaket beinhaltet insgesamt 2432 Schwarz-Weiß-Fotos, wobei 38 Personen mit jeweils 64 unterschiedlichen Lichtverhältnissen fotografiert wurden:
Für unsere Zwecke wurden alle Bilder auf eine Größe von 21 x 24 = 504 Pixel skaliert. Der Datensatz hat somit folgende Gestalt:
Pixel 1 | Pixel 2 | Pixel 3 | ... | Pixel 504 | |
Bild 1 | Graustufe | Graustufe | Graustufe | ... | Graustufe |
Bild 2 | Graustufe | Graustufe | Graustufe | ... | Graustufe |
... | ... | ... | ... | ... | |
Bild 2432 | Graustufe | Graustufe | Graustufe | ... | Graustufe |
Diese Daten können verwendet werden, um einen Autoencoder zu trainieren:
In der nachfolgenden Anwendung wurde der Autoencoder bereits trainiert. Daher kann das Decoder-Netzwerk verwendet werden, um Bilder von Gesichtern zu generieren. Tatsächlich lassen sich dadurch insbesondere die Lichtverhältnissen anpassen.