Die deutschen Universitäten waren bis zum Ende des 19. Jahrhunderts eine Männerdomäne. Erst mit dem beginnenden 20. Jahrhundert boten sich für Frauen immer mehr Möglichkeiten, zu studieren.