W związku z tym, że mężczyźni uczestniczyli aktywnie w wojnie, wkraczali w szeregi armii i odchodzili z domu, kobiety musiały przejąć ich dotychczasowe obowiązki i odnaleźć się w nowych rolach społecznych. Kobiety podejmowały więc pracę, by utrzymać dom i rodzinę. Stopniowo upadał patriarchat, czyli system w społeczeństwie, w którym dominującą rolę mają mężczyźni.
Po zakończeniu I wojny światowej kobiety nie wróciły do stanu rzeczy sprzed tego wydarzenia. Stopniowo, dzięki zwiększonej roli w społeczeństwie, zaczęły zyskiwać coraz więcej praw, w tym także politycznych. Kierowały się nowoczesnym podejściem, dążąc do równouprawnienia i poprawienia swojej sytuacji. Zyskiwały stałe prace, szkoliły się w zawodach, w których dotychczas pracowali jedynie mężczyźni.