Eine Gesellschaftsform, in der Männer dominante Positionen einnehmen und Frauen systematisch benachteiligt werden.
Das Patriarchat beeinflusst oft die Wahrnehmung von Geschlechterrollen.