feminizm oznacza ideę wyzwolenia kobiet w społecznościach patriarchalnych zdominowanych przez mężczyzn, męski seksizm, zwalczanie stereotypów i mitów wiążących się z płcią, zrównanie w prawach i obowiązkach. Feminizm przyczynił się m.in. do poznania inności psychoseksualnej płci, specyfiki seksualności kobiecej, zakresu wykorzystywania seksualnego kobiet i przemocy seksualnej, powstania praw kobiet, zakresu i promocji zdrowia reprodukcyjnego, nowego spojrzenia na historię relacji między płciami.
feminizm a erotyzm
Miłość i sex