quinta-feira, 10 de maio de 2012

Os Direitos da Mulher no Brasil - Por Patrícia Batata


Queridas ...



Hoje vivemos em Estado Democrático de Direitos, isto quer dizer que todos os direitos inerentes a sociedade devem ser defendidos e protegidos e que os advogados são os guardiões desse Estado.

Principalmente as ¨advogadas¨ que hoje são maioria no meio jurídico dentro de um meio que durante muito tempo foi essencialmente masculino.

Essa condição foi dada por um grande avanço nas leis deste País: A promulgação da Constituição Federal de 1988.

Até então a sociedade brasileira não igualava os direitos das mulheres com os homens foi esta lei que mudou tudo.

Apesar de por lei serem iguais: Homens e Mulheres o que acontece ainda por mais espantoso que possa parecer é que a mulher em vários níveis da sociedade sofre algum tipo de discriminação.

No ambiente de trabalho é onde mais acontece essa conduta discriminatória principalmente no que tange aos cargos e salários.

Existem políticas públicas que protegem a mulher principalmente aquelas que necessitam de ajuda para criar seus filhos e conseguirem trabalhar.

Outra grande conquista jurídica e talvez a maior para a mulher foi a criação da Lei Maria da Penha, que trouxe um grande avanço na história. Os agressores passaram a serem presos o que antes não acontecia.

Então faça valer seus Direitos!
Patrícia Batata

0 Comentários:

Postar um comentário

Últimos Comentários