sábado, 23 de fevereiro de 2013

O Brasil é um país de centro direita

Esta conversinha da esquerda no Brasil, de dizer que ela é a salvação é uma tremenda mentira. O Brasil é um país realmente de centro direita, e jamais de esquerda que só se faz de esquerda, pelo simples fato de não está no poder. Porque nosso país é de centro direita como fala este blogueiro? Pelo fato do nosso povo ser conservador e ordeiro, e a esquerda não tem estas qualidades, o PT nos provou isto no Brasil.


O Maior do  

Nenhum comentário:

http://omaiordomundobr.blogspot.com.br/2017/03/governo-do-maranhao-bolsa-escola.html