Curiosidades Dicas

História do futebol no Brasil

Falta menos de um ano para a Copa do Mundo no Brasil e o assunto futebol vai ser cada vez mais recorrente entre os amigos. Mas você sabe como esse esporte chegou ao nosso país?

O futebol no Brasil começou como algo praticado apenas pela elite. Conta-se que a primeira bola de futebol do país foi trazida em 1894, pelo paulista Charles William Miller.

Nesta época, a aristocracia dominava as ligas de futebol, mas, ao mesmo tempo, o esporte começava a ganhar popularidade e, com isso, as pessoas começaram a jogar futebol nas ruas e em campos de areia próximos às suas casas. Entretanto, o esporte só ganhou força mesmo na década de 1920, quando os negros passaram a ser aceitos nos times.

Durante o governo do presidente Getúlio Vargas, foi feito um grande esforço para alavancar o futebol no país. A construção do Maracanã e a Copa do Mundo do Brasil (em 1950), por exemplo, aconteceram na Era Vargas.

Tudo isso contribuiu para que o brasileiro se sentisse “dono” do esporte que foi criado na Inglaterra. A vitória no Mundial de 1958, com um time comandado por Didi, Pelé, Garrincha e pelo capitão paulista Bellini, só provou que o futebol era o principal elemento da identificação nacional, já que reúne pessoas de todas as cores, condições sociais, credos e diferentes regiões do país.

Com a Copa do Mundo em 2014, essa paixão pela bola só vai crescer. É com a bola no pé e a camisa no peito que o brasileiro se sente mais brasileiro. E “gol” será a palavra mais desejada por todos durante o evento!

Quer saber mais sobre o futebol brasileiro? Faça uma visita virtual no Museu do Futebol: http://www.museudofutebol.org.br/

Se desejar, a visita pode ser através do vídeo abaixo:

Postar um comentário

*
*