martes, 6 de marzo de 2018

Historia de los nazis




El NAZISMO (nacionalismo alemán) hace referencia a todo lo relacionado con la ideología y el régimen que gobernó Alemania de 1933 a 1945 con la llegada al poder del Partido Nacionalsocialista Obrero Alemán de Adolf Hitler (NSDAP), el autoproclamado Tercer Reich y Austria a partir de la Anschluss, así como los demás territorios que lo conformaron. La Alemania de este período se conoce como la Alemania nazi.

Es una ideología alemana gestada en la década de los años 1920, pero que no alcanzará importancia hasta los años 30, momento en que las duras condiciones de paz impuestas en el Tratado de Versalles (1919) se juntan con la grave crisis mundial del Jueves Negro en 1929 (véase Gran Depresión). En Alemania la situación es más acuciante aún, ya que a los devastadores efectos económicos se sumaba la obligación de pagar el tributo de la derrota en la Primera Guerra Mundial, y el descontento popular ante la injusta situación que hacía que las calles se llenaran de manifestaciones extremistas de toda índole, tanto de izquierda como de derecha.1​

Esta situación culmina con el fuerte descrédito de las democracias liberales, dado que las dictaduras que surgieron demostraron ser capaces de controlar y resolver las crisis más efectivamente que las democracias.

1 comentario:

  1. Es interesante el aire de superioridad que demostraban estas personas. Sin duda son una muestra de cómo las masas se pueden ver influenciadas por una persona por el simple hecho de que ésta tenga el poder de convencimiento y la actitud de un líder.

    ResponderEliminar