Colonialismo
¿Qué es, Qué Significa y Cómo se Define Colonialismo? El colonialismo fue un periodo de asentamiento y soberanía europeos en otros países y territorios desde finales del siglo XV hasta el XX. Aunque las prácticas coloniales variaban mucho, implicaban la explotación de los recursos locales y cambiaban los sistemas económicos, políticos y sociales de la colonia.