Definición de Imperialismo
El término imperialismo proviene del latín imperium, que significa «imperio». Otras definiciones lo relacionan con el verbo imperare, que se traduce como «obligar», «mandar» o «gobernar». En esencia, se refiere al dominio ejercido por un líder, pueblo, región o país sobre otros, que se convierten en los dominados, colonizados o subyugados a las reglas del poder imperialista.
De manera formal, el imperialismo es la doctrina política, económica o militar orientada Sigue leyendo