Colonialisme

Intérêt
Le colonialisme (subst. masc., 1910) est une « doctrine politique qui prône l’exploitation par la métropole des territoires sous-développés qu’elle a pris en charge à son seul profit ou au profit unique des éléments métropolitains installés sur ces territoires. »[1]

Son sens est péjoratif.




Sujets Dictionnaire français
Contenu sous droits d'auteur — Dernière mise-à-jour : 2016-10-25 06:57:39




Découvrez nos contenus

par catégories

par mots-clés

par dates d'ajout et de modification

Index alphabétique

Partagez vos connaissances !
Pour publier durablement et librement sur Internet, contactez-nous.





/a>