El contenido del concepto de “Occidente” ha evolucionado considerablemente a lo largo del tiempo. Mientras que, durante siglos, remitía únicamente a las potencias imperiales europeas en su relación con lo que ellas designaban como “Oriente”, cambió de naturaleza después de la Segunda Guerra Mundial con la incorporación en su seno de Estados Unidos de Norteamérica. A inicios del siglo XXI, Europa dejó de ser su ideólogo y motor, correspondiéndole a partir de entonces dicho papel hegemónico a Washington.
Se acabó el tiempo de los misioneros, de los colonos y de las expediciones punitivas contra “indígenas”, dirigidas por cuerpos expedicionarios en nombre de la “civilización”. No es que el nuevo Occidente haya renunciado ni mucho menos al uso de la fuerza armada, pero lo hace invocando el derecho de injerencia, el deber de proteger, la defensa de la democracia, la lucha contra los totalitarismos y, a partir de los atentados del 11 (...)