Afroasiatis
Top-Poster
Man merkt auch hier im BF, dass oft über den "Westen" geredet wird, oder für "westliche" Sachen generell. Für viele scheint das etwas Wichtiges zu sein. Generell in meinem Leben habe ich aber auch bemerkt, dass verschiedene Menschen darunter Unterschiedliches verstehen.
Gibt es überhaupt diesen Westen noch heute? Und wenn ja, was ist er? Wie sollte man ihn definieren, politisch, geographisch, kulturell, historisch? Fühlt ihr euch, dass ihr bzw. eure Länder dazu gehören?
Ich denke, besonders für Balkaner und andere ost-mediterrane Völker ist das ein umstrittenes Thema.
Als für mich, habe ich den Westen meistens politisch definiert, als eine imperialistische Allianz von Regimes/Eliten in Westeuropa und Nordamerika. Deswegen habe ich ihn eher negativ betrachtet, was natürlich auch mit der Geschichte meines Landes zu tun hat.
Gibt es überhaupt diesen Westen noch heute? Und wenn ja, was ist er? Wie sollte man ihn definieren, politisch, geographisch, kulturell, historisch? Fühlt ihr euch, dass ihr bzw. eure Länder dazu gehören?
Ich denke, besonders für Balkaner und andere ost-mediterrane Völker ist das ein umstrittenes Thema.
Als für mich, habe ich den Westen meistens politisch definiert, als eine imperialistische Allianz von Regimes/Eliten in Westeuropa und Nordamerika. Deswegen habe ich ihn eher negativ betrachtet, was natürlich auch mit der Geschichte meines Landes zu tun hat.