Hallo zusammen,
das Forum "Psychologie & Beziehung" ist nicht das passende Forum für meinen Thread, aber da hier mit die meisten Leser sind wird es schon irgendwie gehen!
Aus meinem beruflichen Hintergrund habe ich sehr viel mit verschiedenen Menschen zu tun und dies auch schon etwas länger. Dabei ist mir aufgefallen, dass die Leute mit jeden Tag mehr agressiver, depressiver, intoleranter etc. ihren Mitmenschen gegenüber werden, dass es schon sehr traurig ist, wenn man sieht was aus unserer Gesellschaft geworden ist.
Aber woran liegt das !?
Da ich schon mit einigen aus meinem Freundeskreis darüber gesprochen habe, gibt es bereits mehrere Theorien darüber. Die Mehrheit meint, dass es einfach an dem Land selber liegt, es gibt nicht wirklich Perspektiven, die Politiker wirtschaften sich lieber selbst alles in die Tasche, als dem Volks was gutes zu tun. Auch der Mist mit der Sozialversicherung, kostet uns nur viel Geld, kostet unsere Arbeitsplätze und wenn wir mal in Rente kommen gibt es nichts mehr für uns.
Auch so, die Marke "Made in Germany" ist auch nicht mehr das was es mal war.
Aufgrund der inneren Agressivität und Wut der Menschen ist die Offenheit der Leute auch zurück gegangen. (Nur wenn Alkohol im Spiel ist ist es anders) ... Wenn man z.B. in der Disco versucht sich mit jmd. zu unterhalten ist mal von vorne herein schon negativ eingestellt.
Was meinst ihr zu der ganzen Veränderung und was müsste man eurer Meinung nach tun um etwas zu ändern !?
Vielen Dank für die Teilnahme an dieser Diskussion.
LG Blaze