Mir ist nicht klar, ob es in Deutschland ganz anders ist, als in den USA. Dort ist es vernünftig immer anzulügen und sagen, dass der Manager alles gut macht. Sonst kriegst du Ärger und kannst auch entlassen werden. Es ist, als ob sie nur gelobt werden wollen und wenn du ehrlich bist, zerstörst du sein Selbstbild.
Wie findet ihr es in Deutschland?
Ich für meinen Teil bin bei solchen Aussagen immer ehrlich, kenne aber viele die dass nicht so sehen wie ich.