Nach dem Zweiten Weltkrieg übernahmen die USA eine entscheidende Rolle beim Wiederaufbau Deutschlands.