Investitionen: US-Unternehmen ziehen sich aus Deutschland zurück

US-Investitionen in Deutschland gehen deutlich zurück. Eine Studie zeigt: China hat die Führungsrolle übernommen, während die Attraktivität des Standorts stark leidet.

Mai 15, 2025 - 15:46
 0
Investitionen: US-Unternehmen ziehen sich aus Deutschland zurück
US-Investitionen in Deutschland gehen deutlich zurück. Eine Studie zeigt: China hat die Führungsrolle übernommen, während die Attraktivität des Standorts stark leidet.