In den Vereinigten Staaten gibt es seit der Kolonialzeit

In den Vereinigten Staaten gibt es seit der Kolonialzeit Rassismus. Weiße Amerikaner erhielten Privilegien und Rechte, die nur ohne alle anderen Rassen auf sie beschränkt waren.