Aber der Krieg endete im Jahr 1918, als Deutschland den Krieg verloren hatte, die deutschen schließlich verließ Afrika und Tansania wurde später unabhängig.
Aber als der Krieg 1918 endete, und Deutschland hatte den Krieg verloren, verließ die Deutschen schließlich Afrika und Tansania später wurde unabhängig.