In Deutschland sind die Wildkatzen zurück

Lange galten Wildkatzen in vielen Gebieten Deutschlands als ausgestorben. Das hat sich geändert. Ein Fotograf begleitet seit zwölf Jahren Forscher im Schwarzwald, um die scheuen Tiere vor die Linse zu bekommen.

Dieser Beitrag wurde unter Reise ( Quelle Welt Online ) veröffentlicht. Setze ein Lesezeichen auf den Permalink.

Schreibe einen Kommentar