c't 13/2021
S. 142
Praxis
Daten abschöpfen mit Curl
Bild: Thomas Kuhlenbeck

Angebissen

Mit Curl Webseiten anzapfen und Dateien herunterladen

Websites als Datenquellen zu nutzen ist mitunter schwierig, oft sind Logins oder Cookies Voraussetzung für den Zugriff auf die gewünschten Informa­tionen. Mit dem Open-Source-­Kommandozeilentool Curl gelingt das trotzdem.

Von Tim Schürmann

Daten aus Webseiten abzuschöpfen ist heute kompliziert, denn Website-Betreiber möchten ihre Schätze nur selten teilen und ergreifen verschiedene Maßnahmen, um ein Abfischen von Informationen zu verhindern. Genügte es früher meist, die gewünschte URL mit einem beliebigen Download-Tool abzurufen, überprüfen Webserver heute häufig den vorgeblichen Browsertyp oder erfordern Cookies und Logins. Mit Curl können Sie auch Daten oder Dateien solcher Websites herunterladen, aber auch auf viele andere Serverdienste zugreifen, denn Curl unterstützt neben HTTP und HTTPS etliche weitere Protokolle, darunter IMAP(S), SMB, (S)FTP und SCP.

Curl gibt es für Windows, macOS und Linux. Unter Linux gehört Curl oft zur Standardinstallation oder ist in den Standard-Paket-Repositories der Distribution enthalten, für macOS, Windows und viele andere Plattformen finden Sie auf der Projektseite curl.se eine Liste mit Download-Links, teilweise zu externen Anbietern. Die Parameter, und davon benötigt man mitunter etliche gleichzeitig, sind für alle Plattformen gleich.

Kommentare lesen (1 Beitrag)