English Intern
  • Quelle: Pressestelle Universität Würzburg
Forschungsstelle RobotRecht

RatSWD - Web Scraping in der unabhängigen wissenschaftlichen Forschung

16.09.2018

Big Data ist längst nicht mehr bloß ein modisches Buzzword, sondern eine etablierte Geschäftspraxis. Zur Erschließung von Datenquellen wurden in den vergangenen Jahren diverse neuartige Geschäftspraktiken entwickelt. Als „Web Scraping“ wird z.B. ein technisches Verfahren bezeichnet, das dazu dient, automatisiert Inhalte aus fremden Datenbanken auszulesen.

Ein häufiger Anwendungsfall sind Suchmaschinen, die für den Anwender massenhaft Daten von Webseiten – beispielsweise von Hotelanbietern – extrahieren und dem Kunden in einer Liste verfügbare Hotelzimmer samt Preis anzeigen. Doch nicht nur in der Wirtschaft erfreut sich das Web Scraping wachsender Beliebtheit. Auch Disziplinen der wissenschaftlichen Forschung, die auf die Auswertung von großen Datenmengen angewiesen sind, können sich zunehmend die Technik zunutze machen und Inhalte aus öffentlich zugänglichen Datenbanken automatisiert auslesen lassen. Das spart Zeit und ermöglicht eine Fokussierung des Personaleinsatzes auf die anschließende Auswertung der Datenberge.

Fraglich ist jedoch, welche rechtlichen Grenzen dem Web Scraping gesetzt und welche Vorgaben – speziell im Kontext der wissenschaftlichen Forschung – zu beachten sind. Aus diesem Grunde ist die Forschungsstelle RobotRecht vom Rat für Sozial- und Wirtschaftsdaten (RatSWD) mit der Erstellung eines Gutachtens beauftragt worden, das eine umfassende juristische Bewertung des Web Scraping vornimmt.

 

Zur Website des RatSWD: https://www.ratswd.de/

Zurück