Webseitendaten mit Excel extrahieren

Emilia - Jul 29 - - Dev Community

In diesem Artikel würde ich fünf Methoden vorstellen, damit Sie Daten von Website auslesen und Ihre Zeit sparen können.

Methode 1: Mithilfe von Excel Web Queries, Daten aus Website auszulesen

Mit Excel Web Queries können Webdaten schnell und automatisch in ein Excel-Arbeitsblatt übernommen werden, ohne sie manuell kopieren und einfügen zu müssen. Excel erkennt dabei automatisch in den HTML-Code eingebettete Tabellen. Excel Web Queries bieten eine Alternative, wenn eine Standard-ODBC-Verbindung schwierig zu erstellen oder zu warten ist. So können Sie direkt Tabellen von beliebigen Webseiten scrapen.

Den Prozess kann man in einigen einfachen Schritten zusammenfassen (Für ausführliche Informationen lesen Sie bitte diesen Artikel(Englisch)):

✅ Schritt 1: Gehen zu Daten > Externe Daten erhalten> Aus dem Web

✅ Schritt 2: Ein Browser-Fenster mit dem Namen "Neue Web Query" wird angezeigt

✅ Schritt 3: Geben Sie in die Adressleiste die Webadresse ein.

✅ Schritt 4: Die Webseite wird geladen und zeigt gelbe Symbole von Daten/Tabellen an.

✅ Schritt 5: Wählen Sie das entsprechende Symbol aus.

✅ Schritt 6: Drücken Sie den Button „Importieren“.

Jetzt haben Sie die Webdaten zum Excel-Arbeitsblatt gescrapt, die perfekt in Zeilen und Spalten wie gewünscht angeordnet werden.

Methode 2: Mithilfe von Excel VBA, Daten aus Website zu extrahieren

Man verwendet Formeln in Excel (z.B. =avg(...), =sum(...), =if(...), usw.) oft , aber die meisten sind weniger vertraut mit der eingebauten Sprache - Visual Basic for Application (VBA).

Die Verwendung von Excel VBA ist etwas komplexer und weniger benutzerfreundlich für Nicht-Programmierer. VBA funktioniert durch die Ausführung von Makros und Schritt-für-Schritt-Prozeduren, die in Excel Visual Basic geschrieben sind. Um Daten von Webseiten mit VBA zu scrapen, müssen Skripts erstellt werden, um Anfragen an Webseiten zu senden und die zurückgegebenen Daten zu erhalten. Dafür werden üblicherweise XMLHTTP und reguläre Ausdrücke verwendet. Unter Windows-Betriebssystemen kann VBA auch mit WinHTTP oder InternetExplorer kombiniert werden, um Daten von Webseiten in Excel zu scrapen.

Methode 3: Mit kostenlosen Web-Scraping-Tools Daten in Excel importieren

Für jemanden, der ein einfaches Tool sucht, um Daten von Webseiten zu scrapen, aber den VBA-Code nicht selbst einrichten möchte, empfehle ich dringend automatisierte Web Scraping Tools wie Octoparse, um Daten direkt in Ihr Excel-Arbeitsblatt oder über API zu exportieren. Es ist keine Programmierkenntnisse erforderlich.

3 Schritte zum Scrapen von Daten aus einer Website in Excel 👉

✅ Schritt 1: Fügen Sie die URL der Ziel-Website ein, um die automatische Erkennung zu starten.
Sie können Octoparse verwenden, nachdem Sie registriert und sich angemeldet haben. Oder können Sie Octoparse heruntergeladen, dann fügen Sie den Link der Website ein, die Sie auslesen möchten. Dann starten Sie die automatische Erkennung.

✅ Schritt 2: Erstellen und ändern Sie den Workflow
Nach der automatischen Erkennung wird ein Workflow erstellt. Sie können das Datenfeld einfach nach Ihren Bedürfnissen ändern. Es wird ein Tipps-Panel eingeblendet, und Sie können die darin enthaltenen Hinweise befolgen.

✅ Schritt 3: Herunterladen der gescrapten Website-Daten in Excel
Führen Sie die Aufgabe aus, nachdem Sie alle Datenfelder überprüft haben. Sie können die gescrapten Daten schnell im Excel/CSV-Format auf Ihr lokales Gerät herunterladen oder in einer Datenbank speichern.

Methode 4: Extraktion mit Aufgabenvorlagen

✅ Schritt 1: Wählen Sie eine Vorlage für Web Scraping

✅ Schritt 2: Verwenden Sie die Vorlage
Öffnen Sie die Vorlage, lesen Sie die Anweisungen und die Beispielausgabe, um zu überprüfen, ob Sie mit dieser Vorlage die benötigten Daten erhalten können. Fahren Sie mit dem Mauszeiger über die Datenfelder, um zu sehen, welche Elemente auf den Websites extrahiert werden. Sehen Sie sich die Parameter an, um zu erfahren, was Sie eingeben müssen. Die Parameter variieren in den verschiedenen Vorlagen, da sie möglicherweise andere Suchbegriffe erfordern, um den Prozess fortzufahren.

✅ Schritt 3: Klicken Sie auf "Versuchen" und beginnen Sie mit der ExtraktionGeben Sie Ihre gewüschten Daten ein und klicken Sie auf "Versuchen".

Methode 5: Mithilfe von Web Scraping Services, Daten aus Website abzurufen

Wenn Ihre Zeit begrenzt ist und Sie sich auf Ihr Kerngeschäft konzentrieren möchten, ist es ratsam, die komplexen Web-Scraping-Aufgaben an ein professionelles und erfahrenes Team auszulagern. Das Web-Scraping kann aufgrund von Anti-Scraping-Maßnahmen auf manchen Websites schwierig sein. Ein kompetentes Web-Scraping-Team kann Ihnen dabei helfen, Daten korrekt zu extrahieren und Ihnen strukturierte Daten in einem gewünschten Format zuzustellen. Octoparse bietet maßgeschneiderte Crawler-Anpassungsdienste an, bei denen ein individueller Crawler gemäß Ihren Anforderungen eingerichtet wird. Wenn Sie Probleme bei der Datenextraktion haben oder Vorschläge haben, kontaktieren Sie uns gerne per E-Mail (support@octoparse.com).

Zusammenfassung

Die Extraktion von Daten aus Websites und der Import in Excel lassen sich auf fünf verschiedene Arten automatisieren, um Zeit zu sparen und die Effizienz zu steigern. Durch den Einsatz von Excel-Webabfragen, VBA-Programmierung, automatisierten Web-Crawling-Tools oder professionellen Web-Crawling-Diensten können Benutzer Webdaten leicht in strukturierte Informationen umwandeln und so Datenanalyse- und Verarbeitungsprozesse optimieren.

👍👍 Wenn Sie Interesse an Octoparse und Web Scraping haben, können Sie es zunächst 14 Tage lang kostenlos ausprobieren.

Quelle: https://www.octoparse.de/blog/scrapen-daten-aus-website-mit-excel?utm_source=dev&utm_medium=social&utm_campaign=hannaq3&utm_content=post

. . . . . . . . . . . . . . . . . . . . . .
Terabox Video Player