„Wenn ein Arbeiter seine Arbeit gut machen will, muss er zuerst seine Werkzeuge schärfen.“ – Konfuzius, „Die Gespräche des Konfuzius. Lu Linggong“
Titelseite > Programmierung > Wie Beautiful Soup zum Extrahieren von Daten aus dem öffentlichen Web verwendet wird

Wie Beautiful Soup zum Extrahieren von Daten aus dem öffentlichen Web verwendet wird

Veröffentlicht am 01.08.2024
Durchsuche:489

How Beautiful Soup is used to extract data out of the Public Web

Beautiful Soup ist eine Python-Bibliothek, die zum Scrapen von Daten aus Webseiten verwendet wird. Es erstellt einen Analysebaum zum Parsen von HTML- und XML-Dokumenten und erleichtert so das Extrahieren der gewünschten Informationen.

Beautiful Soup bietet mehrere Schlüsselfunktionen für Web Scraping:

  1. Navigieren im Analysebaum: Sie können problemlos im Analysebaum navigieren und nach Elementen, Tags und Attributen suchen.
  2. Ändern des Analysebaums: Sie können den Analysebaum ändern, einschließlich des Hinzufügens, Entfernens und Aktualisierens von Tags und Attributen.
  3. Ausgabeformatierung: Sie können den Parse-Baum wieder in eine Zeichenfolge umwandeln, um das Speichern des geänderten Inhalts zu vereinfachen.

Um Beautiful Soup verwenden zu können, müssen Sie die Bibliothek zusammen mit einem Parser wie lxml oder html.parser installieren. Sie können sie mit pip
installieren.

#Install Beautiful Soup using pip.
pip install beautifulsoup4 lxml

Umgang mit Paginierung

Beim Umgang mit Websites, die Inhalte auf mehreren Seiten anzeigen, ist die Handhabung der Paginierung unerlässlich, um alle Daten zu erfassen.

  1. Identifizieren Sie die Paginierungsstruktur: Überprüfen Sie die Website, um zu verstehen, wie die Paginierung strukturiert ist (z. B. Schaltfläche „Nächste Seite“ oder nummerierte Links).
  2. Über Seiten iterieren: Verwenden Sie eine Schleife, um jede Seite zu durchlaufen und die Daten zu extrahieren.
  3. Aktualisieren Sie die URL oder die Parameter: Ändern Sie die URL oder die Parameter, um den Inhalt der nächsten Seite abzurufen.
import requests
from bs4 import BeautifulSoup

base_url = 'https://example-blog.com/page/'
page_number = 1
all_titles = []

while True:
    # Construct the URL for the current page
    url = f'{base_url}{page_number}'
    response = requests.get(url)
    soup = BeautifulSoup(response.content, 'html.parser')

    # Find all article titles on the current page
    titles = soup.find_all('h2', class_='article-title')
    if not titles:
        break  # Exit the loop if no titles are found (end of pagination)

    # Extract and store the titles
    for title in titles:
        all_titles.append(title.get_text())

    # Move to the next page
    page_number  = 1

# Print all collected titles
for title in all_titles:
    print(title)

Extrahieren verschachtelter Daten

Manchmal sind die Daten, die Sie extrahieren müssen, in mehreren Tag-Ebenen verschachtelt. So handhaben Sie die Extraktion verschachtelter Daten.

  1. Navigieren Sie zu übergeordneten Tags: Suchen Sie die übergeordneten Tags, die die verschachtelten Daten enthalten.
  2. Verschachtelte Tags extrahieren: Suchen und extrahieren Sie in jedem übergeordneten Tag die verschachtelten Tags.
  3. Durch verschachtelte Tags iterieren: Durch die verschachtelten Tags iterieren, um die erforderlichen Informationen zu extrahieren.
import requests
from bs4 import BeautifulSoup

url = 'https://example-blog.com/post/123'
response = requests.get(url)
soup = BeautifulSoup(response.content, 'html.parser')

# Find the comments section
comments_section = soup.find('div', class_='comments')

# Extract individual comments
comments = comments_section.find_all('div', class_='comment')

for comment in comments:
    # Extract author and content from each comment
    author = comment.find('span', class_='author').get_text()
    content = comment.find('p', class_='content').get_text()
    print(f'Author: {author}\nContent: {content}\n')

Umgang mit AJAX-Anfragen

Viele moderne Websites verwenden AJAX, um Daten dynamisch zu laden. Die Handhabung von AJAX erfordert verschiedene Techniken, wie z. B. die Überwachung von Netzwerkanfragen mithilfe von Browser-Entwicklertools und die Replikation dieser Anfragen in Ihrem Scraper.

import requests
from bs4 import BeautifulSoup

# URL to the API endpoint providing the AJAX data
ajax_url = 'https://example.com/api/data?page=1'
response = requests.get(ajax_url)
data = response.json()

# Extract and print data from the JSON response
for item in data['results']:
    print(item['field1'], item['field2'])

Risiken von Web Scraping

Web Scraping erfordert eine sorgfältige Abwägung rechtlicher, technischer und ethischer Risiken. Durch die Implementierung geeigneter Sicherheitsmaßnahmen können Sie diese Risiken mindern und Web Scraping verantwortungsbewusst und effektiv durchführen.

  • Verstöße gegen die Nutzungsbedingungen: Viele Websites verbieten Scraping ausdrücklich in ihren Nutzungsbedingungen (ToS). Ein Verstoß gegen diese Bedingungen kann zu rechtlichen Schritten führen.
  • Probleme mit geistigem Eigentum: Das Scrapen von Inhalten ohne Genehmigung kann geistige Eigentumsrechte verletzen und zu Rechtsstreitigkeiten führen.
  • IP-Blockierung: Websites können IP-Adressen erkennen und blockieren, die Scraping-Verhalten zeigen.
  • Kontosperrungen: Wenn Scraping auf Websites durchgeführt wird, die eine Benutzerauthentifizierung erfordern, kann das für das Scraping verwendete Konto gesperrt werden.

Beautiful Soup ist eine leistungsstarke Bibliothek, die den Web-Scraping-Prozess vereinfacht, indem sie eine benutzerfreundliche Oberfläche zum Navigieren und Durchsuchen von HTML- und XML-Dokumenten bereitstellt. Es kann verschiedene Parsing-Aufgaben bewältigen und ist somit ein unverzichtbares Werkzeug für jeden, der Daten aus dem Web extrahieren möchte.

Freigabeerklärung Dieser Artikel ist abgedruckt unter: https://dev.to/marcosconci/how-beautiful-soup-is-used-to-extract-data-out-of-the-public-web-51gg?1 Falls ein Verstoß vorliegt Bitte kontaktieren Sie Study_golang @163.comdelete
Neuestes Tutorial Mehr>

Haftungsausschluss: Alle bereitgestellten Ressourcen stammen teilweise aus dem Internet. Wenn eine Verletzung Ihres Urheberrechts oder anderer Rechte und Interessen vorliegt, erläutern Sie bitte die detaillierten Gründe und legen Sie einen Nachweis des Urheberrechts oder Ihrer Rechte und Interessen vor und senden Sie ihn dann an die E-Mail-Adresse: [email protected] Wir werden die Angelegenheit so schnell wie möglich für Sie erledigen.

Copyright© 2022 湘ICP备2022001581号-3