La récupération de données Web en Python implique généralement l'envoi de requêtes HTTP au site Web cible et l'analyse des données HTML ou JSON renvoyées. Vous trouverez ci-dessous un exemple d'application de scraping Web simple qui utilise la bibliothèque de requêtes pour envoyer des requêtes HTTP et utilise BeautifulSouplibrary pour analyser le HTML.
Tout d'abord, assurez-vous d'avoir installé les bibliothèques request et beautifulsoup4. Sinon, vous pouvez les installer avec la commande suivante :
demandes d'installation pip beautifulsoup4
Ensuite, vous pouvez écrire un script Python comme celui-ci pour récupérer les données réseau :
import requests from bs4 import BeautifulSoup # URL of the target website url = 'http://example.com' # Sending HTTP GET request response = requests.get(url) # Check if the request was successful if response.status_code == 200: # Parsing HTML with BeautifulSoup soup = BeautifulSoup(response.text, 'html.parser') # Extract the required data, for example, extract all the titles titles = soup.find_all('h1') # Print title for title in titles: print(title.text) else: print('Request failed,status code:', response.status_code)
Dans cet exemple, nous avons d’abord importé les requêtes et les bibliothèques BeautifulSoup. Ensuite, nous avons défini l'URL du site Web cible et envoyé une requête HTTP GET à l'aide de la méthode request.get(). Si la requête réussit (le code d'état est 200), nous analysons le code HTML renvoyé à l'aide de BeautifulSoup et extrayons toutes les balises
Veuillez noter que dans un projet de web scraping réel, vous devez vous conformer aux règles du fichier robots.txt du site Web cible et respecter les droits d'auteur et les conditions d'utilisation du site Web. De plus, certains sites Web peuvent utiliser des techniques anti-crawler, telles que le chargement dynamique de contenu, la vérification captcha, etc., qui peuvent nécessiter des stratégies de gestion plus complexes.
L'utilisation d'un proxy pour explorer des sites Web est une méthode courante pour contourner les restrictions IP et les mécanismes anti-crawler. Les serveurs proxy peuvent agir comme intermédiaires, transmettant vos demandes au site Web cible et vous renvoyant la réponse, de sorte que le site Web cible ne puisse voir que l'adresse IP du serveur proxy au lieu de votre véritable adresse IP.
En Python, vous pouvez utiliser la bibliothèque de requêtes pour configurer un proxy. Voici un exemple simple montrant comment utiliser un proxy pour envoyer une requête HTTP :
import requests # The IP address and port provided by swiftproxy proxy = { 'http': 'http://45.58.136.104:14123', 'https': 'http://119.28.12.192:23529', } # URL of the target website url = 'http://example.com' # Sending requests using a proxy response = requests.get(url, proxies=proxy) # Check if the request was successful if response.status_code == 200: print('Request successful, response content:', response.text) else: print('Request failed,status code:', response.status_code)
Notez que vous devez remplacer l'adresse IP et le port du serveur proxy par l'adresse réelle du serveur proxy. Assurez-vous également que le serveur proxy est fiable et prend en charge le site Web que vous souhaitez explorer. Certains sites Web peuvent détecter et bloquer les requêtes provenant de serveurs proxy connus. Vous devrez donc peut-être changer régulièrement de serveur proxy ou utiliser un service proxy plus avancé.
Clause de non-responsabilité: Toutes les ressources fournies proviennent en partie d'Internet. En cas de violation de vos droits d'auteur ou d'autres droits et intérêts, veuillez expliquer les raisons détaillées et fournir une preuve du droit d'auteur ou des droits et intérêts, puis l'envoyer à l'adresse e-mail : [email protected]. Nous nous en occuperons pour vous dans les plus brefs délais.
Copyright© 2022 湘ICP备2022001581号-3