Jak używać języka Python 3.x do pobierania adresu URL ze stron internetowych obsługujących JavaScript

JavaScript

Pokonywanie wyzwań związanych z pobieraniem treści ze stron zależnych od JavaScript

Używając Pythona do automatyzacji pobierania ze stron internetowych, możesz napotkać sytuacje, w których strona internetowa wymaga włączenia JavaScript do prawidłowego działania. Może to być frustrujące, tak jak biblioteki nie są zaprojektowane do obsługi wykonywania JavaScript. Jednym z takich przykładów jest JFrog Artifactory, który wymaga JavaScriptu do wyświetlania treści lub umożliwienia pobierania.

W tradycyjnym skrobaniu stron internetowych możesz użyć Lub aby pobrać zawartość strony internetowej. Jednak w przypadku stron, które w dużym stopniu opierają się na JavaScript, biblioteki te nie są wystarczające, ponieważ nie obsługują dynamicznego renderowania treści. Dlatego będziesz potrzebować bardziej zaawansowanych narzędzi, aby pokonać to ograniczenie.

Na szczęście Python oferuje alternatywy do obsługi stron obsługujących JavaScript. Narzędzia takie jak Lub włączyć pełną emulację przeglądarki, umożliwiając interakcję i pobieranie treści z takich stron. Biblioteki te mogą symulować prawdziwe środowisko przeglądarki, w którym JavaScript jest w pełni obsługiwany.

W tym artykule opisano, jak przełączyć się z używania do bardziej wydajnych bibliotek umożliwiających dostęp i pobieranie treści ze stron internetowych obsługujących JavaScript, zapewniając płynne działanie zadań automatyzacji.

Rozkaz Przykład użycia
webdriver.Chrome() Inicjuje instancję przeglądarki Chrome w Selenium. To polecenie ma kluczowe znaczenie przy symulowaniu środowiska przeglądarki w celu ładowania stron zawierających dużo JavaScript.
options.add_argument('--headless') Konfiguruje przeglądarkę Selenium do działania w trybie bezgłowym, co oznacza, że ​​przeglądarka działa bez GUI. Jest to przydatne do uruchamiania automatycznych skryptów bez wyświetlania okna przeglądarki.
time.sleep() Wstrzymuje wykonywanie skryptu na określony czas. W tym kontekście daje to czas na całkowite załadowanie kodu JavaScript na stronie przed przystąpieniem do kolejnych działań.
page.content() W Pyppeteer to polecenie pobiera całą zawartość strony internetowej, w tym dynamicznie renderowaną zawartość JavaScript, która jest niezbędna do zapisania końcowego wyniku HTML.
await page.waitForSelector() Czeka na załadowanie określonego elementu HTML przed kontynuowaniem. Ma to kluczowe znaczenie w przypadku stron obciążonych dużą liczbą JavaScript, ponieważ pozwala upewnić się, że wymagane elementy zostaną wyrenderowane przed wyodrębnieniem zawartości.
session.get() To polecenie z Requests-HTML wysyła żądanie GET na podany adres URL. Służy tutaj do pobrania strony internetowej przed wyrenderowaniem jakichkolwiek komponentów JavaScript.
response.html.render() Wykonuje JavaScript na stronie internetowej w bibliotece Requests-HTML. To polecenie ma kluczowe znaczenie w obsłudze stron obsługujących JavaScript bez konieczności posiadania pełnej przeglądarki.
launch(headless=True) Uruchamia bezgłową przeglądarkę w Pyppeteer, podobną do Selenium. Umożliwia to skryptowi dostęp do stron internetowych zawierających dużą ilość JavaScript i interakcję z nimi bez otwierania graficznego okna przeglądarki.
with open() Otwiera plik do zapisu w Pythonie. W tym przypadku służy do zapisywania treści HTML pobranej ze strony internetowej do pliku w celu dalszego przetwarzania lub analizy.

Używanie Pythona do pobierania ze stron obsługujących JavaScript

W tradycyjnym skrobaniu sieci w Pythonie biblioteki takie jak są często używane do pobierania treści bezpośrednio ze stron internetowych. Jednak w przypadku witryn obciążonych dużą ilością JavaScript, takich jak JFrog Artifactory, biblioteki te nie są wystarczające. Głównym powodem jest to, że strona internetowa wymaga JavaScriptu do dynamicznego ładowania treści, co upraszanie nie mogę sobie poradzić. Aby temu zaradzić, wprowadziliśmy rozwiązania takie jak , , I Żądania — HTML, które pozwalają na wykonanie JavaScript. Narzędzia te symulują środowisko przeglądarki, umożliwiając skryptom Pythona uzyskiwanie dostępu do treści stron internetowych korzystających z JavaScript i pobieranie ich.

Pierwsze podejście przy użyciu Selenium polega na uruchomieniu instancji przeglądarki, która może renderować JavaScript. Pozwala nam poczekać na pełne załadowanie strony przed wyodrębnieniem kodu źródłowego strony. Jest to szczególnie przydatne, gdy zawartość strony jest generowana dynamicznie. Na przykład za pomocą polecenie inicjuje przeglądarkę, a następnie uzyskuje dostęp do docelowego adresu URL. Używając , zapewniamy wystarczającą ilość czasu na załadowanie kodu JavaScript. Na koniec wyodrębniona zawartość strony jest zapisywana w pliku, dzięki czemu otrzymujemy żądaną stronę internetową w formie statycznej.

W drugim podejściu wykorzystaliśmy Pyppeteer, opakowanie Pythona dla Puppeteera. Pyppeteer to kolejne potężne narzędzie przeznaczone do obsługi wykonywania JavaScript. Podobnie jak Selenium, Pyppeteer uruchamia bezgłową przeglądarkę, która przechodzi do strony internetowej, czeka na wykonanie kodu JavaScript, a następnie pobiera zawartość. Kluczową zaletą korzystania z Pyppeteera jest to, że zapewnia większą kontrolę nad sesją przeglądania, na przykład oczekiwanie na załadowanie określonych elementów za pomocą poleceń takich jak . Zapewnia to pełne wyrenderowanie wymaganej zawartości strony, zanim skrypt podejmie próbę jej pobrania.

Trzecie rozwiązanie wykorzystuje bibliotekę Requests-HTML, która upraszcza proces renderowania JavaScript bez konieczności posiadania pełnej przeglądarki, takiej jak Selenium czy Pyppeteer. Dzięki Requests-HTML możemy zainicjować sesję HTTP za pomocą aby pobrać stronę internetową, a następnie wykonaj JavaScript za pomocą metoda. To rozwiązanie jest lżejsze w porównaniu do metod symulacji pełnej przeglądarki i często jest bardziej odpowiednie, gdy nie potrzebujesz narzutu związanego z pełną przeglądarką. Jest szczególnie przydatny do prostszych operacji JavaScript, co czyni go optymalnym wyborem w określonych przypadkach użycia.

Pobieranie adresów URL ze stron obsługujących JavaScript w Pythonie

To rozwiązanie wykorzystuje Selenium, bibliotekę Pythona, do obsługi stron zawierających dużo JavaScript. Selenium umożliwia sterowanie przeglądarką internetową, umożliwiając symulację wykonywania JavaScript i pobieranie zawartości dynamicznej.

from selenium import webdriver
from selenium.webdriver.common.keys import Keys
from selenium.webdriver.chrome.service import Service
from webdriver_manager.chrome import ChromeDriverManager
import time
def download_using_selenium(url, username, apikey):
    # Setup Selenium WebDriver
    options = webdriver.ChromeOptions()
    options.add_argument('--headless')
    driver = webdriver.Chrome(service=Service(ChromeDriverManager().install()), options=options)
    driver.get(url)
    time.sleep(3)  # Wait for JavaScript to load
    
    # Assuming basic authentication via URL for this example
    auth_url = f'{url}?username={username}&password={apikey}'
    driver.get(auth_url)
    
    # Extract content
    page_content = driver.page_source
    
    # Save to file
    with open("download_selenium.html", "w") as file:
        file.write(page_content)
    
    driver.quit()
    print("Download complete using Selenium.")

Używanie Pyppeteera do pobierania stron obsługujących JavaScript

To rozwiązanie wykorzystuje Pyppeteer, port Pythona Puppeteer (przeglądarki bezgłowej), który może wykonywać JavaScript i dynamicznie pobierać zawartość strony.

import asyncio
from pyppeteer import launch
async def download_using_pyppeteer(url, username, apikey):
    # Launch headless browser
    browser = await launch(headless=True)
    page = await browser.newPage()
    
    # Basic auth and URL loading
    auth_url = f'{url}?username={username}&password={apikey}'
    await page.goto(auth_url)
    
    # Wait for the JavaScript to load
    await page.waitForSelector('body')
    
    # Extract page content
    content = await page.content()
    
    # Save to file
    with open("download_pyppeteer.html", "w") as file:
        file.write(content)
    
    await browser.close()
    print("Download complete using Pyppeteer.")
# Run the async function
asyncio.get_event_loop().run_until_complete(download_using_pyppeteer("https://example.com", "user", "key"))

Używanie Requests-HTML do obsługi renderowania JavaScript

Podejście to wykorzystuje bibliotekę Requests-HTML, która umożliwia łatwe renderowanie kodu JavaScript bez konieczności korzystania z całej przeglądarki.

from requests_html import HTMLSession
def download_using_requests_html(url, username, apikey):
    session = HTMLSession()
    
    # Make the request
    auth_url = f'{url}?username={username}&password={apikey}'
    response = session.get(auth_url)
    
    # Render the JavaScript
    response.html.render()
    
    # Save the page content
    with open("download_requests_html.html", "w") as file:
        file.write(response.html.html)
    
    print("Download complete using Requests-HTML.")
download_using_requests_html("https://example.com", "user", "key")

Ulepszanie skrobania sieci w języku Python dla stron obsługujących JavaScript

Podczas skrobania stron internetowych zawierających dużo JavaScript częstym wyzwaniem jest ominięcie ograniczeń uwierzytelniania lub kluczy API, szczególnie w aplikacjach takich jak JFrog Artifactory. Chociaż wcześniej badaliśmy automatyzację przeglądarki za pomocą narzędzi takich jak Selenium i Pyppeteer, istnieją inne rozwiązania, które bardziej skupiają się na obsłudze odpowiedzi HTTP. Na przykład integracja interfejsów API i wykorzystanie nagłówków może pomóc w ominięciu monitów o uwierzytelnienie lub pobraniu bardziej szczegółowej treści bez konieczności wykonywania symulacji pełnej przeglądarki.

Innym kluczowym aspektem jest sposób, w jaki te biblioteki obsługują złożone formularze, takie jak te wymagane do logowania lub wprowadzania tokenu API. Typowe rozwiązanie polega na naśladowaniu przesyłania formularzy przy użyciu bibliotek Pythona, takich jak . Pozwala to na bezproblemową interakcję z uwierzytelnianiem po stronie serwera bez konieczności wykonywania JavaScript, oszczędzając zasoby. Ponadto w przypadku bezpieczniejszych stron dodanie do skryptu funkcji takich jak zarządzanie sesjami i uwierzytelnianie oparte na tokenach może znacznie zwiększyć wydajność.

Ważne jest również omówienie potencjalnych problemów, takich jak wyzwania CAPTCHA, które mogą stanowić przeszkodę podczas skrobania lub automatyzacji zadań. Aby poradzić sobie z CAPTCHA, niektórzy programiści wybierają usługi stron trzecich, które automatycznie rozwiązują CAPTCHA. Inne integrują algorytmy uczenia maszynowego, chociaż może to być bardziej złożone. Zrozumienie tych dodatkowych środków bezpieczeństwa pomoże Ci przygotować skrypty do obsługi szerszego zakresu wyzwań, zapewniając wydajne działanie skryptu w języku Python podczas interakcji z platformami opartymi na JavaScript.

  1. Jak mogę zeskrobać treść renderowaną w JavaScript za pomocą Pythona?
  2. Użyj narzędzi takich jak , , Lub do obsługi wykonywania JavaScript podczas pobierania treści ze stron internetowych.
  3. Jakie jest najlepsze narzędzie do obsługi witryn zawierających dużo JavaScript?
  4. jest często najlepszym wyborem w przypadku złożonych witryn obciążonych dużą ilością JavaScript, ponieważ naśladuje rzeczywiste interakcje przeglądarki. jest również bardzo skuteczny.
  5. Jak obsługiwać uwierzytelnianie podczas skrobania stron internetowych?
  6. Możesz skorzystać z biblioteka do obsługi uwierzytelniania podstawowego i opartego na tokenach poprzez wysyłanie kluczy API i tokenów w nagłówkach HTTP.
  7. Czy mogę ominąć CAPTCHA podczas skrobania?
  8. Tak, korzystając z usług rozwiązywania problemów CAPTCHA lub integrując algorytmy uczenia maszynowego. Zwiększa to jednak złożoność i może nie być praktyczne we wszystkich przypadkach użycia.
  9. Czy można uniknąć automatyzacji przeglądarki w przypadku prostych zadań skrobania?
  10. Tak, do prostszych zadań, biblioteka lub może obsłużyć pobieranie danych bez konieczności pełnej automatyzacji przeglądarki.

Dostęp do treści stron internetowych obciążonych dużą liczbą JavaScript wymaga czegoś więcej niż tylko podstawowych żądań HTTP. Wykorzystując narzędzia takie jak Selenium i Pyppeteer, możemy symulować środowiska przeglądarek, które wykonują JavaScript i pobierają pełną zawartość strony internetowej. Narzędzia te zapewniają elastyczność w przypadku zadań automatyzacji.

Chociaż automatyzacja przeglądarki wymaga więcej zasobów, jest to niezawodne rozwiązanie do obsługi złożonych stron. W prostszych przypadkach, Requests-HTML może być lekką alternatywą. Wybór odpowiedniego narzędzia zależy od złożoności obiektu i specyficznych potrzeb Twojego projektu.

  1. Informacje na temat używania Selenium do przeglądania stron internetowych zawierających dużo JavaScriptu zostały odniesione do oficjalnej dokumentacji Selenium. Uzyskaj do niego dostęp tutaj: Dokumentacja Selenu .
  2. Implementacja Pyppeteera do obsługi dynamicznej zawartości JavaScript została oparta na szczegółach ze strony GitHub Pyppeteera. Więcej znajdziesz tutaj: Pyppeteer GitHub .
  3. W przypadku żądań i bibliotek Requests-HTML wnioski wyciągnięto z dokumentacji Requests-HTML, która zapewnia głębsze zrozumienie obsługi renderowania JavaScript w Pythonie: Żądania – dokumentacja HTML .
  4. Najlepsze praktyki zarządzania uwierzytelnianiem i wykorzystaniem API zostały zainspirowane artykułami na temat technik skrobania sieci w Pythonie, które można znaleźć w Real Python: Prawdziwy Python .