我正在测试下面的代码。

from bs4 import BeautifulSoup
import requests
from selenium import webdriver
profile = webdriver.FirefoxProfile()
profile.accept_untrusted_certs = True
import time

browser = webdriver.Firefox(executable_path="C:/Utility/geckodriver.exe")
wd = webdriver.Firefox(executable_path="C:/Utility/geckodriver.exe", firefox_profile=profile)
url = "https://corp_intranet"
wd.get(url)

# set username
time.sleep(2)
username = wd.find_element_by_id("id_email")
username.send_keys("my_email@corp.com")

# set password
password = wd.find_element_by_id("id_password")
password.send_keys("my_password")


url=("https://corp_intranet")
r = requests.get(url)
content = r.content.decode('utf-8')
print(BeautifulSoup(content, 'html.parser'))


这可以很好地登录到我的公司Intranet中,但是它只打印非常非常基本的信息。按F12键可显示页面上的许多数据都是使用JavaScript呈现的。我对此进行了一些研究,并试图找到一种方法来真正抓取我在屏幕上看到的内容,而不是非常清晰地看到的内容。有什么方法可以对页面上显示的所有数据进行大数据转储?谢谢。

最佳答案

您打开2浏览器删除此行

browser = webdriver.Firefox(executable_path="C:/Utility/geckodriver.exe")


问题出在您登录的硒中,但不是在requests中,因为它使用了不同的会话

.....
.....
# missing click button? add "\n" to submit or click the button
password.send_keys("my_password\n")

# wait max 10 seconds until "theID" visible in Logged In page
WebDriverWait(wd, 10).until(EC.presence_of_element_located((By.ID, "theID")))

content = wd.page_source
print(BeautifulSoup(content, 'html.parser'))

关于python - 如何正确抓取基于JavaScript的网站?,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/53402067/

10-09 15:05
查看更多