最近写的爬虫大多出错在。。。 在B页面抓取A页面的信息, 这样自然报一堆错, 我检查Xpath到怀疑人生, 明明Xpath没有错啊,
为什么报错呢
selenium.common.exceptions.NoSuchElementException
原因就是 所在页面不对啊, A页面怎么可能抓到B页面的信息呢?
防止这一错误的好方法之一就是拍个快照喽
driver.save_screenshot("1.png")
看看1.png是不是预期的页面就好了。
当然啦, 还可以url1 = driver.current_url
url1就是当前页面的url了。