第二关还是求和
不过需要爬取1000个网页,直接把第一关的代码拿来改就行:
import requests from bs4 import BeautifulSoup anss=0 for p in range(1,1001): url="http://glidedsky.com/level/web/crawler-basic-2"+"?page="+str(p) header = {"cookie": "我的cookie"} r=requests.get(url,headers=header) r.encoding=r.apparent_encoding html=BeautifulSoup(r.text,'lxml') x=html.select("div[class='col-md-1']") for i in x: anss+=int(i.get_text().strip()) print(anss)
不过这样速度有点慢,毕竟要按顺序访问1000个网页,可以加多线程优化