嘿嘿嘿! 嘿嘿嘿! 福利一波, 之前看小甲鱼的python教学视频的时候, 看到上面教的爬虫, 爬美女图片的, 心很痒痒, 但是不知道为啥, 按照视频一个字一个字敲的代码,总是报错, 有一天花了 一下午的时间, 一个字母一个字母 对过去, 发现没有错, 就是爬不下来- -.  后来 在交流群里问大神, 大神们,说代码时间太久 不能用了, 然后就放弃了, 后来一段时间后又捡起来了. 在这 首先感谢我们组组长的指点, 同时还得感谢崔庆才大佬的教程.

老版本的源代码就不发了, 之所以不能爬, 是因为出现在 网页渲染的问题,导致,F12 的检查元素 看的代码, 和网页源代码有点区别. 在下面的代码里. 用到了  selenium 的一个 第三方的包, 关于这个包的安装,和教程,可以去看 https://www.cnblogs.com/BigFishFly/p/6380024.html 这个博客,崔庆才的教程  写的还好,如果不懂,可以来找我, 我有视频 哈哈哈.

好了不多说了, 福利来了- - 准备来波图片的- - 但是太刺激了 - - 哈哈哈 鼻血直流!!!

 from selenium import webdriver
import urllib.request
import os
os.mkdir('0o')
os.chdir('0o') url = 'http://jandan.net/ooxx'
true = True
i =
while true:
driver = webdriver.Chrome()
driver.get(url)
html = driver.page_source
html = str(html)
a = html.find('img src="')
b = html.find('.jpg', a, a + ) img_dizhi = []
while a != -: if b != -:
b = html.find('.jpg', a, a + ) img_dizhi.append(html[a + :b + ]) else:
b = a +
a = html.find('img src=', b) for each in img_dizhi:
if each == '':
continue
filename = each.split('/')[-]
response = urllib.request.urlopen(each)
mm_img = response.read()
with open(filename, 'wb') as f:
f.write(mm_img)
page =
page -= i
page = str(page)
url = 'http://jandan.net/ooxx/page-' + page + '#comments'
i -=
driver.close()
if i == :
true =False

项目: python爬虫 福利 煎蛋网妹子图-LMLPHP

05-21 11:36