本文介绍,回复贴吧指定某楼层主的帖子的方法。在这里不介绍无限发主贴和无限回复主贴的方法,无限发主题帖会爆吧,引起别人的反感,并且很容易遭到吧主的封杀;无限回主题帖,会让整个帖子的每楼的回复充满了自己的内容,严重影响别人阅读回帖,可能被举报遭到吧主禁言。只要看了本文就可以无限回帖了,如果需要改成发主题帖或者回主题帖,那肯定只会比这简单,自己理解修改下就可以了。

一般向系统里面添加数据,无非就几种手段,普通人最常用的是用浏览器或者app手动发帖回帖。

第二种是使用类似qtp  selenium之类的自动化测试工具,自动操作浏览器来进行发帖。

第三种是使用jmeter lr python的requests或者urllib之类的,通过抓包分析,然后请求发帖的接口。

第四种是直接向数据库中插入发帖数据,但百度的数据库密码我们肯定是破解不了的,不适合这种方法。

所以本文主要讲述第二种和第三种发帖。

在这里不介绍qtp发帖,者工具太庞大了,并且是收费软件。python安装的人比较多,所以介绍python+selenium回帖。

通过接口方式回帖,以python的requests为例。

话不多说,上代码。

 1 #coding=utf-8 
2 from selenium import webdriver
from selenium.webdriver.support import expected_conditions as EC
from selenium.webdriver.common.by import By
import re,time
##########加载profile,可以免登陆
#profile = webdriver.FirefoxProfile(r'C:\Users\Administrator\AppData\Local\Mozilla\Firefox\Profiles\urkg7uqr.default')
#driver = webdriver.Firefox(profile,timeout=300) #driver = webdriver.Firefox(timeout=50)
driver=webdriver.Chrome()
driver.get('https://tieba.baidu.com/p/4778694923')
str_cookie='BIDUPSID=1B0EC2BA376CBF4E68F4952620B2C7A6; PSTM=1491645170; BDUSS=3NNcWtmZHI2MXdqaE55MUhUN35EYTR-cHppV2VCdDYxLXE5T3Z5eTVvNlhRQkJaSVFBQUFBJCQAAAAAAAAAAAEAAAAw2CBnudvS9LTzyqrAsgAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAJez6FiXs-hYa; BAIDUID=17ECF3B92FDCAFB2D548C94DXXXXXXX:FG=1' #cookie字符串用f12查看网络中的请求贴吧的,请求头中的cookie
list=re.findall('([\s\S]*?)=([\s\S]*?); ',str_cookie+'; ')
for l in list:
ck={'name':l[0],'value':l[1]}
print ck
driver.add_cookie(ck) #来个正则把cookie字符串转成slenium的cookie格式字典,添加到driver。cookie字符串是请求贴吧时用f12查看的 network的headers的请求头的cookie,复制就可以了,这样selenium也可以免登陆
driver.get('https://tieba.baidu.com/p/4778694923') ###########回主贴,写内容但不回帖
driver.find_element_by_id('ueditor_replace').click()
time.sleep(5) #停5秒钟可以发现上面的代码click已经自动拖到页面底部了,没有必要先点击输入框直接赋值也可以,考虑到模拟正常情况,还是点击下,因为百度有些post参数是动态的。
js="document.getElementById('ueditor_replace').innerHTML='abc'"
driver.execute_script(js) all=driver.find_elements_by_css_selector('div.l_post') ###获取所有层主的外层div
print all
for a in all:
#print a.text,'*************************\n'
bt=''
try:
bt=a.find_element_by_id('post_content_106859548218') ####回复指定的层主 except Exception,e:
pass
if bt!='':
#a.find_element_by_class_name('lzl_link_unfold').click() #首次回复
try:
bt.click() #这句会报错,但可以帮助跳到指定层主,非常有用,如果不跳到指定层主的位置,就会定位不到那个层主的‘我也说一句’的按钮,百度贴吧会在我们离开层主的视界后自动收缩层主的跟帖,所以会造成定位不到。肉眼很难观察到,用f12反复关闭和打开,再搜索可以看到。
except Exception,e:
pass
     time.sleep(3)
print a.tag_name
print a.text,'\n*****************************************************************'
for i in range(1000):
#driver.find_element_by_xpath('//*[@id="j_p_postlist"]/div[22]/div[2]/div[2]/div[2]/div[2]/ul/li[6]/a').click() #这种方式不靠谱,前面插了广告或者删了帖子,可能回复层别的层主了
a.find_element_by_class_name('j_lzl_p').click()
#a.find_elements_by_partial_link_text('我也说一句')[0].click() ##我也说一句按钮 driver.find_element_by_id('j_editor_for_container').click()
driver.execute_script('document.getElementById("j_editor_for_container").innerHTML="hello"')
driver.find_element_by_css_selector('.lzl_panel_submit').click() time.sleep(60) #每隔60秒回帖 从第28行道49行繁琐了一些,功能主要是跳转到指定的层主的页面位置,换种方法也可以这样
floor=dr.find_element_by_xpath('//span[contains(text(),"21楼")]') dr.execute_script("arguments[0].scrollIntoView();", floor) time.sleep(2) #再去定位元素 tar = dr.find_element_by_xpath('//div[contains(@data-field,"157780442")]//a[contains(text(),"我也说一句")]') tar.click()

下面来上的是requests代码

#coding:utf-8
import requests
import re
import json
import time
ss=requests.session() str_cookie='BAIDUID=9BB79332C64C55ADFF47BB66E2XXXXXXXXX:FG=1; PSTM=1490700622; BIDUPSID=E5593392C48A25ACD2751413DE5A5707; TIEBA_USERTYPE=ab202a741d89ac4664dafb03; bdshare_firstime=1491115637991; BDSFRCVID=A08sJeC62ZvIB7ciINso-O6ye2xAuYRTH6aouvwQVMCH1Qmt0l4GEG0PqM8g0KubLsfKogKK3gOTH4rP; H_BDCLCKID_SF=tJuO_I8afI83fP36q4r2DjvWqxby26nCtnbeaJ5nJDoAflTtjPbEyfCyhgc9tJc-tjbCLxT4QpP-HJ7G5RJG3xudyaQI2R0jannxKl0MLPjYbb0xynoDXbtEyUnMBMPe52OnaIb-LIcjqR8Zj6KajTbP; bottleBubble=1; pgv_pvi=3998808064; pgv_si=s197984256; BDRCVFR[S_ukKV6dOkf]=mk3SLVN4HKm; PSINO=6; H_PS_PSSID=1448_19035_21084; BDORZ=FFFB88E999055A3F8A630C64834BD6D0; TIEBAUID=3b218806eb200790fd2ae7b1; BDUSS=F-LVMwU09YOVBpcEZwZjlYRVlEbVY0MjZNZ0dWU1dTaHdvM0k2UmZYQ3hSaEJaSVFBQUFBJCQAAAAAAAAAAAEAAAAw2CBnudvS9LTzyqrAsgAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAALG56FixuehYNH; STOKEN=5cb27861dad46603e26d289c5a8ec87c75e0acaf2a2ad105c34cf3c029c9f757; wise_device=0; LONGID=1730205744;'
reg='([\s\S]*?)=([\s\S]*?);'
dict_cookie={}
for c in re.findall(reg,str_cookie):
dict_cookie[c[0]]=c[1]
print 'dict_cookie:',dict_cookie ###cookie字符串转字典,也可以直接把cookie字符串携带在requests的请求头中实现登录 user_agent_list = ['Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/45.0.2454.101 Safari/537.36',
'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.104 Safari/537.36 Core/1.53.2372.400 QQBrowser/9.5.10548.400'
]
header={}
import random
dict_data={
'ie':'utf-8',
'kw':'中华城市',
'fid':'',
'tid':'',
'floor_num':'',
'quote_id':'',
'rich_text':'',
'tbs':'1d2e70d051724ba01491647010',
'content':'啦啦啦',
'lp_type':'',
'lp_sub_type':'',
'new_vcode':'',
'tag':'',
'repostid':'',
'anonymous':'', } ####抓包得到的
dict_data['kw']='中华城市' 了 #重要,不能填错
dict_data['fid']='' #fid是贴吧什么时候建的,可以抓包也可以用上面的获取fid的接口得到,fid指的是贴吧是第多少个建的贴吧,数字越小,说明贴吧建的越早
dict_data['tbs']='1d2e70d051724ba01491647010' ##这个值是有生命周期的,用个天把时间没问题
dict_data['tid']='' ##tid指的是主题帖子的id
dict_data['floor_num']='' ###这个不重要,随便多少都可以
dict_data['quote_id']='' #用f12定位看以看到post_id字段,指的是层主帖子的id
dict_data['repostid']=dict_data['quote_id']
dict_data['content']='啦啦啦德玛西亚' #content顾名思义是回复的内容了,除了这几个外其他的data参数都可以不修改。 #获取fid的接口 ,吧name换成贴吧名字,复制到浏览器地址栏回车就ok了http://tieba.baidu.com/f/commit/share/fnameShareApi?ie=utf-8&fname=%E6%B5%A0%E6%B0%B4%E4%BA%8C%E4%B8%AD i=0 while(1):
i=i+1
try:
header['User-Agent']=random.choice(user_agent_list) ##习惯性的学爬虫来个随机换user-agent,但贴吧和知乎 这种都是基于账号追踪的,换ua和代理ip是没有任何作用的,逃避不了被识别为机器人
header['Connection']='close'
header.update({ 'Host':'tieba.baidu.com','Origin':'http://tieba.baidu.com','Referer':'http://tieba.baidu.com/p/5065229106'}) dict_data['content']='哈哈哈哈'+str(i) res=ss.post('http://tieba.baidu.com/f/commit/post/add',cookies=dict_cookie,data=dict_data,headers=header)
res_content=res.content
res_text=res.text print time.strftime('%Y-%m-%d %H:%M:%S',time.localtime(time.time())),' ',json.dumps(json.loads(res_content),ensure_ascii=False) ###这样可以清楚的看到json里面的\u xxxx之类的对应的中文。 if '"err_code":0' not in res.content: ##errcode0表示回帖成功了 i=i-1 if '"err_code":220034' in res_content:
time.sleep(300) #说话太频繁,这时候不要太快回帖了,回了也没用,会连续返回errcode220034
if '"need_vcode":0,' not in res_content:
#print res_content
print u'需要验证码'
time.sleep(180) ###如果回复太快了会弹出验证码,等一段时间不回帖就好啦。
except Exception,e:
#i=i-1
print e
time.sleep(10) ##每隔10秒回帖

上面就是介绍的两种方法了,一个从ui界面上回帖,一个从接口回帖。

用slenium回帖的好处是,不需要抓包理解http接口,和反复的测试总结出某些参数的意义和作用。上面的slenium代码没有加入处理验证码和禁言一段时间的情况。需要加上才能保证程序一直是可运行的,增强容错能力,不至于程序中断退出。

用requests的回帖方式,需要抓包,并且post参数中有个值是动态并且有生命周期的,这个不容易把握,好处是发帖速度非常快,如果不考虑百度限制的话,requests的回帖速度是slenium的几十倍甚至上百倍。

好了,介绍完了,那么大家需要注意的是,不管是selenium还是requets回帖,不要把回帖间隔设置的太小,否则轻则容易出很多验证码,中则禁言几个小时,重则永久性的被全吧范围封号之后无法使用回帖功能了。

05-06 06:51