我正在使用Scrapy爬网网站,然后将该数据发送到Solr进行索引。数据通过使用Solr的Python客户端之一mysolr的项目管道发送。
蜘蛛程序可以正常工作,我的项目数组中有两个具有正确字段的项目。该数组由管道中的process_item函数调用。
项目管道
from mysolr import Solr
class SolrPipeline(object):
def __init__(self):
self.client = Solr('http://localhost:8983/solr', version=4)
response = self.client.search(q='Title')
print response
def process_item(self, item, spider):
docs = [
{'title' : item["title"],
'subtitle' : item["subtitle"]
},
{'title': item["title"],
'subtitle': item["subtitle"]
}
]
print docs
self.client.update(docs, 'json', commit=False)
self.client.commit()
这就是我遇到的问题。打印的响应为。我使用了每次启动Solr的管理界面时都会显示的SOLR_URL。
我得到的另一个错误如下。
2015-08-25 09:06:53 [urllib3.connectionpool] INFO: Starting new HTTP connection (1): localhost
2015-08-25 09:06:53 [urllib3.connectionpool] DEBUG: Setting read timeout to None
2015-08-25 09:06:53 [urllib3.connectionpool] DEBUG: "POST /update/json HTTP/1.1" 404 1278
2015-08-25 09:06:53 [urllib3.connectionpool] INFO: Starting new HTTP connection (1): localhost
2015-08-25 09:06:53 [urllib3.connectionpool] DEBUG: Setting read timeout to None
2015-08-25 09:06:53 [urllib3.connectionpool] DEBUG: "POST /update HTTP/1.1" 404 1273
六行显示两次(对于我想添加的每个项目,假定一次)。
最佳答案
您想对JSON
数据执行POST请求,但实际上是将Python词典列表传递给self.client.update()
方法。
将字典的Python列表转换为JSON:
import json
from mysolr import Solr
class SolrPipeline(object):
def __init__(self):
self.client = Solr('http://localhost:8983/solr', version=4)
response = self.client.search(q='Title')
print response
def process_item(self, item, spider):
docs = [
{'title' : item["title"],
'subtitle' : item["subtitle"]
},
{'title': item["title"],
'subtitle': item["subtitle"]
}
]
docs = json.dumps(docs) # convert to JSON
self.client.update(docs, 'json', commit=False)
self.client.commit()
关于python - 为什么我与Solr的连接不起作用?,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/32210236/