我正在考虑制作一个小的网络工具来分析整个网站的搜索引擎优化和网络访问性。
首先,这只是一个私人工具。爬行整个网站占用了大量的资源和时间。我发现wget
是下载整个站点标记的最佳选择。
我计划使用php/mysql(甚至可能是codeigniter),但我不确定这样做是否正确。总是有人推荐python、ruby或perl。我只懂php和一点rails。
我还在SourceForge上找到了一个great HTML DOM parser class in PHP。
但是,问题是,我需要一些关于我应该和不应该做什么的反馈。从我应该如何进行爬网过程,到我应该检查的关于搜索引擎优化和wcag的一切。
所以,当你听到这个的时候你会想到什么?
最佳答案
而不是像rpm1984所说的两个伟大的工具,实际上有成百上千的这样的工具来做诸如检查alt
,title
,keywords
和description
等等的工作。
由于你想建立的工具是个人使用,我建议你看看几个网站,如seobook,seodoz。有很多这样的工具,提供各种各样的功能,其中大多数我相信是免费的。建造一个免费的工具就像投资于轮子。除非你正在学习,否则不要那样做。
仅供参考,通常有几个要素,我可以检查而不必付钱,而且很容易:
玛塔酒店。标题,关键字(这很重要),描述。
语义结构。h
标记,alt
标记等等。
链接。入站链接,它们的域名,出站链接等等。
出现在demoz.com、blog、twitter、facebook等重要网站上。
您站点的域名。像注册时间这样的事情被认为是很重要的。
如果你想知道这些信息,那么你可以求助于很多免费工具。
希望这对你有帮助,祝你好运。