在 Digg 和 Facebook 等主要网站上共享链接时;它将通过捕获页面的主要图像来创建缩略图。他们如何从网页中捕捉图像?它是否包括加载整个页面(例如通过 cURL)并解析它(例如使用 preg_match)?对我来说,这种方法缓慢且不可靠。他们有更实用的方法吗?

附言我认为应该有一种实用的方法可以通过跳过某些部分(例如 CSS 和 JS)来到达 src 属性来快速抓取页面。任何想法?

最佳答案

他们通常会在页面上寻找图像,然后在他们的服务器上缩小图像。 Reddit 的 scraper code 展示了他们所做的很多事情。 Scraper class 应该给你一些关于如何解决这个问题的好主意。

关于php - 主要网站如何从链接中捕获缩略图?,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/7462044/

10-11 00:18