第 6 章 部署到Scrapinghub
在前面的几章中,我们了解了如何开发 Scrapy 爬虫。当我们对爬虫的功能感到满意时,接下来会有两个选项。如果我们需要的只是使用它们执行简单的抓取工作,那么此时使用开发机运行即可。而另一方面,更常见的情况是需要周期性地运行抓取任务,此时可以使用云服务器,如 Amazon、RackSpace 或其他提供商,不过这些都需要创建、配置和维护工作。此时就是 Scrapinghub 发挥作用的时候了。
Scrapinghub 是 Scrapy 托管的 Amazon 服务器,它是由 Scrapy 开发者创建的 Scrapy 云基础设施提供商。它是一个付费服务,不过也提供了免费方案。如果你想在几分钟内,就能够让 Scrapy 爬虫运行在专业的创建和维护环境中的话,那么本章非常适合你。