教您使用DynamicGecco抓取JD全部商品信息

标签: dynamicgecco jd 商品 | 发表时间:2016-07-18 03:23 | 作者:
出处:http://www.iteye.com

关于gecco爬虫框架

如果对gecco还没有了解可以参看一下gecco的 github首页。gecco爬虫十分的简单易用。之前有一篇文章《 教您使用java爬虫gecco抓取JD商品信息》,使用的是传统的注解方式,建议看这篇文章前先了解之前的文章。这里介绍一下DynamicGecco方式,比之前更简单,抓取全部京东商品只要3个类就能搞定了。

什么是DynamicGecco

DynamicGecco的目的是在不定义SpiderBean的情况下实现爬取规则的运行时配置。其实现原理是采用字节码编程,动态生成SpiderBean,而且通过自定义的GeccoClassLoader实现了抓取规则的热部署。通常我们可以利用DynamicGecco实现下面这些特性:

  • 已经定义了ORM(如:hiberante)的bean,将注解动态的加载到ORM的bean中,可以很方便的将页面格式化后入库
  • 很多类似的网站的抓取,SpiderBean都一样,只是提取元素的cssPath不一样,为了不构建很多重复的SpiderBean,可以考虑动态生成SpiderBean
  • 通过配置的方式抓取页面,通过后台管理系统、配置文件等配置抓取规则,动态的将配置规则转换成SpiderBean
  • 利用动态SpiderBean可以构建可视化爬虫,利用可视化工具构建抓取规则,将规则动态转换为SpiderBean

规则定义

爬虫的抓取规则,如matchUrl、csspath、ajax等不需要再使用注解方式注入SpiderBean中,利用DynamicGecco直接定义。下面是抓取全部JD商品的规则定义:

   public static void main(String[] args) {

    //对应原来的Category和HrefBean类
    Class<?> category = DynamicGecco.html()
    .stringField("parentName").csspath("dt a").text().build()
    .listField("categorys", 
            DynamicGecco.html()
            .stringField("url").csspath("a").href().build()
            .stringField("title").csspath("a").text().build()
            .register()).csspath("dd a").build()
    .register();

    //对应原来的AllSort类
    DynamicGecco.html()
    .gecco("http://www.jd.com/allSort.aspx", "consolePipeline", "allSortJsonPipeline")
    .requestField("request").request().build()
    .listField("mobile", category)
            .csspath(".category-items > div:nth-child(1) > div:nth-child(2) > div.mc > div.items > dl").build()
    .register();

    //对应ProductBrief类
    Class<?> productBrief = DynamicGecco.html()
    .stringField("code").csspath(".j-sku-item").attr("data-sku").build()
    .stringField("title").csspath(".p-name> a > em").text().build()
    .stringField("preview").csspath(".p-img > a > img").image("", "data-lazy-img", "src").build()
    .stringField("detailUrl").csspath(".p-name > a").href(true).build()
    .register();

    //对应ProductList类
    DynamicGecco.html()
    .gecco("http://list.jd.com/list.html?cat={cat}&delivery={delivery}&page={page}&JL={JL}&go=0", "consolePipeline", "productListJsonPipeline")
    .requestField("request").request().build()
    .intField("currPage").csspath("#J_topPage > span > b").text().build()
    .intField("totalPage").csspath("#J_topPage > span > i").text().build()
    .listField("details", productBrief).csspath("#plist .gl-item").build()
    .register();

    //对应ProductDetail类
    DynamicGecco.html()
    .gecco("http://item.jd.com/{code}.html", "consolePipeline")
    .stringField("code").requestParameter().build()
    .stringField("title").csspath("#name > h1").text().build()
    .stringField("detail").csspath("#product-detail-2").build()
    .stringField("image").csspath("#spec-n1 img").image("d:/gecco/jd/img").build()
    .field("price", FieldType.type(JDPrice.class)).ajax("http://p.3.cn/prices/get?type=1&pdtk=&pdbp=0&skuid=J_{code}").build()
    .field("jdAd", FieldType.type(JDad.class)).ajax("http://cd.jd.com/promotion/v2?skuId={code}&area=1_2805_2855_0&cat=737%2C794%2C798").build()
    .register();

    HttpGetRequest start = new HttpGetRequest("http://www.jd.com/allSort.aspx");
    start.setCharset("GBK");
    GeccoEngine.create()
    .classpath("com.geccocrawler.gecco.demo.jd")
    .start(start)
    .interval(2000)
    .run();

}

规则定义后,启动GeccoEngine即可,和之前没有两样,可以看出来,之前的例子定义了7个Bean,但是这里只需要一个类就都搞定了。

语法讲解

  • html():定义一个html页面爬虫,对应原来HtmlBean接口。对已经存在的类可以指定参数html(className),如果不定义系统会自动生成类名。
  • json():定义一个json数据的爬虫,对应原来JsonBean接口。对已经存在的类可以指定参数json(className),如果不定义系统会自动生成类名。
  • gecco(matchUrl, pipelines...):定义url匹配模式和pipeline处理器。对应原来@Gecco注解
  • existField(fileName):定义一个存在的属性,用来承载抽取出来的内容,如果属性不存在,不会创建新的属性
  • stringField(fileName):定义一个属性,用来承载抽取出来的内容,如果属性已经存在则复用,如果不存在会生成一个新的属性。目前支持的原始类型属性包括:intField, floatField, longField, doubleField,shortField
  • requestField(fileName):对应HttpRequest类型的属性
  • listField(fileName,memberClass):对应一个list类型属性,memberClass表示List里元素的数据类型
  • field(fileName,memberClass):定义memberClass类型的属性,这是一个比较灵活的定义属性的方式,可以任意指定属性类型
  • csspath(csspath):jsoup的抽取元素规则,对应原来@HtmlField注解
  • text():对应原来@Text注解
  • href():对应原来@Href注解
  • image():对应原来@Image注解
  • attr():对应原来@Attr注解
  • ajax():对应原来@Ajax注解
  • jsonpath():对应原来@JSONPath注解
  • build():构建属性抽取规则
  • loadClass():构建整个Bean,使用GeccoClassLoader加载进JVM
  • register():完成loadClass()并且注册到GeccoEngine(GeccoEngine必须后启动才有效)

JsonPipeline

Pipeline的写法也和之前有所区别,由于是运行时生成的Bean,不能像以前那样直接使用定义的Bean,Gecco会将所有Bean都转换为JSONObject,通过json操作来获取抓取来的信息。下面是DynamicJD定义的两个Pipeline:

类别处理Pipeline,对应原来的AllSortPipeline

   @PipelineName("allSortJsonPipeline")
public class AllSortJsonPipeline extends JsonPipeline {

    public static List<HttpRequest> sortRequests = new ArrayList<HttpRequest>();

    @Override
    public void process(JSONObject allSort) {
        HttpRequest currRequest = HttpGetRequest.fromJson(allSort.getJSONObject("request"));
        JSONArray categorys = allSort.getJSONArray("mobile");
        process(currRequest, categorys);
    }

    private void process(HttpRequest currRequest, JSONArray categorys) {
        if(categorys == null) {
            return;
        }
        for(int i = 0; i < categorys.size(); i++) {
            JSONObject category = categorys.getJSONObject(i);
            JSONArray hrefs = category.getJSONArray("categorys");
            for(int j = 0; j < hrefs.size(); j++) {
                String url = hrefs.getJSONObject(j).getString("url")+"&delivery=1&page=1&JL=4_10_0&go=0";
                SchedulerContext.into(currRequest.subRequest(url));
            }
        }
    }

}

产品列表处理Pipeline,对应原来的ProductListPipeline

   @PipelineName("productListPipeline")
public class ProductListPipeline implements Pipeline<ProductList> {

    @Override
    public void process(ProductList productList) {
        HttpRequest currRequest = productList.getRequest();
        //下一页继续抓取
        int currPage = productList.getCurrPage();
        int nextPage = currPage + 1;
        int totalPage = productList.getTotalPage();
        if(nextPage <= totalPage) {
            String nextUrl = "";
            String currUrl = currRequest.getUrl();
            if(currUrl.indexOf("page=") != -1) {
                nextUrl = StringUtils.replaceOnce(currUrl, "page=" + currPage, "page=" + nextPage);
            } else {
                nextUrl = currUrl + "&" + "page=" + nextPage;
            }
            SchedulerContext.into(currRequest.subRequest(nextUrl));
        }
    }

}

以上三个类就完成了JD全部商品的抓取,是不是足够简单了。那注解方式还有必要用吗?当然还是有必要的,你会发现,DynamicGecco虽然足够简单,但是他的可理解性、可读性还是没有注解方式好,对于Gecco框架的新手我还是建议先从注解方式开始。

动态增加修改规则

DynamicGecco通过自定义的GeccoClassLoader实现了规则的热部署,这个是个很有用的功能,你可以想象,假如你有一个管理后台,通过配置就能实现爬虫规则的定义,写爬虫不需要再开发程序,直接配置一下就可以了,如果管理系统做的足够强大,你甚至可以做成可视化的方式,csspath都不需要自己写了。这里还是以最简单的MyGithub为例讲解动态增加修改规则。

启动爬虫引擎

动态增加修改规则,意味着你可以在没有规则的情况下先启动爬虫引擎。规则可以在你定义好后再加入爬虫引擎。

   //初始化爬虫引擎,此时由于没有初始请求,爬虫引擎会阻塞初始队列,直到获取到初始请求
GeccoEngine ge = GeccoEngine.create("com.geccocrawler.gecco.demo.dynamic")    
    .interval(5000)
    .loop(true)
    .engineStart();

定义爬取规则

爬虫规则的定义和之前讲的基本一致,唯一不同的是register()改成loadClass()。loadClass()用于先启动爬虫引擎后定义规则的场景

   //定义爬取规则
Class<?> rule1 = DynamicGecco
    .html()
    .gecco("https://github.com/xtuhcy/gecco", "consolePipeline")
    .stringField("title").csspath(".repository-meta-content").text(false).build()
    .intField("star").csspath(".pagehead-actions li:nth-child(2) .social-count").text(false).build()
    .intField("fork").csspath(".pagehead-actions li:nth-child(3) .social-count").text().build()
    .loadClass();

注册新的规则

犹豫规则定好后并没有注册,通过下面的方法注册规则:

   //注册规则
ge.register(rule1);

初始请求

加入初始请求队列后,爬虫就开始工作了

   //加入初始请求,爬虫引擎开始工作
ge.getScheduler().into(new HttpGetRequest("https://github.com/xtuhcy/gecco"));

更新规则

如果这时我们希望更新一下抓取规则,比如不想抓star了,我们可以这样更新:

   try {
    //开始更新规则
    ge.beginUpdateRule();
    //修改规则
    Class<?> newRule = DynamicGecco
    .html(rule1.getName())
    .gecco("https://github.com/xtuhcy/gecco", "consolePipeline")
    .intField("fork").csspath(".pagehead-actions li:nth-child(3) .social-count").text().build()
    .removeField("star")
    .loadClass();
    //注册新规则
    ge.register(newRule);
} catch(Exception ex) {
    ex.printStackTrace();
} finally {
    //规则更新完毕
    ge.endUpdateRule();
}

下线已有规则

已经定义好的规则,我们可以将其下线,方法如下:

   try {
    //开始更新规则
    ge.beginUpdateRule();
    //下线之前的规则
    ge.unregister(rule);
} catch(Exception ex) {
    ex.printStackTrace();
} finally {
    //规则更新完毕
    ge.endUpdateRule();
}

到此,爬虫规则的增加/修改/删除都已经实现。可以愉快的配置爬虫规则了!

 

完整的的Demo代码可以参考github上的源代码,位于com.geccocrawler.gecco.demo.dynamic包下。



已有 0 人发表留言,猛击->> 这里<<-参与讨论


ITeye推荐



相关 [dynamicgecco jd 商品] 推荐:

教您使用DynamicGecco抓取JD全部商品信息

- - ITeye博客
如果对gecco还没有了解可以参看一下gecco的 github首页. 之前有一篇文章《 教您使用java爬虫gecco抓取JD商品信息》,使用的是传统的注解方式,建议看这篇文章前先了解之前的文章. 这里介绍一下DynamicGecco方式,比之前更简单,抓取全部京东商品只要3个类就能搞定了.

系统架构师JD

- - CSDN博客架构设计推荐文章
国内大型的物流企业,专业从事国内公路运输和航空运输代理. Foss项目的架构设计,包括需求分析,模块设计,系统结构设计,关键功能的开发,技术难题的解决,对团队质量输出的把控等等. 1、熟悉WebLogic/Websphere/JBoss等一个以上大型应用服务器,熟悉Linux及应用服务器集群. 2、 具有丰富J2EE架构设计经验,具有大型基于J2EE体系结构的项目规划、系统架构设计、开发经验.

Amazon.com的推荐:从商品到商品的协同过滤

- 小和尚 - 互联网的那点事
以下全文翻译的PDF点此下载. Amazon.com 的推荐. 推荐算法以其在电子商务网站的用途而著称1,它们利用有关一个顾客的兴趣作为输入,来产生一个推荐商品的列表. 很多应用仅仅使用顾客购买并明确表示代表其兴趣的商品,但它们也可以利用其他属性,包括已浏览的商品、人口统计特征数据、主题兴趣,以及偏爱的艺术家.

商品库MySQL优化实践

- 硬盘被格 - Erlang非业余研究
原创文章,转载请注明: 转载自Erlang非业余研究. 本文链接地址: 商品库MySQL优化实践. 在刚刚结束的Qcon 2011北京会议上我做了以下的分享:. 淘宝商品库是淘宝网最核心的数据库之一,采用MySQL主备集群的架构,特点是数据量大且增长速度快,读多写少,对安全性要求高,并发请求高. 淘宝商品库MySQL优化实践 View more presentations from Feng Yu..

日本的電器商品店

- Ben - Culture Japan : All Posts
日本不僅是旭日之國,也是電器寶地. 電器商品已成爲了日本人民生活的一部分. 我們的房子買來就有自帶的屏幕對講機、智能馬桶以及可從廚房或浴室操控的智能控水系統. 我是不是忘了提到地板下也裝置了動作探測器的防盜系統. 日本有非常多的電器商店 —— 其中大型連鎖店就包括了Ks Denki、 Bic Camera、Yamada Denki、Yodobashi Camera和Kojima.

女装SRP商品信息研究

- - UX 一淘体验中心
SRP(Search Result Page),即搜索结果页,是指用户进行搜索后看到的信息结果反馈页面. 由于其在用户整个搜索行为中起到的巨大作用,PD和设计师的同学们经常会关注:买家究竟在SRP上关注哪些内容呢. 显而易见的,买家在选购不同类型的商品时关注的内容也会不同. 我们首先针对女装类目买家如何挑选女装进行了调研,有一些关于女装SRP的发现和大家分享.

浅析超市商品陈列

- - UX 一淘体验中心
最近一直在思考传统零售行业的导购与电商行业的导购有什么关联性,进而联想到了超市商品陈列与电商行业页面内容布局结构之间的一些关系. 希望从成熟的零售行业吸取一些经验,使我们的电商行业用户体验更佳,购物信息展现和引导力更强. 不知道大家有没有发现一个问题,就算一个我们不熟悉的超市,我们也能够很快的找到它的货架位置,并且轻松自如的购物,原因是每家超市的内部机构很相似,货架摆放位置也差不多.

商品秒杀技术实现

- - 互联网 - ITeye博客
查阅了一些文章,讲的透彻的不多,也可能是我理解不到位. 一种思路, http://guzz.iteye.com/blog/811500,提到的采用二次事务模式,使用AtomicInteger原子计数,挡掉大部分的请求,只接受计数值个用户请求,并提交数据库事务;如果采用多台应用服务器,计数值可以均分,比如总数50,5台服务器,那么每台可以为10.

京东商品详情页碎碎念

- - ITeye博客
在之前的两篇文章《 构建需求响应式亿级商品详情页》和《 京东商品详情页服务闭环实践》已经详细介绍了整个系统的架构设计和实现思路. 本篇将介绍下杂七杂八的一些实践:. 对于突发流量,我这边系统的一般解决方案:高效缓存、自动降级、减少回源量;高效缓存可以参考《 构建需求响应式亿级商品详情页》和《 京东商品详情页服务闭环实践》中的缓存实践;而自动降级也在这两篇文章中讲到了,不再重复.

商品搜索引擎资料整理

- - CSDN博客综合推荐文章
搜索引擎Solr和ElasticSearch了解: http://blog.csdn.net/u013142781/article/details/51224988. 教程: http://blog.csdn.net/jediael_lu/article/category/2370109. 书籍:Lucene In Action(第2版)中文版.