美团点评旅游搜索召回策略的演进

标签: 美团 旅游 搜索 | 发表时间:2017-06-17 00:54 | 作者:美团点评技术团队
出处:http://tech.meituan.com/

本文内容与6月22日第22期美团点评技术沙龙“美团点评AI实践”主题演讲一致,欢迎大家去 现场和作者交流。

关注“美团点评技术团队”微信公众号,第一时间获取沙龙最新信息,还可以查阅往期沙龙PPT/视频。

背景

美团点评作为最大的生活服务平台,有丰富的品类可供用户选择,因此搜索这个入口对各业务的重要性不言而喻,除了平台搜索外,业务搜索系统的质量和效果对用户体验、商家曝光、平台交易也有着关键作用。

相对美团点评平台的O2O检索,旅游搜索系统主要面临以下几点挑战:

  • 本异地差异大。在本地生活场景中用户的搜索需求往往集中在本城市内,而在旅游场景特别是行前场景用户会先搜索异地的POI(门店),比如常驻城市为北京的用户在去上海之前可能会先搜索“东方明珠”、“迪士尼”了解相关信息。
  • 搜索意图多样,不同意图的展现形式可能不同。搜“故宫”、“故宫成人票”是景点门票意图,搜“北京”、“云南”是行政区意图,搜“水上乐园”、“滑雪场”是品类意图,搜“上海到南京”、“一日游”是线路游意图。
  • 底层脏数据多。旅游早期由于上单审核不严等原因,会出现“真人CS”Deal(团购单)下挂在“故宫博物馆”POI的情况,按照平台的检索策略,搜“真人CS”时会展现“故宫”的POI,导致大量误召回。

针对上述问题,我们建设了一套相对完整的搜索系统,包括检索召回、查询分析、智能排序和业务应用几部分,本文将重点介绍搜索召回(检索召回、查询分析)的策略演进过程。

评价指标

我们在2015年Q2启动了旅游搜索系统的建设,此时旅游业务有独立的周边游频道,其中的搜索策略由平台统一负责,不能很好的解决旅游场景中的诸多问题。为了解决这些问题,我们首先需要确定搜索的评价指标:

  • 访购率:支付用户数/搜索访问UV,这个是评估搜索效果的主指标。美团点评是一家电商公司,营业收入是核心指标,以搜索为例,用户行为链条包括搜索Query->点击搜索结果列表页中的POI/Deal等->下单支付->消费,最后计算消费收入。如果只看点击率,关注的链条太短,没有反映交易属性;如果看最终的收入结果,部分因素(消费受产品的购买限制、退款条件等影响,收入又跟商户拓展人员谈单的毛利等相关)非搜索可控。因此以访购率作为搜索的核心指标跟美团点评的业务特点最为匹配。

搜索用户行为链条

  • 点击率:点击PV/搜索PV(Page View)。部分景点由于商户拓展人员没有谈单或者是免费景点等原因导致没有门票或线路游Deal可售时,访购率为零,但用户可能需要了解景点相关信息,这时点击率是重要的辅助评价指标。一个相关的指标是有点行为比,以搜索请求量为统计口径。
  • 无结果率:无结果请求数/搜索请求数,衡量搜索召回质量的重要指标。
  • 用户满意度:由产品经理定期人工评测,比如取搜索结果的前20条,如果是单景点意图,对应的POI能排在首位,排序合理,无重复POI则为1分;搜索结果满足部分用户需求,存在误召回、排序不合理的情况则为0.5分;完全不能满足用户旅游需求,搜索结果没有有效信息则为0分。

除了可以用指标评估的问题外,还有一些指标外的问题,比如广告运营、直签门票加权等,这些问题可能跟指标负相关或不好量化评估。指标内的问题又分为两类:一类是算法问题,比如查询意图理解、召回检索策略、个性化排序;另一类是产品和业务问题,比如页面改版、源数据清洗,部分产品问题也需要策略协同解决。

策略迭代方法

明确评价指标后需要找到策略优化的方向和思路,不同于推荐(可以参考作者之前的文章《 旅游推荐系统的演进》),搜索的bad case往往非常明确,因此我们确立了以case驱动为主的策略迭代方法。

  1. 质量评估:定义满意度标准和评估体系,定期(月/季度)评估搜索满意度,确定评估样本,了解Query需求分布、意图识别准召率、召回及排序情况。
  2. 问题分析:对问题进行梳理分类,比如无供给问题、误召回问题、意图识别问题、POI排序问题、展示问题等,找出主要问题并明确优化方向。
  3. 项目开发:评估项目实施的可行性,制定相应的技术方案,配合产品、客户端等其他技术团队联调、测试。
  4. 实验迭代:上线A/B Testing验证优化效果,根据指标评估项目收益,效果正向则扩量,负向则分析调整或下线,并继续迭代优化。

策略迭代

召回策略迭代

全国召回

2015年Q2启动了第一次周边游频道内的搜索质量评估,其中Query搜索无结果影响面非常大,除无供给问题外最重要的一个原因是不支持异地搜索。比如在德州搜索“北京故宫”无结果,进一步分析发现在旅游场景中超过30%的订单来自于异地请求,即常驻城市为A的用户购买了城市B的旅游订单。因此在周边游频道内先放开了上单城市的召回限制,当用户搜索Query时根据POI和Deal字段匹配召回全国范围内的结果,比如在北京搜“武侯祠”能召回多个城市的结果,全国召回策略上线后无结果率大幅下降。

异地搜索

模块化展示

除全国召回外,周边游频道搜索当时仍沿用了美团点评平台的展示及召回机制:

  • POI下挂Deal形式展示。
  • 通过POI及POI下挂的Deal信息进行召回。

这些机制主要有两个问题:

  • 以POI为主的展现形式不能很好满足用户的线路游需求,比如用户搜“北京一日游”,返回的是故宫、长城等POI结果,用户不能方便找到线路游Deal。
  • 旅游不同于其他品类,Deal与POI不是一一对应关系,尤其是线路游、年票等Deal往往关联多个景点,按照平台现有召回策略,会导致大量POI被误召回,比如搜“长城”返回“故宫”POI结果;同时由于上单审核不严等原因,会出现“真人CS”Deal下挂在“故宫”POI的脏数据,也会被误召回。

针对这些问题,在2015年Q3启动了旅游搜索结果分模块展示的开发,即对用户Query进行意图分类,每类意图定制召回策略和展现样式,Query意图分类如下:

query意图分布

以意图占比为56%的景点POI为例,当用户搜索“长城”时会展现“长城相关景点”和“长城相关度假产品”两个类聚,景点类聚只在POI字段域搜索“长城”,比如POI所在城市、名称,这些字段中不包含“故宫”Term,因此不会返回“故宫”POI。度假产品类聚只限定在非门票Deal集合内检索Deal标题、品类、商圈等字段,返回的都是跟团游、酒景套餐自由行等线路游信息,方便用户决策。

当用户在北京搜“上海”时是行政区意图,会展示“上海目的地”、“上海热门景点”、“北京-上海度假产品”、“上海当地度假产品”4个类聚,其中“目的地”是为城市专门定制的落地页,“北京-上海度假产品”是根据出发地为北京、目的地为上海这两个线路游字段来进行检索。

当用户搜索“温泉”时是品类意图,检索策略跟POI景点搜索类似,但会增加品类检索字段。

分模块展示上线后一方面改善了用户体验,另一方面打压了旅游POI和Deal关联的脏数据,访购率和点击率也大幅提升。

模块化展示

同时为了降低无结果率,在一次召回无结果的基础上增加了二次、三次召回,比如增加POI商圈字段。如果二次召回也没有结果,会增加门票Deal字段进行三次召回,返回门票结果。

综上可知用户Query主要包含景点、行政区、品类、线路游4类意图,每类意图又可能展现多个类聚,每个类聚的召回检索策略不同。而早期的技术架构在单次请求下只支持单策略检索,同时在多次召回时只能串行执行,因此需要对检索架构进行升级:

  • 由单任务执行变成多任务并行执行,比如搜索“故宫”时需要并发执行POI和线路游两个检索策略。
  • 由串行执行变成基于状态机的调度执行,比如POI策略下一次召回无结果,会增加商圈字段二次召回,再无结果时会基于门票Deal字段进行三次召回。
    检索任务

无结果优化

为了进一步降低无结果率,在2015年Q4对线上Query做了一次无结果分析,其中32%原因是POI不在线(无供给,POI没有可售Deal),27%是POI品类错误(即POI品类标签不是旅游),这两类问题策略不好解决,剩下30%是由于Query表达方式多样导致搜索无结果,这些case细分原因如下:

  • 15%是Query包含冗余词,比如搜“东莞的隐贤山庄”无结果,去掉“的”有结果。
  • 7%是Query含有错别字或同义词,比如在北京搜“雁西湖”无结果,用户实际需求是“雁栖湖”。
  • 5%是Query包含多个信息,比如搜“北京动物园海洋馆门票”无结果,分别搜“北京动物园”和“北京海洋馆”有结果。
  • 3%是Query词与商家实际信息不符,比如在北京搜“798艺术3D体验馆”,搜“活的3D博物馆”有结果。
    无结果原因分析

丢词&查询改写

针对上述问题分别定制了以下几类策略:

  • 丢词策略:通过挖掘Query日志,统计其中的高频停用词,比如的、一张、价格、团购、去哪等,对用户输入Query直接丢弃其中的停用词,再进行检索召回。
  • Query纠错&同义词改写:统计同一Session(比如一个小时内)内用户的查询对,选择词频共现比较高的查询对作为候选,再人工审核加入到同义词词典。用户查询,同时用原词和同义词去检索,最后对两者返回的结果取并集。
  • 二次召回:在上文中已有提及,即一次召回无结果时扩大检索字段和检索范围。
  • 无结果推荐:推荐本身并不能降低无结果率,但在无结果时给用户提供了另外的选择。

无合作POI召回

上述策略上线后搜索无结果率又有了大幅下降,但仍有一定的优化空间,2016年Q2启动了新一轮的无结果分析,无结果case大致可以分为3类:

  • 无法追回项目:比如免费景区或全网无售(商户拓展人员无法谈单),这类case早期由于评价指标是访购率,搜索并不能召回,但其实对用户体验伤害较大,容易导致用户流失。因此放开一次召回无结果时二次召回无合作POI,比如搜索“潭柘寺”会返回结果,虽然暂无可售的Deal,但用户可以浏览POI详情页的景区简介、预订须知等。
  • 待追回项目:即目前无供给,但可以反馈给商户拓展人员谈单,针对这类case建立了搜索反馈商户拓展人员上单的流程,自动生成任务工单并分派商户拓展人员处理,形成无结果反馈的整体闭环。
  • 线上已有供给:搜索召回策略问题导致的无结果,分析发现通过丢词可以解决大部分case。之前的丢词是词表丢词,丢词的范围有限,需要在一次词表丢词的基础上增加基于模型的二次丢词,主要方法是对Query做Chunk分析,为每个Term打上Chunk标签,人工定义哪些Chunk可以丢弃。
    无合作POI召回

上述策略上线后搜索无结果率横向对比美团点评平台和其他业务基本达到了合理正常的水平。

分类意图识别

模块化展示中用到了Query意图分类,早期的意图分类使用词表精确匹配的方法,比如搜“大理”和“云南大理”都是行政区意图,其中“云南大理”被切分成“云南”和“大理”,然后分别和省份、城市词表匹配。词表精确匹配的准确率较高,但召回率不高,比如“大理旅游”、“去大理”跟“大理”都是同一个意图,但无法通过词表精确匹配。如果采用宽泛匹配准确率又不会太高,比如“北海公园”、“中山公园”中都包含行政区,但其实是景点意图。基于此,2015年Q4启动了分类意图识别的优化,首先根据Query分布定义了8类意图:

  • POI:景点、游乐场、度假村等。
  • 行政区:国家、省、市、县、区、镇。
  • 品类:POI品类体系中的品类词,以及公园、体验馆等指代词。
  • 线路游:一日游、跟团游等。
  • 旅游关键词:旅游同义词如旅行、游玩等。
  • 旅行社。
  • 门票词:门票、套票、成人票等。
  • 非旅游:美食、住宿等外品类词,杂质词(的、一张等)。

可以通过识别Query中Term的意图来判定整个Query的意图,但上述意图分类对Term而言粒度较粗,比如“珠海长隆海洋王国门票”会被切分成“珠海 长隆 海洋 王国 门票”,“珠海”是行政区,“门票”是门票词,“长隆 海洋 王国”整体是POI,但每个Term无法对应到上述分类体系,因此需要设计一套更精细的tag体系。

chunk tag体系

其中将行政区细化到国家、省、市、区县、乡镇和地标商圈等tag,POI细化为POI核心词、品类词、品类修饰词tag。在上例中“长隆”是POI核心词,“海洋 王国”两个Term合并是POI品类词,“海洋王国”即是一个Chunk,Chunk可以认为是一个语义单元,粒度要大于等于Term分词粒度。

基于模型的Chunk分析

对于Query分词后的Term,问题转化为识别Chunk的边界以及为Chunk打上何种tag,即序列标注问题。Chunk边界可以采用BMES(Begin、Middle、End、Single)标记方式,比如“海洋 王国”Chunk中“海洋”标记是B,“王国”标记是E。“珠海”是一个单独的Chunk,所以整体标记为S-城市,同理“长隆”整体标记为S-POI核心词,“海洋”标记为B-品类词。
chunk分析

Chunk分析转化为序列标注问题后跟其他机器学习问题类似,需要考虑三方面因素:1)算法模型;2)标记语料;3)特征选取。算法模型方面采用CRF(条件随机场)模型,其结合了最大熵模型和隐马尔可夫模型的特点,近年来在分词、词性标注和命名实体识别等序列标注任务中取得了很好的效果。

标记语料方面采用一段时间内的搜索日志,分词后对每个Term进行标注,但全部采用人工标注费时费力,因此采用词表规则标注然后人工校验,其中重点是收集各tag的词表,其中行政区、Deal、旅行社等词表比较好收集,POI核心词、品类词、修饰词可以通过挖掘和模板匹配来实现,这里以POI名称为候选词集合,分词后从后向前匹配,定义模板规则,迭代挖掘品类词、修饰词和核心词。
标记语料

特征选取方面主要包括三类:

  • 边界特征:即可以用于确定Chunk边界的特征,包括左右熵、互信息等。
  • tag特征:即可以用于确定Chunk tag类别的特征,包括词长度、Term的tag类别等。
  • 组合特征:左右熵组合,词的组合等。

模型训练时采用CRF++,需要将标注语料转成CRF++的训练格式,以Query“珠海 长隆 海洋 王国 门票”为例,训练语料格式如下:

term
term length
是否有城市Tag
是否有品类Tag
 
左熵
右熵
label
term
term length
是否有城市Tag
是否有品类Tag
 
左熵
右熵
label
海洋 6 0 1 ... 5 3 B-品类词
王国 6 0 1 ... 4 4 E-品类词
珠海 6 1 0 ... 3 6 S-城市
长隆 6 0 0 ... 3 4 S-核心词
门票 6 0 0 ... 7 4 S-门票

最后通过离线训练生成模型供线上使用,对用户输入的Query,模型会输出分词后每个Term的tag。Chunk分析是一项非常基础的工作,基于分析的结果可以应用于丢词、Term重要度、意图识别、Query改写等。

从Chunk分析到意图识别

得到Chunk的tag后可以制定规则输出整个Query的意图,意图之间有优先级顺序:线路游>POI>品类>门票,比如“北京故宫一日游”是线路游意图,“北京故宫”是POI意图,“北京动物园”是POI意图,“动物园”是品类意图。

分类意图识别对搜索整个流程都意义重大,召回层面可以分意图定制检索字段、相关性计算等检索策略,Rerank层面可以分意图优化特征,展示层面可以控制不同的展现样式。

粗排序改进

除了Query分析、检索策略外,粗排序是搜索召回的另一个核心功能。当搜索结果较多时,如果粗排序不合理,会导致部分优质POI或Deal无法召回,并且这些case不好人工干预。因此我们在2016年Q3启动了粗排序的改进工作,主要包括:

  • 距离分分段:计算客户端选择城市中心和POI的距离,若距离>=300KM,则距离分为0,300KM以内距离越近,得分越高。另外当搜索品类意图时,加大距离分的权重,比如东莞用户更希望去东莞附近的温泉(东莞本地温泉较少),而不是北京的。
  • 综合评价数和评分:早期评价数和评分是线性加权,会出现部分冷门POI评价人数较少但评分较高的情况,因此考虑评分的置信度,评价数越多,置信度越高,总体评分越高。
  • 新单销量平滑:新单或新POI由于上线时间较短销量一般不高,因此对据当前日期一段时间内上线的产品会赋予默认销量,并考虑时间衰减。
  • 各因子相乘:文本相关性、距离、评价、销量这些因子维度差异较大,线性加权的权重不好设定,改成相乘,会使各因子的影响更为显著。

文本相关性改进

除了数值类因子优化外,我们对文本相关性也进行了一些改进,早期的文本相关性计算基于TF-IDF,公式可以简化如下:

$$ R_{Q,D}=\sum_{t\in Q}(\sum_{f\in H}\frac{tf_{t,f}}{l_{f}}*w_{f})*idf_{t} $$

\( R_{Q,D} \)是搜索词和文档的相关性,t是\( Q \)分词后的Term,\( H \)是t在文档中命中的文本域集合,\( tf_{t,f} \)是t在某个命中文本域f中的出现次数,\( l_{f} \)是文本域f的长度,\( w_{f} \)是f的权重,比如POI名称域的权重一般会高于Deal标题域,\( idf_{t} \)是Term t的倒排文档频率。上述公式主要存在如下问题:

  • 文本域长度影响过大,比如搜“庐山”,官方POI是“庐山风景名胜区”,分词后包含“庐山”、“风景”、“名胜区”3个Term,而“庐山植物园”只包含“庐山”、“植物园”2个Term,权重是官方POI的1.5倍。
  • 多个域计算结果求和,对部分文本域缺失的POI不公平,比如搜“欢乐谷”,“天津欢乐谷”POI的品牌名(Brand Name)字段是“欢乐谷”,“北京欢乐谷”POI的品牌名字段为空,导致“北京欢乐谷”的权重不如“天津欢乐谷”。
  • 没有考虑字段域的动态权重,比如搜“动物园”,细粒度分词会分成“动物”、“园”,“苏州文化园”POI(包含“动物园、文化园一日游”的Deal)命中了Term“园”,“万鸟林”POI的品类字段是“动物园”,由于POI名称域的权重高于品类域,导致“苏州文化园”的权重更高。
  • IDF只体现了Term自身的重要程度,不能体现Term在Query中的重要程度。

基于上述问题对文本相关性计算公式做了如下改进:

$$ R_{Q,D}=\sum_{t\in Q}\max_{f\in H}\{\frac{tf_{t,f}*(k_{1}+1)}{tf_{t,f}+K}*w_{f}*i_{f}\}*idf_{t}^{'} $$

$$ K=k_{1}*(1-b+b*\frac{l_{f}}{avgl_{f}}) $$

其中\( k_{1} \)和b是调节因子,这部分参考了BM25的相关性计算,可以降低文本域长度的影响;另外对多个域的计算结果求max,减小部分字段缺失的影响;\( i_{f} \)是命中域的动态权重,可以根据命中Term在Query中的比例或权重来设置;\( idf_{t}^{'} \)使用的是Term在Query中的动态权重。

Term重要度

如何计算Term在Query中的动态权重呢?实现时采用模型打分方法,以搜索Query为原始语料,人工进行标注,重要度共分4级:

  • Super important:主要包括POI核心词,比如方特、欢乐谷。
  • Required:包括行政区词、品类词等,比如“北京 温泉”中“北京”和“温泉”都很重要。
  • Important:包括品类词、门票等,比如“顺景 温泉”中“温泉”相对没有那么重要,用户搜“顺景”大部分都是温泉的需求。
  • Unimportant:包括线路游、泛需求词、停用词等。

上例中可见“温泉”在不同的Query中重要度是不同的,在特征选取方面有4类:

  • 文本特征:包括Query长度、Term长度,Term在Query中的偏移量等。
  • 统计特征:包括PMI、IDF等。
  • 语言模型特征:整个query的语言模型概率/去掉该Term后的Query的语言模型概率。
  • Chunk tag特征。

模型方面采用XGBoost进行训练,离线生成模型后供线上使用。
term weighting

全字段召回

随着粗排序和Rerank的改进优化上线,我们放开了POI类聚检索字段的限制,改为使用所有字段做文本匹配,包括POI城市、名称、品类、商圈,简化了二次召回的逻辑。

召回策略流程示例

经过一年多的迭代,整个搜索召回的流程大致如下,以搜索“北京著名的温泉”为例:

  1. 对输入的查询进行预处理,比如特殊字符处理、全半角转换。
  2. 查询分词和词性标注,“北京”是地名、“著名”是形容词、“的”是助词、“温泉”是名词。
  3. 基于词表的一次丢词,“的”作为停用词被丢弃。
  4. 同义词改写,对分词的Term匹配同义词,如“温泉”和“热泉”是同义词。
  5. 在同义词改写的同时分析chunk tag,“北京”是城市、“著名”是品类修饰词、“温泉”是品类词。
  6. 基于Chunk分析的结果识别Query整体为品类意图。
  7. 同时计算Term在Query中的重要度,“北京”为0.48、“著名”为0.39、“温泉”为0.55。
  8. 基于品类意图确定检索字段和相关性计算的逻辑,比如距离加权。
  9. 由于所有POI的文本字段中都不包含“著名”,一次召回无结果,因此扩大POI范围,在无合作POI集合中进行二次检索。
  10. 由于无合作POI的文本字段也不包含“著名”,二次召回也无结果,因此基于Chunk丢弃品类修饰词“著名”,然后进行三次检索。
  11. 最终返回搜索结果列表,“顺景温泉”、“九华山庄”等北京著名温泉。
    召回示例

总结

在旅游搜索召回策略的迭代过程中我们并没有采用大开大合的做法,而是参照策略迭代的四步方法论,定期评估搜索质量,对问题分类分析,集中解决主要核心问题,上线实验验证效果,在避免“误召回”和“无召回”之间保持平衡,逐步迭代,为实现更全更准的搜索目标不断改进。

作者简介

郑刚,美团点评高级技术专家。2010年毕业于中科院计算所,2011年加入美团,参与美团早期数据平台搭建,先后负责平台、酒旅数据仓库和数据产品建设,目前在酒旅事业群数据研发中心,重点负责酒店旅游场景下的搜索排序推荐、数据挖掘工作,致力于用大数据和机器学习技术解决业务痛点,提升用户体验。

最后发个广告,美团点评搜索团队长期招聘自然语言处理、数据挖掘与机器学习、C++与Java后台开发等方向的工程师,有兴趣的同学可以发送简历到zhenggang#meituan.com。

思考题

深度学习近年来非常火热,并且在自然语言处理领域取得了不错的效果。本文中Chunk成分分析用到了CRF模型,深度学习如何应用于这类序列标注问题?在样本和特征构建上会有哪些不同?进一步,深度学习如何应用于意图识别与文本分类?欢迎一起探讨。

相关 [美团 旅游 搜索] 推荐:

美团点评旅游搜索召回策略的演进

- - 美团点评技术团队
本文内容与6月22日第22期美团点评技术沙龙“美团点评AI实践”主题演讲一致,欢迎大家去 现场和作者交流. 关注“美团点评技术团队”微信公众号,第一时间获取沙龙最新信息,还可以查阅往期沙龙PPT/视频. 美团点评作为最大的生活服务平台,有丰富的品类可供用户选择,因此搜索这个入口对各业务的重要性不言而喻,除了平台搜索外,业务搜索系统的质量和效果对用户体验、商家曝光、平台交易也有着关键作用.

美团外卖搜索基于Elasticsearch的优化实践

- - 掘金 后端
美团外卖搜索工程团队在Elasticsearch的优化实践中,基于Location-Based Service(LBS)业务场景对Elasticsearch的查询性能进行优化. 该优化基于Run-Length Encoding(RLE)设计了一款高效的倒排索引结构,使检索耗时(TP99)降低了84%.

深度搜索

- - 译言最新精选
译者: HorseHour 原文地址: streamhacker.com. 当我们准备发布 Weotta时,我们已经为如何描述它犯了难. 我们使用了机器学习和自然语言处理吗. 我们最终觉得“深度搜索”是对我们工作最贴切的描述,它是一个超越了基本文本搜索的复杂搜索系统的简洁描述. 无需赘言,不管怎么看,我们都不是这个领域唯一的一家公司;谷歌和很多其他公司都在对深度搜索的各个方面进行研究.

假期旅游小药箱

- austin - 丁香志(β3.14)
国庆长假将至,很多朋友即将出门旅行,别忘了准备一下基本的旅游小药箱,有备无患. 除了常规的创可贴,风油精外,我们特地根据丁香园用药助手网页版的用户搜索统计,为大家推荐应急必备药物 (仅供参考):. 另,慢性病病人出行请注意带足日常服用药物. 如果是 iPhone 或 Android 手机的网友,提前安装好丁香园用药助手,即可将所有的药品说明书收入囊中.

搜索的未来

- Levi - 月光博客
笔者认为,未来的搜索有两个趋势:个性化,社会化. (注:本文给出的很多链接需要特殊方式才可以访问,请自行解决).   从google诞生的那一天起,google的搜索本质上并没有什么变化,依旧是:一个大大的搜索框,你敲进去几个词,google给出一些相关的网页. 不同的人对于同一个关键词所期待的搜索结果可能有很大差别啊.

google搜索技巧

- - ITeye博客
搜索的词语是网页中链接内包含的关键词(可使用多个关键词). 搜索的词语是网页标题中包含的关键词(可使用多个关键词). 所搜索的文件一个特定的格式. 搜索的词语是网页中链接内包含的关键词. 搜索的词语是网页内文包含的关键词. inurl:google.com 开源. 所进行的搜索在指定的域名或网站内.

oracle全文搜索

- - Oracle - 数据库 - ITeye博客
不使用Oracle text功能,当然也有很多方法可以在Oracle数据库中搜索文本,比如INSTR函数和LIKE操作:. 有很多时候,使用instr和like是很理想的, 特别是搜索仅跨越很小的表的时候. 然而通过这些文本定位的方法将导致全表扫描,对资源来说消耗比较昂贵,而且实现的搜索功能也非常有限,因此对海量的文本数据进行搜索时,建议使用oralce提供的全文检索功能.

个性化搜索

- - CSDN博客云计算推荐文章
         随着大数据日益成为IT领域的主流,如何利用大数据为业务提供支持以及来扩展市场成为当今众多公司追逐的目标. 目前,比较热门的领域有两块:recommendation(推荐系统)和personalization search(个性化搜索).        这两者有着很大的关联性和相似性,都是在大数据的环境得到了充分的发展,特别是recommendation,在Netflix公司举办的一个比赛---奖金一百万美元.

黑山共和国 爱旅游

- ji - Poboo
黑山共和国(Montenegro), 位于巴尔干半岛西南部,亚得里亚海东岸上的一个多山小国. 通过摄影师了解,这个小国是如此的美丽迷人,仿佛一个小镇,保留着浓浓的欧洲小镇的气息,让人心旷神怡,爱旅游的朋友一定不要错过.

张家界的旅游陷阱

- 琨中邪 - 月光微博客
  这次和人一起去张家界自助游三日,感想颇多,如果评点中国最能抢钱的旅游景点是哪个,我看非张家界莫属. 本来张家界很好的自然景点,被商业化糟蹋的一塌糊涂,旅游都成了景区被宰的羔羊.   通常游玩张家界的旅客都是3天时间,但张家界偏偏就不卖三日票,直接从两日票跳到周票,2日票的价格是245元,实际上根本不是48小时的票,如果你在第一天中午购票,只能玩一天半.