斗鱼大数据的玩法

标签: bigdata | 发表时间:2017-03-30 08:00 | 作者:
出处:http://itindex.net/admin/pagedetail

本文来源于斗鱼数据平台部吴瑞诚先生在光谷猫友会的分享。

我是吴瑞诚,现在负责斗鱼数据平台部,今天给大家分享一下斗鱼大数据这块的玩法。我先做个自我介绍,我是11年初华科通信硕士毕业就进入淘宝,主要做HBase相关开发,后来回武汉后在1号店转向应用架构方向。

斗鱼大数据

我是14年9月加入斗鱼,当时斗鱼研发是30人的规模,从0开始搭建斗鱼大数据平台,单枪匹马一个人,大概干了三个月,招不到大数据开发,哪怕只是基本了解Hadoop的都很招不到,干的很苦。所以团队第一批组员是组内培养的,会一些Java开发基础的应届生,生拉硬拽凑到大数据团队。其中一位武汉理工15年的本科应届生,现在已经成长为我们部门BI/DW团队的Leader。到现在,加上即将入职的应届生,数据平台部团队规模接近60人,分为四个组:大数据处理组、BI/DW组、数据挖掘组、基础架构组。

在武汉招开发难,招大数据开发更难,这也是我、柴楹和猫友会发起这个收费群的主要目的。让整个武汉互联网圈看着起势的时候,会有一个大数据的圈子。大家多沟通,多交流,把整个圈子的气氛带动起来。这样对于我们研发人员本身和武汉本地的公司都是极大的利好。

先简单介绍一下斗鱼:1.国内最大游戏直播平台,从16年开始向泛娱乐化方向发展;2.日活用户 2000万,最高同时在线人数约500万;3.主播日活 40,000人,每天产生原创视频数万小时。;4.ALEXA排名:全球约200名、国内约20名(近期略下滑,今天中午看在30多名,比优酷、Bilibili等站要高);

斗鱼大数据

这是一个典型的斗鱼直播间,是斗鱼最主要的内容形态:左边是视频区,上面飘过的文字就是弹(dàn)幕,直播网站上用户和主播互动的最主要形式。弹幕服务是性能压力最大的服务之一,相当于是需要百万人群聊时的消息推送量,后续有机会和大家分享;视频区下面是礼物赠送区;右侧是弹幕区,Tab页上是排行榜,用户对该直播间的贡献值,土豪喜闻乐见;

接下来我会跟大家分享一下斗鱼大数据现在的玩法和下一步的规划。主要内容分为四方面:

1.斗鱼大数据平台的整体架构;

2.斗鱼数据仓库

3.斗鱼个性推荐系统

4.斗鱼风控系统

1、斗鱼大数据平台整体架构

先来看看斗鱼大数据平台的整体架构,上一张镇楼的图: 斗鱼大数据

14年加入斗鱼,当时负责的第一个业务是用shell脚本,从主站服务器上拉Nginx log到Hive集群中,统计产生报表。随着网站数据量的增长和配备约来越完备,从最开始的小系统越做越大,做到现在这个架构。

这个架构差不多是在16年初的时候成型的,主要包括:数据源层,用户行为打点、服务日志、Nginx/PHP日志(离线和实时两条数据流)、线上MySQL库、MongoDB、Redis存储数据接入层,包括了Kafka,负责接入打点上报(最大吞吐量约200w TPS)、Canal/Sqoop(主要解决数据库数据接入问题)、Flume/Logstash/rsyslog等实时日志;数据预处理层,简单的清洗和聚合计算;存储层,典型的系统HDFS(文件存储)、HBase(KV存储)、Kafka(消息缓存);计算层,主要包含了典型的所有计算模型的计算引擎,包含了MR、Hive、Storm、Spark以及深度学习平台比如Tensorflow等等再往上就是数据服务层,主要提供对外数据服务。这一块现在主要是基于Docker实现的一整套微服务环境来支撑;

1.1 大数据管理平台

下面先简单介绍一下各个组件的玩法,首先是大数据管理平台,承载所有的元数据管理、统一监控系统、报表展示、任务调度、发布系统等所有配套功能。

斗鱼大数据

1.2 基础集群架构

斗鱼大数据

可以看到,清晰的区别了online 和offline 集群

机器配置:

  • 现负责约300台高配服务器,Dell 730xd,32Cores 128/256G内存,16*6T Sata Disk;
  • Hadoop大集群150台物理机,5PB数据,日增量约20T;

实时离线集群分离,避免资源竞争造成业务处理抖动。集群分离后也可以更安全的对集群进行运维操作;

使用Kafka作为MQ,更确切说是消息通道;

1.3 OLAP查询引擎Impala

Impala之前,我们有使用Presto的经验,后来因为运维上的问题,暂时下线了。Kylin15年很早的时候,在北京和kylingence官方有过一次深入沟通,仔细评估后发现斗鱼的场景不能发挥他的优势。最近Kylin重大版本之后,准备再评估一次。这方面应该有不少同学都有相关的经验,最后讨论阶段,大家可以一起聊一下。

可能对大数据组件不太熟悉的同学,可能对OLAP概念不太熟悉,主要是针对秒级大数据量查询场景。对应的OLTP 是针对事务处理,我们比较常见的MySQL和Oracle属于这类。这样解释大家可能接受起来会简单一些。

使用Impala作为SQL查询引擎,相比Hive整体提升5倍速度;使用了完全区别于MapReduce的一套数据处理模式。

我们主要做了一点:由于Impala是C++编写,为了提升性能,将部分高查询密度的UDF(如:JSON解析)替换为C++实现。使用HA Proxy作为Impala负载均衡器,均衡JDBC连接。避免 Impala Daemon 故障、重启时影响正常业务。这样,可以覆盖我们现在大部分的秒级大数据量查询(10亿级别)

1.4 Spark应用

Spark在斗鱼大数据生态系统有着举足轻重的作用。涉及到:

  • 接入实时流(7*24h)各个场景的实时PV、UV统计,实时日志分析,服务接口性能监控,用户分布及其他报表等。已上线独立实时任务20余个。
  • 数据抽取与处理抽取异构数据源(MySQL,MongoDB),将其抽取数据合并、加工后写入数据仓库。每日凌晨触发数据抽取加工任务。为最重要依赖调度任务,为后续每日离线任务准备数据。
  • 数据分析/挖掘包含弹幕统计分析,流量渠道统计分析,垃圾弹幕识别,用户点击预测,用户分群,推荐系统等任务。这也是部门今年非常重视的一块,任务规模也在日益庞大。

部署:Spark on Yarn ,单节点部署,依赖Yarn环境

发布:基于自研发布系统,可配置一件部署

调度:基于自研发布系统,定时调度与依赖调度两种模式可选

告警:监控与告警系统支持任务执行监控及其结果校验监控

由于正在经历Spark大版本升级(1.6.xà2.1.x)进程之中,斗鱼数据平台部线上存在两个Spark集群来支撑目前的业务

  • 1.6.3版本Spark基于线上yarn进行部署(Spark on Yarn): 66个节点 72G 内存/节点 22个核/节点
  • 2.1.0版本Spark基于Standalone: 12个节点 72G 内存/节点 22个核/节点

Spark生态中,我们主要用到的两个组件:

1.Zeppelin主要提供Spark SQL交互界面查询,数据可视化支持。后续将支持Python、R语言的建模,支持用户Notebook的提交和调度。

2.Alluxio基于内存的分布式文件系统,它是架构在底层分布式文件系统和上层分布式计算框架之间的一个中间件,主要职责是以文件形式在内存或其它存储设施中提供数据的存取服务。

底层的存储层和计算层的基础集群大概是这些。

2、基于ELK的统一日志监控系统

斗鱼大数据现在我们把es集群按业务场景划分为多个小集群,这样的可以避免不同业务出现抢占资源的情况。

多个ES集群,50+物理节点、每日15T+日志量,多实例部署,接入全站所有服务器日志;

年后,完成全部升级至ElasticSearch 5.X,性能提升明显;

废弃FlumeAgent,使用Firebeat、Rsyslog,小巧稳定、资源占用低;

为部分业务独立开发日志解析器,提高性能,有Java版和Spark版;

我们应用ELK的场景中,最难的就是在agent 资源占用和 agent抽取吞吐之间做权衡,想马儿快,又想马儿不吃草,会针对不同的语言栈,使用不同的agent是实现。

推荐日志使用JSON格式,降低解析压力、增减字段灵活;

我们agent会把日志灌入kafka,然后从kafka出口的日志流就需要稳定、格式化的结构往ES集群小batch灌,这样就出现了使用hangout和自研数据管道两种实现方式,hangout是java版的Logstash,效率仍然满足不了我们的要求,所以,有了基于spark 的自研日志消费管道。

对ELK的使用,算是踩坑无数。讲一些ES主要优化点:

1.索引按小时切分,当索引无数据写入时进行ForceMerge提升查询性能;

2.由于日志收集写请求远远大于读请求,保证每个节点有分片分摊写压力(每个节点1~2个分片),节点磁盘独立;

3.每台服务器(128G内存),1Master+2Data,预留大约一半内存作为System Cache提升查询性能;记住,一定要留足cache 。。

4.cluster.routing.allocation.same_shard.host禁止主从分片被分到同一台服务器上(不同节点),保证服务器宕机时索引可用;

ELK的整体优化思路是为了能抗住低延迟和大日志量的问题;现在我们已经能稳定在每日15T+日志量级,基于这一套统一日志监控系统,做了很多业务、服务的监控和告警。

斗鱼大数据

我们现在吞吐量最大的实时数据流,100w+TPS,全站各个端所有用户行为的实时监控,可以实时看到整体打点水位、各个客户端、各个版本播放器的健康状况

斗鱼大数据

这是推荐接口的实时Dashboard监控效果图:左上是每次请求的最大耗时、右上50分位和99分位耗时统计;左下是推荐接口的整体水位统计、右下是各个Tomcat实例的水位统计;这样可以对实时推荐接口的整体访问量、每个实例的请求量、性能水位、超时请求一目了然,监控神器。基于此可以做阀值的监控,解放双手。

现在每个核心接口分给不同同学来负责,人手配置一个类似的Dashboard。加上告警,就可以腾出手来了。

斗鱼大数据

再分享最前面有一个大的架构图,最上层是数据应用层,我们会对外提供多种服务,包括个性推荐、实时监控、广告系统、风控系统、搜索引擎(基于ES)、后台数据应用等服务都是由我们自己来完成整个服务的部署,用以对外提供访问;这样,除了数据层面的处理,也对我们工程实现上提出了高要求,要能直接提供对外服务。我们现在的玩法是基于Docker生态构建完备的微服务体系来实现,直接上图

前后端完全分离,使用Nginx作为网关,代理后端服务。功能较单一,正在预研其他网关方案;

全面升级至SpringBoot,拥抱微服务;

1.使用内嵌的Web容器(Tomcat、Jetty、Undertow),由应用自己掌控整个生命周期,形成闭环;

2.容器化改造更平滑,提高应用弹性(方便统一底层系统环境、方便扩缩容);

3.内置的Metrics 接口使应用监控更方便。

这样,就讲到斗鱼服务容器化

1.使用K8S作为容器编排引擎,进行容器调度、运行、滚动升级、灰度发布;

2.暴露服务状态接口(isReady,isHeahthy),更好的利用K8S探针进行自我健康检查;

3.容器网络使用Flannel(VxLan模式);

4.使用Nginx作为网关代理外部请求(非容器网络内的请求);

5.进行容器化改造的过程中,对于需要暴露接口的服务,初期可以将服务容器网络设置为宿主机网络,避免接口无法访问的问题(尤其是在服务发现场景,注册的是容器IP,外部无法访问),后期进行宿主机端口感知、注册。

斗鱼大数据

主要挑了核心组件来做简单分享,抛个砖;当然为了支撑Devops开发模式(每位同学从需求分析开始,一直负责设计、开发、测试、发布、运维、告警、优化等服务全周期),需要有配套的任务调度系统(基于ZK自研)、发布系统(基于Jenkins自研)、监控系统(自研)等系统限于篇幅不做展开;

2、斗鱼数据仓库

斗鱼大数据斗鱼数据仓库最开始就是一个Hive default库,导入的表是Nginx/PHP log。慢慢需要对注册用户进行统计分析,逐渐导入了注册表、礼物流水、充值表等等关系表。逐渐增加到近200张表粗放的放在default库,碰到权限、误删除等问题后,数据仓库分层刻不容缓;

斗鱼数据仓库分层主要分为以下几层:ods:ods层主要用来存储从业务数据库表,如MySQL,MongoDB同步过来的原始数据,以及线上用户行为等原始数据external:external层主要用来存放线上写到HBase数据建立的外部表,以及日志数据的外部表dim:dim层主要用来存放维度表信息,如直播间维度信息等dwd:dwd层主要用来存放从ods层以及dim,external处理清洗过后的数据,方便接下来的计算dw:dw层主要用来对用户或主播等进行一些轻维度的汇总ads:ads层主要是应用层的一些数据,如对外的报表数据archive:archive层主要是归档历史数据

数据仓库中还会根据业务以及数据类型做域的划分:

业务域:ad-广告,game-游戏数据域: log-日志域,pay-交易域

斗鱼数据仓库规范实施数据仓库基本的建设完成后,就会有一些用户操作数据的规范,如:SQL规范,数据时间周期的规范SQL规范主要有以下几个方面类型统一:double,string,bigint数据倾斜:group,count distinct,开窗函数表级&字段级注释条件语句类型必须一致case when语句必须要有else表查询带上库名称
斗鱼大数据

开始同步数据时使用了开源的sqoop作为同步工具,由于对多数据源的支持不够丰富以及对内部系统的兼容性问题,逐渐放弃使用;

自研了Data-Porter工具作为目前主要的多种数据源与数据仓库间的同步工具。Data-Porter基于Spark Pipeline,将数据从DB读取为Spark RDD,再转为Spark DateFrame,最后使用Spark SQL将数据写入Hive,这种通过API由低阶到高阶的应用,实现了无附加操作的数据同步。

目前支持MySQL的数据库分库分表的同步,MongoDB集群同步以及数据源去重,但是也有一些不足的地方,比如对数据源目前还只支持了MySQL和MongoDB,后续会规划开发关于HBase等目前主要使用的数据源的同步支持。

3、斗鱼个性推荐系统

先看看斗鱼个性推荐的主要栏目位:

– App首页几乎都是个性推荐的栏目位,每个用户看到的都是依据自己口味推荐的直播间,千人千面;

– 直播列表中有特定的两个位置;

– 直播间页面中,有“超管推荐”,每个直播间看到的都不一样,百人百面。

斗鱼大数据其中App首页是完全千人千面,不同的分区、不同的房间,都是根据用户历史行为,预测的用户偏好进行推荐。可以看下斗鱼个性推荐的场景,很多,而且会越来越多。是公司的总体战略目标。

斗鱼个性推荐是从15年开始预研,线下做推荐方案对比、模型效果对比、实际数据试跑,到16年6月份才正式上线。从Web端的列表、直播间内的推荐位,同步APP端上线。现在APP首页大部分都是个性推荐位,做到千人千面的实时推荐;

个性推荐的算法模型选择是一方面,推荐服务本身工程实现的性能也是很大的考验,要支持500w的用户同时在线量,接口处理请求峰值近1w +QPS。得益于服务化,核心功能都配备完备的监控告警。正在上线的Docker容器化,可以大大提升服务的弹性,方便服务规模的扩缩。

个性推荐的效果好坏拼的就是用户画像,对自己用户越熟悉,推荐效果才可能越好;斗鱼的用户画像现在是这么玩的:

斗鱼大数据

斗鱼大数据

斗鱼大数据 斗鱼大数据

从上面的图可以看到,目前我们的推荐系统主要分为三个模块:推荐服务层、数据维护层、监控层。

1)推荐服务层推荐业务规则过滤,根据业务需求过滤不需要推荐的数据推荐算法配置,根据业务场景及推荐位配置不同的推荐算法ABTest分流,用于推荐算法对比及灰度上线结果数据格式化及排序

2)数据维护层基础信息数据使用dubbo提供服务,降低服务层对数据源的依赖基于物品相似、用户标签、KPI体系等算法,离线计算与实时计算相结合推荐算法数据存储,基于不同算法数据分开存储维护数据缓存策略,提升缓存命中率,降低DB请求

3)监控层接口可用性监控、接口性能监控数据质量监控,保证数据准确性推荐效果监控,实时关注推荐转化率

个性推荐无法速成,斗鱼个性推荐当前也有不少问题:

a.推荐规则单一,点击转化率约5成,仍有提升空间

b.推荐服务开发效率及扩展性不高

c.推荐数据分散,复用率低

4.斗鱼风控系统

斗鱼大数据这个图片有一个很励志的故事,是这样的:20平米房间,2万张卡,前期投入约40万,一天换一次,一个月内所有的卡都跑一圈。每月收入30万,高峰月入百万。工作室的日常:每天晚上将卡一张张取下来,更换新卡。这是黑产的一个缩影。

那斗鱼面对的黑产风险有:

斗鱼大数据这是前天我从淘宝上搜索斗鱼tv时的结果截图,可以作为现在斗鱼面对黑产形势的一个典型缩影。

主要集中在直播间人气(主播价值的一个衡量依据)、鱼丸(主播可兑换的礼物)、打折鱼翅(黑卡充值—重灾区,主播可以兑换,危害更大更直接)、主播刷关注,可以从淘宝价格上一瞥黑市上各个刷量的难易和获益程度。同时,在搜索结果中,也能看到斗鱼友台出现在搜索结果中,可见,黑产风险是整个行业要面对的,不仅仅是斗鱼。在这一块,是需要行业内的整体合作的,尽管这个合作有些障碍。

斗鱼风控系统是这样的:

1 大力惩治的同时,要保证用户体验,尽量降低误杀;

2 依据用户行为数据获取特征模型,提取作弊行为的特征模型;

3 针对IP和设备画像,对IP和设备进行嫌疑级别评级打分;

4 采用线上实时+离线分析双层识别模型为主,辅以“基于规则-rule-based”判断;

5 提取用户行为风险模型、用户风险评分等级

斗鱼大数据

对照上图,挨个注释一下:

建设决策中心(Drools),识别各种作弊行为,优化反作弊算法模型。风控实时引擎,以实时弹幕、异地登录等关键行为实时流为基础,在结合账号防盗及充值消费数据,实时评估用户风险等级。

用户行为轨迹分析系统,协助分析用户作弊行为,提炼风控规则。风控离线引擎,不定期更新离线风控规则,接入决策中心,统一配置。

风控web管理平台,用于配置决策规则、黑白名单管理、行为轨迹查询等功能。风控数据服务化,对外提供安全访问的接口,实时查询用户风险行为,降低损失。

总结:

我们有很多数据;围绕数据我们做了很多努力;要让数据发挥更大的价值

Q&A :

1 、快速发展的小公司有哪些潜在的大数据处理场景?需要用到哪些关键的技术和架构?除了个性化推荐,还有哪些大数据落地的例子?离线计算在斗鱼的应用有哪些?

吴:我个人感觉上大数据一般都会被业务推着走,如果是特意要去玩大数据,可能会比较难推动。比如我从淘宝回武汉,在一号店干了一段时间,在某些场景,确实是不合适。。所以我建议,用集群的方式,先做一个简配版数据仓库,拿到了数据,才好想一些玩法。这个问题大概是这样。

2、看你们刚刚的集群有好几个,分为计算集群,和实时等,为啥不用yarn 的队列机制,分队列进行弹性计算,这样可以充分利用集群。cdh 有推出资源池,有没有去尝试?好几个集群维护比较麻烦,你们这帮是怎么管理的?

吴:我们现在用的cdh版本,也是基于的yarn管理集群资源。

3、对于北上广漂着的想回武汉发现的程序猿们有什么建议和忠告?

吴:这个问题我有经历,所以有发言权。我当时回武汉,是因为家庭原因。所以我是没有选择的情况下回的武汉。现在武汉的坑位比早两年已经多了很多,公司也多了很多。大公司的研发中心,本土起来的互联网公司都有不少。所以坑位有了,就看自身的成长,能不能满足这些坑的期望。我们的offer被好多公司都有抢过,所以薪资这块,我觉得也不是问题,呵呵。

4、斗鱼的负载均衡是如何做的?斗鱼数据安全是怎样保证的? 如果想构建自己的VPN服务器,有啥要注意的?

吴:按我的理解来回答,网站入口是DNS-lvs-nginx-服务容器,数据安全依靠权限管理(账号-角色-权限)。构建自己的VPN,这个我就不太了解的。太偏网络层面,得找IT同学帮忙。

5、我在北京工作已有五年。先后在百度,小米做过游戏视频分发的开发工作。大数据这一块接触的比较少。年后想回武汉发展。请问斗鱼有合适的坑吗?

吴:游戏和视频分发斗鱼现在没有自己做,但是从你的经历来看,在武汉肯定能有坑。

-待续-

转载请注明来自36大数据(36dsj.com): 36大数据» 斗鱼大数据的玩法

相关 [斗鱼 大数据] 推荐:

斗鱼大数据的玩法

- - IT瘾-bigdata
本文来源于斗鱼数据平台部吴瑞诚先生在光谷猫友会的分享. 我是吴瑞诚,现在负责斗鱼数据平台部,今天给大家分享一下斗鱼大数据这块的玩法. 我先做个自我介绍,我是11年初华科通信硕士毕业就进入淘宝,主要做HBase相关开发,后来回武汉后在1号店转向应用架构方向. 我是14年9月加入斗鱼,当时斗鱼研发是30人的规模,从0开始搭建斗鱼大数据平台,单枪匹马一个人,大概干了三个月,招不到大数据开发,哪怕只是基本了解Hadoop的都很招不到,干的很苦.

斗鱼风控算法体系建设

- -
分享嘉宾:龚灿 斗鱼 算法负责人. 出品平台:DataFunTalk. 导读:直播行业在业务上面临运营安全、活动安全、流量安全、账号安全、交易安全、内容安全等风险问题,智能风控在技术方面主要有高频对抗、场景繁多、解释性弱等挑战. 本文将分享斗鱼算法团队针对以上问题,如何构建风控算法体系,以及如何应对风控技术方面的挑战.

谈大数据(2)

- - 人月神话的BLOG
对于大数据,后面会作为一个系列来谈,大数据涉及的方面特别多,包括主数据,数据中心和ODS,SOA,云计算,业务BI等很多方面的内容. 前面看到一个提法,即大数据会让我们更加关注业务方面的内容,而云平台则更多是技术层面的内容. 对于大数据会先把各个理解的关键点谈完了,再系统来看大数据的完整解决方案和体系化.

大数据之惑

- - 互联网分析
算起来,接触大数据、和互联网之外的客户谈大数据也有快2年了. 也该是时候整理下一些感受,和大家分享下我看到的国内大数据应用的一些困惑了. 云和大数据,应该是近几年IT炒的最热的两个话题了. 在我看来,这两者之间的不同就是: 云是做新的瓶,装旧的酒; 大数据是找合适的瓶,酿新的酒. 云说到底是一种基础架构的革命.

白话大数据

- - 互联网分析
这个时代,你在外面混,无论是技术还是产品还是运营还是商务,如果嘴里说不出“大数据”“云存储”“云计算”,真不好意思在同行面前抬头. 是千万级别的用户信息还是动辄XXXTB的数据量. 其实,大数据在我的眼里,不是一门技术,而是一种技能,从数据中去发现价值挖掘价值的技能. ”当我掷地有声用这句话开场时,正好一个妹子推门而入,听到这句话,微微一怔,低头坐下.

交通大数据

- - 人月神话的BLOG
本文简单谈下智慧交通场景下可能出现的大数据需求和具体应用价值. 对于公交线路规划和设计是一个大数据潜在的应用场景,传统的公交线路规划往往需要在前期投入大量的人力进行OD调查和数据收集. 特别是在公交卡普及后可以看到,对于OD流量数据完全可以从公交一卡通中采集到相关的交通流量和流向数据,包括同一张卡每天的行走路线和换乘次数等详细信息.

全球10大数据库

- - 译言-电脑/网络/数码科技
原文: Fiorenttini   译者: julie20098. [非商业性转载必须注明译者julie20098和相关链接. ,否则视为侵权,追究转载责任. 世界气候数据中心:气候全球数据中心, 220TB 的网络数据, 6PB 的其它数据. 国家能源研究科学计算中心,有 2.8PB 容量.

谈大数据分析

- - 人月神话的BLOG
对于数据分析层,我们可以看到,其核心重点是针对海量数据形成一个分布式可弹性伸缩的,高查询性能的,支持标准sql语法的一个ODS库. 我们看到对于Hive,impala,InfoBright更多的都是解决这个层面的问题,即解决数据采集问题,解决采集后数据行列混合存储和压缩的问题,然后形成一个支撑标准sql预防的数据分析库.

大数据的一致性

- - 阳振坤的博客
看到了一篇关于数据一致性的文章:下一代NoSQL:最终一致性的末日. (  http://www.csdn.net/article/2013-11-07/2817420 ),其中说到: 相比关系型数据库,NoSQL解决方案提供了shared-nothing、容错和可扩展的分布式架构等特性,同时也放弃了关系型数据库的强数据一致性和隔离性,美其名曰:“最终一致性”.

大数据Lambda架构

- - CSDN博客云计算推荐文章
1 Lambda架构介绍.          Lambda架构划分为三层,分别是批处理层,服务层,和加速层. 最终实现的效果,可以使用下面的表达式来说明. 1.1 批处理层(Batch Layer, Apache Hadoop).          批处理层主用由Hadoop来实现,负责数据的存储和产生任意的视图数据.