[译] Cilium 未来数据平面:支撑 100Gbit/s k8s 集群(KubeCon, 2022)

标签: bpf cilium | 发表时间:2022-11-12 08:00 | 作者:
出处:https://arthurchiao.github.io/

译者序

本文翻译自 KubeCon+CloudNativeCon North America 2022 的一篇分享: 100 Gbit/s Clusters with Cilium: Building Tomorrow’s Networking Data Plane

作者 Daniel Borkmann, Nikolay Aleksandrov, Nico Vibert 都来自 Isovalent(Cilium 母公司)。 翻译时补充了一些背景知识、代码片段和链接,以方便理解。

翻译已获得 Daniel 授权。

由于译者水平有限,本文不免存在遗漏或错误之处。如有疑问,请查阅原文。

以下是译文。



摘要

今天的大部分 K8s 用户使用的还是 纯 IPv4 网络(IPv4-only),或称 IPv4 单栈网络; 也有一些用户正在从 IPv4 单栈迁移到 IPv4/IPv6 双栈上, 最终目标是实现 IPv6 单栈网络,或称 纯 IPv6 网络(IPv6-only)。 纯 IPv6 网络的 k8s 集群不仅 IPAM 更加灵活,集群规模更大,而且可以解锁很多新的网络和 eBPF 特性,能更好地满足 数据密集型应用的需求。

本文将展示纯 IPv6 k8s 集群的优势以其面临的问题,以及 Cilium 的数据平面是如何解决这些问题的。内容包括:

  1. Cilium + IPv6 + BIG TCP 支持 100Gbps/socket;提升吞吐的同时还能降低延迟;
  2. Cilium 新开发的虚拟网络设备 meta device,替代 veth pair 取得更极致的网络性能;
  3. Cilium 的 eBPF 转发架构如何 通过可编程的方式绕过(bypass)大部分无关的内核网络栈 (仍然基于内核网络栈,只是绕过无关部分,与 DPDK 等完全绕过内核的方式存在本质区别),显著提升网络性能。

1 大型数据中心网络面临的挑战

当前大型数据中心面临三个方面的问题:

  • 规模(scale)
  • 性能(performance)
  • 运营(operations)及日常维护

其中一个重要原因是它们都构建在 IPv4 基础之上,后者已经发挥到极限了。 那么,换成 IPv6 能解决问题吗?答案是能,而且能同时解决规模和性能需求。 要解释这一点,我们需要回顾一下并不久远的“历史”。

1.1 Cilium 首次亮相(2016)

Cilium 是作为一个 纯 IPv6 容器网络实验项目(”The Cilium Experiment”)启动的, 下面这张截图就是我们在 2016 年 LinuxCon 的分享, Cilium: Fast IPv6 Container Networking with BPF and XDP

几个开发者来自 RedHat 的内核和 OVS 相关开发团队。

  • 由于构建在 IPv6-only 之上,因此 Cilium 自带了很多 IPv6 相比 IPv4 的优势, 例如扩展更好、更灵活、地址空间充裕,无需 NAT 等等;

  • 更重要的是,为了取得最高效率,Cilium 将 datapath 构建在 eBPF 之上, 这与之前的网络模型完全不同。

但与大多数过于前卫的项目一样, 纯 IPv6 的前提条件很快被现实打脸

1.2 容器领域(k8s/docker)IPv6 支持状态

2016 年

先来看一下当时(2016)年容器领域的 IPv6 生态:

  • K8s (CNI):基本功能有了

    • 1.3.6+ 支持了 IPv6-only pod
    • kube-proxy (services) 不支持 IPv6
  • Docker (libnetwork):还在实现的路上

    • PR826 - “Make IPv6 Great Again”,还没合并

因此,面对众多实际需求,我们不得不 为 Cilium 添加 IPv4 的支持

2022 年

现在再来看看 6 年之后的今天(2022),容器领域的 IPv6 支持进展:

  • K8s 官方

    • IPv6 Single (GA v1.18)
    • IPv4/IPv6 Dual Stack ( GA v1.23)
  • 一些重要的基础服务开始支持 IPv6,但主要还是 IPv4/IPv6 双栈方式,而不是 IPv6-only 方式;
  • 托管 K8s 集群(AKS、EKS、GKE)开始提供 IPv6 支持,但具体支持到什么程度因厂商而异。

1.3 用户需求

用户的实际需求其实比较明确:通过 IPv6 单栈获得更大的 IPAM 灵活性, 以及更多的 headroom 来做一些以前(IPv4)做不到的事情。

1.4 解决方案

  • 从 IPv4-only 直接切换到 IPv6-only 比较困难,需要 IPv4/IPv6 双栈这样一个过渡状态;
  • 但最终期望的还是端到端 IPv6,避免 IPv4/IPv6 双栈的复杂性。

实现方式:构建 IPv6 单栈隔离岛,作为一个完全没用历史负担的环境(clean-slate), 然后将存量的应用/服务迁移到这个环境中来。当然,这其中仍然有一些地方与 IPv4 打交道,除非真空隔离或者没有任何外部依赖。

1.5 互联网服务 IPv6 部署现状

说到外部依赖,我们就来看下如今互联网的 IPv6 部署普及情况。根据 whynoipv6.com 提供的数据, 当前(2022.11) Alexa 排名前 1000 的网站中,

  • 只有 469 个启用了 IPv6,
  • 845 个启用了 IPv6 DNS;

总共收录的 90 万个网站中,只有 34% 的有 IPv6。

大量的生态系统还在路上,例如, GitHub 还不能通过 IPv6 clone 代码

2 Cilium + IPv6-only K8s 集群

外部依赖短期内全部支持 IPv6 不现实,但通过 4/6 转换,其实就不影响我们先把数据内的 集群和应用 IPv6 化,享受 IPv6 带来的性能和便利性。 下面就来看如何基于 Cilium 部署一个纯 IPv6 的 k8s 集群,并解决与外部 IPv4 服务的互联互通问题。

2.1 与传统 IPv4 网络/服务对接:NAT46/64

IPv6-only K8s 与传统 IPv4 服务的对接,使用的是 NAT46/NAT64, 也就是做 IPv4/IPv6 地址的转换。

这个听上去可能比较简单,但要在 Linux 内核中实现其实是有挑战的,例如 基于 iptables/netfilter 架构就无法实现这个功能, 因为内核网络栈太复杂了,牵一发而动全身;好消息是,基于 eBPF 架构能。

2.2 内核对 NAT46/64 的支持( 4.8+

我们早在 2016 年就对内核 tc BPF 层添加了 NAT46/64 的支持

通过 bpf_skb_change_proto() 实现 4/6 转换。

Android 的 CLAT 组件也是通过这个 helper 将手机连接到 IPv6-only 蜂窝网的。

2.3 Cilium 对 NAT46/64 的支持( v1.12+

2.3.1 工作原理

如下图所示,几个部分:

Cilium v1.12 Release Notes

  • 右边:使用 Cilium 网络的 IPv6-only K8s 集群;
  • 左下:集群外的 IPv4 服务;
  • 左上: 承担 NAT46/64 功能的 Cilium L4LB 节点

思路其实很简单,

  • 通过 Cilium L4LB 节点做 NAT46/64 转换;

    将 IPv4 流量路由到数据中心的边缘节点(边界),经过转换之后再进入 IPv6 网络;反向是类似的。

  • 具体工作在 tc BPF 或 XDP 层。

    通过 bpf_skb_change_proto() 完成 4/6 转换。

2.3.2 功能支持

Cilium L4LB 现在的 NAT46/64 功能支持:

  • XDP / non-XDP
  • Maglev / Random
  • 通过 RPC API 配置 {IPv4,6} VIP -> {IPv4,6} Backend 规则

例子,VIP 是 IPv4,backends 是 IPv6 pods:

    $ cilium service list 
ID   Frontend     Service Type   Backend                      
1    1.2.3.4:80   ExternalIPs    1 => [f00d::1]:60 (active)   
                                 2 => [f00d::2]:70 (active)   
                                 3 => [f00d::3]:80 (active)  

另一个例子,

    $ cilium service list 
ID   Frontend       Service Type   Backend                      
1    [cafe::1]:80   ExternalIPs    1 => 1.2.3.4:8080 (active)   
                                   2 => 4.5.6.7:8090 (active) 

2.3.3 工作机制详解:集群入向( IPv4 -> IPv6-only

这里有两种实现方式,Cilium 都支持,各有优缺点。

方式一:有状态 NAT46 网关

这种模式下,NAT46 网关是有状态的,

下面是通过 Service 实现的 NAT46 规则(也就是“状态”):

好处:

  1. IPv4 VIP:port 到 K8s 集群的 IPv6 VIP:port 的映射,与后者完全解耦
  2. 从 IPAM 角度考虑,无需特殊的 LoadBalancer Service;任何 public IPv6 prefix 都能按预期工作;
  3. NAT46 GW 甚至还能通过 weighted Maglev 负载均衡算法,将请求转发到多个集群上;

    Maglev weights 在 Cilium 1.13 合并

缺点:

  1. 需要额外的控制平面来对 VIP -> VIP 映射通过 API 进行编程;
  2. 客户端源 IP 信息在经过 GW 设备之后就丢失了;
  3. GW 是有状态的,记录了 DNAT & SNAT 规则和状态。

方式二:无状态 NAT46 网关

这种方式是通过 IPv6 协议原生的 IPv4/IPv6 地址映射实现的,因此无需控制平面下发 service 规则来实现 NAT46/64:

转发规则:

优点:

  1. GW 高度可扩展,因为不需要在 GW 节点上保存状态(地址转换信息);
  2. 源地址不丢失,只要原来的地址映射到的是 64:ff9b::/96 范围, RFC6052
  3. loadBalancerSourceRanges can restrict LB service access for external IPv4 clients。

    K8s documentation on LB source ranges,Cilium 已经支持。

  4. GW translation 是透明的,因此无需引入额外的控制平面;

缺点:

  1. K8s 集群中的 LB IPAM pool 需要使用 64:ff9b::/96 网段;
  2. LB 节点需要具体 IPv4 映射知识,能处理好正反转换。

2.3.3 工作机制详解:集群出向( IPv6-only -> IPv4

DNS64 承担了关键角色。

    $ nslookup github.com
Server:         127.0.0.53
Address:        127.0.0.53#53

Non-authoritative answer:
Name:   github.com
Address: 20.205.243.166
    $ nslookup -query=AAAA github.com
Server:         127.0.0.53
Address:        127.0.0.53#53

Non-authoritative answer:
*** Can't find github.com: No answer
    $ nslookup -query=AAAA github.com 2001:4860:4860::6464
Server:         2001:4860:4860::6464
Address:        2001:4860:4860::6464#53

Non-authoritative answer:
Name:    github.com
Address: 64:ff9b::8c52:7904 # 8c52:7904 -> 140.82.121.4 Embedded IPv4 addresse

Google 的 public DNS64 服务。

https://coredns.io/plugins/dns64/

优点:

  1. 高度可扩展 GW 作为转换节点,无状态;
  2. 集群内 nodes/pods/GW 之间的流量都是纯 IPv6;

缺点:

  1. IPAM 管理更复杂,因为 pods/nodes 需要 secondary 64:ff9b::/96 prefix 地址段;

    可以通过有状态 NAT64 GW 解决:Pods use their primary IPv6 address, and GW does NAT to its own IPv4 address.

2.4 Demo: Cilium NAT46/64 GW(略)

2.5 小结

至此,IPv6-only k8s 集群与传统 IPv4 网络交互问题都解决了,那接下来呢?

IPv6 不仅解决扩展性问题,而且为未来的性能需求奠定了基础。接下来看 Cilium + BIG TCP。

3 Cilium + BIG TCP

3.1 BIG TCP

3.1.1 设计目标

支持数据中心内的 单个 socket 达到 100Gbps+ 带宽。

3.1.2 使用场景

大数据、AI、机器学习以及其他 网络密集型应用

BIG TCP 并不是一个适应于大部分场景的通用方案,而是针对数据密集型应用的优化,在这些场景下能显著提升网络性能。

3.1.3 技术原理

文档:

来计算一下,如果以 MTU=1538 的配置,要达到 100Gbps 带宽,

               100Gbit/s ÷ 1538Byte ÷ 8bit/Byte == 8.15Mpps (123ns/packet)

可以看到,

  • 每秒需要处理 815 万个包,或者说,
  • 每个包的处理时间不能超过 123ns

对于内核协议栈这个庞然大物来说,这个性能是无法达到的,例如一次 cache miss 就会导致性能急剧下降。 降低 pps 会使这个目标变得更容易,在总带宽不变的情况下,这就 意味着要增大包长(packet length)。 局域网里面使用超过 1.5K 的 MTU 大包已经是常规操作,经过适当的配置之后,可以用到最大 64KB/packet。 后面会看到这个限制是怎么来的。

大包就需要批处理: GRO、TSO。如下图所示:

  • TSO 将超大的 TCP 包在 NIC/HW 上分段(segment),
  • GRO 在接收方向对分段的包进行重组,重新得到超大 TCP 包。

IPv4 限制:单个包最大 64KB

以 RX 方向的 GRO 为例,GRO 会将重组之后的 total payload 长度更新到 IPv4 头的 tot_len 字段,这是一个 16bit 整数,单位是字节,因此最大只能表示 64KB 的包。

TX 方向的 TSO 也有一样的限制。也就是说,使用 IPv4,我们在 TX/RX 方向 最大只能支持 64KB 的大包

内核能支持更大的 batch 吗?能,使用 IPv6。

解决方式:IPv6 HBH (Hop-By-Hop),单个包最大 4GB

BIG TCP 的解决方式是在本地插入一个 Hop-By-Hop (HBH) IPv6 扩展头。 “本地”的意思是“在这台 node 上”,也就是说 HBH 头不会发出去, 只在本机内使用

此外,还需要对应调整 MTU 大小。

目前这个上限是 512KB,但是未来需要时,很容易扩展。 这个字段是 32bit,因此理论上最大能支持 4GB 的超大包(jumbo packets)。

3.2 内核支持( 5.19+

BIG TCP 合并到了内核 5.19+,

此外,它还需要网卡驱动的支持。

3.3 Cilium 支持( v1.13+

BIG TCP 的支持将出现在 Cilium 1.13。

启用了开关之后,Cilium 将自动为 host/pod devices 设置 IPv6 BIG TCP,过程透明。

性能

延迟:

    # Back to back: AMD Ryzen 9 3950X @ 3.5 GHz, 128G RAM @ 3.2 GHz, PCIe 4.0, ConnectX-6 Dx, mlx5 driver 78
$ netperf -t TCP_RR -H <remote pod> -- -r 80000,80000 -O MIN_LATENCY,P90_LATENCY,P99_LATENCY,THROUGHPUT

TPS:

    # Back to back: AMD Ryzen 9 3950X @ 3.5 GHz, 128G RAM @ 3.2 GHz, PCIe 4.0, ConnectX-6 Dx, mlx5 driver 79
$ netperf -t TCP_RR -H <remote pod> -- -r 80000,80000 -O MIN_LATENCY,P90_LATENCY,P99_LATENCY,THROUGHPUT

带宽:

iperf3 不支持 mmap()’ed TCP. 在这里的测试中, 最大的开销就是 copy from/to userspace,因此最大速度卡在了 60Gbps,

需要的改进: The Path To TCP 4K MTU and RX ZeroCopy

3.4 小结

更广泛意义上来说,BIG TCP 只是 Cilium 整体数据平面的一块拼图。 那么完整的数据平面长什么样子?

4 Cilium 未来数据平面

总体原则:高度可扩展,极致性能。

4.1 Cilium 作为独立网关节点(standalone GW)

提供的能力:

  1. 基于 eBPF/XDP 的 L4LB,可通过 API 编程控制转发规则
    • 支持 weighted Maglev 一致性哈希
    • 支持 DSR:支持 IPIP/IP6IP6 等 DSR 封装格式,支持 backend RSS fanout
    • Backend 优雅终止和退出(Termination/Quarantining),可手动通过 CLI/API 操作
  2. Stateful NAT46/64 Gateway
  3. Stateless NAT46/64 Gateway
  4. 支持 IPv6-only K8s

4.2 Cilium 作为 k8s 网络方案

  1. eBPF kube-proxy replacement,支持 XDP / socket-level-LB
  2. eBPF host routing:物理网卡通过 BPF 直通 pod 虚拟网卡(veth pair),低延迟转发
  3. 带宽管理基础设施: Cilium:基于 BPF+EDT+FQ+BBR 更好地带宽网络管理(KubeCon, 2022)
    • EDT rate-limiting via eBPF and MQ/FQ
    • Pacing and BBR support for Pods
    • Disabling TCP slow start after idle
  4. IPv6 BIG TCP support
  5. eBPF meta driver for Pods as veth device replacement:下面单独介绍。

4.3 meta device vs. veth pair

4.3.1 复习:veth pair default/bpf-host-routing 模式转发路径

常规(默认):物理网卡和容器虚拟网卡之间要 经过内核网络栈

eBPF host routing:物理网卡通过 bpf_redirect_{peer,neigh} 直通 veth pair:

4.3.2 meta device 转发路径

以上 eBPF host routing 双向转发效果:

现在我们正在开发一个称为 meta device 的虚拟设备,替换 veth pair:

为什么引入 meta: 将 pod-specific BPF 程序从 tc bpf 移动到 meta layer。 对于 meta device 来说, eBPF 程序成为了 pod 内的 device 自身的一部分。 但不会由 pod 来修改或 unload eBPF 程序,而仍然由宿主机 namespace 内的 cilium 来统一管理。

4.3.3 meta device 好处:延迟更低

延迟更低,pod 的网络延迟已经接近 host network 应用的延迟。

4.3.4 meta device vs. veth pair:实现区别

Internals for veth (today):

veth_xmit()

  1. scrubs packet meta data
  2. enques to per-CPU backlog queue
  3. net_rx_action picks up packets from queue in host
  4. deferral can happen to ksoftirqd
  5. Cilium’s eBPF prog called only on tc ingress to redirect to phys dev

Internals for meta (new):

meta_xmit()

  1. scrubs packet meta data
  2. switches netns to host
  3. Cilium’s eBPF prog called for meta
  4. Redirect to phys dev directly without backlog queue

代码:

4.3.5 meta device 性能

    # Back to back: AMD Ryzen 9 3950X @ 3.5 GHz, 128G RAM @ 3.2 GHz, PCIe 4.0, ConnectX-6 Dx, mlx5 driver
$ netperf -t TCP_RR -H <remote pod> -- -O MIN_LATENCY,P90_LATENCY,P99_LATENCY,THROUGHPUT

    # Back to back: AMD Ryzen 9 3950X @ 3.5 GHz, 128G RAM @ 3.2 GHz, PCIe 4.0, ConnectX-6 Dx, mlx5 driver
$ netperf -t TCP_RR -H <remote pod> -- -O MIN_LATENCY,P90_LATENCY,P99_LATENCY,THROUGHPUT

    # Back to back: AMD Ryzen 9 3950X @ 3.5 GHz, 128G RAM @ 3.2 GHz, PCIe 4.0, ConnectX-6 Dx, mlx5 driver
$ netperf -t TCP_STREAM -H <remote pod> -l 60

5 未来已来

本节为译注。

未来已来,只是分布尚不均匀(The future is already here – it’s just not very evenly distributed. William Ford Gibson)。

5.1 数据平面核心模块

Cilium 数据平面的核心功能:

5.2 学习与进阶路线

除了“(译)深入理解 Cilium 的 eBPF 收发包路径(KubeCon, 2019)” ,其他都来自 Cilium 团队分享:

  1. (译)如何基于 Cilium 和 eBPF 打造可感知微服务的 Linux(InfoQ, 2019)
  2. (译)基于 Envoy、Cilium 和 eBPF 实现透明的混沌测试(KubeCon, 2019)
  3. (译)深入理解 Cilium 的 eBPF 收发包路径(KubeCon, 2019)
  4. (译)利用 eBPF 支撑大规模 K8s Service (LPC, 2019)
  5. (译)基于 BPF/XDP 实现 K8s Service 负载均衡 (LPC, 2020)
  6. (译)基于 BPF/XDP 实现 K8s Service 负载均衡 (LPC, 2020)
  7. (译)大规模微服务利器:eBPF + Kubernetes(KubeCon, 2020)
  8. (译)为容器时代设计的高级 eBPF 内核特性(FOSDEM, 2021)
  9. (译)为 K8s workload 引入的一些 BPF datapath 扩展(LPC, 2021)
  10. (译)Cilium:基于 BPF+EDT+FQ+BBR 实现更好的带宽管理(KubeCon, 2022)
  11. (译)Cilium 未来数据平面:支撑 100Gbit/s k8s 集群(KubeCon, 2022)

致谢

  • Eric Dumazet
  • Coco Li
  • Yuchung Cheng
  • Martin Lau
  • John Fastabend
  • K8s, Cilium, BPF & netdev kernel community

相关 [cilium 未来 数据] 推荐:

[译] Cilium 未来数据平面:支撑 100Gbit/s k8s 集群(KubeCon, 2022)

- - ArthurChiao's Blog
本文翻译自 KubeCon+CloudNativeCon North America 2022 的一篇分享: 100 Gbit/s Clusters with Cilium: Building Tomorrow’s Networking Data Plane. 作者 Daniel Borkmann, Nikolay Aleksandrov, Nico Vibert 都来自 Isovalent(Cilium 母公司).

使用 Cilium 增强 Kubernetes 网络安全

- - IT瘾-dev
在本篇,我们分别使用了 Kubernetes 原生的网络策略和 Cilium 的网络策略实现了 Pod 网络层面的隔离. 不同的是,前者只提供了基于 L3/4 的网络策略;后者支持 L3/4、L7 的网络策略. 通过网络策略来提升网络安全,可以极大降低了实现和维护的成本,同时对系统几乎没有影响. 尤其是基于 eBPF 技术的 Cilium,解决了内核扩展性不足的问题,从内核层面为工作负载提供安全可靠、可观测的网络连接.

C2B的未来:大数据定制

- - CSDN博客综合推荐文章
昨天看到微信SuperSofter写了一篇文章,有感而发,以便备记. 阿里不只是在与腾讯拼移动,它的电商本土业务也在稳步推进. 最近一个里程碑事件是,阿里包下了美的、九阳、苏泊尔等十个品牌的12条生产线,专为天猫特供小家电. 阿里通过所掌握的数据以及分析成果,去指导这些生产线的研发、设计、生产、定价.

Coursera数据工程师董飞:硅谷大数据的过去与未来

- - ITeye资讯频道
董飞,Coursera数据工程师. 曾先后在创业公司酷迅,百度基础架构组,Amazon 云计算部门,LinkedIn担任高级工程师,负责垂直搜索,百度云计算平台研发和广告系统的架构. 董飞本科毕业于南开大学,硕士毕业于杜克大学计算机系. 他在知乎上分享过多个引起强烈反响的问答,其中包括 《哪些硅谷创业公司能给拜访者留下深刻印象》、 《美国大数据工程师面试攻略》、 《Coursera 上有哪些课程值得推荐》等.

电力线技术——未来的数据传输方式

- Roger - 张志强的网络日志
博客 » IT技术 » 网络 ». 今天买了一对电力线适配器,型号TP-LINK TL-PA201. 电力线适配器是一种通过电线传播网络信号的设备. 通常,用一个电力线适配器连接网络(或网络路由器的一个端口),并插在电源插头上. 然后可以用其余的电力适配器,在家里的任何地方,插上电源插头,即可连接上网络.

IBM未来存储方向:1U存储可保存1PB数据

- Woooon - cnBeta.COM
IBM工作人员、分析师、以及用户在星期三在旧金山IBM举行的媒体会议上对存储做了相关讨论,企业需要处理的数据量增长迅速. 大量数据的出现需要更强更快的设备支持以便企业能握牢有用的信息.

大数据(Bigdata)未来发展趋势预测

- - 博客园_新闻
随着云时代的来临,大数据(Bigdata)也吸引了越来越多的关注. 大数据(Big data)通常用来形容一个公司创造的大量非结构化和半结构化数据,这些数据在下载到关系型数据库用于分析时会花费过多时间和金钱. 大数据分析常和云计算联系到一起,因为实时的大型数据集分析需要像 MapReduce 一样的框架来向数十、数百或甚至数千的电脑分配工作.

[转载]互联网广告的未来趋势——数据

- - 牛国柱
关于互联网广告的未来,也曾零碎的提到过:1、大数据应用的精准投放;2、广告投放的优化算法;3、跨平台、多屏的广告控制与监测,但一直没有进行详细的阐述,预期自己的总结也会在年后进行. 在总结文章没有写作之前,我们可以通过其他文章来了解广告的发展趋势. 下面由易传媒撰写的这篇文章很好的诠释了互联网广告的未来之一,数据应用方面的发展,值得一读.

大数据的未来是App 而非基础架构

- - 互联网的那点事
本文作者Justin LaFayette,为我们解读他眼中大数据的未来. 在大数据被各种媒体热炒的同时,真相被蒙蔽了:App才是大数据的未来. 过去基础架构和平台一直是被捧吹的对象,但它们只提供了承载大数据的环境,无法利用大数据创造长期价值,所以它们并不是大数据的未来核心. 在市场上它需要公司提供大数据App,能够洞察特定市场版块或业务流程、及时反馈数据、到达尽可能多的调差对象.

DCCI胡延平:DSP是数据营销的未来

- - 派代网 - 资讯
1.互联网能否帮金融业做得更好,在做得更好这方面,一是帮金融业做更多服务末端的延伸,更好地服务用户,但与此同时,是不是也有更好的运营创新和产品层面的创新,包括在营销层面巨大的创新空间,这方面有很多工作去做,如果充分依托互联网的力量,充分把信息流的价值发挥到极致,让信息流、资本流和物流这三个核心要素做最佳组合,对于解决银行业结构化的问题都有很大的空间.