编程语言是如何实现并发的之并发模型篇 · 构建我的被动收入

标签: | 发表时间:2022-05-29 07:15 | 作者:
出处:https://www.bmpi.dev

初稿征集意见中本文处于初稿状态,可能存在很多错误,如果你有不同的看法,欢迎不吝赐教,先行感谢!

操作系统篇中介绍了从操作系统的视角中不同编程语言实现并发的共同的一些概念。本文将会介绍常见的并发模型及不同编程语言是如何实现的。

常见的并发模型

      ## 并发模型
### 多进程(Multiprocessing)
- Fork
### 多线程(Multithreaded)
- 共享内存通信
  - Lock
    - Java/Go/Clojure/C
  - STM
    - Clojure
- 消息传递通信
  - CSP
    - Go
  - Actor
    - Erlang/OTP
    - Scala/Akka
    - Vert.x    
### 事件驱动(Event Driven)
- Event Loop 
  with Multiplexing
  - Nginx
  - Node.js
  - Redis
  - Twisted(Python)
  - Netty(Java)

多进程(Multiprocessing)

多进程模型是利用操作系统的进程模型来实现并发的。典型的是Apache Web Server,每个用户请求接入的时候都会创建一个进程,这样应用就可以同时支持多个用户。

如上图,在Linux系统中PID为1的名为P0的进程通过 fork()系统调用创建了3个子进程。在多处理器的系统中,这些子进程可以并行运行在多个处理器上,当然这些进程也可以被同一个处理器通过 上下文切换进行CPU分时共享。

在图中M1、M2与M3都代表内存资源,在多进程中如果不同进程想共享内存中的数据必须通过 进程间通信的方式来实现。

多进程模型的缺点在于创建进程的开销非常高,如果进程过多会很快消耗光系统资源,并且上下文切换在进程间的开销也很高,在 I/O密集型任务的应用中,此并发模型很难满足需求。

多线程(Multithreaded)

在操作系统的视角看,比如Linux中,在进程中创建线程是通过 clone()系统调用来实现,这和创建子进程的区别不大。线程与进程的区别在于同一个进程内的线程共享着进程分配的资源,线程不被分配资源,只是操作系统调度执行任务的抽象的最小单元。

比如下图中,PID为10的进程P0通过 clone()系统调用创建了3个线程,这些线程都可以访问进程分配的内存资源M0。

我们也可以通过 htop命令在Linux中看到这些进程及线程的运行信息,比如下图中所示PID为339328进程(它是一个基于JVM的Clojure应用)及其创建的线程信息:

也可以通过 /proc文件系统获取进程创建的线程的信息:

        $ ls /proc/339328/task/1043773339340339342339344339346339348339350339357339359339361339363339367339380339388788478975443991563339328339341339343339345339347339349339353339358339360339362339364339378339382424498975439991561

相比多进程模型来说,因为线程比进程创建的系统开销小,所以多线程模型是很常见的实现并发的方式。但此种模型存在一个必须解决的问题,就是线程间通信的问题。但线程为什么要通信呢?那是因为大部分业务系统问题的解空间在用冯·诺伊曼计算机去实现的时候,都存在并发计算时线程间数据共享的问题。要数据共享有两种方式:

  • 共享内存通信(Shared memory communication):不同线程间可以访问同一内存地址空间,并可修改此地址空间的数据。
  • 消息传递通信(Message passing communication):不同线程间只能通过收发消息的形式去通信,数据只能被拥有它的线程修改。

共享内存通信(Shared memory communication)

因为线程间共享内存资源,在访问临界区域时会出现数据竞争(发生竞态条件,即代码的行为取决于各操作的时序)的问题,如果不能正确的处理此问题,程序会产生线程不安全的问题,最终导致程序崩溃或无法正常运行。

解决竞态条件的方式是对数据进行同步( Synchronize)访问。要实现同步访问常见的方式有:

  • 锁( Lock):通过锁定临界区域来实现同步访问。
  • 信号量( Semaphores):可以通过信号量的增减控制对一个或多个线程对临界区域的访问。
  • 同步屏障( Barriers):通过设置屏障控制不同线程执行周期实现同步访问。
Lock

锁(Lock),也叫互斥量(Mutex)。线程在操作临界区域资源时,需要先获取锁,然后才能操作,当操作完成后,需要释放锁。此模型利用了对底层硬件运行过程的形式化,这让其即简单又复杂。从锁的种类就可以看出来其复杂性:

  • 自旋锁
  • 递归锁
  • 乐观/悲观锁
  • 公平/非公平锁
  • 独享/共享锁
  • 偏向/轻量级/重量锁
  • 分段锁

对锁的使用不当还会产生死锁问题( Deadlock)。在实际开发过程中,能不用锁就不用锁,可以考虑使用一些轻量级的替代方案如原子变量(Atomic),或 无锁(lock-free)非阻塞(non-blocking)算法实现的数据结构。

原子变量的更新为何是线程安全的?因为CPU提供了CAS( Compare-and-swap)的指令来更新原子变量,这条指令从硬件上确保了此操作是线程安全的。

此模型的优点:

  • 大多编程语言都支持此模型;
  • 贴近硬件架构,使用得当性能很高;
  • 是其他并发模型的基础;

此模型的缺点:

  • 不支持分布式内存模型,只解决了进程内的并发同步;
  • 不好调试与测试,想用好不容易;
STM

锁模型是一种悲观的并发同步机制,但实际上冲突发生的概率并不高,所以乐观的并发同步机制性能更好。STM(Software transactional memory)就是这样一种用来代替锁模型的乐观并发同步机制。STM是用软件的方式去实现事务内存(Transactional memory),而事务内存中的事务(Transactional)正是关系型数据库中的概念,一个事务必须满足 ACID性质,如下图所示:

在t0时刻,T1、T2与T3线程同时获取要操作的同一数据的快照v0,之后T1线程在自己的事务里于t1时刻提交自己的写入值v1,之后T2线程在自己的事务里提交自己的写入值v2,由于在提交时刻会做冲突检测,此事务发现操作数据的快照已经发生变化,于是回滚自己的提交。之后开启新的事务重新获取最新的快照v1,并于时刻t2成功提交自己的写入值v2。在线程v3中由于是读取操作,并没有数据修改,所以在它的事务中使用的是最早的快照v0。

在STM的事务中尽可能避免副作用,比如在事务中去修改原子变量这种操作,可能会导致事务回滚失败。

STM实现的一种方式是基于MVCC( Multiversion concurrency control)。很多编程语言提供了这种并发模型的实现。

此模型的优点:

  • 相比锁模型更简单;
  • 大部分情况下更高效;

此模型的缺点:

  • 在事务内需要避免产生副作用;
  • 不支持分布式内存模型,只解决了进程内的并发同步;

消息传递通信(Message passing communication)

在锁模型中,生产者和消费者之间的通信是通过共享内存而完成的,要实现安全通信,必须给共享内存所属的临界区加锁。那如果生产者和消费者是通过消息传递完成通信的呢?那样我们就可以摆脱锁模型的限制了。

Do not communicate by sharing memory. Instead, share memory by communicating. Communication forces coordination. (Ivo Balbaert)

CSP

通信顺序进程( CSP(Communicating sequential processes))是一种形式语言,用来描述基于消息传递通信的安全并发模型。如下图所示:

这些任务块之间的通信是基于通道(Channel)来完成的,当创建了一个通道之后,不同的任务块就可以通过持有这个通道来通信,通道可以被不同的任务块共享。通道两端任务块的通信可以是同步的,也可以是异步的。

在这里的任务块不是如Java里重量级的线程类,在运行时是非常轻量级的代码块。这些代码块可以被调度到不同的线程中,最终被多个CPU内核并发执行。

此模型的优点:

  • 相比锁模型更简单;
  • 很容易实现高并发;

此模型的缺点:

  • 不支持分布式内存模型,只解决了进程内的并发同步;
Actor

演员模型( Actor)是一种类似面向对象编程思想的安全并发模型。在面向对象的世界里,对象是一种封装了状态及行为的实体,对象间通过消息去通信(通过对象调用其方法)。而在Actor模型中,一切皆Actor,每个Actor中都有自己的状态,其他Actor只能通过通信的方式来获取或修改被通信Actor的状态。Actor通信的方式类似收发邮件,它有自己的收件箱,如下图所示:

在上述图中,我们可以看到相比CSP模型,Actor模型可以跨节点在分布式集群中运行。实际上Actor模型的代表Erlang正是天然分布式容错的编程语言。

此模型的优点:

  • 相比锁模型更简单;
  • 很容易实现高并发;
  • 支持分布式内存模型,能实现跨节点的并发同步;

此模型的缺点:

  • 存在信箱满后消息丢失的问题;
Vert.x

Vert.x是一个基于JVM的反应式模型的工具包,在解决并发同步的问题上它采用了类似Actor模型的方式,如下图所示:

在它的架构里最基本的计算单元名为Verticle,这些Verticle之间通过事件总线(Event Bus)进行异步通信,当然也可以像Actor一样跨节点通信。和Actor模型不同的地方在于Vert.x支持多种语言,因为Event Bus解耦了实现Verticle的语言限制。

事件驱动(Event Driven)

在多线程方式实现的并发模型中,我们解决问题的方式是通过创建更多的线程来提高系统的并发处理能力。但线程创建的开销及线程间上下文调度切换的开销并不是很小,所以纵使系统的硬件资源很充足,也存在一定的上限。那么有没有可能只创建一个线程,而且这个线程可以同时处理很多个任务呢?当然是可以的,这正是基于I/O多路复用的事件循环处理并发模型的解法,通过单线程来并发处理I/O密集型的任务。

Less is more.

Event Loop with Multiplexing

此模型巧妙的利用了系统内核提供的I/O多路复用系统调用,将多个socket连接转换成一个事件队列(event queue),只需要单个线程即可循环处理这个事件队列。当然这个线程是有可能被阻塞或长期占用的,针对这种类型的任务处理可以单独使用一个 线程池去做,这样就不会阻塞Event Loop的线程了。

此模型的优点:

  • 单线程对系统资源的占用很小;
  • 很容易实现高并发;

此模型的缺点:

  • 不支持分布式内存模型,只解决了进程内的并发同步;

编程语言的实现

许多编程语言标准库或三方库都已支持上述大多数的并发模型,但因为一些历史原因带来的兼容性问题,开发者的使用体验好坏不一。以下仅简单介绍下各种编程语言标准库对并发模型的实现及流行三方库的扩展支持。

Java

Java是一门面向对象的编程语言,标准库对并发的支持是 基于共享内存通信的锁模型,因此用Java的标准库来实现高并发是一件非常有挑战的事情,想不踩坑太难。

想深入了解Java的并发模型,可以参考 《Java并发编程实战》

当然基于Java的三方库实现了很多并发模型,如:

Go

在Go流行的时期流传着一个故事:一个PHP的普通开发者在一周内学会了Go语言,之后开发出了一个高并发的Web应用,要用Java实现同样的性能,至少需要多年的经验。

暂且不论这个故事是否合理,但它展示了Go语言的两大亮点:

  • 语法简单易学;
  • 天然支持高并发模型;

Go在语言层面实现了 CSP并发模型,因此能让开发者以非常低的成本写出高并发的Web应用。在对CSP并发模型的实现中,Go任务块一般是一个函数,这个函数的调度是由Go语言的调度器来完成,可以被调度在不同的线程中。如果在这个函数中出现了阻塞线程的如网络I/O的操作,调度器会委托给Netpoller去执行,而Netpoller的底层正是对操作系统I/O多路复用技术的封装。

Go高并发的秘诀在于它的G-P-M运行时调度模型,详细的设计可参考这篇文章: Scheduling In Go : Part II - Go Scheduler

Erlang/Elixir

Erlang是一门天然分布式、高并发、容错的编程语言,它是 Actor并发模型的代表编程语言。Elixir是基于Erlang虚拟机(BEAM)的一种不纯粹的、动态类型的函数式语言。它们自然原生支持Actor并发模型,所以在开发高并发的分布式容错应用时,可以考虑使用Elixir,它强大的并发模型及富有表达力的语法可以提供非常好的开发体验。

Erlang的虚拟机在运行时实现了 软实时抢占式调度,详细的信息可参考这篇文章: How Erlang does scheduling

Clojure

Clojure是基于JVM平台的Lisp方言,是不纯粹的、动态类型的函数式语言(这点倒和Elixir类似)。Clojure可以直接调用Java的库,这让其可支持非常多的并发模型,但最有特色的就是它的标准库实现了STM的并发模型,官方提供的异步库 core.async也实现了CSP的并发模型。当然还可以通过 Nginx-Clojure实现基于I/O多路复用的高并发模型。

Clojure支持非常多的并发原语,想了解可参考这篇文章: Clojure Concurrency Tutorial

走向高并发

1999年的时候 C10K的问题被提出,当时在单机上并发处理上万的连接是一件富有挑战的事情,最终借助操作系统提供的一些支持如进程调度与I/O模型,通过一些高并发的模型如I/O多路复用,我们可以在单机上支持上万甚至更多的并发连接。

二十多年过去了,互联网从Web1走向了 Web3,联网的设备从PC走向了IoT,我们已经到了万物互联的时代。C10K的问题已经转变为 C10M的问题,如何在单机上支持百万乃至千万的连接呢?

在这篇 The Road to 2 Million Websocket Connections in Phoenix中我们可以看到如何用Elixir的Web框架Phoenix在一台40核128GB内存的机器上支撑两百万的Websocket长链接,最终因Linux内核的限制而无法进一步提高并发链接数,并没有达到服务器的极限。

Migratorydata甚至使用Java在一台12核96GB内存的机器上支撑了上千万的Websocket长连接,更多细节见这两篇文章:

当单机并发达10K时,内核是解决方案,当单机并发达10M时,内核是瓶颈。比如Linux内核需要32GB内存来维护上千万的Socket连接。所以在单机千万级的解决方案需要在内核之外的应用层去做更多的事情,感兴趣的读者可以看这篇文章: The Secret to 10 Million Concurrent Connections -The Kernel is the Problem, Not the Solution

总结

在软件开发过程中,安全至关重要。编程的两大安全难题是 线程安全与内存安全。这个系列的两篇文章都是在尝试介绍不同编程语言是如何解决线程安全从而更容易的实现高并发。

另外一个想借助这篇文章分享的一个观点是:问题可以被更复杂的方案去解决,当然也可以通过另一种截然不同的思路去更简单的解决。当你觉得一个方案很复杂的时候,试着去找一个完全不同方向的方案,也许会更容易一些。

参考资料

更新日志2022-05-27:初稿发布。
2022-05-07:开始写作。

相关 [编程语言 并发 并发] 推荐:

编程语言是如何实现并发的之并发模型篇 · 构建我的被动收入

- -
初稿征集意见中本文处于初稿状态,可能存在很多错误,如果你有不同的看法,欢迎不吝赐教,先行感谢. 多进程(Multiprocessing). 多线程(Multithreaded). 共享内存通信(Shared memory communication). 消息传递通信(Message passing communication).

编程语言是如何实现并发的之操作系统篇 · 构建我的被动收入

- -
调度(Scheduling). 用户线程(User-level Thread). 线程模型(Thread Model). 上下文切换(Context switching). I/O模型(I/O Model). 这是一台拥有2个虚拟CPU核心的. CPU代表当前线程运行的CPU核心编号. 红框③中是程序的运行命令,其中绿色代表的是.

高并发

- - 开源软件 - ITeye博客
垂直扩展是一种用于增加单个ActiveMQ代理连接数(因而也增加了负载能力)的技术.默认情况下,. ActiveMQ的被设计成尽可高效的传输消息以确保低延迟和良好的性能. 默认情况下,ActiveMQ使用阻塞IO来处理传输连接,这种方式为每一个连接分配一个线程. 你可以为ActiveMQ代理使用非阻塞IO(同时客户端可以使用默认的传输)以减少线程的使用.

并发导论

- - 并发编程网 - ifeve.com
由于之前工作中的疏忽,在使用Java多线程并发的时候出了问题,遂决心全面学习并发相关知识. 写作本文的意图只是希望在写作过程中把想不清楚或是一时无法掌握的地方反复揣摩记录下来. 写作本文参考的各种资料较多,抱歉的是文末的参考文献中对一些叫不上名字或没有出处的资料文献并未列举出来. 由于本人是初入职场的菜鸟,更是并发的门外汉,文中关于并发以及其他软硬件、程序设计语言的论据也许不够客观甚至不够正确.

[转][转]Clojure 编程语言

- - heiyeluren的blog(黑夜路人的开源世界)
简介: Lisp 是一种编程语言,以表达性和功能强大著称,但人们通常认为它不太适合应用于一般情况. Clojure 是一种运行在 Java™ 平台上的 Lisp 方言,它的出现彻底改变了这一现状. 如今,在任何具备 Java 虚拟机的地方,您都可以利用 Lisp 的强大功能. 在本文中,了解如何开始使用 Clojure,学习它的一些语法,同时利用 Eclipse 的 Clojure 插件提供帮助.

J.U.C并发框架

- - 并发编程网 - ifeve.com
作者:Doug Lea. 在J2SE1.5中,java.util.concurrent包下的大部分同步工具(锁、屏障等)以AbstractQueuedSynchronizer类为基础来构建. 这个框架提供了一些常用机制用于自动管理并发状态、阻塞及非阻塞线程,以及队列. 本论文描述了该框架的根源、设计、实现、用法及性能.

高并发---限流

- - Java - 编程语言 - ITeye博客
在开发高并发系统时有三把利器用来保护系统:缓存、降级和限流. 缓存的目的是提升系统访问速度和增大系统能处理的容量,可谓是抗高并发流量的银弹;而降级是当服务出问题或者影响到核心流程的性能则需要暂时屏蔽掉,待高峰或者问题解决后再打开;而有些场景并不能用缓存和降级来解决,比如稀缺资源(秒杀、抢购)、写服务(如评论、下单)、频繁的复杂查询(评论的最后几页),因此需有一种手段来限制这些场景的并发/请求量,即限流.

tomcat 高并发优化

- - 企业架构 - ITeye博客
maxThreads:tomcat起动的最大线程数,即同时处理的任务个数,默认值为200. minSpareThreads 表示空闲的线程数,据我的理解,类似于连接池. acceptCount:当tomcat起动的线程数达到最大时,接受排队的请求个数,默认值为100.    另外,有时候,还需要调整jvm的启动参数.

应对高并发攻击

- - 开源软件 - ITeye博客
近半个月过得很痛苦,主要是产品上线后,引来无数机器用户恶意攻击,不停的刷新产品各个服务入口,制造垃圾数据,消耗资源. 他们的最好成绩,1秒钟 可以并发6次,赶在Database入库前,Cache进行Missing Loading前,强占这其中十几毫秒的时间,进行恶意攻击. 为了应对上述情况,做了如下调整:.

高并发库存控制

- - 企业架构 - ITeye博客
1、在秒杀的情况下,肯定不能如此高频率的去读写数据库,会严重造成性能问题的. 必须使用缓存,将需要秒杀的商品放入缓存中,并使用锁来处理其并发情况. 当接到用户秒杀提交订单的情况下,先将商品数量递减(加锁/解锁)后再进行其他方面的处理,处理失败在将数据递增1(加锁/解锁),否则表示交易成功. 当商品数量递减到0时,表示商品秒杀完毕,拒绝其他用户的请求.