Files
bl/common/utils/lockfree-1.1.3/README.md
昔念 269256a861 feat(common): 添加无锁并发工具包依赖
新增 lockfree-1.1.3 工具包到 go.work 文件中,为项目提供无锁并发数据结构支持,
提升高并发场景下的性能表现。
2025-12-05 00:36:28 +08:00

370 lines
13 KiB
Go
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

## Lockfree
> 如果想使用低于go1.18版本则可以引入tag:1.0.9或branchbelow-version1.18
> 通过条件编译支持386平台但性能测试发现比较差因此不建议使用
### 1. 简介
#### 1.1. 为什么要写Lockfree
在go语言中一般都是使用chan作为消息传递的队列但在实际高并发的环境下使用发现chan存在严重的性能问题其直接表现就是将对象放入到chan中时会特别耗时
即使chan的容量尚未打满在严重时甚至会产生几百ms还无法放入到chan中的情况
![放大.jpg](images%2F%E6%94%BE%E5%A4%A7.jpg)
#### 1.2. chan基本原理
##### 1.2.1. chan基本结构
chan关键字在编译阶段会被编译为runtime.hchan结构它的结构如下所示
![chan结构.jpg](images%2Fchan%E7%BB%93%E6%9E%84.jpg)
其中sudog是一个比较常见的结构是对goroutine的一个封装它的主要结构
![sudog.jpg](images%2Fsudog.jpg)
##### 1.2.2. chan写入流程
![write.jpg](images%2Fwrite.jpg)
##### 1.2.3. chan读取流程
![read.jpg](images%2Fread.jpg)
#### 1.3.
##### 1.3.1. runtime.mutex
chan结构中包含了一个lock字段`lock mutex`
这个lock看名字就知道是一个锁当然它不是我们业务中经常使用的sync.Mutex而是一个`runtime.mutex`
这个锁是一个互斥锁在linux系统中它的实现是futex在没有竞争的情况下会退化成为一个自旋操作速度非常快但是当竞争比较大时它就会在内核中休眠
futex的基本原理如下图
![futex.jpg](images%2Ffutex.jpg)
当竞争非常大时对于chan而言其整体大部分时间是出于系统调用上所以性能下降非常明显
##### 1.3.2. sync.Mutex
`sync.Mutex`包中的设计原理如下图
![.jpg](images%2F%E9%94%81.jpg)
### 2. Lockfree基本原理
#### 2.1. 模块及流程
> 在最新的设计中已经删除了available模块转而使用ringBuffer中的对象e中的c游标标识写入状态
![lockfree.jpg](images%2Flockfree.jpg)
#### 2.2. 优化点
##### 1) 无锁实现
内部所有操作都是通过原子变量(atomic)来操作唯一有可能使用锁的地方是提供给用户在RingBuffer为空时的等待策略用户可选择使用chan阻塞
##### 2) 单一消费协程
屏蔽掉消费端读操作竞争带来的性能损耗
##### 3) 写不等待原则
符合写入快的初衷当无法写入时会持续通过自旋和任务调度的方式处理一方面尽量加快写入效率另一方面则是防止占用太多CPU资源
##### 4) 泛型加速
引入泛型泛型与interface有很明显的区别泛型是在编译阶段确定类型这样可有效降低在运行时进行类型转换的耗时
##### 5) 一次性内存分配
环状结构Ringbuffer实现对象的传递通过确定大小的切片实现只需要分配一次内存不会涉及扩容等操作可有效提高处理的性能
##### 6) 运算加速
RingBuffer的容量为2的n次方通过与运算来代替取余运算提高性能
##### 7) 并行位图
用原子位运算实现位图并行操作在尽量不影响性能的条件下降低内存消耗
并行位图的思路实现历程
![bitmap.jpg](images%2Fbitmap.jpg)
##### 8) 缓存行填充
根据CPU高速缓存的特点通过填充缓存行方式屏蔽掉伪共享问题
缓存行填充应该是一个比较常见的问题它的本质是因为CPU比较快而内存比较慢所以增加了高速缓存来处理
![padding1.jpg](images%2Fpadding1.jpg)
在两个Core共享同一个L3的情况下如果同时进行修改就会出现竞争关系会涉及到缓存一致性协议MESI
![padding2.jpg](images%2Fpadding2.jpg)
在Lockfree中有两个地方用到了填充
![padding3.jpg](images%2Fpadding3.jpg)
最新版本中只保留了cursor中的填充在e中使用了游标
##### 9) Pointer替代切片
屏蔽掉切片操作必须要进行越界判断的逻辑生成更高效机器码
![pointer.jpg](images%2Fpointer.jpg)
#### 2.3. 核心模块
##### ringBuffer
具体对象的存放区域通过数组定长切片实现环状数据结构其中的数据对象是具体的结构体而非指针这样可以一次性进行内存申请
##### stateDescriptor
> 最新的版本已将该对象删除通过ringBuffer中e中的游标来描述状态这样更充分利用了内存降低了消耗
状态描述符定义了对应位置的数据状态是可读还是可写提供了三种方式
+ 1) 基于Uint32的切片每个Uint32值描述一个位置性能最高但内存消耗最大
+ 2) 基于Bitmap每个bit描述一个位置性能最低但内存消耗最小
+ 3) 基于Uint8的切片每个Uint8值描述一个位置性能适中消耗也适中最推荐的方式
##### sequencer
序号产生器维护读和写两个状态写状态具体由内部游标cursor维护读取状态由自身维护一个uint64变量维护它的核心方法是next()用于获取下个可以写入的游标
##### Producer
生产者核心方法是Write通过调用Write方法可以将对象写入到队列中支持多个g并发操作保证加入时处理的效率
##### consumer
消费者这个消费者只会有一个g操作这样处理的好处是可以不涉及并发操作其内部不会涉及到任何锁对于实际的并发操作由该g进行分配
##### blockStrategy
阻塞策略该策略用于buf中长时间没有数据时消费者阻塞设计它有两个方法block()和release()前者用于消费者阻塞后者用于释放
系统提供了多种方式不同的方式CPU资源占用和性能会有差别
+ 1) SchedBlockStrategy调用runtime.Gosched()进行调度block不需要release为推荐方式
+ 2) SleepBlockStrategy调用time.Sleep(x)进行block可自定义休眠时间不需要release为推荐方式
+ 3) ProcYieldBlockStrategy调用CPU空跑指令可自定义空跑的指令数量不需要release
+ 4) OSYieldBlockStrategy操作系统会将对应M调度出去等时间片重新分配后可执行不需要release
+ 5) ChanBlockStrategychan阻塞策略需要release为推荐方式
+ 6) CanditionBlockStrategycandition阻塞策略需要release为推荐方式
其中1/2/5/6为推荐方式如果性能要求比较高则优先考虑2和1否则建议试用5和6
##### EventHandler
事件处理器接口整个项目中唯一需要用户实现的接口该接口描述消费端收到消息时该如何处理它使用泛型通过编译阶段确定事件类型提高性能
### 3. 使用方式
#### 3.1. 导入模块
可使用 `go get github.com/bruceshao/lockfree` 获取最新版本
#### 3.2. 代码调用
为了提升性能Lockfree支持go版本1.18及以上以便于支持泛型Lockfree使用非常简单
```go
package main
import (
"fmt"
"sync"
"sync/atomic"
"time"
"github.com/bruceshao/lockfree"
)
var (
goSize = 10000
sizePerGo = 10000
total = goSize * sizePerGo
)
func main() {
// lockfree计时
now := time.Now()
// 创建事件处理器
handler := &eventHandler[uint64]{
signal: make(chan struct{}, 0),
now: now,
}
// 创建消费端串行处理的Lockfree
lf := lockfree.NewLockfree[uint64](
1024*1024,
handler,
lockfree.NewSleepBlockStrategy(time.Millisecond),
)
// 启动Lockfree
if err := lf.Start(); err != nil {
panic(err)
}
// 获取生产者对象
producer := lf.Producer()
// 并发写入
var wg sync.WaitGroup
wg.Add(goSize)
for i := 0; i < goSize; i++ {
go func(start int) {
for j := 0; j < sizePerGo; j++ {
err := producer.Write(uint64(start*sizePerGo + j + 1))
if err != nil {
panic(err)
}
}
wg.Done()
}(i)
}
// wait for producer
wg.Wait()
fmt.Printf("producer has been writed, write count: %v, time cost: %v \n", total, time.Since(now).String())
// wait for consumer
handler.wait()
// 关闭Lockfree
lf.Close()
}
type eventHandler[T uint64] struct {
signal chan struct{}
gcounter uint64
now time.Time
}
func (h *eventHandler[T]) OnEvent(v uint64) {
cur := atomic.AddUint64(&h.gcounter, 1)
if cur == uint64(total) {
fmt.Printf("eventHandler has been consumed already, read count: %v, time cose: %v\n", total, time.Since(h.now))
close(h.signal)
return
}
if cur%10000000 == 0 {
fmt.Printf("eventHandler consume %v\n", cur)
}
}
func (h *eventHandler[T]) wait() {
<-h.signal
}
```
### 4. 性能对比
#### 4.1. 简述
在实际测试中发现如果lockfree和chan同时跑的话会有一些影响lockfree的表现基本是正常的和chan同时跑的时候性能基本是下降的
但chan比较奇怪和lockfree一起跑的时候性能比chan自身跑性能还高目前正在排查此问题但不影响使用
main包下提供了测试的程序可自行进行性能测试假设编译后的二进制为lockfree
+ 1单独测试lockfree./lockfree lockfree [time]加入time会有时间分布
+ 2单独测试chan./lockfree chan [time]加入time会有时间分布
+ 3合并测试lockfree和chan./lockfree [all] [time]使用time时前面必须加all参数只进行测试不关注时间分布的话可直接调用./lockfree
为描述性能除了时间外定义了**QR**Quick Ratio快速率的指标该指标描述的是写入时间在1微秒以内的操作占所有操作的比值
自然的QR越大性能越高
#### 4.2. 软硬件测试环境
CPU信息如下(4 * 2.5GHz)
```shell
[root@VM]# lscpu
Architecture: x86_64
CPU op-mode(s): 32-bit, 64-bit
Byte Order: Little Endian
CPU(s): 4
On-line CPU(s) list: 0-3
Thread(s) per core: 1
Core(s) per socket: 4
Socket(s): 1
NUMA node(s): 1
Vendor ID: GenuineIntel
CPU family: 6
Model: 94
Model name: Intel(R) Xeon(R) Gold 6133 CPU @ 2.50GHz
Stepping: 3
CPU MHz: 2494.120
BogoMIPS: 4988.24
Hypervisor vendor: KVM
Virtualization type: full
L1d cache: 32K
L1i cache: 32K
L2 cache: 4096K
L3 cache: 28160K
NUMA node0 CPU(s): 0-3
```
内存信息8G
```shell
[root@VM]# free -m
total used free shared buff/cache available
Mem: 7779 405 6800 116 573 7216
Swap: 0 0 0
```
操作系统centos 7.2
```shell
[root@VM]# cat /etc/centos-release
CentOS Linux release 7.2 (Final)
[root@VM]# uname -a
Linux VM-219-157-centos 3.10.107-1-tlinux2_kvm_guest-0056 #1 SMP Wed Dec 29 14:35:09 CST 2021 x86_64 x86_64 x86_64 GNU/Linux
```
云厂商腾讯云
#### 4.3. 写入性能对比
设定buffer大小为1024 * 1024无论是lockfree还是chan都是如此设置其写入的时间对比如下
其中 100 * 10000表示有100个goroutine每个goroutine写入10000次其他的依次类推
alllockfree/chan表示在lockfree和chan同时跑的情况下其分别的时间占比情况
| 类型 | 100 * 10000 | 500 * 10000 | 1000 * 10000 | 5000 * 10000 | 10000 * 10000 |
|---------------|-------------|-------------|--------------|--------------|---------------|
| lockfree | 67ms | 306ms | 676ms | 3779ms | 7703ms |
| chan | 116ms | 1991ms | 4709ms | 26897ms | 58509ms |
| alllockfree | 49ms | 414ms | 976ms | 5038ms | 10946ms |
| allchan | 83ms | 859ms | 3029ms | 19228ms | 40473ms |
#### 4.4. QR分布
快速率的分布情况如下所示
| 类型 | 100 * 10000 | 500 * 10000 | 1000 * 10000 | 5000 * 10000 | 10000 * 10000 |
|---------------|-------------|-------------|--------------|--------------|---------------|
| lockfree | 99.23 | 99.78 | 99.81 | 99.49 | 98.99 |
| chan | 91.67 | 88.99 | 57.79 | 3.98 | 1.6 |
| alllockfree | 99.69 | 99.88 | 99.88 | 99.52 | 99.02 |
| allchan | 96.72 | 93.5 | 93.1 | 51.37 | 48.2 |
#### 4.5. 结果
从上面两张表可以很明显看出如下几点
+ 1在goroutine数量比较小时lockfree和chan性能差别不明显
+ 2当goroutine打到一定数量大于1000lockfree无论从时间还是QR都远远超过chan