Golang Go语言中关于官网一段代码的疑惑
Golang 官网一段关于同步错误的代码示例:
var a string
var done bool
func setup() {
a = “hello, world”
done = true
}
func main() {
go setup()
for !done {
}
print(a)
}
官网对这段代码的解析原文:As before, there is no guarantee that, in main, observing the write to done implies observing the write to a, so this program could print an empty string too. Worse, there is no guarantee that the write to done will ever be observed by main, since there are no synchronization events between the two threads. The loop in main is not guaranteed to finish.
print(a)
可能会输出一个空字符串这个比较好理解,因为 CPU 指令重排的原因,done = true
有可能先于a = "hello world"
语句执行,所以出现了这种情况。
但是 for 语句有可能会陷入死循环的原因我理解不了,原因是什么?
我猜测的原因是(有可能不正确):
done = true
的修改 CPU 只写入到了本地核心的 store buffer ,没有同步给其它 CPU 核心,导致不同核心的缓存数据不一致,接而导致运行在其它核心的 main 协程看不到这个修改,所以陷入了死循环
希望有大神能解析下原因,谢谢~
Golang Go语言中关于官网一段代码的疑惑
更多关于Golang Go语言中关于官网一段代码的疑惑的实战系列教程也可以访问 https://www.itying.com/category-94-b0.html
按你的猜测,难道永远都不会同步了吗?
这里是 guarantee to ,意思是不是所有的平台上,都可以保证循环会结束。
因为编译器最多只能做到更新对应内存,对具体平台的多核架构下的一致性无法保证,这个是 CPU 架构设计者应该考虑的事情。
实际上不论 amd64 或者 arm ,还是其他的什么 CPU ,只要是真实的 CPU ,都会考虑&解决这个问题,
最多是这个修改延迟多久被其他核可见。所以,只要代码在目前主流 CPU 上正常运行,一般都会结束的。
hi ,你说的这个有相关文档吗?我理解其实是因为 CPU 的缓存满了之后,会自己丢弃,从而刷新旧值。但你说的这个“一般都会结束”,是指 cpu 有定期回刷的策略?
没有强制的同步指令的话,无法保证 main 能看到 done 的修改,但是实际上一般结果会看到
实际上,Go 还在其他文章/代码里面提到过另外一种情况:
CPU 级别的过度优化,CPU 判断出一直在比较一个变量,一旦把它加载到特定寄存器后就省略了读取的指令
上述两种都是极度理论化的假设,没必要深究
是编译器优化,cpu 没有这么做的
正常来说,就算 CPU 有 store buffer 和 Invalid queue ,对变量的修改应该也会同步给其它 CPU 核心,只是看时间上延迟多久而已。永远不同步的话说不过去,会给编程带来很大麻烦,但是官网文档又确实说了有可能会陷入死循环
OP 的猜测是一种可能情况:done=true 没有同步到其他核心导致了死循环。所以 go 官方提供了 atomic.Storexxx()函数来保证原子性和可见性。
Storexxx()函数底层使用 XCHGQ 指令,该指令默认带有 lock 前缀指令的功能,会强制其他核心重新刷新缓存。我们常说的 atomic 包提供了原子操作,其实它也保证了可见性。对于 64 系统下,只要内存对齐(不会发生撕裂写),简单的赋值语句是原子性的( mov 指令),但他没法保证可见性,即当前核心的写入,没有立即被其他核心可见,所以你得需要 Storexxx()语句。
atomic 包的 Storexxx()函数和 Addxxx() 函数底层指令可以比较看看:
https://go.godbolt.org/z/o5jn4GG5K // Storexxx 使用 XCHGQ 指令,该指令默认有 lock 功能。
https://go.godbolt.org/z/rc5Y37q3P // Addxx 使用 lock 指令 + XADD 指令。多了 lock 前缀指令,来保证可见性。
如果是编译器优化,这种情况应该能稳定复现才对?我试了很多次都没能复现出死循环这种现象,甚至连输出空字符串的现象也复现不出来
编译器只是有可能但实际并没有做这个优化。
- Go 目前没有做这种编译器优化,具体你可以用 go tool compile -S main.go 来看看。
2. 常见的平台都会进行同步,x86 和 arm 基本都能在 100ms 内感知到,但不排除存在某些奇怪的平台。
3. 某些时候为了性能,我会用这种方式来达到最终一致性的同步,而不是 atomic 。
编译器优化也是有可能的,不同版本 go 编译器编译有差异的。编译优化可以看看这篇文章:Golang 编译器优化那些事: https://fanlv.fun/2021/12/18/golang-complier-optimize/
Go 竟然连这么基本的优化都没做😫,循环里面是空的,都不用往别处看就可以知道这个条件绝对不会被破坏啊😐 Go 真是有点···
我来尝试用最直白的方式解释一下吧,
原文 The Go Memory Model 是严谨准确的,只是涉及到专业术语,没有相应的理论背景很难理解。
第一个容易误解的概念是 guaranteed 。编程语言定义规范( spec ),编译器负责在目标平台上完成实现。保证( guaranteed )的意思就是,在满足特定条件的情况下,无论编译器如何完成,都要确保最终的结果符预期。
看上去和什么都没说一样对吧?结合相反的概念就明白了,这个相反的概念叫 undefined 。也就是 C 时代大名鼎鼎的 undefined behavior 那个 undefined 。因为编程语言没明确要求,编译器想怎么干就怎么干,也可以什么都不干。
所以 guaranteed/undefined 的实质区别就是,前者以确定的方式干了点什么,从而保证了结果和预期的一致性。至于具体干了什么后面再说。
接下来的概念叫内存模型( memory model ),这是一组对规范( spec )的抽象而形成的规则。毕竟代码写起来可以五花八门,但内在逻辑是相似且有限的。但是如何用形式化( formal )的方式来精准定义这些逻辑呢?
从最简单的例子开始,假如只有单线程,那么执行顺序就是代码的书写顺序。如果是多线程呢?(这里还是取最简单的情形来简化分析)
思考一下就会发现,不确定性的来源主要是两类:一类是对于同一(共享)变量(内存)的读/写并行操作,另一类是写/写操作。这些的潜在冲突被叫做竞态( race )。
设想最简单的读写冲突场景,读和写操作分别位于两个独立的并行执行序列中。如果预期的结果是先读后写,那什么都不用做,这两个指令不会相互影响;但是反过来,预期先写后读,且要保证( guaranteed )读到写的结果,就需要编译器做点什么了。
这里“读到写的结果”有个专门的名词叫可见性( visibility ),编译器具体怎么做不重要,重要的是编译器做了一件事,在写操作完成读操作发生之前,使得写操作的结果对于读操作可见。(要么共享一份副本,要么两份独立的副本但同步成为相同的结果)
最后的任务就是,编程语言在规范( spec )中定义,在什么情况下编译器需要保证可见性( visibility )。即判断开发者按照直觉写出的代码,它的预期执行逻辑应该是什么样的。
这背后的代码逻辑关系被定义成了一个特殊的术语 happens-before ,满足 w(rite) happens-before r(ead) 的情形下,就要保证 w 的结果对 r 可见。这里其实是个反向的过程,既然某些代码和逻辑按照开发者的预期应该满足可见性,那就定义它要满足 happens-before 关系。(这里为了方便理解,对定义进行了简化)
这是最容易被误解的术语,它和指令执行的先后顺序无关,不是时间上的先后概念。(关于这一点如果不理解,建议从基础开始学习内存模型理论。)编译器的工作从来都不是对指令执行流程进行排序,只要能保证可见性,指令顺序是不影响预期结果的。
这个逻辑关系比较重要的特性是它具有传递性。我这里用 A <= B 代表 A happens-before B ,那么 A <= B 且 B <= C 可以推导出 A <= C 。另一点比较重要的是,happens-before 强制要求编译器保证可见性,但是可见性并不能反推出 happens-before 关系。
最终的结果就是,Golang 的设计者希望,当开发者用 XXX 的方式写代码的时候,编译器能产生符合预期的结果。于是就定义 XXX 这些写法,就是 happens-before 关系,编译器必须对其可见性结果做出保证。Golang 规范中定义了几种 happens-before 关系,这里就不一一列举了。
--------手动分割线--------
如果重新表述一下示例代码的问题,就是判断 [1] a = "hello, world"
和 [4] print(a)
是否满足 happens-before 关系,[2] done = true
和 [3] for !done {}
是否满足 happens-before 关系,从而判定可见性。
很遗憾根据 Golang 的规范,这里仅有 [1] <= [2] 和 [3] <= [4],不存在其他 happens-before 关系。(读 The Go Memory Model 原文可以看到采用 channel 通信后,比如把 [2] 和 [3] 分别替换为 c <- 0
和 <-c
,由于语言规范层面上建立了两个 goroutine 相关指令间的 happens-before 关系,有 [2] <= [3],从而依靠传递性保证了 [1] <= [4],于是保证了不会有死循环,赋值也总能得到正确的输出)
既然不存在 happens-before 关系,那么编译器就没有必要保证 done = true
的结果对于 for !done {}
可见。缺少了这一层保证,那编译器的某种实现使得 for !done {}
一直读到 done = true
可见之前的结果也就不奇怪了。因为 done = true
对于 done
的操作可能完全不会让 for !done {}
知道。
--------手动分割线--------
看到这里你肯定会感到疑惑,为什么 Golang 不对前面这种情况做精确定义?
我的理解是,这个思路 C 当年用过了,然后发现太复杂且不符合直觉的情形太多,于是抽象了诸如 mutex/semaphore 等等原语来降低开发者的心智负担,帮助写出正确的代码。结果并没有那么理想,理解这个背景对于大多数非科班的开发者要求还是太高了。Golang 走相同的路不会有更好的结果。
Golang 的设计目标中很重要的一点是简单。希望即便开发者完全不懂内存模型,也能凭直觉写出正确的并行代码。原文的示例非常明显了,不要用 C 的思路去写并行代码,而是用 Golang 提供的 channel 机制,新机制有着严格且准确的 happens-before 逻辑,同时符合直觉。
也有可能是编译器的优化,可以看看 russ cox 的这篇文章 https://research.swtch.com/plmm
First, if x and done are ordinary variables, then thread 2’s loop may never stop. A common compiler optimization is to load a variable into a register at its first use and then reuse that register for future accesses to the variable, for as long as possible. If thread 2 copies done into a register before thread 1 executes, it may keep using that register for the entire loop, never noticing that thread 1 later modifies done.
一种常见的编译器优化是在变量首次使用时将其加载到寄存器中,然后尽可能长时间地重用该寄存器,以便将来访问该变量。如果线程 2 在线程 1 执行之前将 done 复制到一个寄存器中,它可能会在整个循环中一直使用该寄存器,永远不会注意到线程 1 后来修改了 done 。
然后 russ cox 的内存模型文章一共三篇 ,看完这三篇就对内存模型有飞跃一般的认识了 https://research.swtch.com/mm
老哥,既然 golang 保证了 [1] <= [2] 和 [3] <= [4],在代码里面当[3]可以跳出循环时,[2]一定执行了,那么可以推出[1]也执行了,那为什么还会存在输出空字符串的可能呢
这个文章真不错
#16
“[2]一定执行了,那么可以推出[1]也执行了“ => 这句话不正确。
参考"happens-before 和指令执行的先后顺序无关,不是时间上的先后概念"这一部分。这句话解释起来就比较麻烦了,建议去看内存模型相关的文档,一般都是有示例来辅助理解的。happens-before 和时间上执行先后顺序无关。
[1]<=[2] 和 [3]<=[4] 这两个条件不能通过传递性获得任何 [1] 与 [4] 的关系。具体到这个例子,时间顺序上按 [2],[3],[4],[1] 的先后执行,恰好编译器使得 [2] 的结果对 [3]可见,这样是不违反规范的。
参考“编译器的工作从来都不是对指令执行流程进行排序,只要能保证可见性,指令顺序是不影响预期结果的。”
尽管 [1]<=[2] 但 [1] 和 [2] 的时间先后对二者都没有影响,[3] 和 [4] 相互也没有影响,他们都没有操作相同的内存变量。换句话说,由代码书写先后推导出的 [1]<=[2] 和 [3]<=[4] 是没有用的额外条件。这四条指令可以按任意时间顺序执行,都满足规范。
1.21 版本就可能出现死循环
老哥厉害,码了这么多字,辛苦了,感谢已发送~
然后我还想追问一下 [既然不存在 happens-before 关系,那么编译器就没有必要保证 done = true
的结果对于 for !done {}
可见。] 这句话
既然不保证,那就是 done 的修改对于 main 协程来说有可能可见,也有可能不可见,那么这个“可能”是基于什么因素来决定的? CPU 架构吗?比如用架构 A 的时候就可见,用架构 B 的时候就不可见?还是说,这种“可能“是完全随机的?
如果是循环不能结束的情况,只可能是编译器做优化了。C 语言也有类似的优化,C 可以给变量加 volatile 关键字解决
#20
这部分我也不太清楚,猜测影响的因素会有很多,编译器实现方式影响可能大一些。
如果仅从语言层面上说,Golang 的内存模型里面随机结果的种类会少一点,官方编译器倾向于减少这些不确定性。C 的话编译器很多,基本很难预期 UB 的结果。
如果看汇编结果,编译器把 a = “hello, world” 直接干没了
> First, if x and done are ordinary variables, then thread 2’s loop may never stop. A common compiler optimization is to load a variable into a register at its first use and then reuse that register for future accesses to the variable, for as long as possible. If thread 2 copies done into a register before thread 1 executes, it may keep using that register for the entire loop, never noticing that thread 1 later modifies done.
rsc 的博客里有提到这种情况
可以请你推荐一些资料吗,我很想了解这些理论知识
官网这篇文章确实有些晦涩,甚至文档一开始就表示如果想要搞协程,建议干脆直接用 channel 或 sync 包就完了,不用看文章内容。
可能官方文档出于严谨考虑,写的东西非常理论化,实际效果又有点反直觉,确实不好理解。
我读过几次心得主要是,文章说明了 go 在协程并发环境下可以提供的保证有哪些,也就是所谓 happens before 、synchronized before 这类保证,这种保证可以让开发者放心的写代码,因为只要符合这些保证生效的场景,就必然可以得到可预期的结果。
反之除了文章中提到的场景外,其他并发场景就不提供任何保证了,换句话说啥结果都可能冒出来。
至于为什么可能出现死循环,我想应该跟底层硬件有关了,例如 sync 包很多同步操作底层都涉及到屏障操作,就是让不同 CPU 寄存器中的数据可以在一致的前提下被读写,那么反之如果不使用任何同步原语,那也就不涉及到屏障操作,不同 CPU 可能持有的还是各自不同的副本…
可否提供下官方文档链接
感谢,从这个帖子中学到了很多。另外[原文见🔗]( https://go.dev/ref/mem)
当然,我很乐意帮你解答关于Golang官网代码的疑惑。由于你没有提供具体的代码段或疑惑点,我将基于一些常见的Golang官网代码疑惑给出一般性的解答。
Golang官网的代码通常是非常规范和简洁的,但有时候初学者可能会对一些特定的语法或用法感到困惑。以下是一些常见的疑惑点及解答:
-
并发编程:如果你对Goroutines和Channels的用法感到困惑,记住Goroutines是轻量级的线程,而Channels是用于在Goroutines之间传递数据的管道。理解这两者的协作是掌握Golang并发编程的关键。
-
接口:Golang中的接口是隐式实现的,即只要一个类型实现了接口中的所有方法,它就自动实现了该接口。这种设计使得代码更加灵活和可扩展。
-
错误处理:Golang鼓励显式地处理错误,通过返回两个值(结果和错误)来实现。这种设计使得错误处理更加清晰和可控。
-
包管理:如果你对Golang的包管理感到困惑,可以了解一下Go Modules,这是Golang 1.11及以后版本引入的官方包管理工具。
-
内存管理:Golang有自动的内存管理机制(垃圾回收),但了解何时会触发垃圾回收以及如何优化内存使用仍然是很重要的。
如果你有更具体的疑惑或问题,请提供相关的代码段或详细描述,我将给出更具体的解答。