这个例子是从go源码src/pkg/net/rpc/server_test.go截取出来的
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
<code>func benchmarkEndToEndAsync(dial func() (*Client, error), b *testing.B) {</code>
<code> </code><code>const</code> <code>MaxConcurrentCalls = 100</code>
<code> </code><code>b.StopTimer()</code>
<code> </code><code>once.Do(startServer)</code>
<code> </code><code>client, err := dial()</code>
<code> </code><code>if</code> <code>err != nil {</code>
<code> </code><code>b.Fatal(</code><code>"error dialing:"</code><code>, err)</code>
<code> </code><code>}</code>
<code> </code><code>// Asynchronous calls</code>
<code> </code><code>args := &Args{7, 8}</code>
<code> </code><code>procs := 4 * runtime.GOMAXPROCS(-1)</code>
<code> </code><code>send := int32(b.N)</code>
<code> </code><code>recv := int32(b.N)</code>
<code> </code><code>var</code> <code>wg sync.WaitGroup</code>
<code> </code><code>wg.Add(procs)</code>
<code> </code><code>gate := make(chan bool, MaxConcurrentCalls)</code>
<code> </code><code>res := make(chan *Call, MaxConcurrentCalls)</code>
<code> </code><code>b.StartTimer()</code>
<code> </code><code>for</code> <code>p := 0; p < procs; p++ {</code>
<code> </code><code>go func() {</code>
<code> </code><code>for</code> <code>atomic.AddInt32(&send, -1) >= 0 {</code>
<code> </code><code>gate <- true</code>
<code> </code><code>reply :=</code><code>new</code><code>(Reply)</code>
<code> </code><code>client.Go(</code><code>"Arith.Add"</code><code>, args, reply, res)</code>
<code> </code><code>}</code>
<code> </code><code>}()</code>
<code> </code><code>for</code> <code>call := range res {</code>
<code> </code><code>A := call.Args.(*Args).A</code>
<code> </code><code>B := call.Args.(*Args).B</code>
<code> </code><code>C := call.Reply.(*Reply).C</code>
<code> </code><code>if</code> <code>A+B != C {</code>
<code> </code><code>b.Fatalf(</code><code>"incorrect reply: Add: expected %d got %d"</code><code>, A+B, C)</code>
<code> </code><code>}</code>
<code> </code><code><-gate</code>
<code> </code><code>if</code> <code>atomic.AddInt32(&recv, -1) == 0 {</code>
<code> </code><code>close(res)</code>
<code> </code><code>wg.Done()</code>
<code> </code><code>wg.Wait()</code>
<code>}</code>
这个代码用来对rpc的客户端Go函数进行压力测试。
这里有几个地方值得揣摩下:
先使用startServer(这个函数里面具体是开启了一个routine)进行服务器服务。然后在每个测试用例中启动server,如果是benchTest的话记得这里的Timer要在启动服务器行为之后再开启。
wg变量是sync.WaitGroup类型,Add增加计数,Done减少计数,Wait进行阻塞等待,等计数减为0的时候再停止阻塞。
这里如果不使用WaitGroup进行wait阻塞的话,主routine会先于次routine先结束。会导致程序提早退出。
因此这里也给出了一个测试用例中测试异步函数的方法。就是使用WaitGroup
看起来gate好像是没什么用啊,如果去掉gate呢?有可能会出现“rpc: discarding Call reply due to insufficient Done chan capacity”
这个gate完全是因为client.Go这个函数,rpc包的client.Go是异步的调用,虽然是异步调用,这个异步调用的最后一个done参数是一个channel buffer。
当client.Go进行完rpc调用后,将信号传入这个channel buffer。但是这个channel buffer却是不会阻塞的。
具体看源码:

这里select加了个default分支,说明了done是非阻塞的。看注释,作者认为这个buffer的大小容量应该由调用者来保证。rpc包并不保证容量大小。
方法有个两个:
这个方法就是gate的使用原因了。只有gate容量有剩余的时候才会容许调用client.Go
在这个例子中,bench的channel最大只会是b.N,所以,如果我们分配的res的channel buffer大小为b.N也能解决这个问题。
这个方法导致的效果就是bench的时间变快了,但是mem分配增加了。
因为这里会有多个routine会对send和recive进行操作,这里就需要保证原子性。
多个并发routine对一个共享变量进行操作有两种方法,channel和锁。
这里当然使用channel也能起到原子操作的效果。sync包的atomic和sync的mutex都是锁的方式。
所以说这里其实可以使用channel,mutex,atomic三种方法。
bench test在运行前自身会调用runtime.GOMAXPROCS进行多核的设置,然后再每个处理器中并行运行测试。
这里的runtime.GOMAXPROCS(-1)是获取你要跑的cpu核数,这个核数是根据bench test的 -test.cpu设置的。具体可以看下src/testing/testing.go parseCpuList。在没有设置过GOMAXPROCS和test.cpu的情况下,这里的runtime.GoMAXPROCS就默认是1。
你可以使用-test.cpu 1,2,4来设置你的压力测试用例是有几个cpu,每个cpu是几核的。
这里的procs设置为处理器核数的4倍就是为了测试routine能分配远大于核数的个数,这样每个核承担的goroutine能大于1。
上面的for循环就是保证起的routine数是足够的。
本文转自轩脉刃博客园博客,原文链接:http://www.cnblogs.com/yjf512/archive/2013/01/30/2882570.html,如需转载请自行联系原作者