本文转载自微信公众号「吴亲强的深夜食堂」,作者吴亲库里。转载本文请联系吴亲强的深夜食堂公众号。
创新互联公司-成都网站建设公司,专注成都做网站、网站建设、网站营销推广,域名申请,网站空间,网站托管运营有关企业网站制作方案、改版、费用等问题,请联系创新互联公司。
之前写过一篇文章,它有个响亮的名字:Handling 1 Million Requests per Minute with Go使用 Go 每分钟处理百万请求
这是国外的一个作者写的,我做了一篇说明,起的也是这个标题。
没想到阅读量是我最好的一篇,果然文章都是靠标题出彩的…..
今天偶然看到另一篇文章(原文在文末[1])。两篇文章原理相似:有一批工作任务(job),通过工作池(worker-pool)的方式,达到多worker并发处理job的效果。
他们还是有很多不同的点,实现上差别也是蛮大的。
首先上一篇文章我放了一张图片,大概就是上篇整体的工作流。
这篇文章不同点在于:
首先数据会从generate(生产数据)->并发处理数据->处理结果聚合。
图大概是这样的,
然后它可以通过context.context达到控制工作池停止工作的效果。
最后通过代码,你会发现它不是传统意义上的worker-pool,后面会说明。
下图能清晰表达整体流程了。
顺便说一句,这篇文章实现的代码比 使用 Go 每分钟处理百万请求 的代码简单多了。
首先看job。
这个可以简单过一下。最终每个job处理完都会包装成Result返回。
下面这段就是核心代码了。
整个WorkerPool结构很简单。jobs是一个缓冲channel。每一个任务都会放入jobs中等待处理woker处理。
results也是一个通道类型,它的作用是保存每个job处理后产生的结果Result。
首先通过New初始化一个worker-pool工作池,然后执行Run开始运行。
初始化的时候传入worker数,对应每个g运行work(ctx,&wg,wp.jobs,wp.results),组成了worker-pool。
同时通过sync.WaitGroup,我们可以等待所有worker工作结束,也就意味着work-pool结束工作,当然可能是因为任务处理结束,也可能是被停止了。
每个job数据源是如何来的?
对应每个worker的工作,
每个 worker 都尝试从同一个jobs获取数据,这是一个典型的fan-out模式。当对应的g获取到job进行处理后,会把处理结果发送到同一个results channel中,这又是一个fan-in模式。
当然我们通过context.Context可以对每个worker做停止运行控制。
最后是处理结果集合,
那么整体的测试代码就是:
看了代码之后,我们知道,这并不是一个传统意义的worker-pool。它并不像上篇这篇文章一样,初始化一个真正的worker-pool,一旦接收到job,就尝试从池中获取一个worker,把对应的job交给这个work进行处理,等work处理完毕,重新进行到工作池中,等待下一次被利用。
附录
[1]https://itnext.io/explain-to-me-go-concurrency-worker-pool-pattern-like-im-five-e5f1be71e2b0#fe56
网站名称:如何在Go中实现一个Worker-Pool?
文章路径:http://www.mswzjz.cn/qtweb/news18/75718.html
攀枝花网站建设、攀枝花网站运维推广公司-贝锐智能,是专注品牌与效果的网络营销公司;服务项目有等
声明:本网站发布的内容(图片、视频和文字)以用户投稿、用户转载内容为主,如果涉及侵权请尽快告知,我们将会在第一时间删除。文章观点不代表本网站立场,如需处理请联系客服。电话:028-86922220;邮箱:631063699@qq.com。内容未经允许不得转载,或转载时需注明来源: 贝锐智能