博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
女朋友也能看懂的Zookeeper分布式锁原理
阅读量:6529 次
发布时间:2019-06-24

本文共 2266 字,大约阅读时间需要 7 分钟。

前言

关于分布式锁,在互联网行业的使用场景还是比较多的,比如电商的库存扣减,秒杀活动,集群定时任务执行等需要进程互斥的场景。而实现分布式锁的手段也很多,大家比较常见的就是redis跟zookeeper,今天我们主要介绍的是基于zookeeper实现的分布式锁。

这篇文章主要借用Curator框架对zk分布式锁的实现思路,大家理解了以后完全可以自己手动实现一遍,但是在工作中还是建议使用成熟的开源框架,很多坑别人已经帮我们踩好了,除非万不得已,需要高度定制符合自己项目的需求的时候,才开始自行封装吧。

正文

zookeeper简单介绍

既然是基于zookeeper的分布式锁,首先肯定要对这个zookeeper有一定了解,这里就不过多的进行讲解,只对其跟分布式锁有关联的特性做一个简单的介绍,更多详细的功能特性大家可以参阅官方文档。

zookeeper维护着类似文件系统的数据结构,它总共有四种类型的节点

  • PERSISTENT:持久化的节点。一旦创建后,即使客户端与zk断开了连接,该节点依然存在。
  • PERSISTENT_SEQUENTIAL:持久化顺序编号节点。比PERSISTENT节点多了节点自动按照顺序编号。
  • EPHEMERAL:临时节点。当客户端与zk断开连接之后,该节点就被删除。
  • EPHEMERAL_SEQUENTIAL:临时顺序编号节点。比EPHEMERAL节点多了节点自动按照顺序编号。(分布式锁实现使用该节点类型)
Curator实现分布式锁原理

好,当我们简单了解了zk的节点类型以后,现在正式的分析Curator分布式锁的实现原理。这里我们定义了一个“/curator_lock”锁节点用来存放相关客户端创建的临时顺序节点。

假设两个客户端ClientA跟ClientB同时去争夺一个锁,此时ClientA先行一步获得了锁,那么它将会在我们的zk上创建一个“/curator_lock/xxxxx-0000000000”的临时顺序节点。

接着它会拿到“/curator_lock/”锁节点下的所有子节点,因为这些节点是有序的,这时候会判断它所创建的节点是否排在第一位(也就是序号最小),由于ClientA是第一个创建节点的的客户端,必然是排在第一位,所以它也就拿到了锁。

[zk: localhost:2182(CONNECTED) 4] ls /curator_lock[_c_f3f38067-8bff-47ef-9628-e638cfaad77e-lock-0000000000]复制代码

这个时候ClientB也来了,按照同样的步骤,先是在“/curator_lock/”下创建一个临时顺序节点“/curator_lock/xxxxx-0000000001”,接着也是获得该节点下的所有子节点信息,并比对自己生成的节点序号是否最小,由于此时序号最小的节点是ClientA创建的,并且还没释放掉,所以ClientB自己就拿不到锁。

[zk: localhost:2182(CONNECTED) 4] ls /curator_lock[_c_2a8198e4-2039-4a3c-8606-39c65790d637-lock-0000000001,_c_f3f38067-8bff-47ef-9628-e638cfaad77e-lock-0000000000]复制代码

既然ClientB拿不到锁,也不会放弃,它会对自己的前一个节点加上监听器(zk提供的api实现),只要监听到前一个节点被删除了,也就是释放了锁,就会马上重新执行获取锁的操作。

当后面的ClientC,ClientD...过来的时候也是如此,变化的只是节点上的编号,它会根据Client连接的数量而不断增加。

可能大家还会担心,万一我的获取到锁的客户端宕机了怎么办,会不会不释放锁?其实上面已经解答了这个问题,由于Curator使用的是临时顺序节点来实现的分布式锁,只要客户端与zk连接断开,该节点也就消失了,相当于释放了锁。

下面代码展示了Curator的基本使用方法,仅作为参考实例,请勿在生产环境使用的这么随意。

CuratorFramework client = CuratorFrameworkFactory.newClient("127.0.0.1:2182",                5000,10000,                new ExponentialBackoffRetry(1000, 3));        client.start();        InterProcessMutex interProcessMutex = new InterProcessMutex(client, "/curator_lock");        //加锁        interProcessMutex.acquire();                //业务逻辑                //释放锁        interProcessMutex.release();        client.close();    复制代码

总结

我们在搞懂了原理之后,就可以抛弃Curator,自己动手实现一个分布式锁了,相信大家实现基本的功能都是没问题的,但是要做到生产级别,可能还是要在细节上下功夫,比如说一些异常处理,性能优化等因素。

微信公众号《深夜里的程序猿》 - 分享最干的干货

转载地址:http://byabo.baihongyu.com/

你可能感兴趣的文章
JetBrains 发布Kotlin 1.0
查看>>
Node.js v7 Beta版引入citgm
查看>>
WebStorm 2017.1增加对Vue.js的支持
查看>>
《软件工程师职业生涯完全指南》作者访谈
查看>>
学习Kubernetes 和容器技术体系的最佳方法
查看>>
独家解密:阿里大规模数据中心性能分析
查看>>
精益敏捷采购的外包
查看>>
Sharding-Sphere成长记——写在分布式数据库代理端里程碑版本3.0.0发布之际
查看>>
专访黄泽武:顺丰科技是如何应用边缘计算的?
查看>>
软件测试工程师的核心竞争力是什么?
查看>>
活动实录|工具化、产品化、运营化——「美团点评」运维团队背后的故事
查看>>
从蚂蚁金服实践入手,带你深入了解 Service Mesh
查看>>
Elixir 1.7改进错误处理、日志和测试
查看>>
DevOps中的工程师测试
查看>>
一个“小白”眼中的容器
查看>>
精益机器:将敏捷思维引入数据库开发
查看>>
爱奇艺短视频软色情识别技术解析
查看>>
百度举办第七届技术开放日,揭秘春晚红包技术支撑
查看>>
微软宣布在Azure API管理中预览OpenAPI规范V3
查看>>
如何用React + Rxjs实现一个虚拟滚动组件?
查看>>