基于 etcd 实现的分布式锁

etcd 的分布式锁结构?

  • Session 用于标识 etcd 与客户端的连接,每一个 Session 都有一个唯一的 LeaseID 来实现租约机制
  • Mutex 通过客户端传入的 pfx 标识同一把分布式锁,
  • 使用 pfx + LeaseID 得到 myKey 标识持有该锁的客户端
  • 使用 myRev 标识这个前缀 pfx 下的 revision 版本号(revision 在每次用户修改数据时都会递增)
go 复制代码
// NewLocker creates a sync.Locker backed by an etcd mutex.
func NewLocker(s *Session, pfx string) sync.Locker {
   return &lockerMutex{NewMutex(s, pfx)}
}

// Mutex implements the sync Locker interface with etcd
type Mutex struct {
   s *Session

   pfx   string 
   myKey string 
   myRev int64
   hdr   *pb.ResponseHeader
}

// Session represents a lease kept alive for the lifetime of a client.
// Fault-tolerant applications may use sessions to reason about liveness.
type Session struct {
   client *v3.Client
   opts   *sessionOptions
   id     v3.LeaseID

   cancel context.CancelFunc
   donec  <-chan struct{}
}

etcd 如何实现加锁?

加锁流程主要是以下步:

  1. 设置 myKey 到 etcd 服务端,从 response 中得到一个版本号 revesion,设为 myRev
  2. 从response中还可以获得该前缀存在的最小版本号以及 put myKey 时该前缀是否存在。如果当前 myKey 前缀不存在,或者当前最小的版本号就是自身 myRev,表明获取到了锁,直接返回;否则阻塞等待前一个版本号即 myRev - 1 的 key 被删除
  3. 被唤醒之后需要再次判断 myRev 是不是最小的版本号,如果是则获取锁成功,否则执行继续监听上上一个 revision (等待队列中 myRev 从小到大排列,每个客户端只监听 myRev - 1 是否被删除;可能存在队列中间的客户端删除了 myKey 唤醒了后一个客户端,但是这个进程的 myRev 不是当前最小,对于后一个客户端来说需要监听被删除 myKey 的上一个 Revision )

如何保证加锁后锁一定能释放?

  • etcd 提供了租约机制实现锁的 TTL
  • 同时 etcd 还提供了续约机制,保证业务执行过程中,锁不会被释放

etcd 是如何避免惊群效应的 ?

  • 通过 revision 排队,每一个进程只 watch myRev-1 的删除事件
go 复制代码
// Lock locks the mutex with a cancelable context. If the context is canceled
// while trying to acquire the lock, the mutex tries to clean its stale lock entry.
func (m *Mutex) Lock(ctx context.Context) error {
   resp, err := m.tryAcquire(ctx)
   if err != nil {
      return err
   }
   // if no key on prefix / the minimum rev is key, already hold the lock
   ownerKey := resp.Responses[1].GetResponseRange().Kvs
   if len(ownerKey) == 0 || ownerKey[0].CreateRevision == m.myRev {
      m.hdr = resp.Header
      return nil
   }
   client := m.s.Client()
   // wait for deletion revisions prior to myKey
   // TODO: early termination if the session key is deleted before other session keys with smaller revisions.
   _, werr := waitDeletes(ctx, client, m.pfx, m.myRev-1)
   // release lock key if wait failed
   if werr != nil {
      m.Unlock(client.Ctx())
      return werr
   }

   // make sure the session is not expired, and the owner key still exists.
   gresp, werr := client.Get(ctx, m.myKey)
   if werr != nil {
      m.Unlock(client.Ctx())
      return werr
   }

   if len(gresp.Kvs) == 0 { // is the session key lost?
      return ErrSessionExpired
   }
   m.hdr = gresp.Header

   return nil
}

etcd 如何实现解锁?

因为加锁时每个客户端的 myKey 都不相同,并且加锁的客户端实现了 watch 操作,所以解锁时,直接删除 myKey 即可。

go 复制代码
func (m *Mutex) Unlock(ctx context.Context) error {
   client := m.s.Client()
   if _, err := client.Delete(ctx, m.myKey); err != nil {
      return err
   }
   m.myKey = "\x00"
   m.myRev = -1
   return nil
}
相关推荐
花晓木5 小时前
k8s etcd 数据损坏处理方式
容器·kubernetes·etcd
张声录15 小时前
【ETCD】【实操篇(十二)】分布式系统中的“王者之争”:基于ETCD的Leader选举实战
数据库·etcd
运维&陈同学5 小时前
【模块一】kubernetes容器编排进阶实战之基于velero及minio实现etcd数据备份与恢复
数据库·后端·云原生·容器·kubernetes·etcd·minio·velero
有态度的马甲5 小时前
一种基于etcd实践节点自动故障转移的思路
数据库·etcd
张声录15 小时前
【ETCD】【实操篇(十三)】ETCD Cluster体检指南:健康状态一键诊断,全方位解析!
数据库·etcd
花晓木5 小时前
k8s备份 ETCD , 使用velero工具进行备份
容器·kubernetes·etcd
张声录12 天前
【ETCD】【实操篇(三)】【ETCDCTL】如何向集群中写入数据
数据库·chrome·etcd
Likelong~2 天前
Etcd注册中心基本实现
etcd·注册中心
alden_ygq2 天前
etcd网关
服务器·数据库·etcd
张声录12 天前
【ETCD】ETCD Leader 节点写入数据流程概览
数据库·etcd