255d281057723abb16095f3911c2ea64ac505d50
[invirt/third/libt4.git] / rsm.cc
1 //
2 // Replicated state machine implementation with a primary and several
3 // backups. The primary receives requests, assigns each a view stamp (a
4 // vid, and a sequence number) in the order of reception, and forwards
5 // them to all backups. A backup executes requests in the order that
6 // the primary stamps them and replies with an OK to the primary. The
7 // primary executes the request after it receives OKs from all backups,
8 // and sends the reply back to the client.
9 //
10 // The config module will tell the RSM about a new view. If the
11 // primary in the previous view is a member of the new view, then it
12 // will stay the primary.  Otherwise, the smallest numbered node of
13 // the previous view will be the new primary.  In either case, the new
14 // primary will be a node from the previous view.  The configuration
15 // module constructs the sequence of views for the RSM and the RSM
16 // ensures there will be always one primary, who was a member of the
17 // last view.
18 //
19 // When a new node starts, the recovery thread is in charge of joining
20 // the RSM.  It will collect the internal RSM state from the primary;
21 // the primary asks the config module to add the new node and returns
22 // to the joining the internal RSM state (e.g., paxos log). Since
23 // there is only one primary, all joins happen in well-defined total
24 // order.
25 //
26 // The recovery thread also runs during a view change (e.g, when a node
27 // has failed).  After a failure some of the backups could have
28 // processed a request that the primary has not, but those results are
29 // not visible to clients (since the primary responds).  If the
30 // primary of the previous view is in the current view, then it will
31 // be the primary and its state is authoritive: the backups download
32 // from the primary the current state.  A primary waits until all
33 // backups have downloaded the state.  Once the RSM is in sync, the
34 // primary accepts requests again from clients.  If one of the backups
35 // is the new primary, then its state is authoritative.  In either
36 // scenario, the next view uses a node as primary that has the state
37 // resulting from processing all acknowledged client requests.
38 // Therefore, if the nodes sync up before processing the next request,
39 // the next view will have the correct state.
40 //
41 // While the RSM in a view change (i.e., a node has failed, a new view
42 // has been formed, but the sync hasn't completed), another failure
43 // could happen, which complicates a view change.  During syncing the
44 // primary or backups can timeout, and initiate another Paxos round.
45 // There are 2 variables that RSM uses to keep track in what state it
46 // is:
47 //    - inviewchange: a node has failed and the RSM is performing a view change
48 //    - insync: this node is syncing its state
49 //
50 // If inviewchange is false and a node is the primary, then it can
51 // process client requests. If it is true, clients are told to retry
52 // later again.  While inviewchange is true, the RSM may go through several
53 // member list changes, one by one.   After a member list
54 // change completes, the nodes tries to sync. If the sync complets,
55 // the view change completes (and inviewchange is set to false).  If
56 // the sync fails, the node may start another member list change
57 // (inviewchange = true and insync = false).
58 //
59 // The implementation should be used only with servers that run all
60 // requests run to completion; in particular, a request shouldn't
61 // block.  If a request blocks, the backup won't respond to the
62 // primary, and the primary won't execute the request.  A request may
63 // send an RPC to another host, but the RPC should be a one-way
64 // message to that host; the backup shouldn't do anything based on the
65 // response or execute after the response, because it is not
66 // guaranteed that all backup will receive the same response and
67 // execute in the same order.
68 //
69 // The implementation can be viewed as a layered system:
70 //       RSM module     ---- in charge of replication
71 //       config module  ---- in charge of view management
72 //       Paxos module   ---- in charge of running Paxos to agree on a value
73 //
74 // Each module has threads and internal locks. Furthermore, a thread
75 // may call down through the layers (e.g., to run Paxos's proposer).
76 // When Paxos's acceptor accepts a new value for an instance, a thread
77 // will invoke an upcall to inform higher layers of the new value.
78 // The rule is that a module releases its internal locks before it
79 // upcalls, but can keep its locks when calling down.
80
81 #include <sys/types.h>
82 #include <unistd.h>
83
84 #include "types.h"
85 #include "handle.h"
86 #include "rsm.h"
87 #include "rsm_client.h"
88
89 rsm::rsm(const string & _first, const string & _me) :
90     stf(0), primary(_first), insync (false), inviewchange (true), vid_commit(0),
91     partitioned (false), dopartition(false), break1(false), break2(false)
92 {
93     cfg = new config(_first, _me, this);
94
95     if (_first == _me) {
96         // Commit the first view here. We can not have acceptor::acceptor
97         // do the commit, since at that time this->cfg is not initialized
98         commit_change(1);
99     }
100     rsmrpc = cfg->get_rpcs();
101     rsmrpc->reg(rsm_client_protocol::invoke, &rsm::client_invoke, this);
102     rsmrpc->reg(rsm_client_protocol::members, &rsm::client_members, this);
103     rsmrpc->reg(rsm_protocol::invoke, &rsm::invoke, this);
104     rsmrpc->reg(rsm_protocol::transferreq, &rsm::transferreq, this);
105     rsmrpc->reg(rsm_protocol::transferdonereq, &rsm::transferdonereq, this);
106     rsmrpc->reg(rsm_protocol::joinreq, &rsm::joinreq, this);
107
108     // tester must be on different port, otherwise it may partition itself
109     testsvr = new rpcs((in_port_t)stoi(_me) + 1);
110     testsvr->reg(rsm_test_protocol::net_repair, &rsm::test_net_repairreq, this);
111     testsvr->reg(rsm_test_protocol::breakpoint, &rsm::breakpointreq, this);
112
113     {
114         lock ml(rsm_mutex);
115         thread(&rsm::recovery, this).detach();
116     }
117 }
118
119 void rsm::reg1(int proc, handler *h) {
120     lock ml(rsm_mutex);
121     procs[proc] = h;
122 }
123
124 // The recovery thread runs this function
125 void rsm::recovery() [[noreturn]] {
126     bool r = true;
127     lock ml(rsm_mutex);
128
129     while (1) {
130         while (!cfg->ismember(cfg->myaddr(), vid_commit)) {
131             // XXX iannucci 2013/09/15 -- I don't understand whether accessing
132             // cfg->view_id in this manner involves a race.  I suspect not.
133             if (join(primary, ml)) {
134                 LOG("recovery: joined");
135                 commit_change(cfg->view_id(), ml);
136             } else {
137                 ml.unlock();
138                 this_thread::sleep_for(seconds(30)); // XXX make another node in cfg primary?
139                 ml.lock();
140             }
141         }
142         vid_insync = vid_commit;
143         LOG("recovery: sync vid_insync " << vid_insync);
144         if (primary == cfg->myaddr()) {
145             r = sync_with_backups(ml);
146         } else {
147             r = sync_with_primary(ml);
148         }
149         LOG("recovery: sync done");
150
151         // If there was a commited viewchange during the synchronization, restart
152         // the recovery
153         if (vid_insync != vid_commit)
154             continue;
155
156         if (r) {
157             myvs.vid = vid_commit;
158             myvs.seqno = 1;
159             inviewchange = false;
160         }
161         LOG("recovery: go to sleep " << insync << " " << inviewchange);
162         recovery_cond.wait(ml);
163     }
164 }
165
166 bool rsm::sync_with_backups(lock & rsm_mutex_lock) {
167     rsm_mutex_lock.unlock();
168     {
169         // Make sure that the state of lock_server is stable during
170         // synchronization; otherwise, the primary's state may be more recent
171         // than replicas after the synchronization.
172         lock invoke_mutex_lock(invoke_mutex);
173         // By acquiring and releasing the invoke_mutex once, we make sure that
174         // the state of lock_server will not be changed until all
175         // replicas are synchronized. The reason is that client_invoke arrives
176         // after this point of time will see inviewchange == true, and returns
177         // BUSY.
178     }
179     rsm_mutex_lock.lock();
180     // Start accepting synchronization request (statetransferreq) now!
181     insync = true;
182     cfg->get_view(vid_insync, backups);
183     backups.erase(find(backups.begin(), backups.end(), cfg->myaddr()));
184     LOG("backups " << backups);
185     sync_cond.wait(rsm_mutex_lock);
186     insync = false;
187     return true;
188 }
189
190
191 bool rsm::sync_with_primary(lock & rsm_mutex_lock) {
192     // Remember the primary of vid_insync
193     string m = primary;
194     while (vid_insync == vid_commit) {
195         if (statetransfer(m, rsm_mutex_lock))
196             break;
197     }
198     return statetransferdone(m, rsm_mutex_lock);
199 }
200
201
202 //
203 // Call to transfer state from m to the local node.
204 // Assumes that rsm_mutex is already held.
205 //
206 bool rsm::statetransfer(const string & m, lock & rsm_mutex_lock)
207 {
208     rsm_protocol::transferres r;
209     handle h(m);
210     int ret = 0;
211     LOG("contact " << m << " w. my last_myvs(" << last_myvs.vid << "," << last_myvs.seqno << ")");
212     rpcc *cl;
213     {
214         rsm_mutex_lock.unlock();
215         cl = h.safebind();
216         if (cl) {
217             ret = cl->call_timeout(rsm_protocol::transferreq, rpcc::to(1000),
218                     r, cfg->myaddr(), last_myvs, vid_insync);
219         }
220         rsm_mutex_lock.lock();
221     }
222     if (cl == 0 || ret != rsm_protocol::OK) {
223         LOG("couldn't reach " << m << " " << hex << cl << " " << dec << ret);
224         return false;
225     }
226     if (stf && last_myvs != r.last) {
227         stf->unmarshal_state(r.state);
228     }
229     last_myvs = r.last;
230     LOG("transfer from " << m << " success, vs(" << last_myvs.vid << "," << last_myvs.seqno << ")");
231     return true;
232 }
233
234 bool rsm::statetransferdone(const string & m, lock & rsm_mutex_lock) {
235     rsm_mutex_lock.unlock();
236     handle h(m);
237     rpcc *cl = h.safebind();
238     bool done = false;
239     if (cl) {
240         int r;
241         auto ret = (rsm_protocol::status)cl->call(rsm_protocol::transferdonereq, r, cfg->myaddr(), vid_insync);
242         done = (ret == rsm_protocol::OK);
243     }
244     rsm_mutex_lock.lock();
245     return done;
246 }
247
248
249 bool rsm::join(const string & m, lock & rsm_mutex_lock) {
250     handle h(m);
251     int ret = 0;
252     string log;
253
254     LOG("contacting " << m << " mylast (" << last_myvs.vid << "," << last_myvs.seqno << ")");
255     rpcc *cl;
256     {
257         rsm_mutex_lock.unlock();
258         cl = h.safebind();
259         if (cl != 0) {
260             ret = cl->call_timeout(rsm_protocol::joinreq, rpcc::to(120000), log,
261                     cfg->myaddr(), last_myvs);
262         }
263         rsm_mutex_lock.lock();
264     }
265
266     if (cl == 0 || ret != rsm_protocol::OK) {
267         LOG("couldn't reach " << m << " " << hex << cl << " " << dec << ret);
268         return false;
269     }
270     LOG("succeeded " << log);
271     cfg->restore(log);
272     return true;
273 }
274
275 //
276 // Config informs rsm whenever it has successfully
277 // completed a view change
278 //
279 void rsm::commit_change(unsigned vid) {
280     lock ml(rsm_mutex);
281     commit_change(vid, ml);
282     if (cfg->ismember(cfg->myaddr(), vid_commit))
283         breakpoint2();
284 }
285
286 void rsm::commit_change(unsigned vid, lock &) {
287     if (vid <= vid_commit)
288         return;
289     LOG("commit_change: new view (" << vid << ") last vs (" << last_myvs.vid << "," <<
290             last_myvs.seqno << ") " << primary << " insync " << insync);
291     vid_commit = vid;
292     inviewchange = true;
293     set_primary(vid);
294     recovery_cond.notify_one();
295     sync_cond.notify_one();
296     if (cfg->ismember(cfg->myaddr(), vid_commit))
297         breakpoint2();
298 }
299
300
301 void rsm::execute(int procno, const string & req, string & r) {
302     LOG("execute");
303     handler *h = procs[procno];
304     VERIFY(h);
305     unmarshall args(req, false);
306     marshall rep;
307     auto ret = (rsm_protocol::status)(*h)(args, rep);
308     r = marshall{ret, rep.content()}.content();
309 }
310
311 //
312 // Clients call client_invoke to invoke a procedure on the replicated state
313 // machine: the primary receives the request, assigns it a sequence
314 // number, and invokes it on all members of the replicated state
315 // machine.
316 //
317 rsm_client_protocol::status rsm::client_invoke(string & r, int procno, const string & req) {
318     LOG("invoke procno 0x" << hex << procno);
319     lock ml(invoke_mutex);
320     vector<string> m;
321     string myaddr;
322     viewstamp vs;
323     {
324         lock ml2(rsm_mutex);
325         LOG("Checking for inviewchange");
326         if (inviewchange)
327             return rsm_client_protocol::BUSY;
328         LOG("Checking for primacy");
329         myaddr = cfg->myaddr();
330         if (primary != myaddr)
331             return rsm_client_protocol::NOTPRIMARY;
332         LOG("Assigning a viewstamp");
333         cfg->get_view(vid_commit, m);
334         // assign the RPC the next viewstamp number
335         vs = myvs;
336         myvs++;
337     }
338
339     // send an invoke RPC to all slaves in the current view with a timeout of 1 second
340     LOG("Invoking slaves");
341     for (unsigned i  = 0; i < m.size(); i++) {
342         if (m[i] != myaddr) {
343             // if invoke on slave fails, return rsm_client_protocol::BUSY
344             handle h(m[i]);
345             LOG("Sending invoke to " << m[i]);
346             rpcc *cl = h.safebind();
347             if (!cl)
348                 return rsm_client_protocol::BUSY;
349             int ignored_rval;
350             auto ret = (rsm_protocol::status)cl->call_timeout(rsm_protocol::invoke, rpcc::to(1000), ignored_rval, procno, vs, req);
351             LOG("Invoke returned " << ret);
352             if (ret != rsm_protocol::OK)
353                 return rsm_client_protocol::BUSY;
354             breakpoint1();
355             lock rsm_mutex_lock(rsm_mutex);
356             partition1(rsm_mutex_lock);
357         }
358     }
359     execute(procno, req, r);
360     last_myvs = vs;
361     return rsm_client_protocol::OK;
362 }
363
364 //
365 // The primary calls the internal invoke at each member of the
366 // replicated state machine
367 //
368 // the replica must execute requests in order (with no gaps)
369 // according to requests' seqno
370
371 rsm_protocol::status rsm::invoke(int &, int proc, viewstamp vs, const string & req) {
372     LOG("invoke procno 0x" << hex << proc);
373     lock ml(invoke_mutex);
374     vector<string> m;
375     string myaddr;
376     {
377         lock ml2(rsm_mutex);
378         // check if !inviewchange
379         LOG("Checking for view change");
380         if (inviewchange)
381             return rsm_protocol::ERR;
382         // check if slave
383         LOG("Checking for slave status");
384         myaddr = cfg->myaddr();
385         if (primary == myaddr)
386             return rsm_protocol::ERR;
387         cfg->get_view(vid_commit, m);
388         if (find(m.begin(), m.end(), myaddr) == m.end())
389             return rsm_protocol::ERR;
390         // check sequence number
391         LOG("Checking sequence number");
392         if (vs != myvs)
393             return rsm_protocol::ERR;
394         myvs++;
395     }
396     string r;
397     execute(proc, req, r);
398     last_myvs = vs;
399     breakpoint1();
400     return rsm_protocol::OK;
401 }
402
403 //
404 // RPC handler: Send back the local node's state to the caller
405 //
406 rsm_protocol::status rsm::transferreq(rsm_protocol::transferres &r, const string & src,
407         viewstamp last, unsigned vid) {
408     lock ml(rsm_mutex);
409     LOG("transferreq from " << src << " (" << last.vid << "," << last.seqno << ") vs (" <<
410             last_myvs.vid << "," << last_myvs.seqno << ")");
411     if (!insync || vid != vid_insync)
412         return rsm_protocol::BUSY;
413     if (stf && last != last_myvs)
414         r.state = stf->marshal_state();
415     r.last = last_myvs;
416     return rsm_protocol::OK;
417 }
418
419 //
420 // RPC handler: Inform the local node (the primary) that node m has synchronized
421 // for view vid
422 //
423 rsm_protocol::status rsm::transferdonereq(int &, const string & m, unsigned vid) {
424     lock ml(rsm_mutex);
425     if (!insync || vid != vid_insync)
426         return rsm_protocol::BUSY;
427     backups.erase(find(backups.begin(), backups.end(), m));
428     if (backups.empty())
429         sync_cond.notify_one();
430     return rsm_protocol::OK;
431 }
432
433 // a node that wants to join an RSM as a server sends a
434 // joinreq to the RSM's current primary; this is the
435 // handler for that RPC.
436 rsm_protocol::status rsm::joinreq(string & log, const string & m, viewstamp last) {
437     auto ret = rsm_protocol::OK;
438
439     lock ml(rsm_mutex);
440     LOG("join request from " << m << "; last=(" << last.vid << "," << last.seqno << "), mylast=(" <<
441             last_myvs.vid << "," << last_myvs.seqno << ")");
442     if (cfg->ismember(m, vid_commit)) {
443         LOG(m << " is still a member -- nothing to do");
444         log = cfg->dump();
445     } else if (cfg->myaddr() != primary) {
446         LOG("but I, " << cfg->myaddr() << ", am not the primary, " << primary << "!");
447         ret = rsm_protocol::BUSY;
448     } else {
449         // We cache vid_commit to avoid adding m to a view which already contains
450         // m due to race condition
451         LOG("calling down to config layer");
452         unsigned vid_cache = vid_commit;
453         bool succ;
454         {
455             ml.unlock();
456             succ = cfg->add(m, vid_cache);
457             ml.lock();
458         }
459         if (cfg->ismember(m, cfg->view_id())) {
460             log = cfg->dump();
461             LOG("ret " << ret << " log " << log);
462         } else {
463             LOG("failed; proposer couldn't add " << succ);
464             ret = rsm_protocol::BUSY;
465         }
466     }
467     return ret;
468 }
469
470 //
471 // RPC handler: Send back all the nodes this local knows about to client
472 // so the client can switch to a different primary
473 // when it existing primary fails
474 //
475 rsm_client_protocol::status rsm::client_members(vector<string> &r, int) {
476     vector<string> m;
477     lock ml(rsm_mutex);
478     cfg->get_view(vid_commit, m);
479     m.push_back(primary);
480     r = m;
481     LOG("return " << m << " m " << primary);
482     return rsm_client_protocol::OK;
483 }
484
485 // if primary is member of new view, that node is primary
486 // otherwise, the lowest number node of the previous view.
487 // caller should hold rsm_mutex
488 void rsm::set_primary(unsigned vid) {
489     vector<string> c, p;
490     cfg->get_view(vid, c);
491     cfg->get_view(vid - 1, p);
492     VERIFY (c.size() > 0);
493
494     if (isamember(primary,c)) {
495         LOG("set_primary: primary stays " << primary);
496         return;
497     }
498
499     VERIFY(p.size() > 0);
500     for (unsigned i = 0; i < p.size(); i++) {
501         if (isamember(p[i], c)) {
502             primary = p[i];
503             LOG("set_primary: primary is " << primary);
504             return;
505         }
506     }
507     VERIFY(0);
508 }
509
510 bool rsm::amiprimary() {
511     lock ml(rsm_mutex);
512     return primary == cfg->myaddr() && !inviewchange;
513 }
514
515
516 // Testing server
517
518 // Simulate partitions
519
520 // assumes caller holds rsm_mutex
521 void rsm::net_repair(bool heal, lock &) {
522     vector<string> m;
523     cfg->get_view(vid_commit, m);
524     for (unsigned i  = 0; i < m.size(); i++) {
525         if (m[i] != cfg->myaddr()) {
526             handle h(m[i]);
527             LOG("member " << m[i] << " " << heal);
528             if (h.safebind()) h.safebind()->set_reachable(heal);
529         }
530     }
531     rsmrpc->set_reachable(heal);
532 }
533
534 rsm_test_protocol::status rsm::test_net_repairreq(rsm_test_protocol::status &r, int heal) {
535     lock ml(rsm_mutex);
536     LOG("heal " << heal << " (dopartition " <<
537             dopartition << ", partitioned " << partitioned << ")");
538     if (heal) {
539         net_repair(heal, ml);
540         partitioned = false;
541     } else {
542         dopartition = true;
543         partitioned = false;
544     }
545     r = rsm_test_protocol::OK;
546     return r;
547 }
548
549 // simulate failure at breakpoint 1 and 2
550
551 void rsm::breakpoint1() {
552     if (break1) {
553         LOG("Dying at breakpoint 1 in rsm!");
554         exit(1);
555     }
556 }
557
558 void rsm::breakpoint2() {
559     if (break2) {
560         LOG("Dying at breakpoint 2 in rsm!");
561         exit(1);
562     }
563 }
564
565 void rsm::partition1(lock & rsm_mutex_lock) {
566     if (dopartition) {
567         net_repair(false, rsm_mutex_lock);
568         dopartition = false;
569         partitioned = true;
570     }
571 }
572
573 rsm_test_protocol::status rsm::breakpointreq(rsm_test_protocol::status &r, int b) {
574     r = rsm_test_protocol::OK;
575     lock ml(rsm_mutex);
576     LOG("breakpoint " << b);
577     if (b == 1) break1 = true;
578     else if (b == 2) break2 = true;
579     else if (b == 3 || b == 4) cfg->breakpoint(b);
580     else r = rsm_test_protocol::ERR;
581     return r;
582 }