Merge pull request #474 from TheBlueMatt/2020-02-htlc-updated-in-monitors
[rust-lightning] / lightning / src / ln / reorg_tests.rs
1 //! Further functional tests which test blockchain reorganizations.
2
3 use ln::channelmonitor::ANTI_REORG_DELAY;
4 use ln::features::InitFeatures;
5 use ln::msgs::{ChannelMessageHandler, ErrorAction, HTLCFailChannelUpdate};
6 use util::events::{Event, EventsProvider, MessageSendEvent, MessageSendEventsProvider};
7
8 use bitcoin::util::hash::BitcoinHash;
9 use bitcoin::blockdata::block::{Block, BlockHeader};
10
11 use std::default::Default;
12
13 use ln::functional_test_utils::*;
14
15 fn do_test_onchain_htlc_reorg(local_commitment: bool, claim: bool) {
16         // Our on-chain HTLC-claim learning has a few properties worth testing:
17         //  * If an upstream HTLC is claimed with a preimage (both against our own commitment
18         //    transaction our counterparty's), we claim it backwards immediately.
19         //  * If an upstream HTLC is claimed with a timeout, we delay ANTI_REORG_DELAY before failing
20         //    it backwards to ensure our counterparty can't claim with a preimage in a reorg.
21         //
22         // Here we test both properties in any combination based on the two bools passed in as
23         // arguments.
24         //
25         // If local_commitment is set, we first broadcast a local commitment containing an offered HTLC
26         // and an HTLC-Timeout tx, otherwise we broadcast a remote commitment containing a received
27         // HTLC and a local HTLC-Timeout tx spending it.
28         //
29         // We then either allow these transactions to confirm (if !claim) or we wait until one block
30         // before they otherwise would and reorg them out, confirming an HTLC-Success tx instead.
31         let node_cfgs = create_node_cfgs(3);
32         let node_chanmgrs = create_node_chanmgrs(3, &node_cfgs, &[None, None, None]);
33         let nodes = create_network(3, &node_cfgs, &node_chanmgrs);
34
35         create_announced_chan_between_nodes(&nodes, 0, 1, InitFeatures::supported(), InitFeatures::supported());
36         let chan_2 = create_announced_chan_between_nodes(&nodes, 1, 2, InitFeatures::supported(), InitFeatures::supported());
37
38         let (our_payment_preimage, our_payment_hash) = route_payment(&nodes[0], &[&nodes[1], &nodes[2]], 1000000);
39
40         // Provide preimage to node 2 by claiming payment
41         nodes[2].node.claim_funds(our_payment_preimage, 1000000);
42         check_added_monitors!(nodes[2], 1);
43         get_htlc_update_msgs!(nodes[2], nodes[1].node.get_our_node_id());
44
45         let mut headers = Vec::new();
46         let mut header = BlockHeader { version: 0x2000_0000, prev_blockhash: Default::default(), merkle_root: Default::default(), time: 42, bits: 42, nonce: 42 };
47         let claim_txn = if local_commitment {
48                 // Broadcast node 1 commitment txn to broadcast the HTLC-Timeout
49                 let node_1_commitment_txn = nodes[1].node.channel_state.lock().unwrap().by_id.get_mut(&chan_2.2).unwrap().channel_monitor().get_latest_local_commitment_txn();
50                 assert_eq!(node_1_commitment_txn.len(), 2); // 1 local commitment tx, 1 Outbound HTLC-Timeout
51                 assert_eq!(node_1_commitment_txn[0].output.len(), 2); // to-self and Offered HTLC (to-remote/to-node-3 is dust)
52                 check_spends!(node_1_commitment_txn[0], chan_2.3);
53                 check_spends!(node_1_commitment_txn[1], node_1_commitment_txn[0].clone());
54
55                 // Give node 2 node 1's transactions and get its response (claiming the HTLC instead).
56                 nodes[2].block_notifier.block_connected(&Block { header, txdata: node_1_commitment_txn.clone() }, CHAN_CONFIRM_DEPTH + 1);
57                 check_closed_broadcast!(nodes[2], false); // We should get a BroadcastChannelUpdate (and *only* a BroadcstChannelUpdate)
58                 let node_2_commitment_txn = nodes[2].tx_broadcaster.txn_broadcasted.lock().unwrap();
59                 assert_eq!(node_2_commitment_txn.len(), 3); // ChannelMonitor: 1 offered HTLC-Claim, ChannelManger: 1 local commitment tx, 1 Received HTLC-Claim
60                 assert_eq!(node_2_commitment_txn[1].output.len(), 2); // to-remote and Received HTLC (to-self is dust)
61                 check_spends!(node_2_commitment_txn[1], chan_2.3);
62                 check_spends!(node_2_commitment_txn[2], node_2_commitment_txn[1].clone());
63                 check_spends!(node_2_commitment_txn[0], node_1_commitment_txn[0]);
64
65                 // Confirm node 1's commitment txn (and HTLC-Timeout) on node 1
66                 nodes[1].block_notifier.block_connected(&Block { header, txdata: node_1_commitment_txn.clone() }, CHAN_CONFIRM_DEPTH + 1);
67
68                 // ...but return node 1's commitment tx in case claim is set and we're preparing to reorg
69                 vec![node_1_commitment_txn[0].clone(), node_2_commitment_txn[0].clone()]
70         } else {
71                 // Broadcast node 2 commitment txn
72                 let node_2_commitment_txn = nodes[2].node.channel_state.lock().unwrap().by_id.get_mut(&chan_2.2).unwrap().channel_monitor().get_latest_local_commitment_txn();
73                 assert_eq!(node_2_commitment_txn.len(), 2); // 1 local commitment tx, 1 Received HTLC-Claim
74                 assert_eq!(node_2_commitment_txn[0].output.len(), 2); // to-remote and Received HTLC (to-self is dust)
75                 check_spends!(node_2_commitment_txn[0], chan_2.3);
76                 check_spends!(node_2_commitment_txn[1], node_2_commitment_txn[0].clone());
77
78                 // Give node 1 node 2's commitment transaction and get its response (timing the HTLC out)
79                 nodes[1].block_notifier.block_connected(&Block { header, txdata: vec![node_2_commitment_txn[0].clone()] }, CHAN_CONFIRM_DEPTH + 1);
80                 let node_1_commitment_txn = nodes[1].tx_broadcaster.txn_broadcasted.lock().unwrap();
81                 assert_eq!(node_1_commitment_txn.len(), 3); // ChannelMonitor: 1 offered HTLC-Timeout, ChannelManger: 1 local commitment tx, 1 Offered HTLC-Timeout
82                 assert_eq!(node_1_commitment_txn[1].output.len(), 2); // to-local and Offered HTLC (to-remote is dust)
83                 check_spends!(node_1_commitment_txn[1], chan_2.3);
84                 check_spends!(node_1_commitment_txn[2], node_1_commitment_txn[1].clone());
85                 check_spends!(node_1_commitment_txn[0], node_2_commitment_txn[0]);
86
87                 // Confirm node 2's commitment txn (and node 1's HTLC-Timeout) on node 1
88                 nodes[1].block_notifier.block_connected(&Block { header, txdata: vec![node_2_commitment_txn[0].clone(), node_1_commitment_txn[0].clone()] }, CHAN_CONFIRM_DEPTH + 1);
89                 // ...but return node 2's commitment tx (and claim) in case claim is set and we're preparing to reorg
90                 node_2_commitment_txn
91         };
92         check_closed_broadcast!(nodes[1], false); // We should get a BroadcastChannelUpdate (and *only* a BroadcstChannelUpdate)
93         headers.push(header.clone());
94         // At CHAN_CONFIRM_DEPTH + 1 we have a confirmation count of 1, so CHAN_CONFIRM_DEPTH +
95         // ANTI_REORG_DELAY - 1 will give us a confirmation count of ANTI_REORG_DELAY - 1.
96         for i in CHAN_CONFIRM_DEPTH + 2..CHAN_CONFIRM_DEPTH + ANTI_REORG_DELAY - 1 {
97                 header = BlockHeader { version: 0x20000000, prev_blockhash: header.bitcoin_hash(), merkle_root: Default::default(), time: 42, bits: 42, nonce: 42 };
98                 nodes[1].block_notifier.block_connected_checked(&header, i, &vec![], &[0; 0]);
99                 headers.push(header.clone());
100         }
101         check_added_monitors!(nodes[1], 0);
102         assert_eq!(nodes[1].node.get_and_clear_pending_events().len(), 0);
103
104         if claim {
105                 // Now reorg back to CHAN_CONFIRM_DEPTH and confirm node 2's broadcasted transactions:
106                 for (height, header) in (CHAN_CONFIRM_DEPTH + 1..CHAN_CONFIRM_DEPTH + ANTI_REORG_DELAY - 1).zip(headers.iter()).rev() {
107                         nodes[1].block_notifier.block_disconnected(&header, height);
108                 }
109
110                 header = BlockHeader { version: 0x20000000, prev_blockhash: Default::default(), merkle_root: Default::default(), time: 42, bits: 42, nonce: 42 };
111                 nodes[1].block_notifier.block_connected(&Block { header, txdata: claim_txn }, CHAN_CONFIRM_DEPTH + 1);
112
113                 // ChannelManager only polls ManyChannelMonitor::get_and_clear_pending_htlcs_updated when we
114                 // probe it for events, so we probe non-message events here (which should still end up empty):
115                 assert_eq!(nodes[1].node.get_and_clear_pending_events().len(), 0);
116         } else {
117                 // Confirm the timeout tx and check that we fail the HTLC backwards
118                 header = BlockHeader { version: 0x20000000, prev_blockhash: header.bitcoin_hash(), merkle_root: Default::default(), time: 42, bits: 42, nonce: 42 };
119                 nodes[1].block_notifier.block_connected_checked(&header, CHAN_CONFIRM_DEPTH + ANTI_REORG_DELAY, &vec![], &[0; 0]);
120                 expect_pending_htlcs_forwardable!(nodes[1]);
121         }
122
123         check_added_monitors!(nodes[1], 1);
124         // Which should result in an immediate claim/fail of the HTLC:
125         let htlc_updates = get_htlc_update_msgs!(nodes[1], nodes[0].node.get_our_node_id());
126         if claim {
127                 assert_eq!(htlc_updates.update_fulfill_htlcs.len(), 1);
128                 nodes[0].node.handle_update_fulfill_htlc(&nodes[1].node.get_our_node_id(), &htlc_updates.update_fulfill_htlcs[0]);
129         } else {
130                 assert_eq!(htlc_updates.update_fail_htlcs.len(), 1);
131                 nodes[0].node.handle_update_fail_htlc(&nodes[1].node.get_our_node_id(), &htlc_updates.update_fail_htlcs[0]);
132         }
133         commitment_signed_dance!(nodes[0], nodes[1], htlc_updates.commitment_signed, false, true);
134         if claim {
135                 expect_payment_sent!(nodes[0], our_payment_preimage);
136         } else {
137                 let events = nodes[0].node.get_and_clear_pending_msg_events();
138                 assert_eq!(events.len(), 1);
139                 if let MessageSendEvent::PaymentFailureNetworkUpdate { update: HTLCFailChannelUpdate::ChannelClosed { ref is_permanent, .. } } = events[0] {
140                         assert!(is_permanent);
141                 } else { panic!("Unexpected event!"); }
142                 expect_payment_failed!(nodes[0], our_payment_hash, false);
143         }
144 }
145
146 #[test]
147 fn test_onchain_htlc_claim_reorg_local_commitment() {
148         do_test_onchain_htlc_reorg(true, true);
149 }
150 #[test]
151 fn test_onchain_htlc_timeout_delay_local_commitment() {
152         do_test_onchain_htlc_reorg(true, false);
153 }
154 #[test]
155 fn test_onchain_htlc_claim_reorg_remote_commitment() {
156         do_test_onchain_htlc_reorg(false, true);
157 }
158 #[test]
159 fn test_onchain_htlc_timeout_delay_remote_commitment() {
160         do_test_onchain_htlc_reorg(false, false);
161 }