7f76ea5b3d31c88a8401eac2ff0fdbd722ede5e2
[rust-lightning] / lightning / src / ln / reorg_tests.rs
1 // This file is Copyright its original authors, visible in version control
2 // history.
3 //
4 // This file is licensed under the Apache License, Version 2.0 <LICENSE-APACHE
5 // or http://www.apache.org/licenses/LICENSE-2.0> or the MIT license
6 // <LICENSE-MIT or http://opensource.org/licenses/MIT>, at your option.
7 // You may not use this file except in accordance with one or both of these
8 // licenses.
9
10 //! Further functional tests which test blockchain reorganizations.
11
12 use chain::channelmonitor::ANTI_REORG_DELAY;
13 use ln::features::InitFeatures;
14 use ln::msgs::{ChannelMessageHandler, ErrorAction, HTLCFailChannelUpdate};
15 use util::events::{Event, EventsProvider, MessageSendEvent, MessageSendEventsProvider};
16
17 use bitcoin::blockdata::block::{Block, BlockHeader};
18
19 use std::default::Default;
20
21 use ln::functional_test_utils::*;
22
23 fn do_test_onchain_htlc_reorg(local_commitment: bool, claim: bool) {
24         // Our on-chain HTLC-claim learning has a few properties worth testing:
25         //  * If an upstream HTLC is claimed with a preimage (both against our own commitment
26         //    transaction our counterparty's), we claim it backwards immediately.
27         //  * If an upstream HTLC is claimed with a timeout, we delay ANTI_REORG_DELAY before failing
28         //    it backwards to ensure our counterparty can't claim with a preimage in a reorg.
29         //
30         // Here we test both properties in any combination based on the two bools passed in as
31         // arguments.
32         //
33         // If local_commitment is set, we first broadcast a local commitment containing an offered HTLC
34         // and an HTLC-Timeout tx, otherwise we broadcast a remote commitment containing a received
35         // HTLC and a local HTLC-Timeout tx spending it.
36         //
37         // We then either allow these transactions to confirm (if !claim) or we wait until one block
38         // before they otherwise would and reorg them out, confirming an HTLC-Success tx instead.
39         let chanmon_cfgs = create_chanmon_cfgs(3);
40         let node_cfgs = create_node_cfgs(3, &chanmon_cfgs);
41         let node_chanmgrs = create_node_chanmgrs(3, &node_cfgs, &[None, None, None]);
42         let nodes = create_network(3, &node_cfgs, &node_chanmgrs);
43
44         create_announced_chan_between_nodes(&nodes, 0, 1, InitFeatures::known(), InitFeatures::known());
45         let chan_2 = create_announced_chan_between_nodes(&nodes, 1, 2, InitFeatures::known(), InitFeatures::known());
46
47         let (our_payment_preimage, our_payment_hash) = route_payment(&nodes[0], &[&nodes[1], &nodes[2]], 1000000);
48
49         // Provide preimage to node 2 by claiming payment
50         nodes[2].node.claim_funds(our_payment_preimage, &None, 1000000);
51         check_added_monitors!(nodes[2], 1);
52         get_htlc_update_msgs!(nodes[2], nodes[1].node.get_our_node_id());
53
54         let header = BlockHeader { version: 0x2000_0000, prev_blockhash: Default::default(), merkle_root: Default::default(), time: 42, bits: 42, nonce: 42 };
55         let claim_txn = if local_commitment {
56                 // Broadcast node 1 commitment txn to broadcast the HTLC-Timeout
57                 let node_1_commitment_txn = get_local_commitment_txn!(nodes[1], chan_2.2);
58                 assert_eq!(node_1_commitment_txn.len(), 2); // 1 local commitment tx, 1 Outbound HTLC-Timeout
59                 assert_eq!(node_1_commitment_txn[0].output.len(), 2); // to-self and Offered HTLC (to-remote/to-node-3 is dust)
60                 check_spends!(node_1_commitment_txn[0], chan_2.3);
61                 check_spends!(node_1_commitment_txn[1], node_1_commitment_txn[0]);
62
63                 // Give node 2 node 1's transactions and get its response (claiming the HTLC instead).
64                 connect_block(&nodes[2], &Block { header, txdata: node_1_commitment_txn.clone() }, CHAN_CONFIRM_DEPTH + 1);
65                 check_added_monitors!(nodes[2], 1);
66                 check_closed_broadcast!(nodes[2], false); // We should get a BroadcastChannelUpdate (and *only* a BroadcstChannelUpdate)
67                 let node_2_commitment_txn = nodes[2].tx_broadcaster.txn_broadcasted.lock().unwrap();
68                 assert_eq!(node_2_commitment_txn.len(), 3); // ChannelMonitor: 1 offered HTLC-Claim, ChannelManger: 1 local commitment tx, 1 Received HTLC-Claim
69                 assert_eq!(node_2_commitment_txn[1].output.len(), 2); // to-remote and Received HTLC (to-self is dust)
70                 check_spends!(node_2_commitment_txn[1], chan_2.3);
71                 check_spends!(node_2_commitment_txn[2], node_2_commitment_txn[1]);
72                 check_spends!(node_2_commitment_txn[0], node_1_commitment_txn[0]);
73
74                 // Confirm node 1's commitment txn (and HTLC-Timeout) on node 1
75                 connect_block(&nodes[1], &Block { header, txdata: node_1_commitment_txn.clone() }, CHAN_CONFIRM_DEPTH + 1);
76
77                 // ...but return node 1's commitment tx in case claim is set and we're preparing to reorg
78                 vec![node_1_commitment_txn[0].clone(), node_2_commitment_txn[0].clone()]
79         } else {
80                 // Broadcast node 2 commitment txn
81                 let node_2_commitment_txn = get_local_commitment_txn!(nodes[2], chan_2.2);
82                 assert_eq!(node_2_commitment_txn.len(), 2); // 1 local commitment tx, 1 Received HTLC-Claim
83                 assert_eq!(node_2_commitment_txn[0].output.len(), 2); // to-remote and Received HTLC (to-self is dust)
84                 check_spends!(node_2_commitment_txn[0], chan_2.3);
85                 check_spends!(node_2_commitment_txn[1], node_2_commitment_txn[0]);
86
87                 // Give node 1 node 2's commitment transaction and get its response (timing the HTLC out)
88                 connect_block(&nodes[1], &Block { header, txdata: vec![node_2_commitment_txn[0].clone()] }, CHAN_CONFIRM_DEPTH + 1);
89                 let node_1_commitment_txn = nodes[1].tx_broadcaster.txn_broadcasted.lock().unwrap();
90                 assert_eq!(node_1_commitment_txn.len(), 3); // ChannelMonitor: 1 offered HTLC-Timeout, ChannelManger: 1 local commitment tx, 1 Offered HTLC-Timeout
91                 assert_eq!(node_1_commitment_txn[1].output.len(), 2); // to-local and Offered HTLC (to-remote is dust)
92                 check_spends!(node_1_commitment_txn[1], chan_2.3);
93                 check_spends!(node_1_commitment_txn[2], node_1_commitment_txn[1]);
94                 check_spends!(node_1_commitment_txn[0], node_2_commitment_txn[0]);
95
96                 // Confirm node 2's commitment txn (and node 1's HTLC-Timeout) on node 1
97                 connect_block(&nodes[1], &Block { header, txdata: vec![node_2_commitment_txn[0].clone(), node_1_commitment_txn[0].clone()] }, CHAN_CONFIRM_DEPTH + 1);
98                 // ...but return node 2's commitment tx (and claim) in case claim is set and we're preparing to reorg
99                 node_2_commitment_txn
100         };
101         check_added_monitors!(nodes[1], 1);
102         check_closed_broadcast!(nodes[1], false); // We should get a BroadcastChannelUpdate (and *only* a BroadcstChannelUpdate)
103         let mut block = Block { header, txdata: vec![] };
104         let mut blocks = Vec::new();
105         blocks.push(block.clone());
106         // At CHAN_CONFIRM_DEPTH + 1 we have a confirmation count of 1, so CHAN_CONFIRM_DEPTH +
107         // ANTI_REORG_DELAY - 1 will give us a confirmation count of ANTI_REORG_DELAY - 1.
108         for i in CHAN_CONFIRM_DEPTH + 2..CHAN_CONFIRM_DEPTH + ANTI_REORG_DELAY - 1 {
109                 block = Block {
110                         header: BlockHeader { version: 0x20000000, prev_blockhash: block.block_hash(), merkle_root: Default::default(), time: 42, bits: 42, nonce: 42 },
111                         txdata: vec![],
112                 };
113                 connect_block(&nodes[1], &block, i);
114                 blocks.push(block.clone());
115         }
116         check_added_monitors!(nodes[1], 0);
117         assert_eq!(nodes[1].node.get_and_clear_pending_events().len(), 0);
118
119         if claim {
120                 // Now reorg back to CHAN_CONFIRM_DEPTH and confirm node 2's broadcasted transactions:
121                 for (height, block) in (CHAN_CONFIRM_DEPTH + 1..CHAN_CONFIRM_DEPTH + ANTI_REORG_DELAY - 1).zip(blocks.iter()).rev() {
122                         disconnect_block(&nodes[1], &block.header, height);
123                 }
124
125                 block = Block {
126                         header: BlockHeader { version: 0x20000000, prev_blockhash: Default::default(), merkle_root: Default::default(), time: 42, bits: 42, nonce: 42 },
127                         txdata: claim_txn,
128                 };
129                 connect_block(&nodes[1], &block, CHAN_CONFIRM_DEPTH + 1);
130
131                 // ChannelManager only polls chain::Watch::release_pending_monitor_events when we
132                 // probe it for events, so we probe non-message events here (which should still end up empty):
133                 assert_eq!(nodes[1].node.get_and_clear_pending_events().len(), 0);
134         } else {
135                 // Confirm the timeout tx and check that we fail the HTLC backwards
136                 block = Block {
137                         header: BlockHeader { version: 0x20000000, prev_blockhash: block.block_hash(), merkle_root: Default::default(), time: 42, bits: 42, nonce: 42 },
138                         txdata: vec![],
139                 };
140                 connect_block(&nodes[1], &block, CHAN_CONFIRM_DEPTH + ANTI_REORG_DELAY);
141                 expect_pending_htlcs_forwardable!(nodes[1]);
142         }
143
144         check_added_monitors!(nodes[1], 1);
145         // Which should result in an immediate claim/fail of the HTLC:
146         let htlc_updates = get_htlc_update_msgs!(nodes[1], nodes[0].node.get_our_node_id());
147         if claim {
148                 assert_eq!(htlc_updates.update_fulfill_htlcs.len(), 1);
149                 nodes[0].node.handle_update_fulfill_htlc(&nodes[1].node.get_our_node_id(), &htlc_updates.update_fulfill_htlcs[0]);
150         } else {
151                 assert_eq!(htlc_updates.update_fail_htlcs.len(), 1);
152                 nodes[0].node.handle_update_fail_htlc(&nodes[1].node.get_our_node_id(), &htlc_updates.update_fail_htlcs[0]);
153         }
154         commitment_signed_dance!(nodes[0], nodes[1], htlc_updates.commitment_signed, false, true);
155         if claim {
156                 expect_payment_sent!(nodes[0], our_payment_preimage);
157         } else {
158                 let events = nodes[0].node.get_and_clear_pending_msg_events();
159                 assert_eq!(events.len(), 1);
160                 if let MessageSendEvent::PaymentFailureNetworkUpdate { update: HTLCFailChannelUpdate::ChannelClosed { ref is_permanent, .. } } = events[0] {
161                         assert!(is_permanent);
162                 } else { panic!("Unexpected event!"); }
163                 expect_payment_failed!(nodes[0], our_payment_hash, false);
164         }
165 }
166
167 #[test]
168 fn test_onchain_htlc_claim_reorg_local_commitment() {
169         do_test_onchain_htlc_reorg(true, true);
170 }
171 #[test]
172 fn test_onchain_htlc_timeout_delay_local_commitment() {
173         do_test_onchain_htlc_reorg(true, false);
174 }
175 #[test]
176 fn test_onchain_htlc_claim_reorg_remote_commitment() {
177         do_test_onchain_htlc_reorg(false, true);
178 }
179 #[test]
180 fn test_onchain_htlc_timeout_delay_remote_commitment() {
181         do_test_onchain_htlc_reorg(false, false);
182 }