Process monitor update events in block_[dis]connected asynchronously
[rust-lightning] / lightning / src / ln / reorg_tests.rs
index d960727dd86a69a18ad699ae0d29a7341ec90eb7..c666e603ebd90d5763039fbd1a26bc409ba1d72c 100644 (file)
@@ -9,7 +9,7 @@
 
 //! Further functional tests which test blockchain reorganizations.
 
-use ln::channelmonitor::ANTI_REORG_DELAY;
+use chain::channelmonitor::ANTI_REORG_DELAY;
 use ln::features::InitFeatures;
 use ln::msgs::{ChannelMessageHandler, ErrorAction, HTLCFailChannelUpdate};
 use util::events::{Event, EventsProvider, MessageSendEvent, MessageSendEventsProvider};
@@ -17,6 +17,7 @@ use util::events::{Event, EventsProvider, MessageSendEvent, MessageSendEventsPro
 use bitcoin::blockdata::block::{Block, BlockHeader};
 
 use std::default::Default;
+use std::mem;
 
 use ln::functional_test_utils::*;
 
@@ -61,7 +62,7 @@ fn do_test_onchain_htlc_reorg(local_commitment: bool, claim: bool) {
                check_spends!(node_1_commitment_txn[1], node_1_commitment_txn[0]);
 
                // Give node 2 node 1's transactions and get its response (claiming the HTLC instead).
-               nodes[2].block_notifier.block_connected(&Block { header, txdata: node_1_commitment_txn.clone() }, CHAN_CONFIRM_DEPTH + 1);
+               connect_block(&nodes[2], &Block { header, txdata: node_1_commitment_txn.clone() }, CHAN_CONFIRM_DEPTH + 1);
                check_added_monitors!(nodes[2], 1);
                check_closed_broadcast!(nodes[2], false); // We should get a BroadcastChannelUpdate (and *only* a BroadcstChannelUpdate)
                let node_2_commitment_txn = nodes[2].tx_broadcaster.txn_broadcasted.lock().unwrap();
@@ -72,7 +73,7 @@ fn do_test_onchain_htlc_reorg(local_commitment: bool, claim: bool) {
                check_spends!(node_2_commitment_txn[0], node_1_commitment_txn[0]);
 
                // Confirm node 1's commitment txn (and HTLC-Timeout) on node 1
-               nodes[1].block_notifier.block_connected(&Block { header, txdata: node_1_commitment_txn.clone() }, CHAN_CONFIRM_DEPTH + 1);
+               connect_block(&nodes[1], &Block { header, txdata: node_1_commitment_txn.clone() }, CHAN_CONFIRM_DEPTH + 1);
 
                // ...but return node 1's commitment tx in case claim is set and we're preparing to reorg
                vec![node_1_commitment_txn[0].clone(), node_2_commitment_txn[0].clone()]
@@ -85,7 +86,7 @@ fn do_test_onchain_htlc_reorg(local_commitment: bool, claim: bool) {
                check_spends!(node_2_commitment_txn[1], node_2_commitment_txn[0]);
 
                // Give node 1 node 2's commitment transaction and get its response (timing the HTLC out)
-               nodes[1].block_notifier.block_connected(&Block { header, txdata: vec![node_2_commitment_txn[0].clone()] }, CHAN_CONFIRM_DEPTH + 1);
+               connect_block(&nodes[1], &Block { header, txdata: vec![node_2_commitment_txn[0].clone()] }, CHAN_CONFIRM_DEPTH + 1);
                let node_1_commitment_txn = nodes[1].tx_broadcaster.txn_broadcasted.lock().unwrap();
                assert_eq!(node_1_commitment_txn.len(), 3); // ChannelMonitor: 1 offered HTLC-Timeout, ChannelManger: 1 local commitment tx, 1 Offered HTLC-Timeout
                assert_eq!(node_1_commitment_txn[1].output.len(), 2); // to-local and Offered HTLC (to-remote is dust)
@@ -94,7 +95,7 @@ fn do_test_onchain_htlc_reorg(local_commitment: bool, claim: bool) {
                check_spends!(node_1_commitment_txn[0], node_2_commitment_txn[0]);
 
                // Confirm node 2's commitment txn (and node 1's HTLC-Timeout) on node 1
-               nodes[1].block_notifier.block_connected(&Block { header, txdata: vec![node_2_commitment_txn[0].clone(), node_1_commitment_txn[0].clone()] }, CHAN_CONFIRM_DEPTH + 1);
+               connect_block(&nodes[1], &Block { header, txdata: vec![node_2_commitment_txn[0].clone(), node_1_commitment_txn[0].clone()] }, CHAN_CONFIRM_DEPTH + 1);
                // ...but return node 2's commitment tx (and claim) in case claim is set and we're preparing to reorg
                node_2_commitment_txn
        };
@@ -110,7 +111,7 @@ fn do_test_onchain_htlc_reorg(local_commitment: bool, claim: bool) {
                        header: BlockHeader { version: 0x20000000, prev_blockhash: block.block_hash(), merkle_root: Default::default(), time: 42, bits: 42, nonce: 42 },
                        txdata: vec![],
                };
-               nodes[1].block_notifier.block_connected(&block, i);
+               connect_block(&nodes[1], &block, i);
                blocks.push(block.clone());
        }
        check_added_monitors!(nodes[1], 0);
@@ -119,16 +120,16 @@ fn do_test_onchain_htlc_reorg(local_commitment: bool, claim: bool) {
        if claim {
                // Now reorg back to CHAN_CONFIRM_DEPTH and confirm node 2's broadcasted transactions:
                for (height, block) in (CHAN_CONFIRM_DEPTH + 1..CHAN_CONFIRM_DEPTH + ANTI_REORG_DELAY - 1).zip(blocks.iter()).rev() {
-                       nodes[1].block_notifier.block_disconnected(&block.header, height);
+                       disconnect_block(&nodes[1], &block.header, height);
                }
 
                block = Block {
                        header: BlockHeader { version: 0x20000000, prev_blockhash: Default::default(), merkle_root: Default::default(), time: 42, bits: 42, nonce: 42 },
                        txdata: claim_txn,
                };
-               nodes[1].block_notifier.block_connected(&block, CHAN_CONFIRM_DEPTH + 1);
+               connect_block(&nodes[1], &block, CHAN_CONFIRM_DEPTH + 1);
 
-               // ChannelManager only polls ManyChannelMonitor::get_and_clear_pending_monitor_events when we
+               // ChannelManager only polls chain::Watch::release_pending_monitor_events when we
                // probe it for events, so we probe non-message events here (which should still end up empty):
                assert_eq!(nodes[1].node.get_and_clear_pending_events().len(), 0);
        } else {
@@ -137,7 +138,7 @@ fn do_test_onchain_htlc_reorg(local_commitment: bool, claim: bool) {
                        header: BlockHeader { version: 0x20000000, prev_blockhash: block.block_hash(), merkle_root: Default::default(), time: 42, bits: 42, nonce: 42 },
                        txdata: vec![],
                };
-               nodes[1].block_notifier.block_connected(&block, CHAN_CONFIRM_DEPTH + ANTI_REORG_DELAY);
+               connect_block(&nodes[1], &block, CHAN_CONFIRM_DEPTH + ANTI_REORG_DELAY);
                expect_pending_htlcs_forwardable!(nodes[1]);
        }
 
@@ -180,3 +181,132 @@ fn test_onchain_htlc_claim_reorg_remote_commitment() {
 fn test_onchain_htlc_timeout_delay_remote_commitment() {
        do_test_onchain_htlc_reorg(false, false);
 }
+
+#[test]
+fn test_unconf_chan() {
+       // After creating a chan between nodes, we disconnect all blocks previously seen to force a channel close on nodes[0] side
+       let chanmon_cfgs = create_chanmon_cfgs(2);
+       let node_cfgs = create_node_cfgs(2, &chanmon_cfgs);
+       let node_chanmgrs = create_node_chanmgrs(2, &node_cfgs, &[None, None]);
+       let nodes = create_network(2, &node_cfgs, &node_chanmgrs);
+       create_announced_chan_between_nodes(&nodes, 0, 1, InitFeatures::known(), InitFeatures::known());
+
+       let channel_state = nodes[0].node.channel_state.lock().unwrap();
+       assert_eq!(channel_state.by_id.len(), 1);
+       assert_eq!(channel_state.short_to_id.len(), 1);
+       mem::drop(channel_state);
+
+       let mut headers = Vec::new();
+       let mut header = BlockHeader { version: 0x20000000, prev_blockhash: Default::default(), merkle_root: Default::default(), time: 42, bits: 42, nonce: 42 };
+       headers.push(header.clone());
+       for _i in 2..100 {
+               header = BlockHeader { version: 0x20000000, prev_blockhash: header.block_hash(), merkle_root: Default::default(), time: 42, bits: 42, nonce: 42 };
+               headers.push(header.clone());
+       }
+       while !headers.is_empty() {
+               nodes[0].node.block_disconnected(&headers.pop().unwrap());
+       }
+       check_closed_broadcast!(nodes[0], false);
+       nodes[0].node.test_process_background_events(); // Required to free the pending background monitor update
+       check_added_monitors!(nodes[0], 1);
+       let channel_state = nodes[0].node.channel_state.lock().unwrap();
+       assert_eq!(channel_state.by_id.len(), 0);
+       assert_eq!(channel_state.short_to_id.len(), 0);
+}
+
+#[test]
+fn test_set_outpoints_partial_claiming() {
+       // - remote party claim tx, new bump tx
+       // - disconnect remote claiming tx, new bump
+       // - disconnect tx, see no tx anymore
+       let chanmon_cfgs = create_chanmon_cfgs(2);
+       let node_cfgs = create_node_cfgs(2, &chanmon_cfgs);
+       let node_chanmgrs = create_node_chanmgrs(2, &node_cfgs, &[None, None]);
+       let nodes = create_network(2, &node_cfgs, &node_chanmgrs);
+
+       let chan = create_announced_chan_between_nodes_with_value(&nodes, 0, 1, 1000000, 59000000, InitFeatures::known(), InitFeatures::known());
+       let payment_preimage_1 = route_payment(&nodes[1], &vec!(&nodes[0])[..], 3_000_000).0;
+       let payment_preimage_2 = route_payment(&nodes[1], &vec!(&nodes[0])[..], 3_000_000).0;
+
+       // Remote commitment txn with 4 outputs: to_local, to_remote, 2 outgoing HTLC
+       let remote_txn = get_local_commitment_txn!(nodes[1], chan.2);
+       assert_eq!(remote_txn.len(), 3);
+       assert_eq!(remote_txn[0].output.len(), 4);
+       assert_eq!(remote_txn[0].input.len(), 1);
+       assert_eq!(remote_txn[0].input[0].previous_output.txid, chan.3.txid());
+       check_spends!(remote_txn[1], remote_txn[0]);
+       check_spends!(remote_txn[2], remote_txn[0]);
+
+       // Connect blocks on node A to advance height towards TEST_FINAL_CLTV
+       let prev_header_100 = connect_blocks(&nodes[1], 100, 0, false, Default::default());
+       // Provide node A with both preimage
+       nodes[0].node.claim_funds(payment_preimage_1, &None, 3_000_000);
+       nodes[0].node.claim_funds(payment_preimage_2, &None, 3_000_000);
+       check_added_monitors!(nodes[0], 2);
+       nodes[0].node.get_and_clear_pending_events();
+       nodes[0].node.get_and_clear_pending_msg_events();
+
+       // Connect blocks on node A commitment transaction
+       let header = BlockHeader { version: 0x20000000, prev_blockhash: prev_header_100, merkle_root: Default::default(), time: 42, bits: 42, nonce: 42 };
+       connect_block(&nodes[0], &Block { header, txdata: vec![remote_txn[0].clone()] }, 101);
+       check_closed_broadcast!(nodes[0], false);
+       check_added_monitors!(nodes[0], 1);
+       // Verify node A broadcast tx claiming both HTLCs
+       {
+               let mut node_txn = nodes[0].tx_broadcaster.txn_broadcasted.lock().unwrap();
+               // ChannelMonitor: claim tx, ChannelManager: local commitment tx + HTLC-Success*2
+               assert_eq!(node_txn.len(), 4);
+               check_spends!(node_txn[0], remote_txn[0]);
+               check_spends!(node_txn[1], chan.3);
+               check_spends!(node_txn[2], node_txn[1]);
+               check_spends!(node_txn[3], node_txn[1]);
+               assert_eq!(node_txn[0].input.len(), 2);
+               node_txn.clear();
+       }
+
+       // Connect blocks on node B
+       connect_blocks(&nodes[1], 135, 0, false, Default::default());
+       check_closed_broadcast!(nodes[1], false);
+       check_added_monitors!(nodes[1], 1);
+       // Verify node B broadcast 2 HTLC-timeout txn
+       let partial_claim_tx = {
+               let node_txn = nodes[1].tx_broadcaster.txn_broadcasted.lock().unwrap();
+               assert_eq!(node_txn.len(), 3);
+               check_spends!(node_txn[1], node_txn[0]);
+               check_spends!(node_txn[2], node_txn[0]);
+               assert_eq!(node_txn[1].input.len(), 1);
+               assert_eq!(node_txn[2].input.len(), 1);
+               node_txn[1].clone()
+       };
+
+       // Broadcast partial claim on node A, should regenerate a claiming tx with HTLC dropped
+       let header = BlockHeader { version: 0x20000000, prev_blockhash: header.block_hash(), merkle_root: Default::default(), time: 42, bits: 42, nonce: 42 };
+       connect_block(&nodes[0], &Block { header, txdata: vec![partial_claim_tx.clone()] }, 102);
+       {
+               let mut node_txn = nodes[0].tx_broadcaster.txn_broadcasted.lock().unwrap();
+               assert_eq!(node_txn.len(), 1);
+               check_spends!(node_txn[0], remote_txn[0]);
+               assert_eq!(node_txn[0].input.len(), 1); //dropped HTLC
+               node_txn.clear();
+       }
+       nodes[0].node.get_and_clear_pending_msg_events();
+
+       // Disconnect last block on node A, should regenerate a claiming tx with HTLC dropped
+       disconnect_block(&nodes[0], &header, 102);
+       {
+               let mut node_txn = nodes[0].tx_broadcaster.txn_broadcasted.lock().unwrap();
+               assert_eq!(node_txn.len(), 1);
+               check_spends!(node_txn[0], remote_txn[0]);
+               assert_eq!(node_txn[0].input.len(), 2); //resurrected HTLC
+               node_txn.clear();
+       }
+
+       //// Disconnect one more block and then reconnect multiple no transaction should be generated
+       disconnect_block(&nodes[0], &header, 101);
+       connect_blocks(&nodes[1], 15, 101, false, prev_header_100);
+       {
+               let mut node_txn = nodes[0].tx_broadcaster.txn_broadcasted.lock().unwrap();
+               assert_eq!(node_txn.len(), 0);
+               node_txn.clear();
+       }
+}