Willem, Chtholly and Seniorious(珂朵莉树)

小时候听说过珂朵莉树的大名,奈何当时没有专业知识看不懂。最近正好想起来了,来补上这个遗憾。

珂朵莉树(Chtholly Tree)又叫老司机树(ODT ,Old Driver Tree)。多年前,一位用户 Old Driver 在通过本题 Willem, Chtholly and Seniorious 时给出了不同于线段树的暴力解法,也就是今天的 ODT 。它以 s e t set set 为容器,使用 s p l i t split split 和 a s s ♂ i g n ass♂ign ass♂ign 两个核心函数,以及极其暴力的思想来实现。思路清晰简单,码量少(相对于线段树)。

不过珂朵莉树还是很容易卡掉的,在面对随机数据和优化一些东西的时候才比较不容易被卡。不过这个好写确实是好写,有时间可以看看 不会花太多时间的 。

珂朵莉树讲解


梦的开始 珂朵莉树板题

这个题由于是使用随机数据生成器来生成数据,所以数据和操作都是随机的,有 1 4 \frac14 41 的概率会将区间直接赋值为一个数,正好对应 a s s i g n assign assign 函数可以把区间合并成一个点的功能,大大降低时间复杂度。因此可以使用珂朵莉树。

code:

三个注意点:

一:

val 定义时需要使用 mutable 来修饰,表示是可变的数据,不然一些版本会报错:
[Error] assignment of member 'ODT::Node::val' in read-only object

(我估计应该是)一些版本不允许迭代器直接修改参数值,也就是迭代器有 const 属性

二:

讲解的博客中也提到了,SIT it2=split(r+1),it1=split(l);中顺序不应改变,先 split(r+1),再 split(l)。否则如果 l l l 和 r + 1 r+1 r+1 在同一个节点上,就会导致 split(l) 指向的节点被删掉,迭代器失效。

一般来说,如果删除的是set中迭代器指向的元素,那么这个迭代器将会失效。如果删除的是其他元素,通常来说,set中的其他迭代器应该保持有效。但是注意,进行容器修改操作后,所有迭代器都可能失效,迭代器失效通常与容器的结构变化有关。

三:

build() 函数中的 s.insert(Node(n+1,n+1,0)); 语句应当尽量写上。否则当 split(n+1) 的时候就会加入两个节点,范围分别是 [ l , n ] , [ n + 1 , n ] [l,n],[n+1,n] [l,n],[n+1,n]。

而且加入这个语句后,s.lower_bound() 一定不会访问到 s.end() 可以少写点判断代码。

cpp 复制代码
#include <iostream>
#include <cstdio>
#include <set>
#include <vector>
#include <algorithm>
using namespace std;

const int maxn=1e5+5;
typedef long long ll;

ll n,m,seed,vm;

ll rnd(){
	ll ret=seed;
	seed=(7ll*seed+13)%1000000007ll;
	return ret;
}

ll qpow(ll a,ll b,ll mod){
	ll ans=1,base=a;
	while(b){
		if(b&1){
			ans*=base;
			ans%=mod;
		}
		base*=base;
		base%=mod;
		b>>=1;
	}
	return ans;
}

struct ODT{
	#define SIT set<Node>::iterator
	struct Node{
		int l,r;
		mutable ll val;
		Node(int l,int r=-1,ll val=0):l(l),r(r),val(val){};
		bool operator<(const Node x)const{
			return l<x.l;
		}
	};
	set<Node> s;
	
	void build(int n){
		for(int i=1;i<=n;i++)
			s.insert(Node(i,i,rnd()%vm+1));
		s.insert(Node(n+1,n+1,0));
	}
	SIT split(int pos){
		SIT it=s.lower_bound(Node(pos));
		if(it!=s.end() && it->l==pos){
			return it;
		}
		it--;
		int l=it->l,r=it->r;
		ll val=it->val;
		s.erase(it);
		s.insert(Node(l,pos-1,val));
		return s.insert(Node(pos,r,val)).first;
	}
	void assign(int l,int r,ll x){
		SIT it2=split(r+1),it1=split(l);
		s.erase(it1,it2);
		s.insert(Node(l,r,x));
	}
	void add(int l,int r,ll x){
		SIT it2=split(r+1),it1=split(l);
		for(;it1!=it2;it1++)
			it1->val+=x;
	}
	ll rk(int l,int r,ll k){
		SIT it2=split(r+1),it1=split(l);
		vector<pair<ll,int> > t;
		t.clear();
		for(;it1!=it2;it1++)
			t.push_back(pair<ll,int>(it1->val,it1->r-it1->l+1));
		sort(t.begin(),t.end());
		for(auto x:t){
			if(x.second>=k)return x.first;
			else k-=x.second;
		}
	}
	ll pw(int l,int r,ll x,ll mod){
		SIT it2=split(r+1),it1=split(l);
		ll ans=0;
		for(;it1!=it2;it1++){
			ans=(ans+1ll*(it1->r-it1->l+1)*qpow(it1->val%mod,x,mod)%mod)%mod;
		}
		return ans;
	}
	
	void print(){
		for(auto x:s){
			printf("[%d,%d] val=%d\n",x.l,x.r,x.val);
		}
		puts("");
	}
	
	#undef SIT
}tr;

int main(){
	cin>>n>>m>>seed>>vm;
	tr.build(n);
//	tr.print();
	
	for(int i=1;i<=m;i++){
		ll op,l,r,x,y;
		op=rnd()%4+1;
		l=rnd()%n+1;
		r=rnd()%n+1;
		
		if(l>r)swap(l,r);
		if(op==3)x=rnd()%(r-l+1)+1;
		else x=rnd()%vm+1;
		if(op==4)y=rnd()%vm+1;
		
		if(op==1){
			tr.add(l,r,x);
		}
		else if(op==2){
			tr.assign(l,r,x);
		}
		else if(op==3){
			cout<<tr.rk(l,r,x)<<endl;
		}
		else {
			cout<<tr.pw(l,r,x,y)<<endl;
		}
//		tr.print();
	}
	
	return 0;
}
相关推荐
羊小猪~~1 分钟前
神经网络基础--什么是正向传播??什么是方向传播??
人工智能·pytorch·python·深度学习·神经网络·算法·机器学习
软工菜鸡27 分钟前
预训练语言模型BERT——PaddleNLP中的预训练模型
大数据·人工智能·深度学习·算法·语言模型·自然语言处理·bert
南宫生29 分钟前
贪心算法习题其三【力扣】【算法学习day.20】
java·数据结构·学习·算法·leetcode·贪心算法
AI视觉网奇1 小时前
sklearn 安装使用笔记
人工智能·算法·sklearn
JingHongB1 小时前
代码随想录算法训练营Day55 | 图论理论基础、深度优先搜索理论基础、卡玛网 98.所有可达路径、797. 所有可能的路径、广度优先搜索理论基础
算法·深度优先·图论
weixin_432702261 小时前
代码随想录算法训练营第五十五天|图论理论基础
数据结构·python·算法·深度优先·图论
小冉在学习1 小时前
day52 图论章节刷题Part04(110.字符串接龙、105.有向图的完全可达性、106.岛屿的周长 )
算法·深度优先·图论
Repeat7151 小时前
图论基础--孤岛系列
算法·深度优先·广度优先·图论基础
小冉在学习1 小时前
day53 图论章节刷题Part05(并查集理论基础、寻找存在的路径)
java·算法·图论
武子康2 小时前
大数据-212 数据挖掘 机器学习理论 - 无监督学习算法 KMeans 基本原理 簇内误差平方和
大数据·人工智能·学习·算法·机器学习·数据挖掘