题意:在一个平面内有N个星星,每个星星都在一个亮度值,用一个W*H的矩形去围这些星星,(边上的不算) 求能得到的最大亮度值。
思路:想了很久一直不懂 只能看别人的解题报告 。。。。
原来只要转换一下,就能把其转换为求线段区间的最大值 每个星星所能影响的范围[(x,y),(x+w-1,y+h-1)]且有一权值 它们重合就表示 能被这个矩形框在一起,也就是说,只要求出重合的矩形的权值最大就行了。
以x从小到大排序,y值离散化,投影到y轴上,那么对于每个星星的纵坐标,y,y+h-1就是每个星星可以影响到的矩形 然后x,x+w-1就是一个进入事件和一个出去事件,其所带的值互为相反数. node[1].sum 保存当前的最大值 当所有的矩形都遍历一遍 取其中的最大值就是ans
#include <bits/stdc++.h> using namespace std; typedef long long ll; const int maxn=100010; struct node{ ll x,y1,y2,val; bool operator<(const node &b)const { if (x!=b.x) return x<b.x;else return val>b.val; } }a[maxn*2]; vector<int>v; struct node1{ ll l,r,sum,laz; }tree[maxn<<2]; void build(ll rt,ll l,ll r) { tree[rt].l = l; tree[rt].r = r; tree[rt].sum = tree[rt].laz = 0; if (l == r) return; ll mid = (l + r) >> 1; build(rt << 1, l, mid); build(rt << 1 | 1, mid + 1, r); } void push(int rt) { tree[rt << 1].sum += tree[rt].laz; tree[rt << 1 | 1].sum += tree[rt].laz; tree[rt << 1].laz += tree[rt].laz; tree[rt << 1 | 1].laz += tree[rt].laz; tree[rt].laz = 0; } void update(ll rt,ll l,ll r,ll k) { if (l == tree[rt].l && tree[rt].r == r) { tree[rt].laz += k; tree[rt].sum += k; return; } if (tree[rt].l == tree[rt].r) return; if (tree[rt].laz) push(rt); ll mid = (tree[rt].l + tree[rt].r) >> 1; if (r <= mid) update(rt << 1, l, r, k); else if (l > mid) update(rt << 1 | 1, l, r, k); else { update(rt << 1, l, mid, k); update(rt << 1 | 1, mid + 1, r, k); } tree[rt].sum = max(tree[rt << 1].sum, tree[rt << 1 | 1].sum); } int main() { ll n, w, h; while (~scanf("%lld%lld%lld", &n, &w, &h)) { v.clear(); for (int i = 0; i < n; i++) { scanf("%lld%lld%lld", &a[i].x, &a[i].y1, &a[i].val); v.push_back(a[i].y1); v.push_back(a[i].y1+h-1); a[i].y2 = a[i].y1 + h - 1; a[i + n] = a[i]; a[i + n].x = a[i].x + w - 1; a[i + n].val = -a[i].val; } sort(v.begin(),v.end()); sort(a, a + n * 2); ll cnt=unique(v.begin(),v.end())-v.begin(); v.erase(unique(v.begin(),v.end()),v.end()); build(1, 1, cnt); ll ans = 0; for (int i = 0; i < n * 2; i++) { int l=lower_bound(v.begin(),v.end(),a[i].y1)-v.begin()+1; int r=lower_bound(v.begin(),v.end(),a[i].y2)-v.begin()+1; update(1, l, r, a[i].val); ans = max(ans, tree[1].sum); } printf("%lld\n", ans); } }