很多题解都是简单带过,所以打算自己写一篇,顺便也加深自己理解
前置知识:线段树、线段树维护最大字段和、二维坐标离散化
题解:
1.很容易想到我们需要枚举所有子矩阵来得到一个最大子矩阵,所以我们的任务是 “枚举所有子矩阵”,
二维前缀和暴力枚举达到O(n^4), DP结合前缀和枚举也需要O(n^3),然而我们的时间需要更少.
2.可以看到坐标范围为 -10^9~10^,但是点 n<=2000个,所以我们需要先将点 离散化。
3.将点 按y轴高度排序,枚举矩阵的上下界,这将达到O(n^2)了。
4.最重点的一步,将矩阵内的点 加入线段树维护。下面解释下这一步。
首先假设我们枚举的这一个矩阵的 上界为 up ,下界为 down ,目前的矩阵的宽度就已经知道是 up-down。
所以现在我们剩下的任务就是“枚举矩阵宽度” 来达到 “枚举宽度为up-down的所有子矩阵,找出宽度为up-down的最大子矩阵”。
我们宽度已知,所有要枚举也就是长度,这样我们可以把 “矩阵压缩称为一条线”。
这时候线段树的功能就能解决这个问题了。
用线段树来维护最大字段和,其实维护的是 “宽度为up-down”的最大矩阵和。
这样我们的时间复杂度就可以达到O(n^2 logn)了。
记得每次改变下界的时候要初始化线段树,关于这个初始化代码中还有一个小技巧,差不多减少了1.5s左右的时间。
#include <bits/stdc++.h> using namespace std; typedef double dou; typedef long long ll; typedef pair<int, int> pii; typedef map<int, int> mii; #define pai acos(-1.0) #define M 4005 #define inf 0x3f3f3f3f #define mod 1000000007 #define IN inline #define left k<<1 #define right k<<1|1 #define lson L, mid, left #define rson mid + 1, R, right #define W(a) while(a) #define lowbit(a) a&(-a) #define ms(a,b) memset(a,b,sizeof(a)) #define Abs(a) (a ^ (a >> 31)) - (a >> 31) #define false_stdio ios::sync_with_stdio(false),cin.tie(0),cout.tie(0) int T, n; ll vx[M], vy[M]; ll xlen, ylen, pos, ans; struct Data { int x, y, val; bool operator <(Data& t) { return y < t.y; } }node[M]; struct Data_t { ll sum; ll Lmax, Rmax, Max; }tree[M << 2]; IN void Updata(int L, int R, int k, int id,int add) { if (L == R) { tree[k].sum += (ll)add; tree[k].Lmax = tree[k].Rmax = tree[k].Max = tree[k].sum; return; } int mid = L + R >> 1; if (id <= mid)Updata(lson, id, add); else Updata(rson, id, add); //维护最大字段和 tree[k].sum = tree[left].sum + tree[right].sum; tree[k].Lmax = max(tree[left].Lmax, tree[left].sum + tree[right].Lmax); tree[k].Rmax = max(tree[right].Rmax, tree[right].sum + tree[left].Rmax); tree[k].Max = max(max(tree[left].Max, tree[right].Max), tree[left].Rmax + tree[right].Lmax); } int main() { false_stdio; cin >> T; W(T--) { cin >> n; for (int i = 1; i <= n; i++) { cin >> node[i].x >> node[i].y >> node[i].val; vx[i] = node[i].x, vy[i] = node[i].y; } //二维坐标离散化 sort(vx + 1, vx + n + 1); sort(vy + 1, vy + n + 1); xlen = unique(vx + 1, vx + n + 1) - vx - 1; ylen = unique(vy + 1, vy + n + 1) - vy - 1; for (int i = 1; i <= n; i++) { node[i].x = lower_bound(vx + 1, vx + xlen + 1, node[i].x) - vx; node[i].y = lower_bound(vy + 1, vy + ylen + 1, node[i].y) - vy; } sort(node + 1, node + n + 1); ans = 0; //首先枚举下界 for (int dw = 1; dw <= ylen; dw++) { pos = 1; memset(tree, 0, (xlen * 4 + 5) * sizeof(Data_t));//初始化线段树,离散化完有多少个点就初始化多大 W(node[pos].y < dw && pos <= n)pos++;//直接跳过小于下界的点 for (int up = dw; up <= ylen; up++) {//枚举上界 W(pos <= n && node[pos].y <= up) {//将上界与下届之间的点加入线段树中 Updata(1, xlen, 1, node[pos].x, node[pos].val); pos++; } ans = max(ans, tree[1].Max); } } cout << ans << endl; } return 0; }