给定(a,b,c),将一个长度为n的序列({a_i})划分成若干个区间,定义一个区间的权值为(ax^2+bx+c)(x为区间数字和),求最小的权值之和,(nleq 1000000)。
解
显然设(f_i)表示划分前i个数的最小权值之和,不难有递推方程(其中s为a的前缀和)
(f_i=min_{0leq j<i}{f_j+a(s_i-s_j)^2+b(s_i-s_j)+c})
其斜率优化式为
(2as_is_j+f_i-as_i^2-bs_i-c=f_j+as_j^2-bs_j)
以((s_j,f_j+as_j^2-bs_j))为决策点集,其中横坐标单调递增,以(2as_i)为斜率,斜率单调递减,故我们只要用单调队列维护一个上凸壳,让答案在队首即可,时间复杂度(O(n)),记得开long long。
参考代码:
#include <iostream>
#include <cstdio>
#define il inline
#define ri register
#define Size 1000100
#define ll long long
using namespace std;
int T[Size],L,R;
ll dp[Size],y[Size],x[Size];
template<class free>il void read(free&);
int main(){
int n,a,b,c;
read(n),read(a),read(b),read(c);
for(int i(1);i<=n;++i)
read(x[i]),x[i]+=x[i-1];L=R=1;
for(int i(1);i<=n;++i){
while(L<R&&2*a*x[i]*(x[T[L+1]]-x[T[L]])<=(y[T[L+1]]-y[T[L]]))++L;
dp[i]=dp[T[L]]+(x[i]-x[T[L]])*(a*(x[i]-x[T[L]])+b)+c,y[i]=dp[i]+x[i]*(a*x[i]-b);
while(L<R&&(y[T[R]]-y[T[R-1]])*(x[i]-x[T[R]])<=(y[i]-y[T[R]])*(x[T[R]]-x[T[R-1]]))--R;
T[++R]=i;}printf("%lld",dp[n]);
return 0;
}template<class free>
il void read(free &x){
x&=0;ri char c;while(c=getchar(),c==' '||c=='
'||c=='
');
ri bool check(false);if(c=='-')check|=true,c=getchar();
while(c>='0'&&c<='9')x=(x<<1)+(x<<3)+(c^48),c=getchar();
if(check)x=-x;
}