跳转至

ST 表

定义

ST 表示意图

ST 表(Sparse Table,稀疏表)是用于解决 可重复贡献问题 的数据结构。

什么是可重复贡献问题?

可重复贡献问题 是指对于运算 opt,满足 xoptx=x,则对应的区间询问就是一个可重复贡献问题。例如,最大值有 max(x,x)=x,gcd 有 gcd(x,x)=x,所以 RMQ 和区间 GCD 就是一个可重复贡献问题。像区间和就不具有这个性质,如果求区间和的时候采用的预处理区间重叠了,则会导致重叠部分被计算两次,这是我们所不愿意看到的。另外,opt 还必须满足结合律才能使用 ST 表求解。

什么是 RMQ?

RMQ 是英文 Range Maximum/Minimum Query 的缩写,表示区间最大(最小)值。解决 RMQ 问题有很多种方法,可以参考 RMQ 专题

引入

Luogu P3865【模板】ST 表 & RMQ 问题

给定 n1n105)个整数,有 m1m2×106)个询问,对于每个询问,你需要回答区间 [l,r] 中的最大值。

考虑暴力做法。每次都对区间 [l,r] 扫描一遍,求出最大值。

显然,这个算法会超时。

ST 表

ST 表基于 倍增 思想,可以做到 Θ(nlogn) 预处理,Θ(1) 回答每个询问。但是不支持修改操作。

基于倍增思想,我们考虑如何求出区间最大值。可以发现,如果按照一般的倍增流程,每次跳 2i 步的话,询问时的复杂度仍旧是 Θ(logn),并没有比线段树更优,反而预处理一步还比线段树慢。

我们发现 max(x,x)=x,也就是说,区间最大值是一个具有「可重复贡献」性质的问题。即使用来求解的预处理区间有重叠部分,只要这些区间的并是所求的区间,最终计算出的答案就是正确的。

如果手动模拟一下,可以发现我们能使用至多两个预处理过的区间来覆盖询问区间,也就是说询问时的时间复杂度可以被降至 Θ(1),在处理有大量询问的题目时十分有效。

具体实现如下:

f(i,j) 表示区间 [i,i+2j1] 的最大值。

显然 f(i,0)=ai

根据定义式,第二维就相当于倍增的时候「跳了 2j1 步」,依据倍增的思路,写出状态转移方程:f(i,j)=max(f(i,j1),f(i+2j1,j1))

以上就是预处理部分。而对于查询,可以简单实现如下:

对于每个询问 [l,r],我们把它分成两部分:[l,l+2s1][r2s+1,r],其中 s=log2(rl+1)。两部分的结果的最大值就是回答。

ST 表的查询过程

根据上面对于「可重复贡献问题」的论证,由于最大值是「可重复贡献问题」,重叠并不会对区间最大值产生影响。又因为这两个区间完全覆盖了 [l,r],可以保证答案的正确性。

Luogu P3865【模板】ST 表 & RMQ 问题 参考实现
 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
#include <algorithm>
#include <iostream>
using namespace std;
constexpr int N = 100000 + 5;
constexpr int logN = 16;  // ⌊ log_2 N ⌋
int f[logN + 1][N], Logn[N];

// 初始化对数值
void pre() {
  Logn[2] = 1;
  for (int i = 3; i < N; i++) {
    Logn[i] = Logn[i / 2] + 1;
  }
}

int main() {
  cin.tie(nullptr)->sync_with_stdio(false);
  pre();
  int n, m;
  cin >> n >> m;
  for (int i = 1; i <= n; i++) cin >> f[0][i];
  for (int j = 1; j <= logN; j++)
    for (int i = 1; i + (1 << j) - 1 <= n; i++)
      f[j][i] = max(f[j - 1][i], f[j - 1][i + (1 << (j - 1))]);  // ST表具体实现
  for (int i = 1; i <= m; i++) {
    int x, y;
    cin >> x >> y;
    int s = Logn[y - x + 1];
    cout << max(f[s][x], f[s][y - (1 << s) + 1]) << '\n';
  }
  return 0;
}
 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
#include <algorithm>
#include <functional>
#include <iostream>
#include <vector>
#if defined(_MSC_VER) && !defined(__clang__)
#include <immintrin.h>
#define __builtin_clz _lzcnt_u32
#endif
using namespace std;

// 使用内建函数计算 ⌊ log_2 x ⌋
int lg2(int x) { return 31 - __builtin_clz(x); }

template <typename T>
class SparseTable {
  using VT = vector<T>;
  using VVT = vector<VT>;
  using func_type = function<T(const T &, const T &)>;

  VVT ST;

  static T default_func(const T &t1, const T &t2) { return max(t1, t2); }

  func_type op;

 public:
  SparseTable(const vector<T> &v, func_type _func = default_func) {
    op = _func;
    int n = v.size(), l = lg2(n);
    ST.assign(l + 1, VT(n, 0));
    for (int i = 0; i < n; ++i) {
      ST[0][i] = v[i];
    }
    for (int j = 1; j <= l; ++j) {
      for (int i = 0; i + (1 << j) <= n; ++i) {
        ST[j][i] = op(ST[j - 1][i], ST[j - 1][i + (1 << (j - 1))]);
      }
    }
  }

  T query(int l, int r) {
    int q = lg2(r - l + 1);
    return op(ST[q][l], ST[q][r - (1 << q) + 1]);
  }
};

int main() {
  cin.tie(nullptr)->sync_with_stdio(false);
  int n, m;
  cin >> n >> m;
  vector<int> a(n);
  for (int &i : a) cin >> i;
  SparseTable<int> st(a);
  for (int i = 1; i <= m; ++i) {
    int x, y;
    cin >> x >> y;
    cout << st.query(x - 1, y - 1) << '\n';
  }
  return 0;
}
 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
import sys

input = sys.stdin.readline


class SparseTable:
    def __init__(self, arr: list, func=min):
        self.func = func
        self.n = len(arr)
        self.log = [0] * (self.n + 1)

        for i in range(2, self.n + 1):
            self.log[i] = self.log[i // 2] + 1

        self.k = self.log[self.n]
        self.st = [[0] * (self.n) for _ in range(self.k + 1)]
        self.st[0] = arr

        for j in range(1, self.k + 1):
            i = 0
            while i + (1 << j) <= self.n:
                self.st[j][i] = self.func(
                    self.st[j - 1][i], self.st[j - 1][i + (1 << (j - 1))]
                )
                i += 1

    def query(self, left: int, right: int):
        j = self.log[right - left + 1]
        return self.func(self.st[j][left], self.st[j][right - (1 << j) + 1])


n, m = map(int, input().split())
a = list(map(int, input().split()))
st = SparseTable(a, max)
for _ in range(m):
    left, right = map(int, input().split())
    print(st.query(left - 1, right - 1))

注意点

  1. 输入输出数据一般很多,建议开启输入输出优化。

  2. 在预处理 ST 表时通常需要建立一个一维大小为 logn,另一维大小为 n 的数组,此时应优先让大小为 logn 的维度作为第一维,以提升缓存局部性。

  3. 每次用 std::log 重新计算对数函数值并不值得,建议利用 __builtin_clz__lg 等内建函数进行计算。如无法利用这些内建函数,也可以预处理对数函数值。预处理方式如下所示:

{Logn[1]0,Logn[i]Logn[i2]+1.

ST 表维护其他信息

除 RMQ 以外,还有其它的「可重复贡献问题」。例如「区间按位与」、「区间按位或」、「区间 GCD」,ST 表都能高效地解决。

需要注意的是,对于「区间 GCD」,ST 表的查询复杂度并没有比线段树更优(令值域为 w,ST 表的查询复杂度为 Θ(logw),而线段树为 Θ(logn+logw),且值域一般是大于 n 的),但是 ST 表的预处理复杂度也没有比线段树更劣,而编程复杂度方面 ST 表比线段树简单很多。

如果分析一下,「可重复贡献问题」一般都带有某种类似 RMQ 的成分。例如「区间按位与」就是每一位取最小值,而「区间 GCD」则是每一个质因数的指数取最小值。

总结

ST 表能较好的维护「可重复贡献」的区间信息(同时也应满足结合律),时间复杂度较低,代码量相对其他算法很小。但是,ST 表能维护的信息非常有限,不能较好地扩展,并且不支持修改操作。

习题

附录:ST 表求区间 GCD 的时间复杂度分析

在算法运行的时候,可能要经过 Θ(logn) 次迭代。每一次迭代都可能会使用 GCD 函数进行递归,令值域为 w,GCD 函数的时间复杂度最高是 Ω(logw) 的,所以总时间复杂度看似有 O(nlognlogw)

但是,在 GCD 的过程中,每一次递归(除最后一次递归之外)都会使数列中的某个数至少减半,而数列中的数最多减半的次数为 log2(wn)=Θ(nlogw),所以,GCD 的递归部分最多只会运行 O(nlogw) 次。再加上循环部分(以及最后一层递归)的 Θ(nlogn),最终时间复杂度则是 O(n(logw+logn)),由于可以构造数据使得时间复杂度为 Ω(n(logw+logn)),所以最终的时间复杂度即为 Θ(n(logw+logn))

而查询部分的时间复杂度很好分析,考虑最劣情况,即每次询问都询问最劣的一对数,时间复杂度为 Θ(logw)。因此,ST 表维护「区间 GCD」的时间复杂度为预处理 Θ(n(logn+logw)),单次查询 Θ(logw)

线段树的相应操作是预处理 Θ(nlogw),单次查询 Θ(logn+logw)

这并不是一个严谨的数学论证,更为严谨的附在下方:

更严谨的证明

理解本段,可能需要具备 时间复杂度 的关于「势能分析法」的知识。

先分析预处理部分的时间复杂度:

设「待考虑数列」为在预处理 ST 表的时候当前层循环的数列。例如,第零层的数列就是原数列,第一层的数列就是第零层的数列经过一次迭代之后的数列,即 st[1..n][1],我们将其记为 A

而势能函数就定义为「待考虑数列」中所有数的累乘的以二为底的对数。即:Φ(A)=log2(i=1nAi)

在一次迭代中,所花费的时间相当于迭代循环所花费的时间与 GCD 所花费的时间之和。其中,GCD 花费的时间有长有短。最短可能只有两次甚至一次递归,而最长可能有 O(logw) 次递归。但是,GCD 过程中,除最开头一层与最末一层以外,每次递归都会使「待考虑数列」中的某个结果至少减半。即,Φ(A) 会减少至少 1,该层递归所用的时间可以被势能函数均摊。

同时,我们可以看到,Φ(A) 的初值最大为 log2(wn)=Θ(nlogw),而 Φ(A) 不增。所以,ST 表预处理部分的时间复杂度为 O(n(logw+logn))