当前位置: 首页 > news >正文

概率论基础教程第4章 随机变量(四)

4.7 泊松随机变量

定义

  • 泊松随机变量:如果一个取值于 $ 0, 1, 2, \ldots $ 的随机变量对某一个 $ \lambda > 0 $,其分布列为:

p(i)=P{X=i}=e−λλii!i=0,1,2,⋯(7.1) \boxed{p(i) = P\{X = i\} = e^{-\lambda} \frac{\lambda^i}{i!} \qquad i = 0, 1, 2, \cdots} \tag{7.1} p(i)=P{X=i}=eλi!λii=0,1,2,(7.1)

则称该随机变量为服从参数 $ \lambda $ 的泊松随机变量

分布列验证
∑i=0∞p(i)=e−λ∑i=0∞λii!=e−λeλ=1 \sum_{i=0}^{\infty} p(i) = e^{-\lambda} \sum_{i=0}^{\infty} \frac{\lambda^{i}}{i!} = e^{-\lambda} e^{\lambda} = 1 i=0p(i)=eλi=0i!λi=eλeλ=1

近似二项分布

当 $ n $ 足够大,$ p $ 充分小,而使得 $ np $ 保持适当大小时,参数为 $ (n, p) $ 的二项随机变量可近似地看做是参数为 $ \lambda = np $ 的泊松随机变量。

证明

  • 设 $ X $ 是参数为 $ (n, p) $ 的二项随机变量,令 $ \lambda = np $

  • 则:
    P{X=i}=n!(n−i)!i!pi(1−p)n−i=n!(n−i)!i!(λn)i(1−λn)n−i=n(n−1)⋯(n−i+1)niλii!(1−λ/n)n(1−λ/n)i \begin{aligned} P\{X = i\} &= \frac{n!}{(n-i)!i!}p^{i}(1-p)^{n-i} \\ &= \frac{n!}{(n-i)!i!} \left(\frac{\lambda}{n}\right)^{i} \left(1 - \frac{\lambda}{n}\right)^{n-i} \\ &= \frac{n(n-1)\cdots(n-i+1)}{n^{i}} \frac{\lambda^{i}}{i!} \frac{(1-\lambda/n)^{n}}{(1-\lambda/n)^{i}} \end{aligned} P{X=i}=(ni)!i!n!pi(1p)ni=(ni)!i!n!(nλ)i(1nλ)ni=nin(n1)(ni+1)i!λi(1λ/n)i(1λ/n)n

  • 当 $ n $ 充分大且 $ \lambda $ 适当时:

    [!NOTE]

    1. (1−λn)n≈e−λ\left(1 - \frac{\lambda}{n}\right)^n \approx e^{-\lambda}(1nλ)neλ

    这个近似是基于自然指数函数 exe^xex 的基本定义和极限性质。

    数学定义
    ex=lim⁡n→∞(1+xn)n e^x = \lim_{n \to \infty} \left(1 + \frac{x}{n}\right)^n ex=nlim(1+nx)n

    x=−λx = -\lambdax=λ 时:
    e−λ=lim⁡n→∞(1−λn)n e^{-\lambda} = \lim_{n \to \infty} \left(1 - \frac{\lambda}{n}\right)^n eλ=nlim(1nλ)n

    证明过程

    1. y=(1−λn)ny = \left(1 - \frac{\lambda}{n}\right)^ny=(1nλ)n,取自然对数:
      ln⁡y=nln⁡(1−λn) \ln y = n \ln \left(1 - \frac{\lambda}{n}\right) lny=nln(1nλ)

    2. 使用泰勒展开(当 ∣x∣<1|x| < 1x<1 时):
      ln⁡(1−x)=−x−x22−x33−⋯ \ln(1-x) = -x - \frac{x^2}{2} - \frac{x^3}{3} - \cdots ln(1x)=x2x23x3
      代入 x=λnx = \frac{\lambda}{n}x=nλ
      ln⁡y=n(−λn−λ22n2−λ33n3−⋯ )=−λ−λ22n−λ33n2−⋯ \ln y = n \left(-\frac{\lambda}{n} - \frac{\lambda^2}{2n^2} - \frac{\lambda^3}{3n^3} - \cdots\right) = -\lambda - \frac{\lambda^2}{2n} - \frac{\lambda^3}{3n^2} - \cdots lny=n(nλ2n2λ23n3λ3)=λ2nλ23n2λ3

    3. nnn 很大时,λ22n,λ33n2,⋯\frac{\lambda^2}{2n}, \frac{\lambda^3}{3n^2}, \cdots2nλ2,3n2λ3, 都趋近于 0:
      ln⁡y≈−λ \ln y \approx -\lambda lnyλ

    4. 因此:
      y=(1−λn)n≈e−λ y = \left(1 - \frac{\lambda}{n}\right)^n \approx e^{-\lambda} y=(1nλ)neλ


    1. n(n−1)⋯(n−i+1)ni≈1\frac{n(n-1)\cdots(n-i+1)}{n^i} \approx 1nin(n1)(ni+1)1
      使用泰勒展开:ln⁡(1−x)≈−x\ln(1-x) \approx -xln(1x)x(当 xxx 很小时)

    ln⁡[n(n−1)⋯(n−i+1)ni]=∑k=0i−1ln⁡(1−kn)≈∑k=0i−1(−kn)=−1n∑k=0i−1k=−1n⋅(i−1)i2 \begin{aligned} \ln\left[\frac{n(n-1)\cdots(n-i+1)}{n^i}\right] &= \sum_{k=0}^{i-1} \ln\left(1-\frac{k}{n}\right) \\ &\approx \sum_{k=0}^{i-1} \left(-\frac{k}{n}\right) \\ &= -\frac{1}{n} \sum_{k=0}^{i-1} k \\ &= -\frac{1}{n} \cdot \frac{(i-1)i}{2} \end{aligned} ln[nin(n1)(ni+1)]=k=0i1ln(1nk)k=0i1(nk)=n1k=0i1k=n12(i1)i

    因此:
    n(n−1)⋯(n−i+1)ni≈e−i(i−1)2n \frac{n(n-1)\cdots(n-i+1)}{n^i} \approx e^{-\frac{i(i-1)}{2n}} nin(n1)(ni+1)e2ni(i1)

    nnn 相对于 iii 很大时,i(i−1)2n≈0\frac{i(i-1)}{2n} \approx 02ni(i1)0,所以:
    e−i(i−1)2n≈1−i(i−1)2n≈1 e^{-\frac{i(i-1)}{2n}} \approx 1 - \frac{i(i-1)}{2n} \approx 1 e2ni(i1)12ni(i1)1


    1. (1−λn)i≈1\left(1 - \frac{\lambda}{n}\right)^i \approx 1(1nλ)i1

    泰勒展开法
    (1−λn)i=eiln⁡(1−λn)≈ei(−λn)=e−iλn \left(1 - \frac{\lambda}{n}\right)^i = e^{i \ln(1 - \frac{\lambda}{n})} \approx e^{i \left(-\frac{\lambda}{n}\right)} = e^{-\frac{i\lambda}{n}} (1nλ)i=eiln(1nλ)ei(nλ)=en

    nnn 很大时,iλn\frac{i\lambda}{n}n 很小,所以:
    e−iλn≈1−iλn≈1 e^{-\frac{i\lambda}{n}} \approx 1 - \frac{i\lambda}{n} \approx 1 en1n1

    二项展开法
    (1−λn)i=1−iλn+i(i−1)2(λn)2−⋯ \left(1 - \frac{\lambda}{n}\right)^i = 1 - i\frac{\lambda}{n} + \frac{i(i-1)}{2}\left(\frac{\lambda}{n}\right)^2 - \cdots (1nλ)i=1inλ+2i(i1)(nλ)2

    nnn 很大时,λn\frac{\lambda}{n}nλ 很小,高阶项可以忽略,主要项是 1−iλn1 - i\frac{\lambda}{n}1inλ,而 iλni\frac{\lambda}{n}inλ 也很小,因此:
    (1−λn)i≈1 \left(1 - \frac{\lambda}{n}\right)^i \approx 1 (1nλ)i1

    (1−λn)n≈e−λ,n(n−1)⋯(n−i+1)ni≈1,(1−λn)i≈1 \left(1 - \frac{\lambda}{n}\right)^n \approx e^{-\lambda}, \quad \frac{n(n-1)\cdots(n-i+1)}{n^i} \approx 1, \quad \left(1 - \frac{\lambda}{n}\right)^i \approx 1 (1nλ)neλ,nin(n1)(ni+1)1,(1nλ)i1

  • 因此:
    P{X=i}≈e−λλii! P\{X=i\} \approx e^{-\lambda} \frac{\lambda^i}{i!} P{X=i}eλi!λi

应用场景

以下随机变量通常服从泊松分布:

    1. 一本书里一页或若干页中印刷错误的数量
    1. 某地区居民活到 100 岁的人数
    1. 一天中拨错电话号码的次数
    1. 一家便利店里每天卖出狗粮饼干的盒数
    1. 某一天进入一个邮局的顾客数
    1. 一年中联邦司法系统中空缺位置数
    1. 某放射性材料在一个固定时期内放射出来的 α 粒子数

[!TIP]
这些例子中,每个事件发生的概率都很小,但试验次数很多,使得 $ np $ 保持适当大小。


例题

例 7a:印刷错误概率

假设某页印刷错误数服从参数为 $ \lambda = 1/2 $ 的泊松分布,求该页至少有一处错误的概率。

  • 设 $ X $ 为错误数:
    P{X≥1}=1−P{X=0}=1−e−1/2≈0.393 P\{X \geq 1\} = 1 - P\{X = 0\} = 1 - e^{-1/2} \approx 0.393 P{X1}=1P{X=0}=1e1/20.393

例 7b:残次品概率

某机器生产零件的残次品率为 0.1,求 10 个零件样本中至多有一个残次品的概率。

  • 二项分布精确计算:
    (100)×0.10×0.910+(101)×0.11×0.99=0.7361 \binom{10}{0} \times 0.1^0 \times 0.9^{10} + \binom{10}{1} \times 0.1^1 \times 0.9^9 = 0.7361 (010)×0.10×0.910+(110)×0.11×0.99=0.7361

  • 泊松近似($ \lambda = np = 1 $):
    e−1+e−1≈0.7358 e^{-1} + e^{-1} \approx 0.7358 e1+e10.7358


例 7c:放射性粒子计数

1 克放射性物质在 1 秒内放出的 α 粒子数的平均值为 3.2,求放出的 α 粒子数不超过 2 的概率。

  • 设 $ X $ 为 α 粒子数,服从参数为 $ \lambda = 3.2 $ 的泊松分布:
    P{X≤2}=e−3.2+3.2e−3.2+3.222e−3.2≈0.3799 P\{X \leq 2\} = e^{-3.2} + 3.2e^{-3.2} + \frac{3.2^2}{2}e^{-3.2} \approx 0.3799 P{X2}=e3.2+3.2e3.2+23.22e3.20.3799

期望和方差

期望
E[X]=∑i=0∞ie−λλii!=λ∑i=1∞e−λλi−1(i−1)!=λe−λ∑j=0∞λjj!(j=i−1)=λe−λeλ=λ \begin{aligned} E[X] &= \sum_{i=0}^{\infty} \frac{i e^{-\lambda} \lambda^i}{i!} \\ &= \lambda \sum_{i=1}^{\infty} \frac{e^{-\lambda} \lambda^{i-1}}{(i-1)!} \\ &= \lambda e^{-\lambda} \sum_{j=0}^{\infty} \frac{\lambda^j}{j!} \qquad (j = i-1) \\ &= \lambda e^{-\lambda} e^{\lambda} = \lambda \end{aligned} E[X]=i=0i!ieλλi=λi=1(i1)!eλλi1=λeλj=0j!λj(j=i1)=λeλeλ=λ

[!NOTE]
ex=∑k=0∞xkk!,对所有 x∈R 成立 e^x = \sum_{k=0}^{\infty} \frac{x^k}{k!}, \quad \text{对所有 } x \in \mathbb{R} \text{ 成立} ex=k=0k!xk,对所有 xR 成立

方差

先计算 $ E[X^2] $:
E[X2]=∑i=0∞i2e−λλii!=λ∑i=1∞ie−λλi−1(i−1)!=λ∑j=0∞(j+1)e−λλjj!(j=i−1)=λ[∑j=0∞je−λλjj!+∑j=0∞e−λλjj!]=λ(λ+1) \begin{aligned} E[X^2] &= \sum_{i=0}^{\infty} \frac{i^2 e^{-\lambda} \lambda^i}{i!} \\ &= \lambda \sum_{i=1}^{\infty} \frac{i e^{-\lambda} \lambda^{i-1}}{(i-1)!} \\ &= \lambda \sum_{j=0}^{\infty} \frac{(j+1) e^{-\lambda} \lambda^j}{j!} \qquad (j = i-1) \\ &= \lambda \left[ \sum_{j=0}^{\infty} \frac{j e^{-\lambda} \lambda^j}{j!} + \sum_{j=0}^{\infty} \frac{e^{-\lambda} \lambda^j}{j!} \right] \\ &= \lambda(\lambda + 1) \end{aligned} E[X2]=i=0i!i2eλλi=λi=1(i1)!ieλλi1=λj=0j!(j+1)eλλj(j=i1)=λ[j=0j!jeλλj+j=0j!eλλj]=λ(λ+1)

[!NOTE]

∑j=0∞e−λλjj!\sum_{j=0}^{\infty} e^{-\lambda} \frac{\lambda^j}{j!}j=0eλj!λj是泊松分布的概率和,应该等于 1

因此:
Var(X)=E[X2]−(E[X])2=λ(λ+1)−λ2=λ Var(X) = E[X^2] - (E[X])^2 = \lambda(\lambda + 1) - \lambda^2 = \lambda Var(X)=E[X2](E[X])2=λ(λ+1)λ2=λ


泊松过程

如果事件的发生满足以下假设条件:

  1. 在任意长度为 $ h $ 的时间区间内,恰好发生一个事件的概率为 $ \lambda h + o(h) $
  2. 在任意长度为 $ h $ 的时间区间内发生 2 个或更多个事件的概率为 $ o(h) $
  3. 对于任意 $ n $ 个互不相交的时间区间,各区间内事件发生的次数相互独立

如果一个过程满足上述三个条件,那么:

  1. 在任意长度为 ttt 的时间区间内,事件发生的次数 N(t)N(t)N(t) 服从参数为 λt\lambda tλt 的泊松分布
    P{N(t)=k}=e−λt(λt)kk!,k=0,1,2,… P\{N(t) = k\} = e^{-\lambda t} \frac{(\lambda t)^k}{k!}, \quad k = 0, 1, 2, \ldots P{N(t)=k}=eλtk!(λt)k,k=0,1,2,

  2. N(t)N(t)N(t) 的期望和方差都是 λt\lambda tλt
    E[N(t)]=Var(N(t))=λt E[N(t)] = Var(N(t)) = \lambda t E[N(t)]=Var(N(t))=λt

  3. 连续事件之间的时间间隔服从参数为 λ\lambdaλ 的指数分布
    P{X>t}=e−λt,F(t)=P{X≤t}=1−e−λt P\{X > t\} = e^{-\lambda t}, \quad F(t) = P\{X \leq t\} = 1 - e^{-\lambda t} P{X>t}=eλt,F(t)=P{Xt}=1eλt

例 7e:地震发生概率

假设美国西部地震发生强度 $ \lambda = 2 $(每周 2 次)

  • 时间区间长度 t=2t = 2t=2
  • 参数 λt=2×2=4\lambda t = 2 \times 2 = 4λt=2×2=4
  • 因此,N(2)N(2)N(2) 服从参数为 4 的泊松分布

(a) 求接下来 2 周内至少发生 3 次地震的概率:
P{N(2)≥3}=1−P{N(2)=0}−P{N(2)=1}−P{N(2)=2}=1−13e−4 P\{N(2) \ge 3\} = 1 - P\{N(2) = 0\} - P\{N(2) = 1\} - P\{N(2) = 2\} = 1 - 13e^{-4} P{N(2)3}=1P{N(2)=0}P{N(2)=1}P{N(2)=2}=113e4

(b) 求从现在开始直到下次发生地震的时间间隔 $ X $ 的分布:
P{X>t}=P{N(t)=0}=e−λt P\{X > t\} = P\{N(t) = 0\} = e^{-\lambda t} P{X>t}=P{N(t)=0}=eλt

F(t)=P{X≤t}=1−e−λt=1−e−2t F(t) = P\{X \leq t\} = 1 - e^{-\lambda t} = 1 - e^{-2t} F(t)=P{Xt}=1eλt=1e2t


递推关系

泊松分布的递推关系:
P{X=i+1}P{X=i}=e−λλi+1/(i+1)!e−λλi/i!=λi+1(7.6) \frac{P\{X = i + 1\}}{P\{X = i\}} = \frac{e^{-\lambda} \lambda^{i+1} / (i+1)!}{e^{-\lambda} \lambda^i / i!} = \frac{\lambda}{i+1} \tag{7.6} P{X=i}P{X=i+1}=eλλi/i!eλλi+1/(i+1)!=i+1λ(7.6)

从 $ P{X=0} = e^{-\lambda} $ 开始,可依次计算:
P{X=1}=λP{X=0}P{X=2}=λ2P{X=1}⋮P{X=i+1}=λi+1P{X=i} \begin{aligned} P\{X=1\} &= \lambda P\{X=0\} \\ P\{X=2\} &= \frac{\lambda}{2}P\{X=1\} \\ &\vdots \\ P\{X = i+1\} &= \frac{\lambda}{i+1}P\{X = i\} \end{aligned} P{X=1}P{X=2}P{X=i+1}=λP{X=0}=2λP{X=1}=i+1λP{X=i}


4.8 其他离散型概率分布

4.8.1 几何随机变量

定义
  • 几何随机变量:考虑独立重复试验,每次成功概率为 $ p $ ($ 0 < p < 1 $),重复直到首次成功。令 $ X $ 表示需要的试验次数,则:
    P{X=n}=(1−p)n−1pn=1,2,…(8.1) P\{X = n\} = (1-p)^{n-1}p \qquad n = 1,2,\ldots \tag{8.1} P{X=n}=(1p)n1pn=1,2,(8.1)

  • 由于:
    ∑n=1∞P{X=n}=p∑n=1∞(1−p)n−1=p1−(1−p)=1 \sum_{n=1}^{\infty} P\{X = n\} = p \sum_{n=1}^{\infty} (1-p)^{n-1} = \frac{p}{1 - (1-p)} = 1 n=1P{X=n}=pn=1(1p)n1=1(1p)p=1
    试验最终会成功的概率为 1。

期望和方差
  • 期望
    E[X]=∑i=1∞i(1−p)i−1p=1p E[X] = \sum_{i=1}^{\infty} i(1-p)^{i-1}p = \frac{1}{p} E[X]=i=1i(1p)i1p=p1

    一个成功概率为 $ p $ 的试验,需要进行的期望试验次数为 $ 1/p $

  • 方差
    Var(X)=1−pp2 Var(X) = \frac{1-p}{p^2} Var(X)=p21p

[!NOTE]

要证明:
E[X]=1p \boxed{E[X] = \frac{1}{p}} E[X]=p1

方法一:递归法(最直观的推导)

这是原始笔记中使用的方法,也是最直观的推导方式。

E[X]=∑i=1∞i⋅qi−1p E[X] = \sum_{i=1}^{\infty} i \cdot q^{i-1}p E[X]=i=1iqi1p

E[X]=∑i=1∞i⋅qi−1p=∑i=1∞(i−1+1)⋅qi−1p=∑i=1∞(i−1)⋅qi−1p+∑i=1∞qi−1p \begin{aligned} E[X] &= \sum_{i=1}^{\infty} i \cdot q^{i-1}p \\ &= \sum_{i=1}^{\infty} (i-1+1) \cdot q^{i-1}p \\ &= \sum_{i=1}^{\infty} (i-1) \cdot q^{i-1}p + \sum_{i=1}^{\infty} q^{i-1}p \end{aligned} E[X]=i=1iqi1p=i=1(i1+1)qi1p=i=1(i1)qi1p+i=1qi1p


  • j=i−1j = i-1j=i1,则当 i=1i=1i=1j=0j=0j=0,当 i→∞i \to \inftyij→∞j \to \inftyj

  • 代入得:
    ∑i=1∞(i−1)⋅qi−1p=∑j=0∞j⋅qjp \sum_{i=1}^{\infty} (i-1) \cdot q^{i-1}p = \sum_{j=0}^{\infty} j \cdot q^j p i=1(i1)qi1p=j=0jqjp

  • 注意到 qj=q⋅qj−1q^j = q \cdot q^{j-1}qj=qqj1,所以:
    ∑j=0∞j⋅qjp=q⋅∑j=1∞j⋅qj−1p=q⋅E[X] \sum_{j=0}^{\infty} j \cdot q^j p = q \cdot \sum_{j=1}^{\infty} j \cdot q^{j-1} p = q \cdot E[X] j=0jqjp=qj=1jqj1p=qE[X]

∑i=1∞qi−1p=p∑i=0∞qi=p⋅11−q=p⋅1p=1 \sum_{i=1}^{\infty} q^{i-1}p = p \sum_{i=0}^{\infty} q^i = p \cdot \frac{1}{1-q} = p \cdot \frac{1}{p} = 1 i=1qi1p=pi=0qi=p1q1=pp1=1

E[X]=q⋅E[X]+1E[X]−q⋅E[X]=1E[X]⋅(1−q)=1E[X]⋅p=1E[X]=1p \begin{aligned} E[X] &= q \cdot E[X] + 1 \\ E[X] - q \cdot E[X] &= 1 \\ E[X] \cdot (1 - q) &= 1 \\ E[X] \cdot p &= 1 \\ E[X] &= \frac{1}{p} \end{aligned} E[X]E[X]qE[X]E[X](1q)E[X]pE[X]=qE[X]+1=1=1=1=p1


方法二:级数求和法

步骤 1:提取常数 ppp
E[X]=p∑i=1∞i⋅qi−1 E[X] = p \sum_{i=1}^{\infty} i \cdot q^{i-1} E[X]=pi=1iqi1

步骤 2:使用已知级数公式

  • 我们知道,当 ∣x∣<1|x| < 1x<1 时:
    ∑i=0∞xi=11−x \sum_{i=0}^{\infty} x^i = \frac{1}{1-x} i=0xi=1x1

  • 对两边关于 xxx 求导:
    ∑i=1∞i⋅xi−1=1(1−x)2 \sum_{i=1}^{\infty} i \cdot x^{i-1} = \frac{1}{(1-x)^2} i=1ixi1=(1x)21

步骤 3:代入 x=qx = qx=q
∑i=1∞i⋅qi−1=1(1−q)2=1p2 \sum_{i=1}^{\infty} i \cdot q^{i-1} = \frac{1}{(1-q)^2} = \frac{1}{p^2} i=1iqi1=(1q)21=p21

步骤 4:计算期望
E[X]=p⋅1p2=1p E[X] = p \cdot \frac{1}{p^2} = \frac{1}{p} E[X]=pp21=p1


方法三:直接求和法

步骤 1:写出期望表达式
S=E[X]=p+2qp+3q2p+4q3p+… S = E[X] = p + 2qp + 3q^2p + 4q^3p + \ldots S=E[X]=p+2qp+3q2p+4q3p+

步骤 2:两边同时乘以 qqq
qS=qp+2q2p+3q3p+4q4p+… qS = qp + 2q^2p + 3q^3p + 4q^4p + \ldots qS=qp+2q2p+3q3p+4q4p+

步骤 3:用第一式减去第二式
S−qS=p+(2qp−qp)+(3q2p−2q2p)+(4q3p−3q3p)+…=p+qp+q2p+q3p+… \begin{aligned} S - qS &= p + (2qp - qp) + (3q^2p - 2q^2p) + (4q^3p - 3q^3p) + \ldots \\ &= p + qp + q^2p + q^3p + \ldots \end{aligned} SqS=p+(2qpqp)+(3q2p2q2p)+(4q3p3q3p)+=p+qp+q2p+q3p+

步骤 4:简化右边

  • 右边是一个几何级数:
    p+qp+q2p+q3p+…=p(1+q+q2+q3+…)=p⋅11−q=p⋅1p=1 p + qp + q^2p + q^3p + \ldots = p(1 + q + q^2 + q^3 + \ldots) = p \cdot \frac{1}{1-q} = p \cdot \frac{1}{p} = 1 p+qp+q2p+q3p+=p(1+q+q2+q3+)=p1q1=pp1=1

步骤 5:求解 SSS
S(1−q)=1S⋅p=1S=1p \begin{aligned} S(1-q) &= 1 \\ S \cdot p &= 1 \\ S &= \frac{1}{p} \end{aligned} S(1q)SpS=1=1=p1

[!IMPORTANT]

方法一:递归法
E[X2]=∑i=1∞i2qi−1p E[X^2] = \sum_{i=1}^{\infty} i^2 q^{i-1} p E[X2]=i=1i2qi1p

考虑第一次试验的结果:

  • 以概率 ppp 成功 → X=1X = 1X=1,此时 X2=1X^2 = 1X2=1
  • 以概率 qqq 失败 → 相当于从头开始,但已进行 1 次试验,所以总试验次数为 1+X′1 + X'1+X,其中 X′X'XXXX 同分布

因此:
E[X2]=p⋅12+q⋅E[(1+X)2] E[X^2] = p \cdot 1^2 + q \cdot E[(1 + X)^2] E[X2]=p12+qE[(1+X)2]

展开右边:
E[X2]=p+q⋅E[1+2X+X2]=p+q(1+2E[X]+E[X2]) E[X^2] = p + q \cdot E[1 + 2X + X^2] = p + q(1 + 2E[X] + E[X^2]) E[X2]=p+qE[1+2X+X2]=p+q(1+2E[X]+E[X2])

代入 E[X]=1pE[X] = \frac{1}{p}E[X]=p1
E[X2]=p+q(1+2⋅1p+E[X2]) E[X^2] = p + q\left(1 + 2 \cdot \frac{1}{p} + E[X^2]\right) E[X2]=p+q(1+2p1+E[X2])

移项整理:
E[X2]−qE[X2]=p+q+2qp E[X^2] - q E[X^2] = p + q + \frac{2q}{p} E[X2]qE[X2]=p+q+p2q

pE[X2]=p+q+2qp p E[X^2] = p + q + \frac{2q}{p} pE[X2]=p+q+p2q

整理得
E[X2]=1+qp+2qp2=p2p2+pqp2+2qp2=p2+pq+2qp2 E[X^2] = 1 + \frac{q}{p} + \frac{2q}{p^2} = \frac{p^2}{p^2} + \frac{pq}{p^2} + \frac{2q}{p^2} = \frac{p^2 + pq + 2q}{p^2} E[X2]=1+pq+p22q=p2p2+p2pq+p22q=p2p2+pq+2q

但更简洁的方式是保留:
E[X2]=1+qp2(见方法二) E[X^2] = \frac{1 + q}{p^2} \quad \text{(见方法二)} E[X2]=p21+q(见方法二)


方法二:级数法

步骤 1:写出 E[X2]E[X^2]E[X2]
E[X2]=∑i=1∞i2qi−1p=p∑i=1∞i2qi−1 E[X^2] = \sum_{i=1}^{\infty} i^2 q^{i-1} p = p \sum_{i=1}^{\infty} i^2 q^{i-1} E[X2]=i=1i2qi1p=pi=1i2qi1

S=∑i=1∞i2xi−1S = \sum_{i=1}^{\infty} i^2 x^{i-1}S=i=1i2xi1,其中 ∣x∣<1|x| < 1x<1

步骤 2:使用已知幂级数公式

我们使用以下标准结果(可通过微分几何级数得到):

∑i=1∞ixi−1=1(1−x)2 \sum_{i=1}^{\infty} i x^{i-1} = \frac{1}{(1 - x)^2} i=1ixi1=(1x)21

对其两边关于 xxx 求导:

ddx(∑i=1∞ixi−1)=∑i=1∞i(i−1)xi−2=ddx(1(1−x)2)=2(1−x)3 \frac{d}{dx} \left( \sum_{i=1}^{\infty} i x^{i-1} \right) = \sum_{i=1}^{\infty} i(i-1) x^{i-2} = \frac{d}{dx} \left( \frac{1}{(1-x)^2} \right) = \frac{2}{(1-x)^3} dxd(i=1ixi1)=i=1i(i1)xi2=dxd((1x)21)=(1x)32

但我们需要的是 ∑i2xi−1\sum i^2 x^{i-1}i2xi1,注意:
i2=i(i−1)+i i^2 = i(i-1) + i i2=i(i1)+i

所以:
∑i=1∞i2xi−1=∑i=1∞i(i−1)xi−2⋅x+∑i=1∞ixi−1=x⋅2(1−x)3+1(1−x)2 \sum_{i=1}^{\infty} i^2 x^{i-1} = \sum_{i=1}^{\infty} i(i-1) x^{i-2} \cdot x + \sum_{i=1}^{\infty} i x^{i-1} = x \cdot \frac{2}{(1-x)^3} + \frac{1}{(1-x)^2} i=1i2xi1=i=1i(i1)xi2x+i=1ixi1=x(1x)32+(1x)21

=2x(1−x)3+1(1−x)2=2x+(1−x)(1−x)3=1+x(1−x)3 = \frac{2x}{(1-x)^3} + \frac{1}{(1-x)^2} = \frac{2x + (1-x)}{(1-x)^3} = \frac{1 + x}{(1-x)^3} =(1x)32x+(1x)21=(1x)32x+(1x)=(1x)31+x

因此:
∑i=1∞i2xi−1=1+x(1−x)3 \sum_{i=1}^{\infty} i^2 x^{i-1} = \frac{1 + x}{(1 - x)^3} i=1i2xi1=(1x)31+x

步骤 3:代入 x=q=1−px = q = 1 - px=q=1p
∑i=1∞i2qi−1=1+q(1−q)3=1+qp3 \sum_{i=1}^{\infty} i^2 q^{i-1} = \frac{1 + q}{(1 - q)^3} = \frac{1 + q}{p^3} i=1i2qi1=(1q)31+q=p31+q

所以:
E[X2]=p⋅1+qp3=1+qp2 E[X^2] = p \cdot \frac{1 + q}{p^3} = \frac{1 + q}{p^2} E[X2]=pp31+q=p21+q

步骤 4:计算方差
Var(X)=E[X2]−(E[X])2=1+qp2−(1p)2=1+q−1p2=qp2=1−pp2 \begin{aligned} Var(X) &= E[X^2] - (E[X])^2 \\ &= \frac{1 + q}{p^2} - \left( \frac{1}{p} \right)^2 \\ &= \frac{1 + q - 1}{p^2} \\ &= \frac{q}{p^2} \\ &= \frac{1 - p}{p^2} \end{aligned} Var(X)=E[X2](E[X])2=p21+q(p1)2=p21+q1=p2q=p21p

例题

例 8a:取球问题

坛中有 $ N $ 个白球和 $ M $ 个黑球,有放回取球直到取到黑球。

(a) 恰好取球 $ n $ 次的概率:
P{X=n}=(NM+N)n−1MM+N=MNn−1(M+N)n P\{X = n\} = \left(\frac{N}{M+N}\right)^{n-1} \frac{M}{M+N} = \frac{MN^{n-1}}{(M+N)^n} P{X=n}=(M+NN)n1M+NM=(M+N)nMNn1

(b) 至少取球 $ k $ 次的概率:
P{X≥k}=(NM+N)k−1 P\{X \ge k\} = \left(\frac{N}{M+N}\right)^{k-1} P{Xk}=(M+NN)k1

至少需要 $ k $ 次取球意味着前 $ k-1 $ 次都取到白球。


4.8.2 负二项随机变量

定义
  • 负二项随机变量:考虑独立重复试验,每次成功概率为 $ p $ ($ 0 < p < 1 $),试验持续进行直到累计成功 $ r $ 次。令 $ X $ 表示试验总次数,则:
    P{X=n}=(n−1r−1)pr(1−p)n−rn=r,r+1,⋯(8.2) \boxed{P\{X = n\} = \binom{n-1}{r-1} p^r (1-p)^{n-r} \qquad n = r, r+1, \cdots} \tag{8.2} P{X=n}=(r1n1)pr(1p)nrn=r,r+1,(8.2)

  • 证明:要使第 $ n $ 次试验时恰好 $ r $ 次成功,前 $ n-1 $ 次试验中必须有 $ r-1 $ 次成功,且第 $ n $ 次试验成功。

[!NOTE]
几何随机变量是参数为 $ (1, p) $ 的负二项随机变量的特例。

期望和方差
  • 期望:$ E[X] = \frac{r}{p} $
  • 方差:$ Var(X) = \frac{r(1-p)}{p^2} $

[!IMPORTANT]

定义随机变量 YYY

  • YYY 是参数为 (r+1,p)(r+1, p)(r+1,p) 的负二项随机变量

  • 表示在独立重复试验中,直到累计成功 r+1r+1r+1 次所需的试验总次数

  • 概率质量函数为:
    P{Y=m}=(m−1r)pr+1(1−p)m−(r+1)m=r+1,r+2,… P\{Y = m\} = \binom{m-1}{r} p^{r+1} (1-p)^{m-(r+1)} \qquad m = r+1, r+2, \ldots P{Y=m}=(rm1)pr+1(1p)m(r+1)m=r+1,r+2,

步骤 1:建立递归关系 E[Xk]=rpE[(Y−1)k−1]E[X^k] = \frac{r}{p} E[(Y-1)^{k-1}]E[Xk]=prE[(Y1)k1]

首先,写出 E[Xk]E[X^k]E[Xk] 的定义:
E[Xk]=∑n=r∞nkP{X=n}=∑n=r∞nk(n−1r−1)pr(1−p)n−r E[X^k] = \sum_{n=r}^{\infty} n^k P\{X = n\} = \sum_{n=r}^{\infty} n^k \binom{n-1}{r-1} p^r (1-p)^{n-r} E[Xk]=n=rnkP{X=n}=n=rnk(r1n1)pr(1p)nr

应用组合恒等式 n(n−1r−1)=r(nr)n \binom{n-1}{r-1} = r \binom{n}{r}n(r1n1)=r(rn)
E[Xk]=∑n=r∞nk(n−1r−1)pr(1−p)n−r=∑n=r∞nk−1⋅n(n−1r−1)pr(1−p)n−r=∑n=r∞nk−1⋅r(nr)pr(1−p)n−r=rp∑n=r∞nk−1(nr)pr+1(1−p)n−r \begin{aligned} E[X^k] &= \sum_{n=r}^{\infty} n^k \binom{n-1}{r-1} p^r (1-p)^{n-r} \\ &= \sum_{n=r}^{\infty} n^{k-1} \cdot n \binom{n-1}{r-1} p^r (1-p)^{n-r} \\ &= \sum_{n=r}^{\infty} n^{k-1} \cdot r \binom{n}{r} p^r (1-p)^{n-r} \\ &= \frac{r}{p} \sum_{n=r}^{\infty} n^{k-1} \binom{n}{r} p^{r+1} (1-p)^{n-r} \end{aligned} E[Xk]=n=rnk(r1n1)pr(1p)nr=n=rnk1n(r1n1)pr(1p)nr=n=rnk1r(rn)pr(1p)nr=prn=rnk1(rn)pr+1(1p)nr

现在,令 m=n+1m = n+1m=n+1,则:

  • n=rn = rn=r 时,m=r+1m = r+1m=r+1
  • n→∞n \to \inftyn 时,m→∞m \to \inftym
  • n=m−1n = m-1n=m1

代入得:
E[Xk]=rp∑m=r+1∞(m−1)k−1(m−1r)pr+1(1−p)(m−1)−r=rp∑m=r+1∞(m−1)k−1(m−1r)pr+1(1−p)m−(r+1) \begin{aligned} E[X^k] &= \frac{r}{p} \sum_{m=r+1}^{\infty} (m-1)^{k-1} \binom{m-1}{r} p^{r+1} (1-p)^{(m-1)-r} \\ &= \frac{r}{p} \sum_{m=r+1}^{\infty} (m-1)^{k-1} \binom{m-1}{r} p^{r+1} (1-p)^{m-(r+1)} \end{aligned} E[Xk]=prm=r+1(m1)k1(rm1)pr+1(1p)(m1)r=prm=r+1(m1)k1(rm1)pr+1(1p)m(r+1)

注意到求和式正是随机变量 YYY 的期望 E[(Y−1)k−1]E[(Y-1)^{k-1}]E[(Y1)k1]
E[(Y−1)k−1]=∑m=r+1∞(m−1)k−1P{Y=m}=∑m=r+1∞(m−1)k−1(m−1r)pr+1(1−p)m−(r+1) E[(Y-1)^{k-1}] = \sum_{m=r+1}^{\infty} (m-1)^{k-1} P\{Y = m\} = \sum_{m=r+1}^{\infty} (m-1)^{k-1} \binom{m-1}{r} p^{r+1} (1-p)^{m-(r+1)} E[(Y1)k1]=m=r+1(m1)k1P{Y=m}=m=r+1(m1)k1(rm1)pr+1(1p)m(r+1)

因此:
E[Xk]=rpE[(Y−1)k−1] \boxed{E[X^k] = \frac{r}{p} E[(Y-1)^{k-1}]} E[Xk]=prE[(Y1)k1]


步骤 2:计算期望 E[X]E[X]E[X]

k=1k=1k=1 时:
E[X]=E[X1]=rpE[(Y−1)0]=rpE[1]=rp \begin{aligned} E[X] &= E[X^1] \\ &= \frac{r}{p} E[(Y-1)^{0}] \\ &= \frac{r}{p} E[1] \\ &= \frac{r}{p} \end{aligned} E[X]=E[X1]=prE[(Y1)0]=prE[1]=pr


步骤 3:计算二阶矩 E[X2]E[X^2]E[X2]

k=2k=2k=2 时:
E[X2]=rpE[(Y−1)1]=rpE[Y−1]=rp(E[Y]−1) \begin{aligned} E[X^2] &= \frac{r}{p} E[(Y-1)^{1}] \\ &= \frac{r}{p} E[Y-1] \\ &= \frac{r}{p} (E[Y] - 1) \end{aligned} E[X2]=prE[(Y1)1]=prE[Y1]=pr(E[Y]1)

其中 YYY 是参数为 (r+1,p)(r+1, p)(r+1,p) 的负二项随机变量,根据步骤 2 的结论:
E[Y]=r+1p E[Y] = \frac{r+1}{p} E[Y]=pr+1

代入得:
E[X2]=rp(r+1p−1)=rp⋅r+1−pp=r(r+1−p)p2 \begin{aligned} E[X^2] &= \frac{r}{p} \left(\frac{r+1}{p} - 1\right) \\ &= \frac{r}{p} \cdot \frac{r+1-p}{p} \\ &= \frac{r(r+1-p)}{p^2} \end{aligned} E[X2]=pr(pr+11)=prpr+1p=p2r(r+1p)


步骤 4:计算方差 Var(X)Var(X)Var(X)

方差定义为:
Var(X)=E[X2]−(E[X])2 Var(X) = E[X^2] - (E[X])^2 Var(X)=E[X2](E[X])2

代入已知结果:

Var(X)=r(r+1−p)p2−(rp)2=r(r+1−p)p2−r2p2=r2+r−rp−r2p2=r−rpp2=r(1−p)p2 \begin{aligned} Var(X) &= \frac{r(r+1-p)}{p^2} - \left(\frac{r}{p}\right)^2 \\ &= \frac{r(r+1-p)}{p^2} - \frac{r^2}{p^2} \\ &= \frac{r^2 + r - rp - r^2}{p^2} \\ &= \frac{r - rp}{p^2} \\ &= \frac{r(1-p)}{p^2} \end{aligned} Var(X)=p2r(r+1p)(pr)2=p2r(r+1p)p2r2=p2r2+rrpr2=p2rrp=p2r(1p)

例题

例 8d:第 r 次成功发生在 m 次失败之前

求第 $ r $ 次成功发生在 $ m $ 次失败之前的概率:
∑n=rr+m−1(n−1r−1)pr(1−p)n−r \sum_{n=r}^{r+m-1} \binom{n-1}{r-1} p^r (1-p)^{n-r} n=rr+m1(r1n1)pr(1p)nr

[!NOTE]
当且仅当第 $ r $ 次成功的时刻不晚于第 $ (r+m-1) $ 次试验,才能保证在 $ m $ 次失败之前出现第 $ r $ 次成功。


例 8e:巴拿赫火柴问题

一个抽烟的数学家总是随身带着两盒火柴:

  • 一盒放在左边口袋,另一盒放在右边口袋
  • 每次需要火柴时,随机地从两个口袋中任取一盒(每个口袋被选中的概率为 $ \frac{1}{2} $)
  • 每次从选中的盒子里取出一根火柴
  • 开始时两盒中各有 $ N $ 根火柴

问题:当他第一次发现其中有一个盒子已经空了的时候,另一盒中恰好有 $ k $ 根火柴的概率是多少?

  1. “第一次发现一盒空”:这意味着他尝试从某一盒取火柴时,发现该盒已经空了
  2. 此时另一盒还有 $ k $ 根:说明另一盒尚未完全用完
  3. 对称性:左右口袋情况相同,可以先计算一种情况再乘以 2

要使"右边口袋空而左边有 $ k $ 根"发生,必须满足以下条件:

  1. 右边口袋变空:他从右边口袋取了 $ N+1 $ 次火柴

    • 前 $ N $ 次取走了所有 $ N $ 根火柴
    • 第 $ N+1 $ 次尝试取火柴时,发现右边口袋空了
  2. 左边口袋还有 $ k $ 根:他从左边口袋取了 $ N-k $ 次火柴

    • 左边口袋原本有 $ N $ 根,取走 $ N-k $ 根后,还剩 $ k $ 根
  3. 总取火柴次数:$ (N+1) + (N-k) = 2N-k+1 $ 次

    • 前 $ 2N-k $ 次:从右边取 $ N $ 次,从左边取 $ N-k $ 次
    • 第 $ 2N-k+1 $ 次:尝试从右边取,但发现右边空了
  4. 关键约束:最后一次(第 $ 2N-k+1 $ 次)必须是从右边口袋取

    • 因为这次取火柴时,他发现右边口袋空了
  5. 前 $ 2N-k $ 次取火柴的组合方式

    • 从 $ 2N-k $ 次中选择 $ N $ 次从右边取(其余 $ N-k $ 次从左边取)
    • 组合数为:$ \binom{2N-k}{N} $
  6. 每次取火柴的概率

    • 从任一口袋取火柴的概率均为 $ \frac{1}{2} $
    • 前 $ 2N-k $ 次取火柴的概率:$ \left(\frac{1}{2}\right)^{2N-k} $
    • 第 $ 2N-k+1 $ 次尝试从右边取的概率:$ \frac{1}{2} $
  7. "右边口袋空而左边有 $ k $ 根"的概率
    P(E)=(2N−kN)(12)2N−k×12=(2N−kN)(12)2N−k+1 P(E) = \binom{2N-k}{N} \left(\frac{1}{2}\right)^{2N-k} \times \frac{1}{2} = \binom{2N-k}{N} \left(\frac{1}{2}\right)^{2N-k+1} P(E)=(N2Nk)(21)2Nk×21=(N2Nk)(21)2Nk+1

  8. 考虑左右对称性

    • "左边口袋空而右边有 $ k $ 根"的概率也是 $ P(E) $

    • 因此,所求总概率为:
      2P(E)=2×(2N−kN)(12)2N−k+1=(2N−kN)(12)2N−k 2P(E) = 2 \times \binom{2N-k}{N} \left(\frac{1}{2}\right)^{2N-k+1} = \binom{2N-k}{N} \left(\frac{1}{2}\right)^{2N-k} 2P(E)=2×(N2Nk)(21)2Nk+1=(N2Nk)(21)2Nk

例 8g:掷骰子问题

连续掷骰子直到点数 1 出现 4 次,求投掷总次数的期望和方差。

  • $ X $ 是参数 $ r=4 $, $ p=1/6 $ 的负二项随机变量:
    E[X]=41/6=24 E[X] = \frac{4}{1/6} = 24 E[X]=1/64=24

    Var(X)=4×5/6(1/6)2=120 Var(X) = \frac{4 \times 5/6}{(1/6)^2} = 120 Var(X)=(1/6)24×5/6=120


4.8.3 超几何随机变量

定义
  • 超几何随机变量:坛中有 $ N $ 个球,其中 $ m $ 个白球,$ N-m $ 个黑球。无放回抽取 $ n $ 个球,令 $ X $ 表示白球数,则:
    P{X=i}=(mi)(N−mn−i)(Nn)i=0,1,⋯ ,n(8.4) \boxed{P\{X=i\} = \frac{\binom{m}{i} \binom{N-m}{n-i}}{\binom{N}{n}} \qquad i = 0, 1, \cdots, n} \tag{8.4} P{X=i}=(nN)(im)(niNm)i=0,1,,n(8.4)

  • 注释:$ P{X=i} = 0 $,除非 $ \max(0, n-(N-m)) \leq i \leq \min(n, m) $

期望和方差
  • 期望:$ E[X] = \frac{nm}{N} $
  • 方差:$ Var(X) = np(1-p)\left(1 - \frac{n-1}{N-1}\right) $,其中 $ p = \frac{m}{N} $
例题

例 8h:动物数量估计

  • 捕捉 $ m $ 个动物标记后放回,再捕捉 $ n $ 个,其中有 $ i $ 个标记

  • $ X $ 为超几何随机变量:
    P{X=i}=(mi)(N−mn−i)(Nn)≡Pi(N) P\{X=i\} = \frac{\binom{m}{i}\binom{N-m}{n-i}}{\binom{N}{n}} \equiv P_i(N) P{X=i}=(nN)(im)(niNm)Pi(N)

  • 极大似然估计:使 $ P_i(N) $ 最大的 $ N $ 值

  • 计算得:$ N $ 的估计值为不超过 $ \frac{mn}{i} $ 的最大整数

  • 例如:$ m = 50 $, $ n = 40 $, $ i = 4 $,估计 $ N = 500 $


例 8i:超几何随机变量的期望和方差

  • 期望:
    E[X]=mnN E[X] = \frac{mn}{N} E[X]=Nmn

    从 $ N $ 个球($ m $ 个白球)中抽取 $ n $ 个,白球数的期望为 $ \frac{nm}{N} $

  • 方差:
    Var(X)=np(1−p)(1−n−1N−1),p=mN Var(X) = np(1-p)\left(1 - \frac{n-1}{N-1}\right), \quad p = \frac{m}{N} Var(X)=np(1p)(1N1n1),p=Nm

  • 当 $ N $ 相对 $ n $ 很大时:
    Var(X)≈np(1−p) Var(X) \approx np(1-p) Var(X)np(1p)


例 8j:电子元件检验

采购员抽查 10 个一包的电子元件,随机抽查 3 个,若全好则购买。

  • 30% 的包有 4 个残次品,70% 的包有 1 个残次品

  • 采购员购买的概率:
    P(A)=(40)(63)(103)×310+(10)(93)(103)×710=54100 P(A) = \frac{\binom{4}{0}\binom{6}{3}}{\binom{10}{3}} \times \frac{3}{10} + \frac{\binom{1}{0}\binom{9}{3}}{\binom{10}{3}} \times \frac{7}{10} = \frac{54}{100} P(A)=(310)(04)(36)×103+(310)(01)(39)×107=10054

  • 拒绝比例:$ 1 - P(A) = 46% $


4.8.4 ζ 分布

定义
  • ζ 分布:如果随机变量有如下分布列:
    P{X=k}=Ckα+1,k=1,2,⋯ P\{X=k\} = \frac{C}{k^{\alpha+1}}, \qquad k = 1,2,\cdots P{X=k}=kα+1C,k=1,2,
    其中 $ \alpha > 0 $ 为参数,$ C $ 为归一化常数:
    C=[∑k=1∞(1k)α+1]−1 C = \left[\sum_{k=1}^{\infty} \left(\frac{1}{k}\right)^{\alpha+1}\right]^{-1} C=[k=1(k1)α+1]1

  • ζ 函数
    ζ(s)=1+(12)s+(13)s+⋯ \zeta(s) = 1 + \left(\frac{1}{2}\right)^s + \left(\frac{1}{3}\right)^s + \cdots ζ(s)=1+(21)s+(31)s+
    这是数学中熟知的黎曼 ζ 函数。

http://www.lryc.cn/news/625743.html

相关文章:

  • Android Cordova 开发 - Cordova 嵌入 Android
  • GaussDB 中 alter default privileges 的使用示例
  • 从H.264到AV1:音视频技术演进与模块化SDK架构全解析
  • Meta首款AR眼镜Hypernova呼之欲出,苹果/微美全息投入显著抢滩市场新增长点!
  • 搭建最新--若依分布式spring cloudv3.6.6 前后端分离项目--步骤与记录常见的坑
  • 磨砂玻璃登录页面使用教程 v0.1.1
  • 可靠性测试:软件稳定性的守护者
  • t12 low power design: power plan脚本分享(4) power stripe
  • 9.Ansible管理大项目
  • MCP(模型上下文协议):是否是 AI 基础设施中缺失的标准?
  • Flink原理与实践:第一章大数据技术概述总结
  • Ubuntu、CentOS、AlmaLinux 9.5的 rc.local实现 开机启动
  • 构建自主企业:AgenticOps 的技术蓝图
  • VS Code 终端完全指南
  • Java 大视界 -- Java 大数据机器学习模型在自然语言处理中的多语言翻译与文化适应性优化
  • Transformer十问
  • Java试题-选择题(11)
  • OpenHarmony 之多模态输入子系统源码深度架构解析
  • 记录一次问题,点击详情时设置Editor不可用,点击修改时也不可用了
  • Node.js 在 Windows Server 上的离线部署方案
  • 如何将任意文件一键转为PDF?
  • Markdown to PDF/PNG Converter
  • UniApp 微信小程序之间跳转指南
  • 专题:2025母婴行业消费洞察与分龄营养趋势报告|附40 +份报告PDF、交互图表数据汇总下载
  • 微信小程序实现蓝牙开启自动播放BGM
  • Java技术总监的成长之路(技术干货分享)
  • CAD图纸如何批量转换成PDF格式?
  • 【动态规划:路径问题】最小路径和 地下城游戏
  • 【网络运维】Ansible roles:角色管理
  • ES支持哪些数据类型,和MySQL之间的映射关系是怎么样的?