統計学および確率論における分散(ぶんさん、英: variance)とは、データ(母集団、標本)、確率変数(確率分布)の標準偏差の自乗のことである。分散も標準偏差と同様に散らばり具合を表し、標準偏差より分散の方が計算が簡単なため、計算する上で分散を用いることも多い。
分散は具体的には、平均値からの偏差の2乗の平均に等しい。データ x1, x2, …, xn の分散 s2 は

- ここで x は平均値を表す。
分散が 0 であることは、データの値が全て等しいことと同値である。データの分散は二乗平均から平均の2乗を引いた値に等しくなる。
確率変数 X の分散 V[X][注 1]は、X の期待値を E[X] で表すと
- V[X] = E[(X − E[X])2]
となる。
確率変数の分散は確率変数の2次の中心化モーメントである。
統計学では、記述統計学においては標本の散らばり具合を表す指標として標本分散(ひょうほんぶんさん、英: sample variance)を、推計統計学においては不偏分散(ふへんぶんさん、英: unbiased variance)・不偏標本分散(ふへんひょうほんぶんさん、英: unbiased sample variance)を用いる。
英語の variance(バリアンス)という語はロナルド・フィッシャーが1918年に導入した[3]。
2乗可積分確率変数 X の分散は期待値を E[X] で表すと
![{\displaystyle V[X]=E{\big [}(X-E[X])^{2}{\big ]}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/1c9e1333fa4694399485b647fa56ff340390c016)
で定義される。これを展開して整理すると
![{\displaystyle {\begin{alignedat}{5}V[X]&=E{\big [}(X-E[X])^{2}{\big ]}\\&=E{\big [}X^{2}-2XE[X]+(E[X])^{2}{\big ]}\\&=E[X^{2}]-2E{\big [}XE[X]{\big ]}+E{\big [}(E[X])^{2}{\big ]}\\&=E[X^{2}]-2E[X]E[X]+(E[X])^{2}(\because E[X]=Const)\\&=E[X^{2}]-(E[X])^{2}\\\end{alignedat}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/82a0afbf41e388dd12e1f4c1cc2d3ba23f2def23)
とも書ける。また確率変数 X の特性関数を φX(t) = E[eitX] とおくと(i は虚数単位)、これは 2階連続的微分可能で
![{\displaystyle V[X]=-\varphi _{X}''(0)+(\varphi _{X}'(0))^{2}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/bdb60093736aead61f6564aba943c3f30e54d10e)
と表示することもできる。
チェビシェフの不等式から、任意の正の数 ε に対して
![{\displaystyle P(|X-E[X]|>\varepsilon )\leq {\frac {V[X]}{\varepsilon ^{2}}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/cbe8c05d926c810b4a93e4d5988cee2c15dea7b4)
が成り立つ。これは分散が小さくなるほど確率変数が期待値に近い値をとりやすくなることを示す大まかな評価である。
X, X1, …, Xn を確率変数、a, b, a1, …, an を定数とし、共分散を Cov[ · , · ] で表すと
(非負性)
(位置母数(英語版)に対する不変性)
(斉次性)
![{\displaystyle V{\bigl [}\textstyle \sum \limits _{i}a_{i}X_{i}{\bigr ]}=\sum \limits _{i,j}a_{i}a_{j}\operatorname {Cov} [X_{i},X_{j}]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/f940246cc2ee946214fdf5876fb9699ab9300636)
を満たす。したがって、特に X1, …, Xn が独立ならば、
![{\displaystyle \operatorname {Cov} [X_{i},X_{j}]={\begin{cases}V[X_{i}]&(i=j)\\0&(i\neq j)\end{cases}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/7a0d8e819629dd2a8938bcae13d2467dbfab854d)
より
![{\displaystyle V[X_{1}+\dotsb +X_{n}]=V[X_{1}]+\dotsb +V[X_{n}]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/90ba06be77968b979c2c8243507d57e3ad99eef9)
が成り立つ。
- 確率変数 X が一様分布 U(a, b) に従うとき、V[X] = (b − a)2/12
- 確率変数 X が正規分布 N(μ, σ2) に従うとき、V[X] = σ2
- 確率変数 X が二項分布 B(n, p) に従うとき、V[X] = np(1 − p)
- 確率変数 X がポアソン分布 Po(λ) に従うとき、V[X] = λ
推計統計学では、母集団の分散と標本の分散を区別する必要がある。
大きさが n である母集団 x1, x2, …, xn に対して、平均値を μ で表すとき、偏差の自乗の平均値

を母分散(ぼぶんさん、英: population variance)と言う[4]。
母集団の平均が
、分散が
のとき、大きさが n である標本 x1, x2, …, xn に対して、標本の平均値を x で表すとき、偏差の自乗の平均値

で定義される s2 を標本分散(ひょうほんぶんさん、英: sample variance)と言う。s は標準偏差と呼ばれる[4]。
定義より、

となるから、標本分散は2乗の平均値と平均値の2乗との差に等しい。ただし、この計算では概して二乗平均が巨大になるため、浮動小数点数による近似計算を行う場合には桁落ちが起きる可能性がある。このため、浮動小数点数を扱う場合には定義に従って偏差の二乗和を計算することが一般的である(あるいは一般の総和計算と同じくカハンの加算アルゴリズムやpairwise summation(英語版)のような手法により、誤差を小さくする工夫がなされることもある)。
一般に、標本分散の期待値は母分散と一致せず、母分散より小さくなる。これは、母分散は「母平均との偏差」で算出されるのに対し、標本分散では「標本平均との偏差」で算出されることに原因がある。実際には、平均と分散を持つ同一分布からの無作為標本に対して、標本分散の期待値 E[s2] について、
![{\displaystyle E[s^{2}]=E\left[{\frac {1}{n}}\sum _{i=1}^{n}(x_{i}-{\bar {x}})^{2}\right]=E\left[{\frac {1}{n}}\sum _{i=1}^{n}(x_{i}-\mu -({\bar {x}}-\mu ))^{2}\right]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a08a0dd4f8baff5f5b6b4d8bf444d7e87cb6072d)
![{\displaystyle ={\frac {1}{n}}E\left[\sum _{i=1}^{n}\left(x_{i}-\mu -{\frac {1}{n}}\sum _{j=1}^{n}(x_{j}-\mu )\right)^{2}\right]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d527f54a21dd4935cfaa0a32b90968e0e5b909cf)
![{\displaystyle ={\frac {1}{n}}E\left[\sum _{i=1}^{n}\left({\frac {n-1}{n}}(x_{i}-\mu )-{\frac {1}{n}}\sum _{j\neq i}(x_{j}-\mu )\right)^{2}\right]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d8cf4764411c89991ee7ab15aca7191a91ecdecb)
![{\displaystyle +{\frac {1}{n}}\sum _{i=1}^{n}E\left[-{\frac {2(n-1)}{n^{2}}}(x_{i}-\mu )\sum _{j\neq i}(x_{j}-\mu )+{\frac {1}{n^{2}}}\sum _{j\neq i}\sum _{k\neq i,j}(x_{j}-\mu )(x_{k}-\mu )\right]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/db92138a2d94fa2e9d982021ab2c0a4f3365f02c)
![{\displaystyle +{\frac {1}{n}}\sum _{i=1}^{n}\left[-{\frac {2(n-1)}{n^{2}}}E\left[(x_{i}-\mu )\sum _{j\neq i}(x_{j}-\mu )\right]+{\frac {1}{n^{2}}}\sum _{j\neq i}\sum _{k\neq i,j}E[(x_{j}-\mu )(x_{k}-\mu )]\right]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ace180ab70600db7a2a926554b9a1c1683fc3933)
ここで、
![{\displaystyle E[(x_{i}-\mu )^{2}]=E[(x_{j}-\mu )^{2}]=\sigma ^{2}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c1dff4697acfc4b257e2f603a9a52b5e32f6f7e2)
、
、
は独立のため、
![{\displaystyle E\left[(x_{i}-\mu )\sum _{j\neq i}(x_{j}-\mu )\right]=E[x_{i}-\mu ]E\left[\sum _{j\neq i}(x_{j}-\mu )\right]=0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ecefe2398876d2668bdc535e53edc454edabbc8a)
![{\displaystyle E[(x_{j}-\mu )(x_{k}-\mu )]=E[x_{j}-\mu ]E[x_{k}-\mu ]=0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c1a57f98883ef427009abd793aab1ed773870246)
となるため、
![{\displaystyle E[s^{2}]={\frac {1}{n}}\sum _{i=1}^{n}({\frac {(n-1)^{2}}{n^{2}}}\sigma ^{2}+{\frac {n-1}{n^{2}}}\sigma ^{2})={\frac {n-1}{n}}\sigma ^{2}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9ede7cbfda07b7cc792560a870970c50af82b59f)
が成り立つ。
そこで

を用いると、
![{\displaystyle E\left[{\frac {1}{n-1}}\sum _{1}^{n}(x_{i}-{\bar {x}})^{2}\right]=\sigma ^{2}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/82e04409b8fc799170e329c178245e35f1ab7aa1)
となり、期待値が母分散に等しくなる推定量が得られる。つまり母分散の不偏推定量となる。これを不偏標本分散(ふへんひょうほんぶんさん、英: unbiased sample variance)や不偏分散(ふへんぶんさん、英: unbiased variance)と呼ぶ[4]。
上記の標本分散は不偏でないことを強調する場合偏りのある標本分散(英: biased sample variance)と言う。
なお、不偏標本分散を単に標本分散と呼ぶ文献もある。
定義から明らかに、標本の大きさが大きくなる程につれて偏りのある標本分散は不偏標本分散に近づく。