女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

PyTorch教程-2.6. 概率統(tǒng)計(jì)

jf_pJlTbmA9 ? 來(lái)源:PyTorch ? 作者:PyTorch ? 2023-06-05 15:38 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

不管怎樣,機(jī)器學(xué)習(xí)都是關(guān)于不確定性的。在監(jiān)督學(xué)習(xí)中,我們希望在給定已知事物(特征)的情況下預(yù)測(cè)未知事物(目標(biāo))。根據(jù)我們的目標(biāo),我們可能會(huì)嘗試預(yù)測(cè)目標(biāo)的最可能值。或者我們可以預(yù)測(cè)與目標(biāo)的預(yù)期距離最小的值。有時(shí)我們不僅希望預(yù)測(cè)特定值,而且希望量化我們的不確定性。例如,給定一些描述患者的特征,我們可能想知道有多大可能他們將在明年心臟病發(fā)作。在無(wú)監(jiān)督學(xué)習(xí)中,我們經(jīng)常關(guān)心不確定性。要確定一組測(cè)量值是否異常,了解一個(gè)人在感興趣的總體中觀察值的可能性有多大是有幫助的。此外,在強(qiáng)化學(xué)習(xí)中,我們希望開(kāi)發(fā)能夠在各種環(huán)境中智能行動(dòng)的智能體。這需要推理環(huán)境可能會(huì)如何變化,以及人們可能期望在響應(yīng)每個(gè)可用操作時(shí)遇到什么獎(jiǎng)勵(lì)。

概率是與不確定性推理有關(guān)的數(shù)學(xué)領(lǐng)域。給定某個(gè)過(guò)程的概率模型,我們可以推斷各種事件的可能性。使用概率來(lái)描述可重復(fù)事件(如拋硬幣)的頻率是相當(dāng)沒(méi)有爭(zhēng)議的。事實(shí)上,頻率論學(xué)者堅(jiān)持只適用于此類(lèi)可重復(fù)事件的概率解釋。相比之下,貝葉斯學(xué)者更廣泛地使用概率語(yǔ)言來(lái)形式化我們?cè)诓淮_定性下的推理。貝葉斯概率具有兩個(gè)獨(dú)特的特征:(i) 將置信度分配給不可重復(fù)的事件,例如,概率是 多少月亮是奶酪做的?(ii) 主觀性——雖然貝葉斯概率為人們應(yīng)該如何根據(jù)新證據(jù)更新他們的信念提供了明確的規(guī)則,但它允許不同的個(gè)體以不同的先驗(yàn)信念開(kāi)始。 統(tǒng)計(jì)數(shù)據(jù)幫助我們向后推理,從收集和組織數(shù)據(jù)開(kāi)始,然后退回到我們可能對(duì)生成數(shù)據(jù)的過(guò)程得出的推論。每當(dāng)我們分析數(shù)據(jù)集,尋找我們希望可以表征更廣泛人群的模式時(shí),我們都在運(yùn)用統(tǒng)計(jì)思維。大多數(shù)課程、專(zhuān)業(yè)、論文、職業(yè)、部門(mén)、公司和機(jī)構(gòu)都致力于研究概率和統(tǒng)計(jì)。雖然本節(jié)僅涉及表面,但我們將為您提供開(kāi)始構(gòu)建模型所需的基礎(chǔ)。

%matplotlib inline
import random
import torch
from torch.distributions.multinomial import Multinomial
from d2l import torch as d2l

%matplotlib inline
import random
from mxnet import np, npx
from mxnet.numpy.random import multinomial
from d2l import mxnet as d2l

npx.set_np()

%matplotlib inline
import random
import jax
import numpy as np
from jax import numpy as jnp
from d2l import jax as d2l

No GPU/TPU found, falling back to CPU. (Set TF_CPP_MIN_LOG_LEVEL=0 and rerun for more info.)

%matplotlib inline
import random
import tensorflow as tf
from tensorflow_probability import distributions as tfd
from d2l import tensorflow as d2l

2.6.1. 一個(gè)簡(jiǎn)單的例子:拋硬幣

想象一下,我們計(jì)劃拋硬幣并想要量化我們看到正面(與反面)的可能性有多大。如果硬幣是公平的,那么兩種結(jié)果(正面和反面)的可能性都相同。此外,如果我們打算拋硬幣n次,那么我們期望看到的正面部分應(yīng)該與預(yù)期的反面部分完全匹配。一種直觀的方式是通過(guò)對(duì)稱(chēng)性來(lái)看待這一點(diǎn):對(duì)于每一個(gè)可能的結(jié)果nh 頭和nt=(n?nh)尾巴,有一個(gè)同樣可能的結(jié)果nt頭和nh尾巴。請(qǐng)注意,這只有在我們平均期望看到的情況下才有可能1/2拋出頭和1/2出現(xiàn)尾巴。當(dāng)然,如果你多次進(jìn)行這個(gè)實(shí)驗(yàn)n=1000000拋擲每一個(gè),你可能永遠(yuǎn)看不到試驗(yàn)在哪里nh=nt確切地。

形式上,數(shù)量1/2被稱(chēng)為概率,在這里它捕捉到任何給定的拋擲都會(huì)出現(xiàn)正面的確定性。概率在之間分配分?jǐn)?shù)0和1到感興趣的結(jié)果,稱(chēng)為事件。這里感興趣的事件是 heads我們表示相應(yīng)的概率 P(heads). 的概率1表示絕對(duì)確定性(想象一個(gè)雙面都是正面的騙局硬幣)和概率0表示不可能(例如,如果兩邊都是反面)。頻率nh/n和nt/n不是概率而是統(tǒng)計(jì)。概率是 數(shù)據(jù)生成過(guò)程的理論量。在這里,概率1/2是硬幣本身的屬性。相比之下,統(tǒng)計(jì)數(shù)據(jù)是作為觀察數(shù)據(jù)的函數(shù)計(jì)算的經(jīng)驗(yàn)量。我們對(duì)概率和統(tǒng)計(jì)量的興趣密不可分。我們經(jīng)常設(shè)計(jì)稱(chēng)為估計(jì)器的特殊統(tǒng)計(jì)數(shù)據(jù),在給定數(shù)據(jù)集的情況下,它會(huì)產(chǎn)生 模型參數(shù)(如概率)的估計(jì)值。此外,當(dāng)這些估計(jì)量滿(mǎn)足稱(chēng)為一致性的良好屬性時(shí),我們的估計(jì)將收斂到相應(yīng)的概率。反過(guò)來(lái),這些推斷的概率說(shuō)明了我們將來(lái)可能遇到的來(lái)自同一人群的數(shù)據(jù)的可能統(tǒng)計(jì)特性。

假設(shè)我們偶然發(fā)現(xiàn)了一枚真實(shí)的硬幣,但我們并不知道它的真實(shí)價(jià)值P(heads). 要用統(tǒng)計(jì)方法調(diào)查這個(gè)數(shù)量,我們需要(i)收集一些數(shù)據(jù);(ii) 設(shè)計(jì)一個(gè)估算器。這里的數(shù)據(jù)采集很容易;我們可以多次拋硬幣并記錄所有結(jié)果。形式上,從一些底層隨機(jī)過(guò)程中繪制實(shí)現(xiàn)稱(chēng)為采樣。正如您可能已經(jīng)猜到的那樣,一種自然的估計(jì)量是觀察到的正面朝上數(shù)與拋擲總次數(shù)之間的分?jǐn)?shù)。

現(xiàn)在,假設(shè)硬幣實(shí)際上是公平的,即 P(heads)=0.5. 為了模擬公平硬幣的拋擲,我們可以調(diào)用任何隨機(jī)數(shù)生成器。以概率抽取事件樣本的一些簡(jiǎn)單方法0.5. 例如 Python random.random在區(qū)間內(nèi)產(chǎn)生數(shù)字[0,1]其中躺在任何子區(qū)間的概率[a,b]?[0,1]等于b?a. 因此我們可以通過(guò)0測(cè)試返回的1浮點(diǎn)數(shù)0.5是否大于0.5

num_tosses = 100
heads = sum([random.random() > 0.5 for _ in range(100)])
tails = num_tosses - heads
print("heads, tails: ", [heads, tails])

heads, tails: [48, 52]

num_tosses = 100
heads = sum([random.random() > 0.5 for _ in range(100)])
tails = num_tosses - heads
print("heads, tails: ", [heads, tails])

heads, tails: [47, 53]

num_tosses = 100
heads = sum([random.random() > 0.5 for _ in range(100)])
tails = num_tosses - heads
print("heads, tails: ", [heads, tails])

heads, tails: [44, 56]

num_tosses = 100
heads = sum([random.random() > 0.5 for _ in range(100)])
tails = num_tosses - heads
print("heads, tails: ", [heads, tails])

heads, tails: [49, 51]

更一般地,我們可以通過(guò)調(diào)用多項(xiàng)式函數(shù),將第一個(gè)參數(shù)設(shè)置為抽獎(jiǎng)次數(shù),將第二個(gè)參數(shù)設(shè)置為與每個(gè)可能結(jié)果相關(guān)的概率列表。為了模擬公平硬幣的十次拋擲,我們分配概率向量,將索引 0 解釋為正面,將索引 1 解釋為反面。該函數(shù)返回一個(gè)長(zhǎng)度等于可能結(jié)果數(shù)(此處為 2)的向量,其中第一個(gè)分量告訴我們正面出現(xiàn)的次數(shù),第二個(gè)分量告訴我們反面出現(xiàn)的次數(shù)。[0.5, 0.5]

fair_probs = torch.tensor([0.5, 0.5])
Multinomial(100, fair_probs).sample()

tensor([44., 56.])

fair_probs = [0.5, 0.5]
multinomial(100, fair_probs)

array([46, 54], dtype=int64)

fair_probs = [0.5, 0.5]
# jax.random does not have multinomial distribution implemented
np.random.multinomial(100, fair_probs)

array([46, 54])

fair_probs = tf.ones(2) / 2
tfd.Multinomial(100, fair_probs).sample()


每次運(yùn)行此采樣過(guò)程時(shí),您都會(huì)收到一個(gè)新的隨機(jī)值,該值可能與之前的結(jié)果不同。除以投擲次數(shù)即可得出數(shù)據(jù)中每種結(jié)果出現(xiàn)的頻率。請(qǐng)注意,這些頻率,就像它們要估計(jì)的概率一樣,總和為1.

Multinomial(100, fair_probs).sample() / 100

tensor([0.5300, 0.4700])

multinomial(100, fair_probs) / 100

array([0.53, 0.47])

np.random.multinomial(100, fair_probs) / 100

array([0.5, 0.5])

tfd.Multinomial(100, fair_probs).sample() / 100


在這里,即使我們的模擬硬幣是公平的(我們 自己設(shè)置概率),正面和反面的計(jì)數(shù)可能并不相同。那是因?yàn)槲覀冎怀槿×擞邢迶?shù)量的樣本。如果我們自己不進(jìn)行模擬,而只看到結(jié)果,我們?cè)趺粗烙矌攀欠裼休p微的不公平,或者是否可能偏離[0.5, 0.5]1/2只是小樣本的產(chǎn)物?讓我們看看模擬10000投擲時(shí)會(huì)發(fā)生什么。

counts = Multinomial(10000, fair_probs).sample()
counts / 10000

tensor([0.4970, 0.5030])

counts = multinomial(10000, fair_probs).astype(np.float32)
counts / 10000

array([0.4952, 0.5048])

counts = np.random.multinomial(10000, fair_probs).astype(np.float32)
counts / 10000

array([0.5009, 0.4991], dtype=float32)

counts = tfd.Multinomial(10000, fair_probs).sample()
counts / 10000


一般來(lái)說(shuō),對(duì)于重復(fù)事件(如拋硬幣)的平均值,隨著重復(fù)次數(shù)的增加,我們的估計(jì)肯定會(huì)收斂到真實(shí)的潛在概率。這種現(xiàn)象的數(shù)學(xué)證明稱(chēng)為大數(shù)定律和中心極限定理告訴我們,在許多情況下,隨著樣本量的增加n 增長(zhǎng),這些錯(cuò)誤應(yīng)該以(1/n). 讓我們通過(guò)研究隨著拋擲次數(shù)從1增加到10000.

counts = Multinomial(1, fair_probs).sample((10000,))
cum_counts = counts.cumsum(dim=0)
estimates = cum_counts / cum_counts.sum(dim=1, keepdims=True)
estimates = estimates.numpy()

d2l.set_figsize((4.5, 3.5))
d2l.plt.plot(estimates[:, 0], label=("P(coin=heads)"))
d2l.plt.plot(estimates[:, 1], label=("P(coin=tails)"))
d2l.plt.axhline(y=0.5, color='black', linestyle='dashed')
d2l.plt.gca().set_xlabel('Samples')
d2l.plt.gca().set_ylabel('Estimated probability')
d2l.plt.legend();

poYBAGR5UIOAbs_vAAKPA3Q1P2c019.svg

counts = multinomial(1, fair_probs, size=10000)
cum_counts = counts.astype(np.float32).cumsum(axis=0)
estimates = cum_counts / cum_counts.sum(axis=1, keepdims=True)

d2l.set_figsize((4.5, 3.5))
d2l.plt.plot(estimates[:, 0], label=("P(coin=heads)"))
d2l.plt.plot(estimates[:, 1], label=("P(coin=tails)"))
d2l.plt.axhline(y=0.5, color='black', linestyle='dashed')
d2l.plt.gca().set_xlabel('Samples')
d2l.plt.gca().set_ylabel('Estimated probability')
d2l.plt.legend();

pYYBAGR5UIaAFy6EAAKKn4g7Fek810.svg

counts = np.random.multinomial(1, fair_probs, size=10000).astype(np.float32)
cum_counts = counts.cumsum(axis=0)
estimates = cum_counts / cum_counts.sum(axis=1, keepdims=True)

d2l.set_figsize((4.5, 3.5))
d2l.plt.plot(estimates[:, 0], label=("P(coin=heads)"))
d2l.plt.plot(estimates[:, 1], label=("P(coin=tails)"))
d2l.plt.axhline(y=0.5, color='black', linestyle='dashed')
d2l.plt.gca().set_xlabel('Samples')
d2l.plt.gca().set_ylabel('Estimated probability')
d2l.plt.legend();

poYBAGR5UImAYH0TAAKRX1xytN4227.svg

counts = tfd.Multinomial(1, fair_probs).sample(10000)
cum_counts = tf.cumsum(counts, axis=0)
estimates = cum_counts / tf.reduce_sum(cum_counts, axis=1, keepdims=True)
estimates = estimates.numpy()

d2l.set_figsize((4.5, 3.5))
d2l.plt.plot(estimates[:, 0], label=("P(coin=heads)"))
d2l.plt.plot(estimates[:, 1], label=("P(coin=tails)"))
d2l.plt.axhline(y=0.5, color='black', linestyle='dashed')
d2l.plt.gca().set_xlabel('Samples')
d2l.plt.gca().set_ylabel('Estimated probability')
d2l.plt.legend();

pYYBAGR5UIuADUurAAKHf032V-4693.svg

每條實(shí)線對(duì)應(yīng)于硬幣的兩個(gè)值之一,并給出了我們估計(jì)的概率,即在每組實(shí)驗(yàn)后硬幣出現(xiàn)該值的概率。黑色虛線給出了真實(shí)的潛在概率。隨著我們通過(guò)進(jìn)行更多實(shí)驗(yàn)獲得更多數(shù)據(jù),曲線會(huì)向真實(shí)概率收斂。您可能已經(jīng)開(kāi)始看到一些困擾統(tǒng)計(jì)學(xué)家的更高級(jí)問(wèn)題的形狀:這種收斂發(fā)生的速度有多快?如果我們已經(jīng)測(cè)試了同一家工廠生產(chǎn)的許多硬幣,我們?nèi)绾握线@些信息?

2.6.2. 更正式的待遇

我們已經(jīng)走得很遠(yuǎn)了:提出概率模型、生成合成數(shù)據(jù)、運(yùn)行統(tǒng)計(jì)估計(jì)器、憑經(jīng)驗(yàn)評(píng)估收斂性以及報(bào)告錯(cuò)誤指標(biāo)(檢查偏差)。然而,為了走得更遠(yuǎn),我們需要更加精確。

在處理隨機(jī)性時(shí),我們表示一組可能的結(jié)果 S并將其稱(chēng)為樣本空間或結(jié)果空間。在這里,每個(gè)元素都是一個(gè)不同的可能結(jié)果。在滾動(dòng)單個(gè)硬幣的情況下, S={heads,tails}. 對(duì)于單個(gè)模具,S={1,2,3,4,5,6}. 擲兩枚硬幣時(shí),可能的結(jié)果是 {(heads,heads),(heads,tails),(tails,heads),(tails,tails)}. 事件是樣本空間的子集。例如,事件“第一次拋硬幣正面朝上”對(duì)應(yīng)于集合 {(heads,heads),(heads,tails)}. 每當(dāng)結(jié)果z隨機(jī)實(shí)驗(yàn)滿(mǎn)足 z∈A, 然后是事件A已經(jīng)發(fā)生了。對(duì)于單次擲骰子,我們可以定義事件“看到一個(gè) 5”(A={5}) 和“看到一個(gè)奇數(shù)” (B={1,3,5}). 在這種情況下,如果骰子出現(xiàn) 5,我們會(huì)說(shuō)兩者A和B發(fā)生。另一方面,如果z=3, 然后A沒(méi)有發(fā)生但是 B做過(guò)。

概率函數(shù)將事件映射到實(shí)際值 P:A?S→[0,1]. 事件的概率A在給定的樣本空間 S, 表示P(A),滿(mǎn)足以下屬性:

任何事件的概率A是一個(gè)非負(fù)實(shí)數(shù),即P(A)≥0;

整個(gè)樣本空間的概率為1, IE, P(S)=1;

對(duì)于任何可數(shù)的事件序列 A1,A2,…是互斥的(Ai∩Aj=?對(duì)全部i≠j),其中任何一個(gè)發(fā)生的概率等于它們各自概率的總和,即 P(?i=1∞Ai)=∑i=1∞P(Ai).

這些概率論公理由Kolmogorov ( 1933 )提出 ,可用于快速推導(dǎo)出許多重要結(jié)果。例如,緊隨其后的是任何事件的概率A 或其補(bǔ)充 A′occurring 為 1(因?yàn)?A∪A′=S). 我們也可以證明P(?)=0因?yàn)?1=P(S∪S′)=P(S∪?)=P(S)+P(?)=1+P(?). 因此,任何事件的概率A 及其補(bǔ)充A′同時(shí)發(fā)生的是 P(A∩A′)=0. 通俗地說(shuō),這告訴我們不可能事件發(fā)生的概率為零。

2.6.3. 隨機(jī)變量

當(dāng)我們談?wù)撝T如擲骰子出現(xiàn)賠率或第一次拋硬幣出現(xiàn)正面等事件時(shí),我們正在調(diào)用隨機(jī)變量的概念。形式上,隨機(jī)變量是從基礎(chǔ)樣本空間到一組(可能很多)值的映射。您可能想知道隨機(jī)變量與樣本空間有何不同,因?yàn)閮烧叨际墙Y(jié)果的集合。重要的是,隨機(jī)變量可能比原始樣本空間粗糙得多。我們可以定義一個(gè)二進(jìn)制隨機(jī)變量,如“大于 0.5”,即使基礎(chǔ)樣本空間是無(wú)限的,例如,線段之間0和1. 此外,多個(gè)隨機(jī)變量可以共享相同的底層樣本空間。例如,“我家的警報(bào)是否響起”和“我的房子是否被盜”都是共享基礎(chǔ)樣本空間的二元隨機(jī)變量。因此,知道一個(gè)隨機(jī)變量取的值可以告訴我們一些關(guān)于另一個(gè)隨機(jī)變量的可能值的信息。知道警報(bào)響了,我們可能會(huì)懷疑房子可能被盜了。

隨機(jī)變量取的每個(gè)值都對(duì)應(yīng)于基礎(chǔ)樣本空間的一個(gè)子集。因此出現(xiàn)隨機(jī)變量 X取值v, 表示為X=v, 是一個(gè)事件 并且P(X=v)表示它的概率。有時(shí)這種符號(hào)會(huì)變得笨拙,當(dāng)上下文清晰時(shí)我們可能會(huì)濫用符號(hào)。例如,我們可能會(huì)使用P(X)泛指 分布_X,即告訴我們概率的函數(shù)X取任何給定值。其他時(shí)候我們寫(xiě)這樣的表達(dá)式P(X,Y)=P(X)P(Y),作為表達(dá)對(duì)隨機(jī)變量的所有值都成立的陳述的簡(jiǎn)寫(xiě) X和Y可以采取,即,對(duì)于所有i,j它認(rèn)為P(X=iandY=j)=P(X=i)P(Y=j). 其他時(shí)候,我們通過(guò)寫(xiě)作濫用符號(hào)P(v)當(dāng)隨機(jī)變量從上下文中明確時(shí)。由于概率論中的事件是樣本空間的一組結(jié)果,我們可以指定隨機(jī)變量取值的范圍。例如,P(1≤X≤3)表示事件的概率{1≤X≤3}.

請(qǐng)注意,離散隨機(jī)變量(如擲硬幣或擲骰子)與連續(xù)隨機(jī)變量之間存在細(xì)微差別 那些,比如從人群中隨機(jī)抽取的一個(gè)人的體重和身高。在這種情況下,我們很少真正關(guān)心某人的確切身高。此外,如果我們進(jìn)行足夠精確的測(cè)量,我們會(huì)發(fā)現(xiàn)地球上沒(méi)有兩個(gè)人的身高完全相同。事實(shí)上,通過(guò)足夠精細(xì)的測(cè)量,您醒來(lái)和入睡時(shí)的身高永遠(yuǎn)不會(huì)相同。詢(xún)問(wèn)某人身高 1.801392782910287192 米的確切概率毫無(wú)意義。相反,我們通常更關(guān)心能夠說(shuō)出某人的身高是否落在給定的區(qū)間內(nèi),比如 1.79 到 1.81 米之間。在這些情況下,我們使用概率密度. 恰好 1.80 米的高度沒(méi)有概率,但密度非零。為了得到分配給一個(gè)區(qū)間的概率,我們必須 對(duì)該區(qū)間的密度進(jìn)行積分。

2.6.4. 多個(gè)隨機(jī)變量

你可能已經(jīng)注意到,我們甚至不能通過(guò)最后一節(jié)而不做涉及多個(gè)隨機(jī)變量之間相互作用的陳述(回想一下P(X,Y)=P(X)P(Y)). 大多數(shù)機(jī)器學(xué)習(xí)都與這種關(guān)系有關(guān)。在這里,樣本空間將是感興趣的人群,例如與企業(yè)進(jìn)行交易的客戶(hù)、互聯(lián)網(wǎng)上的照片或生物學(xué)家已知的蛋白質(zhì)。每個(gè)隨機(jī)變量將代表不同屬性的(未知)值。每當(dāng)我們從總體中抽取一個(gè)個(gè)體時(shí),我們都會(huì)觀察到每個(gè)隨機(jī)變量的實(shí)現(xiàn)。因?yàn)殡S機(jī)變量取的值對(duì)應(yīng)于可能重疊、部分重疊或完全不相交的樣本空間子集,所以了解一個(gè)隨機(jī)變量取的值可以使我們更新我們對(duì)另一個(gè)隨機(jī)變量的可能取值的信念. 如果一個(gè)病人走進(jìn)醫(yī)院,我們觀察到他們呼吸困難并且失去了嗅覺(jué),

當(dāng)處理多個(gè)隨機(jī)變量時(shí),我們可以構(gòu)建對(duì)應(yīng)于變量可以共同取值的每種組合的事件。為每個(gè)組合分配概率的概率函數(shù)(例如A=a和B=b) 稱(chēng)為聯(lián)合概率函數(shù),它簡(jiǎn)單地返回分配給樣本空間相應(yīng)子集的交集的概率。分配給隨機(jī)變量的事件的聯(lián)合概率A和B取值a和b,分別表示為P(A=a,B=b), 其中逗號(hào)表示“和”。請(qǐng)注意,對(duì)于任何值a和b, 它認(rèn)為P(A=a,B=b)≤P(A=a)和 P(A=a,B=b)≤P(B=b), 因此A=a和B=b 即將發(fā)生,A=a必須發(fā)生并且 B=b也必須發(fā)生。有趣的是,聯(lián)合概率告訴我們所有我們可以從概率意義上了解這些隨機(jī)變量,并且可以用來(lái)推導(dǎo)出許多其他有用的量,包括恢復(fù)個(gè)體分布P(A)和P(B). 恢復(fù) P(A=a)我們簡(jiǎn)單總結(jié)一下P(A=a,B=v)在所有值 v隨機(jī)變量B可以采取: P(A=a)=∑vP(A=a,B=v).

比例P(A=a,B=b)P(A=a)≤1事實(shí)證明非常重要。它被稱(chēng)為條件概率,并通過(guò)“∣“ 象征, P(B=b∣A=a)=P(A=a,B=b)/P(A=a). 它告訴我們與事件相關(guān)的新概率B=b,一旦我們以事實(shí)為條件A=a發(fā)生。我們可以將此條件概率視為僅將注意力限制在與相關(guān)聯(lián)的樣本空間子集上A=a然后重新歸一化,使所有概率總和為 1。條件概率實(shí)際上是概率,因此遵守所有公理,只要我們以同一事件為條件所有條件,從而將注意力限制在同一樣本空間。例如,對(duì)于不相交的事件B 和B′, 我們有 P(B∪B′∣A=a)=P(B∣A=a)+P(B′∣A=a).

使用條件概率的定義,我們可以推導(dǎo)出著名的貝葉斯定理。通過(guò)構(gòu)造,我們有 P(A,B)=P(B∣A)P(A)和P(A,B)=P(A∣B)P(B). 結(jié)合兩個(gè)方程式產(chǎn)生 P(B∣A)P(A)=P(A∣B)P(B)因此

(2.6.1)P(A∣B)=P(B∣A)P(A)P(B).

這個(gè)簡(jiǎn)單的等式具有深遠(yuǎn)的意義,因?yàn)樗试S我們顛倒條件反射的順序。如果我們知道如何估計(jì) P(B∣A),P(A), 和P(B), 那么我們可以估計(jì) P(A∣B). 我們經(jīng)常發(fā)現(xiàn)直接估計(jì)一項(xiàng)而不是另一項(xiàng)更容易,貝葉斯定理可以在這里提供幫助。例如,如果我們知道特定疾病的癥狀流行率,以及疾病和癥狀的總體流行率,我們就可以根據(jù)癥狀確定某人患該病的可能性。在某些情況下,我們可能無(wú)法直接訪問(wèn)P(B),例如癥狀的普遍性。在這種情況下,貝葉斯定理的簡(jiǎn)化版本就派上用場(chǎng)了:

(2.6.2)P(A∣B)∝P(B∣A)P(A).

因?yàn)槲覀冎繮(A∣B)必須歸一化為1, IE,∑aP(A=a∣B)=1,我們可以用它來(lái)計(jì)算

(2.6.3)P(A∣B)=P(B∣A)P(A)∑aP(B∣A=a)P(A=a).

在貝葉斯統(tǒng)計(jì)中,我們認(rèn)為觀察者擁有一些(主觀的)先驗(yàn)信念,即先驗(yàn)編碼的可用假設(shè)的合理性 P(H),以及一個(gè)似然函數(shù),表示一個(gè)人有多大可能觀察到針對(duì)類(lèi)別中每個(gè)假設(shè)收??集的證據(jù)的任何值 P(E∣H). 然后貝葉斯定理被解釋為告訴我們?nèi)绾胃鲁跏枷闰?yàn) P(H)鑒于現(xiàn)有證據(jù)E產(chǎn)生后驗(yàn)信念 P(H∣E)=P(E∣H)P(H)P(E). 非正式地,這可以表述為“后驗(yàn)等于先驗(yàn)概率除以證據(jù)”。現(xiàn)在,因?yàn)樽C據(jù)P(E)對(duì)于所有假設(shè)都是相同的,我們可以通過(guò)簡(jiǎn)單地對(duì)假設(shè)進(jìn)行歸一化來(lái)擺脫困境。

注意∑aP(A=a∣B)=1也允許我們 邊緣化隨機(jī)變量。也就是說(shuō),我們可以從聯(lián)合分布中刪除變量,例如P(A,B). 畢竟我們有

(2.6.4)∑aP(B∣A=a)P(A=a)=∑aP(B,A=a)=P(B).

獨(dú)立性是另一個(gè)非常重要的概念,它構(gòu)成了統(tǒng)計(jì)學(xué)中許多重要思想的支柱。簡(jiǎn)而言之,如果以值為條件,則兩個(gè)變量是獨(dú)立的A不會(huì)導(dǎo)致與相關(guān)聯(lián)的概率分布發(fā)生任何變化 B反之亦然。更正式地說(shuō),獨(dú)立性表示為 A⊥B, 要求P(A∣B)=P(A)因此,P(A,B)=P(A∣B)P(B)=P(A)P(B). 獨(dú)立性通常是一個(gè)適當(dāng)?shù)募僭O(shè)。例如,如果隨機(jī)變量A表示拋一枚公平硬幣和隨機(jī)變量的結(jié)果B表示拋擲另一個(gè)的結(jié)果,然后知道是否A出現(xiàn)正面應(yīng)該不會(huì)影響概率B出現(xiàn)了。

當(dāng)獨(dú)立性在我們從某些基礎(chǔ)分布中連續(xù)抽取的數(shù)據(jù)中保持不變時(shí)(允許我們做出強(qiáng)有力的統(tǒng)計(jì)結(jié)論)或者當(dāng)它在我們數(shù)據(jù)中的各種變量中保持不變時(shí)特別有用,允許我們使用編碼這種獨(dú)立性結(jié)構(gòu)的更簡(jiǎn)單的模型. 另一方面,估計(jì)隨機(jī)變量之間的依賴(lài)關(guān)系通常是學(xué)習(xí)的真正目的。我們特別關(guān)心在給定癥狀的情況下估計(jì)疾病的概率,因?yàn)槲覀冋J(rèn)為疾病和癥狀不是獨(dú)立的。

請(qǐng)注意,因?yàn)闂l件概率是適當(dāng)?shù)母怕剩?dú)立性和依賴(lài)性的概念也適用于它們。兩個(gè)隨機(jī)變量A和B 在給定第三個(gè)變量的情況下是條件獨(dú)立的C當(dāng)且僅當(dāng) P(A,B∣C)=P(A∣C)P(B∣C). 有趣的是,兩個(gè)變量通常可以是獨(dú)立的,但在以第三個(gè)變量為條件時(shí)變得依賴(lài)。這通常發(fā)生在兩個(gè)隨機(jī)變量 A和B對(duì)應(yīng)于某些第三個(gè)變量的原因 C. 例如,骨折和肺癌在普通人群中可能是獨(dú)立的,但如果我們以住院為條件,那么我們可能會(huì)發(fā)現(xiàn)骨折與肺癌呈負(fù)相關(guān)。那是因?yàn)楣钦劢忉屃藶槭裁从腥嗽卺t(yī)院,從而降低了他們患肺癌的可能性。

相反,兩個(gè)相關(guān)的隨機(jī)變量可以在第三個(gè)條件下變得獨(dú)立。當(dāng)兩個(gè)原本不相關(guān)的事件有一個(gè)共同的原因時(shí),通常會(huì)發(fā)生這種情況。鞋碼和閱讀水平在小學(xué)生中高度相關(guān),但如果我們以年齡為條件,這種相關(guān)性就會(huì)消失。

2.6.5. 一個(gè)例子

讓我們來(lái)測(cè)試一下我們的技能。假設(shè)醫(yī)生對(duì)患者進(jìn)行 HIV 檢測(cè)。該測(cè)試相當(dāng)準(zhǔn)確,如果患者健康但報(bào)告他患病,則測(cè)試失敗的概率僅為 1%。此外,如果患者確實(shí)感染了 HIV,它永遠(yuǎn)不會(huì)檢測(cè)不到 HIV。我們用D1∈{0,1}以表明診斷(0如果負(fù)和1如果是正數(shù))和 H∈{0,1}來(lái)表示 HIV 狀態(tài)。

條件概率 H=1 H=0
P(D1=1∣H) 1個(gè) 0.01
P(D1=0∣H) 0 0.99

請(qǐng)注意,列總和均為 1(但行總和不是),因?yàn)樗鼈兪菞l件概率。如果檢測(cè)結(jié)果呈陽(yáng)性,我們來(lái)計(jì)算患者感染 HIV 的概率,即 P(H=1∣D1=1). 直覺(jué)上這將取決于疾病的普遍程度,因?yàn)樗鼤?huì)影響誤報(bào)的數(shù)量。假設(shè)人口相當(dāng)健康,例如, P(H=1)=0.0015. 要應(yīng)用貝葉斯定理,我們需要應(yīng)用邊緣化來(lái)確定

(2.6.5)P(D1=1)=P(D1=1,H=0)+P(D1=1,H=1)=P(D1=1∣H=0)P(H=0)+P(D1=1∣H=1)P(H=1)=0.011485.

這導(dǎo)致我們

(2.6.6)P(H=1∣D1=1)=P(D1=1∣H=1)P(H=1)P(D1=1)=0.1306.

換句話(huà)說(shuō),盡管使用了非常準(zhǔn)確的測(cè)試,但患者實(shí)際感染 HIV 的可能性只有 13.06%。正如我們所見(jiàn),概率可能是違反直覺(jué)的。患者收到這樣可怕的消息該怎么辦?患者可能會(huì)要求醫(yī)生進(jìn)行另一項(xiàng)測(cè)試以獲得清晰度。第二個(gè)測(cè)試有不同的特點(diǎn),不如第一個(gè)好。

條件概率 H=1 H=0
P(D2=1∣H) 0.98 0.03
P(D2=0∣H) 0.02 0.97

不幸的是,第二次測(cè)試也呈陽(yáng)性。讓我們通過(guò)假設(shè)條件獨(dú)立來(lái)計(jì)算調(diào)用貝葉斯定理的必要概率:

(2.6.7)P(D1=1,D2=1∣H=0)=P(D1=1∣H=0)P(D2=1∣H=0)=0.0003,P(D1=1,D2=1∣H=1)=P(D1=1∣H=1)P(D2=1∣H=1)=0.98.

現(xiàn)在我們可以應(yīng)用邊緣化來(lái)獲得兩個(gè)測(cè)試都返回陽(yáng)性的概率:

(2.6.8)P(D1=1,D2=1)=P(D1=1,D2=1,H=0)+P(D1=1,D2=1,H=1)=P(D1=1,D2=1∣H=0)P(H=0)+P(D1=1,D2=1∣H=1)P(H=1)=0.00176955.

最后,在兩項(xiàng)測(cè)試均為陽(yáng)性的情況下,患者感染 HIV 的概率為

(2.6.9)P(H=1∣D1=1,D2=1)=P(D1=1,D2=1∣H=1)P(H=1)P(D1=1,D2=1)=0.8307.

也就是說(shuō),第二次測(cè)試讓我們更加確信并非一切都很好。盡管第二次測(cè)試的準(zhǔn)確性遠(yuǎn)低于第一次,但它仍然顯著改善了我們的估計(jì)。假設(shè)這兩個(gè)測(cè)試是條件獨(dú)立的,這對(duì)于我們生成更準(zhǔn)確的估計(jì)的能力至關(guān)重要。以我們兩次運(yùn)行相同測(cè)試的極端情況為例。在這種情況下,我們期望兩次的結(jié)果相同,因此再次運(yùn)行相同的測(cè)試不會(huì)獲得額外的洞察力。精明的讀者可能已經(jīng)注意到,診斷的行為就像一個(gè)隱藏在眾目睽睽之下的分類(lèi)器,隨著我們獲得更多特征(測(cè)試結(jié)果),我們判斷患者是否健康的能力也會(huì)增強(qiáng)。

2.6.6. 期望

通常,做出決策不僅需要查看分配給單個(gè)事件的概率,還需要將它們組合成有用的集合,從而為我們提供指導(dǎo)。例如,當(dāng)隨機(jī)變量采用連續(xù)標(biāo)量值時(shí),我們通常關(guān)心知道平均期望值是多少。這個(gè)數(shù)量正式稱(chēng)為 期望。如果我們正在進(jìn)行投資,第一個(gè)感興趣的數(shù)量可能是我們可以預(yù)期的回報(bào),對(duì)所有可能的結(jié)果進(jìn)行平均(并按適當(dāng)?shù)母怕始訖?quán))。例如,假設(shè)一項(xiàng)投資有 50% 的可能性完全失敗,有 40% 的可能性它可能提供 2× 返回,并且有 10% 的概率它可能提供 10× 返回 10×. 為了計(jì)算預(yù)期回報(bào),我們將所有回報(bào)相加,將每個(gè)回報(bào)乘以它們發(fā)生的概率。這產(chǎn)生了期望 0.5?0+0.4?2+0.1?10=1.8. 因此預(yù)期回報(bào)為 1.8×.

一般來(lái)說(shuō),隨機(jī)變量的 期望(或平均值)X定義為

(2.6.10)E[X]=Ex~P[x]=∑xxP(X=x).

同樣,對(duì)于我們獲得的密度E[X]=∫xdp(x). 有時(shí)我們對(duì)某些函數(shù)的期望值感興趣 x. 我們可以將這些期望計(jì)算為

(2.6.11)Ex~P[f(x)]=∑xf(x)P(x)andEx~P[f(x)]=∫f(x)p(x)dx

分別用于離散概率和密度。回到上面的投資例子,f可能是 與回報(bào)相關(guān)的效用(幸福)。行為經(jīng)濟(jì)學(xué)家早就注意到,人們將更大的負(fù)效用與虧損聯(lián)系起來(lái),而不是從相對(duì)于他們的基線賺取一美元所獲得的效用。此外,金錢(qián)的價(jià)值往往是次線性的。擁有 10 萬(wàn)美元與零美元可以在支付房租、吃得好、享受優(yōu)質(zhì)醫(yī)療保健與遭受無(wú)家可歸的痛苦之間產(chǎn)生差異。另一方面,擁有 200k 相對(duì)于 100k 的收益就不那么顯著了。這樣的推理激發(fā)了“金錢(qián)的效用是對(duì)數(shù)”的陳詞濫調(diào)。

如果與總損失相關(guān)的效用為 -1,與 1、2 和 10 的回報(bào)相關(guān)的效用分別為 1、2 和 4,則投資的預(yù)期幸福感為 0.5?(?1)+0.4?2+0.1?4=0.7(預(yù)計(jì)效用損失 30%)。如果這確實(shí)是你的效用函數(shù),你最好還是把錢(qián)存在銀行里。

對(duì)于財(cái)務(wù)決策,我們可能還想衡量一項(xiàng)投資的風(fēng)險(xiǎn)有多大。在這里,我們不僅關(guān)心預(yù)期值,還關(guān)心實(shí)際值相對(duì)于該值的變化幅度。請(qǐng)注意,我們不能只期望實(shí)際值和預(yù)期值之間的差異。這是因?yàn)閷?duì)差異的期望是期望的差異,因此 E[X?E[X]]=E[X]?E[E[X]]=0. 然而,我們可以看看這種差異的任何非負(fù)函數(shù)的期望。隨機(jī)變量的方差 是通過(guò)查看方差的期望值來(lái)計(jì)算的:

(2.6.12)Var[X]=E[(X?E[X])2]=E[X2]?E[X]2.

這里的平等通過(guò)擴(kuò)大 (X?E[X])2=X2?2XE[X]+E[X]2并對(duì)每個(gè)學(xué)期都抱有期望。方差的平方根是另一個(gè)有用的量,稱(chēng)為標(biāo)準(zhǔn)差。雖然方差和標(biāo)準(zhǔn)差傳達(dá)相同的信息(其中一個(gè)可以從另一個(gè)計(jì)算),但標(biāo)準(zhǔn)差具有很好的特性,即它以與隨機(jī)變量表示的原始數(shù)量相同的單位表示。

最后,隨機(jī)變量函數(shù)的方差被類(lèi)似地定義為

(2.6.13)Varx~P[f(x)]=Ex~P[f2(x)]?Ex~P[f(x)]2.

回到我們的投資示例,我們現(xiàn)在可以計(jì)算投資的方差。它由 0.5?0+0.4?22+0.1?102?1.82=8.36. 就所有意圖和目的而言,這是一項(xiàng)風(fēng)險(xiǎn)投資。請(qǐng)注意,根據(jù)數(shù)學(xué)慣例,均值和方差通常被稱(chēng)為 μ和σ2. 每當(dāng)我們使用它來(lái)參數(shù)化高斯分布時(shí),這尤其常見(jiàn)。

就像我們?yōu)闃?biāo)量 隨機(jī)變量引入期望和方差一樣,我們也可以為向量值隨機(jī)變量這樣做。期望很容易,因?yàn)槲覀兛梢园丛貞?yīng)用它們。例如, μ=defEx~P[x] 有坐標(biāo)μi=Ex~P[xi]. 協(xié)方差更復(fù)雜。我們通過(guò)對(duì)隨機(jī)變量與其均值之差的外積進(jìn)行期望來(lái)解決該問(wèn)題。

(2.6.14)Σ=defCovx~P[x]=Ex~P[(x?μ)(x?μ)?].

這個(gè)矩陣Σ稱(chēng)為協(xié)方差矩陣。查看其效果的一種簡(jiǎn)單方法是考慮一些向量 v大小與x. 它遵循

(2.6.15)v?Σv=Ex~P[v?(x?μ)(x?μ)?v]=Varx~P[v?x].

像這樣,Σ允許我們計(jì)算任何線性函數(shù)的方差x通過(guò)一個(gè)簡(jiǎn)單的矩陣乘法。非對(duì)角線元素告訴我們坐標(biāo)是如何相關(guān)的:值為 0 表示不相關(guān),其中較大的正值表示它們的相關(guān)性更強(qiáng)。

2.6.7. 討論

在機(jī)器學(xué)習(xí)中,有很多事情是不確定的!我們可以不確定給定輸入的標(biāo)簽值。我們可以不確定參數(shù)的估計(jì)值。我們甚至可以不確定到達(dá)部署的數(shù)據(jù)是否來(lái)自與訓(xùn)練數(shù)據(jù)相同的分布。

通過(guò)任意不確定性,我們表示問(wèn)題固有的不確定性,并且由于觀察到的變量無(wú)法解釋的真正隨機(jī)性。通過(guò)認(rèn)知不確定性,我們表示模型參數(shù)的不確定性,我們希望通過(guò)收集更多數(shù)據(jù)來(lái)減少這種不確定性。關(guān)于硬幣正面朝上的概率,我們可能存在認(rèn)知上的不確定性,但即使我們知道了這個(gè)概率,我們也會(huì)對(duì)未來(lái)任何拋擲的結(jié)果產(chǎn)生不確定性。無(wú)論我們觀察某人拋硬幣多長(zhǎng)時(shí)間,我們都不會(huì)超過(guò)或低于 50% 確定下一次拋硬幣會(huì)正面朝上。這些術(shù)語(yǔ)歸功于機(jī)械建模方面的文獻(xiàn),(參見(jiàn)例如Der Kiureghian 和 Ditlevsen(2009)對(duì)不確定性量化 這一方面的審查)。值得注意的是,這些術(shù)語(yǔ)構(gòu)成了輕微的語(yǔ)言濫用。認(rèn)知一詞指的是與知識(shí)有關(guān)的任何事物 ,因此在哲學(xué)意義上,所有不確定性都是認(rèn)知的。

我們看到,從一些未知概率分布中抽樣數(shù)據(jù)可以為我們提供可用于估計(jì)數(shù)據(jù)生成分布參數(shù)的信息。也就是說(shuō),這可能的速度可能非常慢。在我們的拋硬幣示例(以及許多其他示例)中,我們只能設(shè)計(jì)以以下速率收斂的估計(jì)器1/n, 在哪里n是樣本量(例如,投擲次數(shù))。這意味著通過(guò)從 10 次觀察到 1000 次觀察(通常是一項(xiàng)非常容易完成的任務(wù)),我們看到不確定性減少了 10 倍,而接下來(lái)的 1000 次觀察的幫助相對(duì)較小,僅減少了 1.41 倍。這是機(jī)器學(xué)習(xí)的一個(gè)持久特征:雖然通常很容易獲得收益,但它需要大量數(shù)據(jù),并且通常需要大量計(jì)算才能獲得更多收益。有關(guān)大規(guī)模語(yǔ)言模型這一事實(shí)的實(shí)證回顧,請(qǐng)參閱 Revels等人。(2016 年)。

我們還改進(jìn)了統(tǒng)計(jì)建模的語(yǔ)言和工具。在此過(guò)程中,我們學(xué)習(xí)了條件概率和統(tǒng)計(jì)學(xué)中最重要的方程之一——貝葉斯定理。它是通過(guò)似然項(xiàng)對(duì)數(shù)據(jù)傳遞的信息進(jìn)行解耦的有效工具P(B∣A)這解決了觀察的好壞B匹配參數(shù)選擇A和先驗(yàn)概率P(A)它決定了一個(gè)特定選擇的合理性A排在第一位。特別是,我們看到了如何根據(jù)測(cè)試的有效性和疾病本身的流行程度(即我們的先驗(yàn))應(yīng)用此規(guī)則來(lái)分配診斷概率。

最后,我們介紹了第一組關(guān)于特定概率分布影響的重要問(wèn)題,即期望和方差。雖然概率分布不僅僅有線性和二次期望,但這兩個(gè)已經(jīng)提供了大量關(guān)于分布可能行為的知識(shí)。例如,切比雪夫不等式 指出P(|X?μ|≥kσ)≤1/k2, 在哪里 μ是期待,σ2是分布的方差,并且k>1是我們選擇的置信度參數(shù)。它告訴我們,從一個(gè)分布中抽取的樣本至少有 50% 的概率落在[?2σ,2σ] 區(qū)間以期望為中心。

2.6.8. 練習(xí)

舉一個(gè)例子,觀察更多的數(shù)據(jù)可以將結(jié)果的不確定性降低到任意低的水平。

舉一個(gè)例子,觀察更多的數(shù)據(jù)只會(huì)將不確定性減少到一定程度,然后就不會(huì)再減少了。解釋為什么會(huì)出現(xiàn)這種情況,以及您預(yù)計(jì)這一點(diǎn)會(huì)出現(xiàn)在哪里。

我們憑經(jīng)驗(yàn)證明了收斂于拋硬幣的均值。計(jì)算我們?cè)诶L制后看到頭部的概率估計(jì)的方差n樣品。

方差如何與觀測(cè)值數(shù)量成比例?

使用 Chebyshev 不等式限制與期望的偏差。

它與中心極限定理有何關(guān)系?

假設(shè)我們畫(huà)n樣本xi來(lái)自具有零均值和單位方差的概率分布。計(jì)算平均值 zm=defm?1∑i=1mxi. 我們能否將切比雪夫不等式應(yīng)用于每個(gè)zm獨(dú)立?為什么不?

給定兩個(gè)概率事件P(A)和 P(B), 計(jì)算上界和下界 P(A∪B)和 P(A∩B). 提示:使用維恩圖來(lái)描繪情況。

假設(shè)我們有一系列隨機(jī)變量,比如A, B, 和C, 在哪里B只取決于A, 和C只取決于B, 你能簡(jiǎn)化聯(lián)合概率嗎P(A,B,C)?提示:這是一個(gè)馬爾可夫鏈。

在第 2.6.5 節(jié)中,假設(shè)兩個(gè)測(cè)試的結(jié)果不是獨(dú)立的。特別假設(shè)任一測(cè)試本身的假陽(yáng)性率為 10%,假陰性率為 1%。也就是說(shuō),假設(shè) P(D=1∣H=0)=0.1然后 P(D=0∣H=1)=0.01. 此外,假設(shè)對(duì)于 H=1(感染)測(cè)試結(jié)果是條件獨(dú)立的,即 P(D1,D2∣H=1)=P(D1∣H=1)P(D2∣H=1)但對(duì)于健康患者來(lái)說(shuō),結(jié)果是通過(guò)以下方式耦合的 P(D1=D2=1∣H=0)=0.02.

計(jì)算聯(lián)合概率表D1和 D2, 給定H=0根據(jù)你目前掌握的信息。

推導(dǎo)患者為陽(yáng)性的概率(H=1) 在一次測(cè)試返回正面之后。您可以假設(shè)相同的基線概率P(H=1)=0.0015像之前一樣。

推導(dǎo)患者為陽(yáng)性的概率(H=1) 在兩次測(cè)試返回正面之后。

假設(shè)你是一家投資銀行的資產(chǎn)經(jīng)理,你可以選擇股票si投資。您的投資組合需要加起來(lái)1有重量αi對(duì)于每只股票。這些股票的平均回報(bào)率 μ=Es~P[s]和協(xié)方差 Σ=Covs~P[s].

計(jì)算給定投資組合的預(yù)期回報(bào) α.

如果你想最大化投資組合的回報(bào),你應(yīng)該如何選擇你的投資?

計(jì)算投資組合的方差。

制定一個(gè)最大化回報(bào)的優(yōu)化問(wèn)題,同時(shí)將方差限制在上限。這是獲得諾貝爾獎(jiǎng)的Markovitz 作品集 (Mangram,2013 年)。要解決它,您將需要一個(gè)二次規(guī)劃求解器,這超出了本書(shū)的范圍。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • pytorch
    +關(guān)注

    關(guān)注

    2

    文章

    809

    瀏覽量

    13940
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    統(tǒng)計(jì)學(xué)的概率分布

    統(tǒng)計(jì)學(xué)術(shù)語(yǔ)總結(jié)
    發(fā)表于 09-27 16:24

    PyTorch如何入門(mén)

    PyTorch 入門(mén)實(shí)戰(zhàn)(一)——Tensor
    發(fā)表于 06-01 09:58

    概率論及數(shù)理統(tǒng)計(jì)課教學(xué)規(guī)范

    概率論及數(shù)理統(tǒng)計(jì)》課教學(xué)規(guī)范 一、 課程教學(xué)的基本要求 課程名稱(chēng):概率論及數(shù)理統(tǒng)計(jì)英文名稱(chēng):Probaility Theory and Mathematical Sta
    發(fā)表于 11-25 15:08 ?0次下載

    統(tǒng)計(jì)置信度應(yīng)用于誤差概率估計(jì)

    本文主要介紹的是統(tǒng)計(jì)置信度應(yīng)用于誤差概率估計(jì)。
    發(fā)表于 04-22 11:39 ?23次下載

    概率論與數(shù)理統(tǒng)計(jì)視頻教程下載

    概率論與數(shù)理統(tǒng)計(jì)視頻教程一共有四個(gè)免費(fèi)視頻教程,請(qǐng)自已選擇喜歡的視頻教程。 本概
    發(fā)表于 07-05 18:40 ?494次下載
    <b class='flag-5'>概率</b>論與數(shù)理<b class='flag-5'>統(tǒng)計(jì)</b>視頻教程下載

    概率論與數(shù)理統(tǒng)計(jì)學(xué)習(xí)資料

     《概率論與數(shù)理統(tǒng)計(jì)》優(yōu)秀學(xué)習(xí)資料,概率論與數(shù)理統(tǒng)計(jì)學(xué)習(xí)資料隨機(jī)試驗(yàn)、樣本空間與隨機(jī)事件(1)隨機(jī)試驗(yàn):具有以下三個(gè)特點(diǎn)的試驗(yàn)稱(chēng)為隨機(jī)試驗(yàn),記為E.1) 試驗(yàn)可
    發(fā)表于 02-13 11:40 ?0次下載

    matlab概率統(tǒng)計(jì)實(shí)驗(yàn)

    matlab概率統(tǒng)計(jì)實(shí)驗(yàn)9.1 實(shí)驗(yàn)(I):Galton釘板試驗(yàn)9.1.1 實(shí)驗(yàn)與觀察: Galton釘板模型和二項(xiàng)分布        1. 動(dòng)
    發(fā)表于 10-17 00:38 ?4444次閱讀
    matlab<b class='flag-5'>概率</b><b class='flag-5'>統(tǒng)計(jì)</b>實(shí)驗(yàn)

    工程數(shù)學(xué)概率統(tǒng)計(jì)教程課后習(xí)題答案

    本內(nèi)容向大家提供了《工程數(shù)學(xué)概率統(tǒng)計(jì)教程》的課后習(xí)題答案, 完整的詳細(xì)的解題思路及題目的答案等,適合廣大學(xué)生及相關(guān)人員學(xué)習(xí)借鑒
    發(fā)表于 03-15 15:14 ?56次下載

    概率論與數(shù)理統(tǒng)計(jì)習(xí)題答案

    電子發(fā)燒友為大家提供了 概率論 與數(shù)理統(tǒng)計(jì)習(xí)題答案,幫助您解決在學(xué)習(xí)中遇到無(wú)法單獨(dú)解決的問(wèn)題,希望對(duì)您的學(xué)習(xí)有所幫助,為您的學(xué)習(xí)提供便捷之路!
    發(fā)表于 07-14 16:56 ?85次下載

    概率論與數(shù)理統(tǒng)計(jì)PDF電子書(shū)免費(fèi)下載

    主要內(nèi)容包括:概率論的基本概念、隨機(jī)變量及其概率分布、數(shù)字特征、大數(shù)定律與中心極限定理、統(tǒng)計(jì)量及其概率分布、參數(shù)估計(jì)和假設(shè)檢驗(yàn)、回歸分析、方差分析、馬爾科夫鏈等內(nèi)容。
    發(fā)表于 11-25 08:00 ?0次下載
    <b class='flag-5'>概率</b>論與數(shù)理<b class='flag-5'>統(tǒng)計(jì)</b>PDF電子書(shū)免費(fèi)下載

    概率論與數(shù)理統(tǒng)計(jì)的復(fù)習(xí)題和答案免費(fèi)下載

    本文檔的主要內(nèi)容詳細(xì)介紹的是概率論與數(shù)理統(tǒng)計(jì)的復(fù)習(xí)題和答案免費(fèi)下載。
    發(fā)表于 06-28 08:00 ?16次下載
    <b class='flag-5'>概率</b>論與數(shù)理<b class='flag-5'>統(tǒng)計(jì)</b>的復(fù)習(xí)題和答案免費(fèi)下載

    DSP教程之統(tǒng)計(jì)概率和噪聲的詳細(xì)資料說(shuō)明

    統(tǒng)計(jì)概率在數(shù)字信號(hào)處理中被用來(lái)描述信號(hào)和產(chǎn)生它們的過(guò)程。例如,DSP的主要用途是減少所采集數(shù)據(jù)中的干擾、噪聲和其他不需要的分量。這些可能是被測(cè)信號(hào)的固有部分,由數(shù)據(jù)采集系統(tǒng)的缺陷引起,或作為某些
    發(fā)表于 10-22 16:05 ?4次下載
    DSP教程之<b class='flag-5'>統(tǒng)計(jì)</b><b class='flag-5'>概率</b>和噪聲的詳細(xì)資料說(shuō)明

    基于概率統(tǒng)計(jì)等的云計(jì)算隱私保護(hù)綜合評(píng)價(jià)模型

    基于概率統(tǒng)計(jì)等的云計(jì)算隱私保護(hù)綜合評(píng)價(jià)模型
    發(fā)表于 06-24 17:02 ?13次下載

    概率統(tǒng)計(jì)與隨機(jī)過(guò)程期末試卷及答案下載

    概率統(tǒng)計(jì)與隨機(jī)過(guò)程期末試卷及答案下載
    發(fā)表于 09-06 16:12 ?0次下載

    PyTorch教程2.6概率統(tǒng)計(jì)

    電子發(fā)燒友網(wǎng)站提供《PyTorch教程2.6概率統(tǒng)計(jì).pdf》資料免費(fèi)下載
    發(fā)表于 06-05 11:29 ?1次下載
    <b class='flag-5'>PyTorch</b>教程<b class='flag-5'>2.6</b>之<b class='flag-5'>概率</b><b class='flag-5'>統(tǒng)計(jì)</b>