关键词Python | MATLAB | R | 数学 | 二元 | 高斯 | 贝叶斯 | 统计 | 概率 | 先验 | 后验 | 概率差 | 图形模型 | 智商 | 皮尔逊相关性 | 时间 | 记忆 | 信号 | 外部物理刺激 | 内部心理 | 感觉 | 超感知 | 语义相关 | 连续回忆 | 尺度不变记忆 | 感知和学习 | 风险判断 | 偏好 | 个体心里差异 | 多维心理刺激 | 个体相似性
🏈 指点迷津 | Brief 🎯要点
🎯图形模型推断二元过程概率:🖊模型1:确定成功率 θ 的后验分布 | 🖊模型2:确定两个概率差 \delta 的后验分布 | 🖊模型3:确定底层概率,后验预测 | 🖊模型4:推断概率分布和试验次数。
模型1 分布:
θ ∼ Beta ( 1 , 1 ) k ∼ Binomial ( θ , n ) \begin{aligned} & \theta \sim \operatorname{Beta}(1,1) \\ & k \sim \operatorname{Binomial}(\theta, n)\end{aligned} θ ∼ Beta ( 1 , 1 ) k ∼ Binomial ( θ , n )
模型2 分布:
k 1 ∼ Binomial ( θ 1 , n 1 ) k 2 ∼ Binomial ( θ 2 , n 2 ) θ 1 ∼ Beta ( 1 , 1 ) θ 2 ∼ Beta ( 1 , 1 ) δ ← θ 1 − θ 2 \begin{aligned} k_1 & \sim \operatorname{Binomial}\left(\theta_1, n_1\right) \\ k_2 & \sim \operatorname{Binomial}\left(\theta_2, n_2\right) \\ \theta_1 & \sim \operatorname{Beta}(1,1) \\ \theta_2 & \sim \operatorname{Beta}(1,1) \\ \delta & \leftarrow \theta_1-\theta_2\end{aligned} k 1 k 2 θ 1 θ 2 δ ∼ Binomial ( θ 1 , n 1 ) ∼ Binomial ( θ 2 , n 2 ) ∼ Beta ( 1 , 1 ) ∼ Beta ( 1 , 1 ) ← θ 1 − θ 2
模型3 分布:
k 1 ∼ Binomial ( θ , n 1 ) k 2 ∼ Binomial ( θ , n 2 ) θ ∼ Beta ( 1 , 1 ) \begin{aligned} k_1 & \sim \operatorname{Binomial}\left(\theta, n_1\right) \\ k_2 & \sim \operatorname{Binomial}\left(\theta, n_2\right) \\ \theta & \sim \operatorname{Beta}(1,1)\end{aligned} k 1 k 2 θ ∼ Binomial ( θ , n 1 ) ∼ Binomial ( θ , n 2 ) ∼ Beta ( 1 , 1 )
模型4 分布:
k i ∼ Binomial ( θ , n ) θ ∼ Beta ( 1 , 1 ) n ∼ Categorical ( 1 n max , … , 1 n max ⏟ m ) \begin{aligned} k_i & \sim \operatorname{Binomial}(\theta, n) \\ \theta & \sim \operatorname{Beta}(1,1) \\ n & \sim \operatorname{Categorical}(\underbrace{\frac{1}{n_{\max }}, \ldots, \frac{1}{n_{\max }}}_m)\end{aligned} k i θ n ∼ Binomial ( θ , n ) ∼ Beta ( 1 , 1 ) ∼ Categorical ( m n m a x 1 , … , n m a x 1 )
🎯 图形模型高斯推理::pen:模型5:推断高斯分布生成的数据的平均值和标准差 | :pen:模型6:标准差和观察值添加精度先验,推断高斯平均值 | :pen:模型7:重复测量推断智商
模型5 分布:
μ ∼ Gaussian ( 0 , 0.001 ) σ ∼ Uniform ( 0 , 10 ) x i ∼ Gaussian ( μ , 1 σ 2 ) \begin{aligned} \mu & \sim \operatorname{Gaussian}(0,0.001) \\ \sigma & \sim \operatorname{Uniform}(0,10) \\ x_i & \sim \operatorname{Gaussian}\left(\mu, \frac{1}{\sigma^2}\right)\end{aligned} μ σ x i ∼ Gaussian ( 0 , 0.001 ) ∼ Uniform ( 0 , 10 ) ∼ Gaussian ( μ , σ 2 1 )
模型6分布:
μ ∼ Gaussian ( 0 , 0.001 ) λ i ∼ Gamma ( 0.001 , 0.001 ) σ i ← 1 / λ i x i ∼ Gaussian ( μ , λ i ) \begin{aligned} \mu & \sim \operatorname{Gaussian}(0,0.001) \\ \lambda_i & \sim \operatorname{Gamma}(0.001,0.001) \\ \sigma_i & \leftarrow 1 / \sqrt{\lambda_i} \\ x_i & \sim \operatorname{Gaussian}\left(\mu, \lambda_i\right)\end{aligned} μ λ i σ i x i ∼ Gaussian ( 0 , 0.001 ) ∼ Gamma ( 0.001 , 0.001 ) ← 1/ λ i ∼ Gaussian ( μ , λ i )
模型7分布:
μ i ∼ Uniform ( 0 , 300 ) σ ∼ Uniform ( 0 , 100 ) x i j ∼ Gaussian ( μ i , 1 σ 2 ) \begin{aligned} \mu_i & \sim \operatorname{Uniform}(0,300) \\ \sigma & \sim \operatorname{Uniform}(0,100) \\ x_{i j} & \sim \operatorname{Gaussian}\left(\mu_i, \frac{1}{\sigma^2}\right)\end{aligned} μ i σ x ij ∼ Uniform ( 0 , 300 ) ∼ Uniform ( 0 , 100 ) ∼ Gaussian ( μ i , σ 2 1 )
模型8 分布:
μ 1 , μ 2 ∼ Gaussian ( 0 , 0.001 ) σ 1 , σ 2 ∼ InvSqrtGamma ( 0.001 , 0.001 ) r ∼ Uniform ( − 1 , 1 ) x i ∼ MvGaussian ( ( μ 1 , μ 2 ) , [ σ 1 2 r σ 1 σ 2 r σ 1 σ 2 σ 2 2 ] − 1 ) \begin{aligned} \mu_1, \mu_2 & \sim \operatorname{Gaussian}(0,0.001) \\ \sigma_1, \sigma_2 & \sim \operatorname{InvSqrtGamma}(0.001,0.001) \\ r & \sim \operatorname{Uniform}(-1,1) \\ x _i & \sim \operatorname{MvGaussian}\left(\left(\mu_1, \mu_2\right),\left[\begin{array}{cc}\sigma_1^2 & r \sigma_1 \sigma_2 \\ r \sigma_1 \sigma_2 & \sigma_2^2\end{array}\right]^{-1}\right)\end{aligned} μ 1 , μ 2 σ 1 , σ 2 r x i ∼ Gaussian ( 0 , 0.001 ) ∼ InvSqrtGamma ( 0.001 , 0.001 ) ∼ Uniform ( − 1 , 1 ) ∼ MvGaussian ( ( μ 1 , μ 2 ) , [ σ 1 2 r σ 1 σ 2 r σ 1 σ 2 σ 2 2 ] − 1 )
🎯 时间和记忆关系 | 🎯 心里信号检测 | 🎯 外部物理刺激内部心理感觉 | 🎯 超感知学 | 🎯 语义相关连续回忆 | 🎯 尺度不变记忆、感知和学习 | 🎯 风险判断和偏好个体心里差异 | 🎯 多维心理刺激个体相似性。
🍇Python后验分布采样计算
贝叶斯计算由一系列方法组成,这些方法可以帮助我们从几乎所有后验分布中采样点,从中我们可以对感兴趣的参数进行点估计。
💦方法一
让我们从一个例子开始,如果我们想从后验分布 f(x) 中绘制点,它具有以下函数形式:
f ( x ) = x 1.7 ( 1 − x 1 + x ) 5.3 f(x)=x^{1.7}\left(\frac{1-x}{1+x}\right)^{5.3} f ( x ) = x 1.7 ( 1 + x 1 − x ) 5.3 我们称这个 f(x) 为目标分布/密度,然后我们提出一个更简单的分布(候选分布),我们可以从中采样点。我们使用均匀分布 g(x),希望当将 g(x) 与常数 M 相乘时,Mg(x) 可以包裹 f(x)。此时,M 很容易被选为 f(x) 的最大值。
现在我们首先从另一个均匀分布 Uniform(0,1) 中独立采样,我们将采样点表示为 u。我们还从候选分布 g(x) 中采样,并将采样点表示为 y。我们测试采样点 u 是否符合以下标准:
u ≤ 1 M f ( y ) g ( y ) u \leq \frac{1}{M} \frac{f(y)}{g(y)} u ≤ M 1 g ( y ) f ( y ) 如果符合,我们将 y 视为目标分布的样本,否则,我们拒绝 y。乍一看,这一步可能很难理解。其背后的想法是,如果有一个区域,比如 [0.2,0.3],其中目标密度 f(x) 的密度非常高,那么该区域内的 f(y)/M*g(y) 也会很高,可能接近 1。由于 u 是从标准均匀分布中随机抽取的(u 只是用来控制是拒绝还是接受 y),这个指标更有可能为真,从而导致接受采样的 y。
💦代码
Copy x = np.linspace(0,1,1000)
f_x = x**1.7*((1-x)/(1+x))**5.3
M = f_x.max()
def f(x):
return x**1.7*((1-x)/(1+x))**5.3
def g(x):
return uniform.pdf(x,loc=0,scale=1)
n = 2500
u = uniform.rvs(loc=0,scale=1,size=n,random_state=1)
y = uniform.rvs(loc=0,scale=1,size=n,random_state=2)
f_y = f(y)
g_y = g(y)
acc_or_rej = u <= f_y / (M * g_y)
accepted_y = y[acc_or_rej]
sns.histplot(accepted_y)
估计的目标分布可以绘制如下(图略)。
💦方法二:
蒙特卡罗方法代表了一类广泛的算法,这些算法依赖于重复随机抽样来估计所需的数量。该数量可能是圆周率值,也可能是陌生函数形式的积分。蒙特卡罗最经典的例子是估计圆周率的值,我们首先从两个标准均匀分布中随机抽取 x 和 y,并询问 x^2+y^2 是否 < 1,如果答案为真,则将计数器加 1。在随机抽样结束时,我们可以计算计数器与总迭代次数的比率(如果使用正方形和内切圆的面积公式,则应为 pi/4)。
马尔可夫链是一个随机过程,其中当前值仅取决于其直接前一个值。我非常喜欢的一个简单例子是天气预报,如果我们假设一天的天气有三种可能的状态(晴天、多云、下雨),我们有一个初始分布,其中 p(晴天)=0.6、p(多云)=0.3 和 p(下雨)=0.1,现在给定一个转换核 K,它是一个矩阵
( 晴天 阴天 雨天 晴天 0.5 0.3 0.2 阴天 0.3 0.5 0.2 雨天 0.2 0.4 0.4 ) \left(\begin{array}{cccc} & \text { 晴天 } & \text { 阴天 } & \text { 雨天 } \\ \text { 晴天 } & 0.5 & 0.3 & 0.2 \\ \text { 阴天 } & 0.3 & 0.5 & 0.2 \\ \text { 雨天 } & 0.2 & 0.4 & 0.4 \end{array}\right) 晴天 阴天 雨天 晴天 0.5 0.3 0.2 阴天 0.3 0.5 0.4 雨天 0.2 0.2 0.4 我们能够使用初始分布和转换内核导出任意一天的状态分布。当我们继续这样做时,如果状态分布保持不变,它就会达到平稳分布。
虽然马尔可夫链的离散场景更容易理解,但我们最终需要将其推广到状态空间无限的连续情况,这意味着我们将拥有无限多个状态,而不是只有三个状态(晴天、多云、下雨)。所以我们需要使用分布来表示每个时间点的状态分布。例如,如果我们说状态的初始分布遵循 Normal(0,3),那么转移概率也应该是 p ( x n + 1 ∣ x n ) = K ( x n + 1 ∣ x n ) = N o r m a l ( x n , 0.1 ) p(x_n+1|x_n) = K(x_n+1|x_n) = Normal(x_n,0.1) p ( x n + 1∣ x n ) = K ( x n + 1∣ x n ) = N or ma l ( x n , 0.1 ) 的分布,并且所有上述属性与离散场景保持一致。
现在我们要从目标密度 f(x) 中采样:
f ( x ) = 2 x 2 ( 1 − x ) 8 cos ( 4 π x ) 2 f(x)=2 x^2(1-x)^8 \cos (4 \pi x)^2 f ( x ) = 2 x 2 ( 1 − x ) 8 cos ( 4 π x ) 2 假设我们正在创建一个马尔可夫链,其中转换内核 q ( x , y ) q(x,y) q ( x , y ) 为(其中 x 是当前时间点,y 是最后一个时间点):
q ( x , y ) = Normal ( y , 0.1 ) q(x, y)=\operatorname{Normal}(y, 0.1) q ( x , y ) = Normal ( y , 0.1 ) Metropolis-Hasting (MH) 算法首先初始化向量 x 的第一个值(假设我们将使用 MCMC 采样 n=10,000 个 x 值)x[0] 。然后在每次迭代中,我们首先使用转换内核生成一个 x_cand,并且我们需要计算接受率 alpha 来决定下一个 x 是采用 x_cand 还是仅采用最后一个 x 值。接受率如下所示:
α ( x cand ∣ x i − 1 ) = min { 1 , q ( x i − 1 ∣ x cand ) f ( x cand ) q ( x cand ∣ x i − 1 ) f ( x i − 1 ) } \alpha\left(x_{\text {cand }} \mid x_{i-1}\right)=\min \left\{1, \frac{q\left(x_{i-1} \mid x_{\text {cand }}\right) f\left(x_{\text {cand }}\right)}{q\left(x_{\text {cand }} \mid x_{i-1}\right) f\left(x_{i-1}\right)}\right\} α ( x cand ∣ x i − 1 ) = min { 1 , q ( x cand ∣ x i − 1 ) f ( x i − 1 ) q ( x i − 1 ∣ x cand ) f ( x cand ) } 代码如下:
Copy def f(x):
import math
return 2*x**2*(1-x)**8*math.cos(4*math.pi*x)**2
def q(x,y):
return norm.pdf(x,loc=y,scale=0.1)
n = 10000
x = np.zeros(n)
x[0] = norm.rvs(loc=0,scale=0.1,size=1)[0]
for i in range(n-1):
while True:
x_cand = norm.rvs(loc=x[i],scale=0.1,size=1)[0]
if x_cand >= 0 and x_cand <= 1:
break
if x_cand >= 0 and x_cand <= 1:
rho = (q(x[i],x_cand)/q(x_cand,x[i]))*(f(x_cand)/f(x[i]))
alpha = min(1,rho)
u = uniform.rvs(loc=0,scale=1,size=1)[0]
if u < alpha:
x[i+1] = x_cand
else:
x[i+1] = x[i]
sns.histplot(x)
fig,ax = plt.subplots()
ax.plot(np.arange(10000),x)
💦分层贝叶斯
Copy nruns = 10000
K = 100
n = 1000
y = np.zeros(K,n)
lambda_est = np.zeros(K,nruns)
sigma_est = np.zeros(nruns)
mu_est = np.zeros(nruns)
tau_est = np.zeros(nruns)
for i in range(K):
loc = uniform.rvs(loc=0,scale=10,size=1)[0]
scale = uniform.rvs(loc=0,scale=0.1,size=1)[0]
lambda_est[i,0] = norm.rvs(loc=loc,scale=scale,size=1)[0]
sigma_est[0] = uniform.rvs(loc=0,scale=0.1,size=1)[0]
mu_est[0] = norm.rvs(loc=uniform.rvs(loc=0,scale=10,size=1)[0],scale=1,size=1)[0]
tau_est[0] = uniform.rvs(loc=0,scale=0.1,size=1)[0]
for runs in range(1,n_runs-1,1):
for i in range(1,K-1):
mean = i/math.sqrt(1/tau_est[runs-1]) + n/sigma_est[runs-1]
std = (mean^2)*(mu_est[runs-1]/(tau_est[runs-1])+y[i,:].mean()*n/sigma_est[runs-1])
lambda_est[i,runs] = norm.rvs(loc=mean,scale=std,size=1)[0]
sigma_sum_term = 0
for i in range(K):
for j in range(n):
sigma_sum_term += (y[i,j]-lambda_est[i,runs])**2
sigma_est[runs] = invgamma(loc=K*n/2,scale=sigma_sum_term/2)
tau_sum_term = 0
for i in range(K):
tau_sum_term += (lambda_est[i,runs]-mu_est[runs-1])**2
tau_est[runs] = invgamma(loc=K/2,scale=tau_sum_term/2)
mu_est[runs] = norm.rvs(loc=lambda_est[:,runs-1].mean(),scale=math.sqrt(tau_est[runs]/2))