В моей домашней работе я должен изобразить, что метод может генерировать распределение Гаусса. программа Matlab показана ниже:
n=100;
b=25;
len=200000;
X=rand(n,len);
x=sum(X-0.5)*b/n;
[ps2,t2]=hist(x,50);
ps2=ps2/len;
bar(t2,ps2,'y');
hold on;
sigma_2=b^2/(12*n);
R=normrnd(0,sqrt(sigma_2),1,len);
[ps2,t2]=hist(R,50);
ps2=ps2/len;
plot(t2,ps2,'bo-','linewidth',1.5);
x представляет собой сумму n равномерно распределенных переменных, умноженных на b/n. И x распределен по Гауссу с нулевым средним и sigma ^ 2 = b ^ 2/12n. Затем я получил изображение, где два распределения совпали. Однако, когда я подставил t2 внутрь функции плотности нормального распределения f(x)=exp(-x.^2/(2*sigma_2))/sqrt(2*pi*sigma_2)
, результат получился значительно больше, чем первый, хотя форма аналогична.
Я блуждаю, почему это происходит?