Bingo, Computer Graphics & Game Developer
本文为在Scratchapixel上学习相机模型时的个人理解。本文不做翻译或搬运工作,只描述个人学习上的理解。
PS: 这一章略过Depth of field(景深)的概念
易混淆概念解读
Camera Parameter | Description |
---|---|
Focal Length | eye到真实film平面的距离,与光圈一道用于计算FOV/AVO。焦距容易和虚拟相机中的虚拟film平面到eye之间的距离混淆,虚拟film平面一般位于近裁剪面 |
Camera Aperture | 光圈定义了真实相机的物理维度,与焦距一道用于计算FOV/AVO。同时光圈的两个维度也定义了film gate aspect ratio大小。Wiki中列举了大多数常见的film参数。 |
Clipping Planes | 远近裁剪面是虚拟的平面,其位于摄像机的视锥体中,只有在远近裁剪面中的对象才会被渲染。由于画布经常与近裁剪面放置在一起,因此要提防与Focal Length概念混淆。 |
Image Size | 输出图像的尺寸/像素,图像尺寸定义了resolution gate aspect ratio。 |
由以上的这些概念可以推导计算出下面这些变量的值
Variable | Decription |
---|---|
Angle of View | 由Focal Length与Film Size(Camera Aperture)计算得到 |
Canvas/Screen Window | 其宽高比例与真实光圈定义得到的film gate aspect ratio一致,可以根据Canvas Size以及光圈快门宽高比例计算得到 |
Film Gate Aspect Ratio | ,这里film为真实相机的胶卷尺寸 |
Resolution Gate Aspect Ratio | ,这里image为输出的像素宽高比图像的 |
光圈(Aperature):本质上,在平红相机模型中,光圈就是暗室上的那个小洞。但是在现实生活中光圈(pin hole camera model)有一系列的问题。
首先,较大的光圈将会产生模糊的图像(在物体上的同一个位置反射的光子有较大概率在背景布上重叠),但可以大大增大进光量减少曝光时间(曝光时间越长,那么拍摄非静止物体就会模糊)。
然而,为了得到一个边缘清晰锐利可辨的图像,减小光圈直径又是必要的,但这也要求曝光时间增加来提高画面亮度,这也提高了画面模糊的概率。
上述概念可由下两动图解释
为了解决曝光时间和边缘锋利的矛盾,人们将平红相机的洞替换为了凸透镜
。如图所示,更大的光圈可以带来更佳的进光量,减少曝光时间,同时,他也可以将一定距离内的物体上反射的光重新在背景布上汇聚(不同的焦距将会带来不同的景深)。
景深表示在场景中,可见的最远的物体和最近的物体之间的距离(边缘锋利可辨)。因此平红相机的景深为无限大,因为他只是简单的讲光路重现在背景布上,不存在透镜相机的光路汇集的情况。
视角(Angle of View/AOV, Field of View/FOV):视角与两个参数息息相关,底片尺寸与焦距。也就是说改变两者中的任何一个都会引起视角的变化。
同样的若想要在不同的底片大小上获得一致的内容,那么就要适当的调整焦距大小,这也就带来清晰度的影响。因为底片越大,相同的内容展示的也就越清晰。
同时这三个参数都是互相衔接的,也就是只要知道三者中的任何两个,就可以计算出剩下一个参数的大小。当然数字相机拍摄的画面已经不再受到底片的大小的影响了(传感器大小)。
胶片框比例(File Gate Radio)与图像分辨率比例(Resolution Gate Ratio):这两者是很有可能不一致的,那么这时候你使用的相机就是变形镜头。
两者比例不同时,你可能面临画面选择的问题。因此Maya给出两个选项:过扫描(Oversan)和填充(Fill)如下图。
基本未知量推导
相机原点就可以理解为Eye所在位置
是FOV(视角/视野),可以通过求解显示得到。
也就是所谓的近裁剪面,因此近裁剪面的位置不同,画布的大小也会随之改变。当近裁剪面位于位置时,相应计算而来的
只要得到Canvas Size就可以通过aspect ratio以及简单的坐标变换得到[left, top, right, bottom]各自的值。
本文为在Scratchapixel上学习的翻译读后感与部分个人解读。这里不会将全篇的内容系数翻译,保留原文以便后期自行理解,笔者只精炼一些文章中关键的点出来便于记录。
蒙特卡洛方法(Monte Carlo methods):是一个使用随机采样的数值方法来解决数学问题的方法。
原始的蒙特卡洛方法是允许任意分布采样的,所有的非均匀采样的目的都是降低方差提高估计量的有效性也就是重要性采样。
各向同性散射(Isotropic scattering)与各向异性散射(Anistropic scattering):一个光子在进入一个材质时发生了散射,并且其改变后了的方向是随机的,被称为是各项同性;反之,光子改变后了的方向若是只在一个圆锥方向内,那么被称之为各向异性。
对于函数的积分求解,可以用面积法来表达
下图中,在函数上随机采样一点,那么结果。但是很明显它和实际收敛结果差距较大。
增加采样数目到4个点,此时对这几个点所求面积进行平均。那么最终的近似结果很明显根据大数定理会不断的逼近真实收敛值。
以下公式很好的表达了这个思想
其中表示了在采样空间中采样N个点之后的近似值,也等价于之前所讲到的样本均值。
这里采样点满足均匀分布,即。
也是随机变量(随机变量的和),其期望就是本身。
E[\langle F^N \rangle] & = & E \left[ (b-a) \dfrac{1}{N } \sum_{i=0}^{N-1} f(x_i)\right],\\
& = & (b-a)\dfrac{1}{N}\sum_{i=0}^{N-1}E[f(x)],\\
& = &(b-a)\dfrac{1}{N} \sum_{i=0}^{N-1} \int_a^b f(x)pdf(x)\:dx\\
& = & \dfrac{1}{N} \sum_{i=0}^{N-1} \int_a^b f(x)\:dx,\\
&=& \int_a^b f(x)\:dx,\\
&=&F\\
\end{array}
原文中公式有误,已纠正求和部分
由于前面选用了均匀分布的的缘故,下面推广到任意上。下方为通用的蒙特卡洛估计量的写法。
对其求取期望验证正确性
E[\langle F^N \rangle ] & = & E \left[ \dfrac{1}{N } \sum_{i=0}^{N-1} \dfrac{f(X_i)}{pdf X_i)} \right],\
& = & \dfrac{1}{N} \sum_{i=0}^{N-1} E\left[ \dfrac{f(X_i)}{pdf(X_i) }\right],\
& = & \dfrac{1}{N} \sum_{i=0}^{N-1} \int_\Omega \dfrac{f(x)}{pdf(x)} pdf(x)\;dx, \\
& = & \dfrac{1}{N} \sum_{i=0}^{N-1} \int_\omega f(x) \; dx, \
& = & F.
\end{array}
上下限这样一个积分区间在通用写法中是隐藏的。原因很简单,的产生是因为估计量下均匀分布的引起的。
因此原式应该是这样:,而写法会更容易能够从图中直接推出。
无偏:样本均值的期望就是求解积分本身
一致:随着样本容量的增大,估计量愈来愈接近总体参数的真值)
重要性采样作为减小方差众多方法中的一个,本身的思想较为直接。
以下为不同采样分布的采样点对于近似值的影响(会高于或者低于真实积分解)。
此图中均匀分布其值勉强,但采样过程中似乎遗漏了函数当中较为重要的部分(一个高峰被忽略)。而右边的人为的采样也并不是一个较好的方法,这将会导致偏差(bias)。
如若被积函数为常数函数,那么采样选用均匀分布得到的结果本身就是正确的。
现有一函数,他与函数成比例
因此
那么这里代入蒙特卡洛估计量,联系常数函数的采样的结论。
也就是说,只要与被积函数成比例,蒙特卡洛积分的方差就是0(常数函数的方差为0)。换言之,与被积函数的相似度越高,那么偏差也就越低。
以,区间为例
F & = & \int_0^{\pi \over 2} \sin(x) \; dx \\
& = & \left[ -\cos(x) \right]_0^{\pi \over 2} \\
& = & -\cos(\dfrac{\pi}{2}) - - \cos(0) \\
& = & 1.
\end{array}
选用两个不同的进行对比
# | Uniform | Importance | Error Uniform % | Error Importance % |
---|---|---|---|---|
0 | 1.125890 | 0.969068 | 12% | -3% |
1 | 1.277833 | 0.925675 | 27% | -7% |
2 | 1.054394 | 0.980940 | 5% | -1% |
3 | 1.125890 | 0.969068 | 12% | -1% |
4 | 1.125890 | 0.969068 | 12% | -6% |
5 | 0.830151 | 1.041751 | -16% | 4% |
6 | 1.062268 | 0.989363 | 6% | -1% |
7 | 0.849265 | 1.043809 | -15% | 4% |
8 | 0.921527 | 1.020279 | -7% | 2% |
9 | 1.002310 | 0.994284 | 0% | 0% |
很明显的是,结果非常符合重要性采样理论。
随机采样中无法避免的就是当采样点近乎重合的现象(clump),这也就意味着在最终计算时,其中一个采样点的信息也就被浪费,这不利于收敛的快速计算。
分层采样(Stratified Sampling): The interval of integration is divided into N subintervals or cells (also often called strata), samples are placed in the middle of these subintervals but are jittered by some negative or positive random offset which can’t be greater than half the width of a cell
换言之就是,其中。分层采样的思想介于随机采样和均匀采样之间的。
低差异化序列(Low-Discrepancy Sequences):The goal is to generate sequences of samples which are not exactly uniformly distributed (uniformly distributed samples cause aliasing) and yet which appear to have some regularity in the way they are spaced.
Van der Corput Sequence的简介可见链接,思想就是将整数转换为二进制形式,根据小数点镜像对称。根据将给定的整数转换为小数形式。
本文为在Scratchapixel上学习的翻译读后感与部分个人解读。这里不会将全篇的内容系数翻译,保留原文以便后期自行理解,笔者只精炼一些文章中关键的点出来便于记录。
概率密度函数(Probabilify density function):When a function such as the normal distribution defines a continuous probability distribution. In other words, pdfs are used for continuous random variables.
The PDF can be used to calculate the probability that a random variable lies within an interval:
概率密度函数对概率的积分必为1
概率质量函数(the probability mass function)用于描述离散型随机变量; 概率密度函数(probability distribution function)用于描述连续型随机变量。
累积分布函数(Cumulative Distribution Function/Probability distribution function):CDFs are monotonically increasing functions.It’s not strictly monotic though. There may be intervals of constancy.
cdf是pdf在区间上的和,pdf(x)是cdf在「点」x上的斜率/导数
统计师的无意识法则(law of the unconscious statistician):In practice, you don’t necessarily know the probability distribution of F(X). Of course you can calculate it, but this is an extra step, which you can avoid if you use the second method.
假定函数是关于随机变量的一个映射(因此本身也是随机变量),那么举例而言,现求函数的期望。
根据期望的定义(离散型随机变量,连续型随机变量),我们需要知道F(X)的。
若的采样空间为,那么对其所有的可能值进行计算
也就可以得到的「离散型表达」(连续性和离散型本质相同)
最后一步计算的期望也就顺理成章
所以这里使用随机变量代替随机变量,就有
根本不需要知道的具体概率分布,直接根据随机变量的概率分布就可以求出的期望。
原因在于,在计算期望的时候,多做了一步工作。也就是将上述式子当中相同的对应的概率进行了合并(),但只为求解他的。所以事实上这一步在求解期望过程中并不需要。
对比中,我们将中间合并过程得到的直接替换为了的概率分布。之所以称之为无意识的,是因为这一个过程非常的直观,以至于没有意识的状态下统计学家就得出了这样一个结论,同时也是毫无疑问正确的,因此而得名,How did the Law of the Unconscious Statistician get its name?
简介背景,目前已有函数的一堆数据(这个可能是数学分析就可以解决的自然的概率分布,或是任意的),那么我们就可以通过求解的反函数,进行均匀采样计算就可以得到对应的密度分布。
1.计算机中求解的步骤是如何实现的?
首先对已有数据进行累加求解对应累积分布函数(CDF),如图
在y轴上进行均匀采样(Uniform Distribution),假定当前生成随机数,那么求取其下界(最接近该y值的采样点,且采样点的)
以下证明方法和原文略有不同,更好理解
令图中采样点坐标为
那么所求随机数生成点的x轴坐标,令为采样点间间距,随机采样点x坐标「?」与下界之差为k,其中采样区间为,采样数量为
那么所求「?」即为
为了将「?」控制在区间之间(定义),需要做一次映射
最终,得到横坐标值之后(也就是在的x轴上均匀采样得到y值)绘图得到
2.上述过程中并没有求反函数过程,为何要求反函数?
本质上当对的y轴进行均匀采样求解x的时候,就已经是在隐含求解了,不过因为不是所有的都可以显式的通过数学分析变换,因此计算机中求解使用的是通用过程。
3.指数分布的反函数求解过程
P(X>t) & = & \int^{\infty}_t \lambda e^{-\lambda x}dx \\
& = & \int_{-\infty}^t \lambda e^{-\lambda x} -\frac{1}{\lambda}d(-\lambda x)
\end{array}
令,当时,;当, ,变换函数在上单值,在上连续
那么求取的反函数
那么最终对此函数进行采样,得到的结果就是指数分布。
原文中有误,缺且最后结果e幂上少符号缺,y的表达式有误,目前已反馈给Scratchapixel
参数(Parameter):参数是指描述总体特征的一个或若干个数值,例如总体(Population)的均值、总体的比例和总体的方差等数字特征,两个或两个以上总体间的相关系数、偏相关系数、复相关系数和回归系数等数字特征。
在一般情况下,总体参数是未知的,例如一个国家或地区的人口总数、GDP总量、小麦总产量、人均可支配收入和产品的合格率等都是总体未知参数,而通过全面调查取得这些未知参数需要付出高昂的成本。参数估计的目的就是利用抽样得到的样本信息来估计未知的总体参数(详情可见参数的概念)
估计量(Estimator)与估计值(Estimate): The sample mean is a form of estimator, but in the general sense, an estimator is a function operating on observable data and returning an estimate of the population’s parameter value .
This function is what we call an estimator of the parameter and the result of is called an estimate of .(An estimation of the population’s paramter ).
采样均值其实就是总体未知参数的一个估计量,本质上估计量就是一组数据的函数。估计量就是随机变量的一个映射,因此本身他也是随机变量。
常见估计量
估计量和估计值之间的区别: An estimate is a specific value of the estimator which we can determine by using observable values . The estimator is a function of the random vector while again, an estimate is a just specific value .
一句话概括,估计值只是估计总体未知参数的某一估计量,代入样本值计算得到的具体结果
点估计和区间估计,这里不做延伸阅读,简单的介绍了置信区间,置信度/置信概率/置信系数/置信水平,置信上下限等基本概念。
无偏性(Unbias):
当采样的数量趋于极限时,样本均值就等于总体均值本身
也就是样本均值的期望就有着如下的关系
而满足无偏估计性质的样本均值,样本均值就是估计量本身,替换为,就有以下两种情况了
二者之差就是偏差本身了
正如先前讲到的,计算机图形学中经常采用有偏的方法来完成计算,原因在于有偏的方法可以带来更快速度的收敛计算(前提是满足一致性,这比无偏的性质对一个估计量而言更重要),但却只与真实值之间有着微乎其微的误差。
一致性(Consistency):是指随着样本容量的增大,估计量愈来愈接近总体参数的真值。设总体参数为,为一估计量,如果当样本容量时, 依概率收敛于,即
如果一个估计量是一致估计量,那么可以通过增加样本容量来提高估计的精度和可靠性。
可以证明,样本均值是总体均值的一致估计量;样本比例是总体比例的一致估计量;样本方差是总体方差的一致估计量;样本标准差 是总体标准差的一致估计量.(详情见估计量评价的标准)
有效性(Variance):有效性是指估计量与总体参数的离散程度。如果两个估计量都是无偏的,那么离散程度较小的估计量相对而言是较为有效的。离散程度是用方差度量的,因此在无偏估计量中,方差愈小愈有效。
设与为总体参数的无偏估计量,即,,那么如果两者的方差对比
那么称会比有效
有效性是一个对比性质,因此是相对的,不存在绝对的自身有效的估计量。
本文为在Scratchapixel上学习的翻译读后感与部分个人解读。这里不会将全篇的内容系数翻译,保留原文以便后期自行理解,笔者只精炼一些文章中关键的点出来便于记录。
方差与标准差(Variance and Standard Deviation):Standard deviation is simply the square root of variance, and variance is defined as the expected value of the square difference between the outcome of the experiment.
如若注意到的话,可以看到方差的符号标示上方有平方,这是为了避免潜在的符号干扰,本质上声明了方差和标准差是不可能为负数的。
由于期望的可加性性质(上一篇笔记中有推导过程),令,若随机变量为常数,那么。
若当前随机变量表示的是一个等概率随机事件,那么方差可以直接根据其样本均值构建计算
若,那么其方差。换言之就是,一个必然事件的方差为0。
若有事件, 那么其方差
若为独立随机变量,那么其方差
这里只推导两个随机变量之间的相加,多项式可递推。令
,而,因此:
正态分布(Normal Distribution):
其中代表正态分布的期望,代表正态分布的标准差,整个曲线根据对称。
见图所示
样本分布(Sample Distribution):Each sample on its own, is a random variable, but because now they represent the mean of certain number n of items in the population, we label them with the upper letter . We can repeat this experiment times which gives as series of samples: . This collection of samples is what we call a sampling distribution.
样本均值的期望(Expected value of the distribution of mean):We can apply to samples or statistics the same method for computing a mean than the method we used to calculate the mean of random variables.
注意到样本分布和普通的集群分布的区别,样本分布中,假定每个样本对集群取三次观察值,由于观察值本身是随机的缘故,因此观察值就是一个随机变量。那么这样的一个样本分布的样本大小为3,所以样本均值,样本方差。
上文说到的样本均值的期望的计算,也就是将最基本的观察值事件求取均值作为随机变量的期望计算,是讲样本这个群作为一个随机变量,那么重复这样在总群中做采样,可以得到一系列,此时样本均值的期望,样本均值的方差。
所以务必要明确原文当中Expected value of the distribution of mean的含义才可得以进一步的计算。
中心极限定理(Central Limit Theorem, CLT): The mean of the sampling distribution of the mean equals the mean of the population and that the standard error of the distribution of means is equal to the standard deviation of the population divided by the square root of . In addition, the sampling distribution of the mean will approach a normal distribution . These relationships may be summarized as follows:
样本均值等于总体平均值
遵循与基本事件一样的性质(样本均值的期望本身就是随机变量的期望所计算而来的均值,2已经证明样本期望就是总体期望本身)
也是样本期望的定义
样本方差
6.正如之前方差的定义中讲述的以下性质样本方差也都继承
因此样本方差为:
7.因为样本方差为比总体方差要更小的关系(换言之样本标准差),样本均值会比单一观察量所计算得到的期望更接近
本文为在Scratchapixel上学习的翻译读后感与部分个人解读。这里不会将全篇的内容系数翻译,保留原文以便后期自行理解,笔者只精炼一些文章中关键的点出来便于记录。
随机变量(random variable):A random variable is not a fixed value, but a function, mapping or associating a unique numerical value to each possible outcome of a random process which is not necessarily a number.
随机变量本质上就是一个将随机实验结果,映射到实际数据上的函数。
采样空间(sample space):A sample space defines the set of all possible outcomes from an experiment.
采样空间可以用于定义基本事件与非基本事件。假定你现在有10张牌,3张为0,5张为1,2张为2。那么采样的非基本事件的采样空间就为,而基本事件的采样空间就为。
名词 | 释义 |
---|---|
Random Variable | A random variable is a function X defined from a sample space S to a measurable space (1, 0). Random variables are denoted with upper case letters. |
Probability | A probability provides a quantatative description of the likely occurrence of a particular event. |
Observation or Realization | A realization, or observed value, of a random variable is the value that is actually observed. |
Event | An event is any collection of outcomes of an experiment. Any subset of the sample space is an event. |
Sample Space | Exhaustive list of all the possible outcomes of an experiment. Each possible result of such experiment is represented by one and only one point in the sample space, which is usually denoted by . The elements of the sample space can be thought of as all the different possibilities that could happen. |
伯努利分布(Bernoulli trail):In probability theory when a random process has only two outcomes.
二项分布(Binomial Distribution):We want to find the probability that , where , which is the probability that of the samples take on the value of 1, and samples take on the value of 0:
for n = 0, 1, 2, …, N, where:
更多的概率分布函数,比如均匀分布,泊松分布等等可以在这里找到List of probability distributions.
枚举事件(Collectively exhaustive events):A set of events is said to be jointly or collectively exhaustive if at least one of the event must occur.
互斥事件(Mutually exclusive events):Two sets A and B are said to be mutually exclusive or disjoint if A and B have no elements in common.
抛硬币本身就既是一个枚举事件,又是一个互斥事件:你可以保证得到的事件结果只有面和花两种(可枚举),且若出现花的一面则另一面不会出现,反之成立(互斥事件)
独立事件(Independent event):When you toss a coin the probability of getting heads or tails is as we know it, but if you toss the coin a second time, the probability of getting either heads or tails is still . In other words, the first toss did not change the outcome of the second toss or to say it differently again, the chances of getting heads or tails on the second toss are completely independent of whether or not we got “tails” or “heads” in the first toss.
独立事件有别于前两者,只是表示每一次事件的发生不会因为上一次事件的发生而影响其发生概率。独立事件之间可以遵循乘法规则,也就是.
统计学(Statistics):The goal of statistics is to provide information on random variables and probability distributions we don’t know anything about in the first place.
有偏(Bias):By “randomly” we mean that the process by which we select elements in the population, doesn’t give more importance to some elements than others. If it was the case we would introduce what we call bias in the calculation of this estimate.
也就是不在统计的随机过程中加入人为的统计因素,这将会导致偏差。但正如前文描述,Bias也不是一无是处,有时候在图形学中有偏的方法可以在更小的画面影响下更快的得到,甚至得到比无偏的方法更接近与收敛值。这其实是一个权衡利弊的结果。
采样/统计(Sample or Statistics):Our random variable really is some sort of “sampler”, it’s a tool or a function on the population, that we can use to collect data on that population, and the collected data makes up what we call the observations and the group of observations itself is what we call a sample or statistics.
期望(Expected Value):The mean and the expected value are equal however the mean is a simple average of numbers not weighted by anything, while the expected value is a sum of numbers weighted by their probability:
换言之,随机变量在采样数不断变大后会向一个值收敛,而这个值就是所求的数学期望
样本均值(Sample mean):the mean of a collection of observations produced by a random variable X, is called a sample mean:
独立同分布(Independent and Identically Distributed,i.i.d):Where is a sequence of random variables which have the property to be independent and identically distributed.
如果随机变量序列或者其他随机变量有相同的概率分布,并且他们之间互相独立,那么这些随机变量是独立同分布的。
当为随机变量采样空间中的一个采样结果时,可以这样表述。 所以以下方式可以也可以改写为 。上述可以作为随机变量的一个实例来看待。
独立(Independent):Imagine that this coin lands on heads with probability 2/3, and tails with probability 1/3. If we flip the coin twice, the outcome of the first coin flip will not the change the outcome of the second.
同分布(Identically Distributed):When the coin was flipped the first time, the probability of either getting heads or tail was 2/3, and 1/3 respectively. When the coin is flipped the second time, the probability of actually getting either heads or tails is still 2/3, and 1/3. The probability that you get either heads or tails after the first flip doesn’t change.
大数定理(Law of Large Nunbers, LLN):The idea that the sample mean converges in value and probability to the expected value as the sample size increases.
大数定理实例解读: … If you toss a coin 10 times, what is the probability that you get 5 heads? This can actually be computed analytically using the binomial distribution:
But if you now consider 100 trials, the probability becomes:
The higher the number of trials, the smaller the probability of getting exactly N/2 number of heads. … however as mentioned before, interestingly the probability to get exactly N/2 heads gets smaller.Let’s for example calculate the probability that we can any number of heads between 40 and 60 for 100 trials:
However, if we compute the probability of getting any number of heads in the interval [4,6] for 10 trials, then we get:
Clearly, the probability of getting close to 1/2 increases as the number of trials increases.
想象一下丢了N次色子最后的次数分布图为正态分布,那么当总次数变为10次时,就可以理解为采样间隔非常大或者是采样频率更低,总次数不足,因此单个事件(比如5次)发生的概率就远远比采样频率更高的要大的多。
但倘若取采样间隔以及就可以明显发现,在采样频率更高的前提下,最终的概率会越来越趋近于附近。
对比连续型随机变量,事实上当采样频率趋于无穷大,连续性随机变量概率函数(事实上其概率密度函数的定义就是,这也被记为),所以当离散型随机变量的采样频率不断增加,也就是大数定理反应的,其单一事件发生的概率也会不断趋近于0。
结论(Conclusion):the sample mean of a random sample always converge in probability to the population mean of the population from which the random sample was taken … If we know the distribution of the random variable we can compute the expected value directly
事实上当写下的时候,此时只是随机变量的一个取值,他可以是任何值,但是其期望是固定的,这对随机变量的所有取值而言都一样。原因很简单,因为这些随机变量的取值都共有一个概率密度函数。
X+Y的期望可以按照如下表达
这里Y的概率已经被求和为1省略,X同理
可以这样解读概率1的由来
这里就是代表当和同时发生的概率,可以使用乘法守则来解决
以下笔记为读Syntopia后感,解决了不少概念上以及实际应用上的疑难点
入射光与表面法线夹角
出射光辐射度计算
漫反射模型在表面上,任意方向进入的光其反射方向都为随机,因此在给定指定出射方向上的辐射度求解时需要对当前点的整个半球方向上的入射光进行考虑,因为所有光都有可能在这个方向上出射。
这里的常数K本质上「就是决定了多少入射辐射度会在给定方向out上出去」,这里基于能量守恒的定义,也就是出射辐射度绝不会大于入射辐射度。
简单的计算过后,也能发现
漫反射模型当中,反照率,当然在基于物理的材质模型下albedo始终处于[0, 1]区间当中,也就是满足能量守恒。
漫反射模型的渲染方程的定义可以改为如下形式
但漫反射模型的K因子无非是下列中通用BRDF形式的渲染方程
为了计算上述的无穷积分,也就可以引入Monte Carlo Sampling。本质上就是为了求取一个积分的估计量,可以采用不断提升采样数量并求取平均来解决
将此应用到漫反射模型上
也就是替换为反照率albedo形式,可以替换为方向向量点积
介于也就是这样的因子,入射光在靠近法线方向上贡献给反射光的辐射度将会更大。
根据Monte Carlo Sampling的样式定义,为求取积分近似值,我们需要将除以PDF(probability density function, 概率密度函数)
PDF与给定求取积分的函数f(x)越成比例,那么理论上说该积分求取收敛的也就会越快。这里f(x)本质上成比例与,那么配合上能量守恒可以将PDF定义为
最终积分近似求解的表达式也就可以简化掉部分
原先笔者在视频教学中了解到这一项优化技术,以为Next Event Estimation是一个比较小众的优化方式,配合上Advanced Global Illumination以及PBRT,这才明白其实Next Event Estimation本质上就是Direct Lighting,是一个非常常见的高效利用光线的方式。
很常见的方式是讲理想的面光源换为环境贴图,这样能够极大的改善光线利用率
Path tracing的方式本质上就是光线从摄像头发出,在场景中弹跳直到遇到光源为止。这里的关键就在于要遇到光源。
这里最重要的部分就是光源的面积,理想中的点光源在Path traing中得到的画面通常是一篇全黑,因为光线击中点光源的概率为0。粗劣的计算一下一个简单的场景:
角直径(angular diameter)科普,是用于描述从给定视点上观测一个球或者圆形的观测大小,也被成为视角(visual angle)。
太阳的角直径大约为32弧分,也就是大约0.5度左右,其立体角(solid angle)
因此粗略得出太阳大约覆盖了立体弧度或者的半球表面,所以即便是采用接近70000个采样点,半球也不过只有的几率能够捕捉到太阳光线(换句话说就是发射的光线50%几率能够击中太阳)。
Direct Lighting本质上是重要性采样的直观实践。在每次光线击中表面时我们都向已知光源发射一根光线手动获取其光亮度(当然当真正击中光源时我们将他的权值定为0,因为光源已经在先前部分有了贡献)。