之前的章节中,我们讨论了实验、结果、样本空间(所有可能结果的集合)以及事件(我们关注的特定结果)。现在,让我们介绍一个处理这些思想的实用工具:集合论。可以将集合论看作是将项目归类并描述组间关系的正式方法。在概率中,我们的“项目”是实验结果,而“组”则是事件。
事件就是样本空间中结果的集合。如果我们的样本空间 S 是掷一个标准的六面骰子,S={1,2,3,4,5,6}。一个事件,比如“掷出偶数”,就是集合 A={2,4,6}。请注意,A 是 S 中结果的集合。我们称 A 是 S 的子集。
集合论为我们提供了精确的语言和符号来处理这些事件,这有助于我们计算比单一事件更复杂的概率。下面我们来看基本运算。
补集:事件的非发生情况
有时,我们关注事件不发生的概率。事件 A 的补集,写作 Ac(有时也写成 A′ 或 Aˉ),表示样本空间 S 中所有不属于事件 A 的结果。
例如,如果 S={1,2,3,4,5,6},事件 A 是“掷出偶数”,即 A={2,4,6},那么补集 Ac 就是“没有掷出偶数”,也就是“掷出奇数”。
Ac={1,3,5}
从视觉上看,如果整个方框表示样本空间 S,圆圈表示事件 A,那么补集 Ac 就是圆圈外面但仍在方框里面的所有部分。
阴影区域表示补集 Ac。
概率中一个重要法则连接事件及其补集:一个事件发生的概率加上它不发生的概率必须等于1(或100%)。
P(A)+P(Ac)=1
这通常被重新排列以求补集的概率:
P(Ac)=1−P(A)
这非常实用。有时,计算事件不发生的概率并从1中减去,比直接计算事件的概率要容易得多。
交集:事件重叠时
如果我们关注两个(或更多)事件同时发生怎么办?这时就需要交集。两个事件 A 和 B 的交集,写作 A∩B,表示同时存在于事件 A 和 事件 B 中的结果集合。可以将其视为集合之间的“重叠部分”。
再次使用我们掷骰子的例子。 S={1,2,3,4,5,6}。
设事件 A 为“掷出偶数”:A={2,4,6}。
设事件 B 为“掷出大于3的数”:B={4,5,6}。
交集 A∩B 是事件“掷出偶数且掷出大于3的数”。哪些结果同时满足这两个条件?只有4和6。
A∩B={4,6}
从视觉上看,交集是表示事件 A 和 B 的圆圈重叠的区域。
重叠的绿色区域表示交集 A∩B。
交集 P(A∩B) 的概率是事件 A 和 B 都发生的概率。计算它取决于事件是独立的还是相关的,我们将在稍后讲解。
并集:至少一个事件发生时
如果我们想知道两个事件中至少一个发生的概率怎么办?这涉及并集。两个事件 A 和 B 的并集,写作 A∪B,表示在事件 A 中、或在事件 B 中、或两者兼有的结果集合。
使用我们之前的例子:
A={2,4,6} (偶数)
B={4,5,6} (大于3)
并集 A∪B 是事件“掷出偶数或掷出大于3的数(或两者兼有)”。我们将两个集合中所有不重复的元素组合起来:
A∪B={2,4,5,6}
请注意,4和6同时出现在两个集合中,但在并集中我们只列出一次。
从视觉上看,并集涵盖了圆圈 A 或圆圈 B 所包含的所有区域(包括它们的重叠部分)。
整个阴影区域(蓝色、黄色和绿色重叠部分)表示并集 A∪B。
将并集与概率联系起来:加法法则
我们如何计算并集 P(A∪B) 的概率?我们可能想直接将 P(A) 和 P(B) 相加。让我们用我们的例子试试:
P(A)=P({2,4,6})=3/6=1/2
P(B)=P({4,5,6})=3/6=1/2
如果我们只是将它们相加:P(A)+P(B)=1/2+1/2=1。
但我们发现 A∪B={2,4,5,6},所以实际概率是 P(A∪B)=4/6=2/3。哪里出错了?
我们对同时存在于两个集合中的结果(交集 {4,6})进行了重复计数。我们在计算 P(A) 时添加了掷出4和6的概率,在计算 P(B) 时又再次添加了它。
为了纠正这种重复计数,我们需要减去交集的概率:
P(A∪B)=P(A)+P(B)−P(A∩B)
这被称为概率加法法则。
让我们将其应用于我们的例子:
A={2,4,6},P(A)=3/6
B={4,5,6},P(B)=3/6
A∩B={4,6},P(A∩B)=2/6
所以,P(A∪B)=P(A)+P(B)−P(A∩B)=3/6+3/6−2/6=4/6=2/3。这与我们的直接计算结果一致!
特殊情况:互斥事件
如果两个事件 A 和 B 不能同时发生,它们被称为互斥事件(或不相交事件)。这意味着它们的交集为空 (A∩B=∅),因此 P(A∩B)=0。
例如,事件“掷出1”(C={1})和事件“掷出偶数”(A={2,4,6})是互斥的。你不可能在一次掷骰子中同时掷出1和一个偶数。
在这种特殊情况下,加法法则简化为:
P(A∪B)=P(A)+P(B)(如果 A 和 B 互斥)
理解补集、交集和并集为分析更复杂的概率情景提供了构造模块,这在处理数据和机器学习模型时很常见。我们将在接下来讨论条件概率时,在此基础上进行进一步阐述。