首页>>人工智能->人工智能基于哪个函数(人工智能常用函数)

人工智能基于哪个函数(人工智能常用函数)

时间:2023-12-02 本站 点击:0

导读:很多朋友问到关于人工智能基于哪个函数的相关问题,本文首席CTO笔记就来为大家做个详细解答,供大家参考,希望对大家有所帮助!一起来看看吧!

人工智能相关的数学概率论

姓名:洪涛    学号:16020188030

【嵌牛导读】: 概率论是人工智能研究中必备的数学基础,在进行人工智能研究是必不可少数学概率论的有关知识。

【嵌牛鼻子】:人工智能,数学概率论

【嵌牛提问】:人工智能相关的数学概率论有哪些?

【嵌牛正文】:

    概率论(probability theory)也是人工智能研究中必备的数学基础。随着连接主义学派的兴起,概率统计已经取代了数理逻辑,成为人工智能研究的主流工具。

    同线性代数一样,概率论也代表了一种看待世界的方式,其关注的焦点是无处不在的可能性。对随机事件发生的可能性进行规范的数学描述就是概率论的公理化过程。概率的公理化结构体现出的是对概率本质的一种认识。

    将同一枚硬币抛掷 10 次,其正面朝上的次数既可能一次没有,也可能全部都是,换算成频率就分别对应着 0% 和 100%。频率本身显然会随机波动,但随着重复试验的次数不断增加,特定事件出现的频率值就会呈现出稳定性,逐渐趋近于某个常数。

    从事件发生的频率认识概率的方法被称为“频率学派”(frequentist probability),频率学派口中的“概率”,其实是一个可独立重复的随机实验中单个结果出现频率的极限。因为稳定的频率是统计规律性的体现,因而通过大量的独立重复试验计算频率,并用它来表征事件发生的可能性是一种合理的思路。

    在概率的定量计算上,频率学派依赖的基础是古典概率模型。在古典概率模型中,试验的结果只包含有限个基本事件,且每个基本事件发生的可能性相同。假设所有基本事件的数目为 n,待观察的随机事件 A 中包含的基本事件数目为 k,则古典概率模型下事件概率的计算公式为:

    从这个基本公式就可以推导出复杂的随机事件的概率。

    前文中的概率定义针对都是单个随机事件,可如果要刻画两个随机事件之间的关系,这就需要引入条件概率的概念。

    条件概率(conditional probability)是根据已有信息对样本空间进行调整后得到的新的概率分布。假定有两个随机事件 A和B,条件概率就是指事件 A 在事件 B已经发生的条件下发生的概率,用以下公式表示:

    上式中的P(AB)称为联合概率(joint probability),表示的是 A和B 两个事件共同发生的概率。如果联合概率等于两个事件各自概率的乘积,即P(AB)=P(A)⋅P(B),说明这两个事件的发生互不影响,即两者相互独立。对于相互独立的事件,条件概率就是自身的概率,即P(A|B)=P(A)。

  基于条件概率可以得出全概率公式(law of total probability)。全概率公式的作用在于将复杂事件的概率求解转化为在不同情况下发生的简单事件的概率求和,即:

    全概率公式代表了频率学派解决概率问题的思路,即先做出一些假设(P(Bi)),再在这些假设下讨论随机事件的概率(P(A|Bi))。

    对全概率公式 进行整理,就演化出了求解“逆概率”问题。所谓“逆概率”解决的是在事件结果已经确定的条件下(P(A)),推断各种假设发生的可能性(P(Bi|A))。其通用的公式形式被称为贝叶斯公式:

    从科学研究的方法论来看,贝叶斯定理提供了一种全新的逻辑。它根据观测结果寻找合理的假设,或者说根据观测数据寻找最佳的理论解释,其关注的焦点在于后验概率。概率论的贝叶斯学派(Bayesian probability)正是诞生于这种理念。

    在贝叶斯学派眼中,概率描述的是随机事件的可信程度。

    频率学派认为假设是客观存在且不会改变的,即存在固定的先验分布。因而在计算具体事件的概率时,要先确定概率分布的类型和参数,以此为基础进行概率推演。

    相比之下,贝叶斯学派则认为固定的先验分布是不存在的,参数本身也是随机数。换句话说,假设本身取决于观察结果,是不确定并且可以修正的。数据的作用就是对假设做出不断的修正,使观察者对概率的主观认识更加接近客观实际。

    概率论是线性代数之外,人工智能的另一个理论基础,多数机器学习模型采用的都是基于概率论的方法。但由于实际任务中可供使用的训练数据有限,因而需要对概率分布的参数进行估计,这也是机器学习的核心任务。

    概率的估计有两种方法:最大似然估计法(maximum likelihood estimation)和最大后验概率法(maximum a posteriori estimation),两者分别体现出频率学派和贝叶斯学派对概率的理解方式。

    最大似然估计法的思想是使训练数据出现的概率最大化,依此确定概率分布中的未知参数,估计出的概率分布也就最符合训练数据的分布。最大后验概率法的思想则是根据训练数据和已知的其他条件,使未知参数出现的可能性最大化,并选取最可能的未知参数取值作为估计值。在估计参数时,最大似然估计法只需要使用训练数据,最大后验概率法除了数据外还需要额外的信息,就是贝叶斯公式中的先验概率。

    具体到人工智能这一应用领域,基于贝叶斯定理的各种方法与人类的认知机制吻合度更高,在机器学习等领域中也扮演着更加重要的角色。

      概率论的一个重要应用是描述随机变量(random variable)。根据取值空间的不同,随机变量可以分成两类:离散型随机变量(discrete random variable)和连续型随机变量(continuous random variable)。在实际应用中,需要对随机变量的每个可能取值的概率进行描述。

    离散变量的每个可能的取值都具有大于 0 的概率,取值和概率之间一一对应的关系就是离散型随机变量的分布律,也叫概率质量函数(probability mass function)。概率质量函数在连续型随机变量上的对应就是概率密度函数(probability density function)。

    概率密度函数体现的并非连续型随机变量的真实概率,而是不同取值可能性之间的相对关系。对连续型随机变量来说,其可能取值的数目为不可列无限个,当归一化的概率被分配到这无限个点上时,每个点的概率都是个无穷小量,取极限的话就等于零。而概率密度函数的作用就是对这些无穷小量加以区分。虽然在x→∞时,1/x和 2/x 都是无穷小量,但后者永远是前者的 2 倍。这类相对意义而非绝对意义上的差别就可以被概率密度函数所刻画。对概率密度函数进行积分,得到的才是连续型随机变量的取值落在某个区间内的概率。

    定义了概率质量函数与概率密度函数后,就可以给出一些重要分布的特性。重要的离散分布包括两点分布、二项分布和泊松分布,重要的连续分布则包括均匀分布、指数分布和正态分布。

    两点分布(Bernoulli distribution):适用于随机试验的结果是二进制的情形,事件发生 / 不发生的概率分别为 p/(1−p)。任何只有两个结果的随机试验都可以用两点分布描述,抛掷一次硬币的结果就可以视为等概率的两点分布。

    二项分布(Binomial distribution):将满足参数为 p的两点分布的随机试验独立重复 n次,事件发生的次数即满足参数为(n,p)的二项分布。二项分布的表达式为:

    泊松分布(Poisson distribution):放射性物质在规定时间内释放出的粒子数所满足的分布,参数为 λ的泊松分布表达式为

当二项分布中的n很大且pp很小时,其概率值可以由参数为λ=np的泊松分布的概率值近似。

    均匀分布(uniform distribution):在区间 (a,b) 上满足均匀分布的连续型随机变量,其概率密度函数为 1/(b−a),这个变量落在区间(a,b)内任意等长度的子区间内的可能性是相同的。

    指数分布(exponential distribution):满足参数为θ指数分布的随机变量只能取正值,其概率密度函数为

    指数分布的一个重要特征是无记忆性:即 P(Xs+t|Xs)=P(Xt)。

    正态分布(normal distribution):参数为正态分布的概率密度函数为:

  当 μ=0,σ=1 时,上式称为标准正态分布。正态分布是最常见最重要的一种分布,自然界中的很多现象都近似地服从正态分布。

    除了概率质量函数 / 概率密度函数之外,另一类描述随机变量的参数是其数字特征。数字特征是用于刻画随机变量某些特性的常数,包括数学期望(expected value)、方差(variance)和协方差(covariance)。

    数学期望即均值,体现的是随机变量可能取值的加权平均,即根据每个取值出现的概率描述作为一个整体的随机变量的规律。方差表示的则是随机变量的取值与其数学期望的偏离程度。方差较小意味着随机变量的取值集中在数学期望附近,方差较大则意味着随机变量的取值比较分散。

    数学期望和方差描述的都是单个随机变量的数字特征,如果要描述两个随机变量之间的相互关系,就需要用到协方差和相关系数。协方差度量了两个随机变量之间的线性相关性,即变量 Y能否表示成以另一个变量 X 为自变量的 aX+b的形式。

    根据协方差可以进一步求出相关系数(correlation coefficient),相关系数是一个绝对值不大于 1 的常数,它等于 1 意味着两个随机变量满足完全正相关,等于 -1 意味着两者满足完全负相关,等于 0 则意味着两者不相关。无论是协方差还是相关系数,刻画的都是线性相关的关系。如果随机变量之间的关系满足 Y=X2,这样的非线性相关性就超出了协方差的表达能力。

人工智能学不学复变函数

学。人工智能(ArtificialIntelligence),是一个以计算机科学(ComputerScience)为基础,由计算机、心理学、哲学等多学科交叉融合的交叉学科、新兴学科,研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能学复变函数,复变函数,是指以复数作为自变量和因变量的函数,而与之相关的理论就是复变函数论。

人工智能·数学基础·初等函数

目前我们所熟知的人工智能是基于数学方法和数学模型的一种算法。因此为了更好的、体系的学习有关人工智能的课程,我们不得不对基本的数学概念进行学习。

如同我在 负章 中提到的,我不会冗杂的分享所有的概念,只会通俗的分享一些重要的,必须的内容。因此,这将非常适合非专业但感兴趣的同学阅读学习。

任意一个 函数 都具有三个要素:

如图,数集B可以由数集A得出,而连接他们的,就是对应法则f,这就是一个函数

其中,我们常用

x∈A ,叫做自变量

y∈B ,叫做因变量

并在二维直角坐标系中表示这个函数并直观的了解它的对应法则。

因此上述关系便对应

在函数中,

值域的最大值,叫做函数的 上界

值域的最小值,叫做函数的 下界

当一个函数有 确切的 上界和下界,这个函数被称作 有界函数 ,反之为 无界函数 。再通俗点,如果一个函数看起来有一个确定的高度(即值域),这个函数就是有界函数

如果你还不能理解,我会在下面称述基本初等函数时列出常见的一些函数,并告诉你它们是什么函数。

图中的几个函数都是无界函数,因为其中任意一个函数的最大值或者最小值是无穷的,也可以说界是不确定的。

关于幂函数的性质,高中课程已经有完备的讲解,这里不赘述

上图中的指数函数和对数函数也是无界函数

以上函数了解即可

人工智能十大算法

人工智能十大算法如下

线性回归(Linear Regression)可能是最流行的机器学习算法。线性回归就是要找一条直线,并且让这条直线尽可能地拟合散点图中的数据点。它试图通过将直线方程与该数据拟合来表示自变量(x 值)和数值结果(y 值)。然后就可以用这条线来预测未来的值!

逻辑回归(Logistic regression)与线性回归类似,但它是用于输出为二进制的情况(即,当结果只能有两个可能的值)。对最终输出的预测是一个非线性的 S 型函数,称为 logistic function, g()。

决策树(Decision Trees)可用于回归和分类任务。

朴素贝叶斯(Naive Bayes)是基于贝叶斯定理。它测量每个类的概率,每个类的条件概率给出 x 的值。这个算法用于分类问题,得到一个二进制“是 / 非”的结果。看看下面的方程式。

支持向量机(Support Vector Machine,SVM)是一种用于分类问题的监督算法。支持向量机试图在数据点之间绘制两条线,它们之间的边距最大。为此,我们将数据项绘制为 n 维空间中的点,其中,n 是输入特征的数量。在此基础上,支持向量机找到一个最优边界,称为超平面(Hyperplane),它通过类标签将可能的输出进行最佳分离。

K- 最近邻算法(K-Nearest Neighbors,KNN)非常简单。KNN 通过在整个训练集中搜索 K 个最相似的实例,即 K 个邻居,并为所有这些 K 个实例分配一个公共输出变量,来对对象进行分类。

K- 均值(K-means)是通过对数据集进行分类来聚类的。例如,这个算法可用于根据购买历史将用户分组。它在数据集中找到 K 个聚类。K- 均值用于无监督学习,因此,我们只需使用训练数据 X,以及我们想要识别的聚类数量 K。

随机森林(Random Forest)是一种非常流行的集成机器学习算法。这个算法的基本思想是,许多人的意见要比个人的意见更准确。在随机森林中,我们使用决策树集成(参见决策树)。

由于我们今天能够捕获的数据量之大,机器学习问题变得更加复杂。这就意味着训练极其缓慢,而且很难找到一个好的解决方案。这一问题,通常被称为“维数灾难”(Curse of dimensionality)。

人工神经网络(Artificial Neural Networks,ANN)可以处理大型复杂的机器学习任务。神经网络本质上是一组带有权值的边和节点组成的相互连接的层,称为神经元。在输入层和输出层之间,我们可以插入多个隐藏层。人工神经网络使用了两个隐藏层。除此之外,还需要处理深度学习。

人工智能中的激活函数

人工智能中的激活函数有很多,比如relu,tanh,sigmoid,还有leackyrelu函数

结语:以上就是首席CTO笔记为大家介绍的关于人工智能基于哪个函数的全部内容了,希望对大家有所帮助,如果你还想了解更多这方面的信息,记得收藏关注本站。


本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若转载,请注明出处:/AI/9000.html