问答文章1 问答文章501 问答文章1001 问答文章1501 问答文章2001 问答文章2501 问答文章3001 问答文章3501 问答文章4001 问答文章4501 问答文章5001 问答文章5501 问答文章6001 问答文章6501 问答文章7001 问答文章7501 问答文章8001 问答文章8501 问答文章9001 问答文章9501

sgd随机梯度下降

发布网友 发布时间:2023-04-01 17:20

我来回答

1个回答

热心网友 时间:2023-11-22 06:11

主要介绍SGD算法,以及贾蓉、金池、黄芙蓉撰写的两篇分析其逃离鞍点的论文《:逃离鞍点——张量分解的在线病理梯度》和金池、贾蓉等人的最新力作《如何高效逃离鞍点》。

如果要优化一个函数,也就是求它的最小值,常用的方法叫做梯度下降(GD),也就是最速下降法。简单来说,你每沿着当前位置的导数方向走一小步,就一定能走到好的地方。

如上图所示,就像你下山,每走一步都走最陡的路。如果最后没有摔死,一般很快就能到山脚下。从数学上来说,是的

这是步长t的位置,导数,和步长。所以这个算法很简单,就是重复这条线迭代。

虽然简单美观,但GD算法至少有两个明显的缺陷(其实更多,不过今天先说这两个)。

首先,当我们使用它的时候,尤其是在机器学习的使用中,我们都会面对一个非常庞大的数据集。这时候,如果我们坚持要计算精确导数(别管是什么,反正每个机器学习算法里都有这么一个东西),往往意味着我们要扫描整个数据集好几个小时,然后只能走一小步。一般GD收敛需要几千上万步,根本完成不了。

其次,如果我们不小心陷入鞍点,或者局部最优不佳,GD算法也不会用完,因为这些点的导数都是0。什么是鞍点:

当地的最佳优势是什么(在下图的右侧):

有意思的是,这两个缺陷可以用同一个方法解决,就是我们今天要讲的随机梯度下降(SGD)算法。

SGD算法的表达式类似于GD:

这里是所谓的随机梯度,它满足

也就是说,虽然它包含了一些随机性,但它等于从期望出发的正确导数。其实SGD就像喝醉了的GD。它模模糊糊的认路,最后还能自己走回家,但是歪歪扭扭的。(红色的是GD的路线,粉色的是s GD的路线)。

如果你仔细观察,实际上SGD需要更多的步骤来收敛。毕竟是醉了。但由于它对导数的要求非常低,可以包含很多噪声,只要期望是正确的(有时期望是错误的),所以导数可以非常快地计算出来。就拿我刚才说的机器学习举例,比如神经网络。在训练中,我们一次只从数百万个数据点中取128或256个数据点,计算一个不太精确的导数,然后用SGD走一步。想想看,这样计算时间每次都快一万倍。就算要多走几趟,算下来也挺值的。

所以可以完美解决GD的第一个问题。3354慢。这也是当初人们使用SGD的主要目的。而且,你也不用担心导数中包含的噪声的负面影响。大量的理论工作表明,只要噪声不离谱(至少在f是凸函数的情况下),SGD就能很好地收敛。

虽然理论家这么说,但许多完美主义者仍然对使用带有随机噪声的导数来训练他们的神经网络感到不安。他们必须使用最精确的导数。所以他们经常尝试用GD再次运行它,并与SGD获得的结果进行比较。

结果如何?因为我经常做这样的事情,所以我可以负责任的告诉你,即使GD有成百上千倍的时间去训练,最后的结果也是SGD的网络性能比GD好很多!

惊喜吧?有噪声的算法更好,就像说“让路上的司机多喝点,交通会更顺畅”一样让人无法接受。

但事实就是如此。在实践中,人们发现SGD除了计算速度快之外,还有许多优良的性质。它能自动逃离鞍点和局部最优。而且最终找到的答案有很强的泛化能力,就是在从未见过但服从相同分布的数据集上也能表现非常好!

这是为什么呢?今天我们就简单说说它为什么能逃出鞍点。有机会后我再详细介绍一下SGD的其他优秀性质,——。这些性质也是优化和机器学习领域的热点问题。

那么我们先来了解一下鞍点的数学表达式是什么。

首先,我们考虑导数为零的情况。这些点称为驻点,即稳定点。如果这个点是稳定的,它可以是一个(局部)最小值,一个(局部)最大值或一个鞍点。如何判断?我们可以计算它的海森矩阵h。

如果h为负,则所有特征值都为负。这时候不管你往哪个方向走,导数都会变成负值,也就是说函数值会减小。所以,这是(局部)最大值。

如果h是正的,则所有特征值都是正的。这时候不管你往哪个方向走,导数都会变成正的,也就是说函数值会上升。所以,这是(局部)最小值。

如果h同时包含正负特征值,那么这个稳定点就是鞍点。具体参考之前的图片。也就是说,有些方向函数值会上升,有些方向函数值会下降。

虽然看起来包含了所有的信息,但其实不然!另一个很重要的情况是H可能包含特征值为0的情况。在这种情况下,我们无法判断属于哪种稳定点,往往需要参考更高维的导数。想想看,如果特征值是

0,就说明有些方向一马平川一望无际,函数值一直不变,那我们当然不知道是怎么回事了:)

我们今天讨论的情况只包含前三种,不包含第四种.第四种被称为退化了的情况,所以我们考虑的情况就叫做非退化情况。

在这种非退化的情况下面,我们考虑一个重要的类别,即 strict saddle 函数。这种函数有这样的特点:对于每个点 x

要么 x 的导数比较大

要么 x 的 Hessian 矩阵包含一个负的特征值

要么 x 已经离某一个(局部)最小值很近了

为什么我们要 x 满足这三个情况的至少一个呢?因为

如果 x 的导数大,那么沿着这个导数一定可以大大降低函数值(我们对函数有光滑性假设)

如果 x 的 Hessian 矩阵有一个负的特征值,那么我们通过加噪声随机扰动,跑跑就能够跑到这个方向上,沿着这个方向就能够像滑滑梯一样一路滑下去,大大降低函数值

如果 x 已经离某一个(局部)最小值很近了,那么我们就完成任务了,毕竟这个世界上没有十全十美的事情,离得近和精确跑到这个点也没什么区别。

所以说,如果我们考虑的函数满足这个 strict saddle 性质,那么 SGD 算法其实是不会被困在鞍点的.那么 strict saddle 性质是不是一个合理的性质呢?

实际上,有大量的机器学习的问题使用的函数都满足这样的性质。比如 Orthogonal tensor decomposition,dictionary learning, matrix completion 等等。而且,其实并不用担心最后得到的点只是一个局部最优,而不是全局最优。因为实际上人们发现大量的机器学习问题,几乎所有的局部最优是几乎一样好的,也就是说,只要找到一个局部最优点,其实就已经找到了全局最优,比如 Orthogonal tensor decomposition 就满足这样的性质,还有小马哥 NIPS16 的 best student paper 证明了 matrix completion 也满足这样的性质。我觉得神经网络从某些角度来看,也是(几乎)满足的,只是不知道怎么证。

下面讨论一下证明,主要讨论一下第二篇。第一篇论文其实就是用数学的语言在说"在鞍点加扰动,能够顺着负的特征值方向滑下去"。第二篇非常有意思,我觉得值得介绍一下想法。

首先,算法上有了一些改动。算法不再是 SGD,而是跑若干步 GD,然后跑一步 SGD。当然实际上大家是不会这么用的,但是理论分析么,这么考虑没问题。什么时候跑 SGD 呢?只有当导数比较小,而且已经很长时间没有跑过 SGD 的时候,才会跑一次。也就是说,只有确实陷在鞍点上了,才会随机扰动一下下。

因为鞍点有负的特征值,所以只要扰动之后在这个方向上有那么一点点分量,就能够一马平川地滑下去。除非分量非常非常小的情况下才可能会继续陷在鞍点附近。换句话说,如果加了一个随机扰动,其实大概率情况下是能够逃离鞍点的!

虽然这个想法也很直观,但是要严格地证明很不容易,因为具体函数可能是很复杂的,Hessian 矩阵也在不断地变化,所以要说明"扰动之后会陷在鞍点附近的概率是小概率"这件事情并不容易。

[原文 Figure 1 画得很漂亮,推荐一下]

相关问答:sgd是什么货币

1、SGD指新加坡元,是新加坡的法定货币,货币代码为S$。是新加坡的法定货币,货币代码为"S$”。事实上,新加坡元直到1967年才正式发行。此前,从1845年到1939年,新加坡使用海峡殖民地发行的"叻币”作为流通货币。一元可被细分为10角(也称为“毛”)或者100分(cent)。2、事实上,新加坡元直到1967年才正式发行。此前,从1845年到1939年,新加坡使用海峡殖民地发行的叻币,作为流通货币。一元可被细分为10角(也称为“毛”)或者100分(cent)。拓展资料:1965年8月9日新加坡*退出马来西亚联邦宣告独立,12月22日成立共和国,但仍使用马来亚与英属婆_洲元。1967年,英镑贬值,原“马来亚与英属婆_洲货币委员会”停止发行马来亚与英属婆_洲元,新加坡于同一年开始发行自己的钞票“新加坡元”,至今共发行四套钞票。 新加坡元可分为纸币和硬币,“船”系列钞票近期也开始发行塑胶钞票。截止2017年在新加坡流通的钞票有:10000元、1000元、100元、50元、10元、5元、2元面额的钞票,另硬币则有1元,50分(5角)、20分(2角)、10分(1角)、5分与1分硬币。1分硬币虽然还能使用,不过新加坡*已经停止了发行1分硬币。*对停止发行的理由是市场已经有足够的硬币可以使用。此前1845年至1939年新加坡使用由海峡殖民地发行的“叻币”作为流通货币,1940年后,新加坡跟随马来亚使用马来亚元,1965年8月9日新加坡*独立后,仍使用马来亚与英属婆_洲元。不过1967年,由于英镑贬值,新加坡*才发行了自己的新加坡元。货币代码为“S$”,新加坡元自1967年才正式发行。新加坡元可分为纸币和硬币。截止2017年在新加坡流通的钞票有:10000元、1000元、100元、50元、10元、5元、2元面额的钞票,另硬币则有1元,50分(5角)、20分(2角)、10分(1角)、5分与1分硬币。1分硬币虽然还能使用,不过新加坡*已经停止了发行1分硬币。

热心网友 时间:2023-12-14 07:08

主要介绍SGD算法,以及贾蓉、金池、黄芙蓉撰写的两篇分析其逃离鞍点的论文《:逃离鞍点——张量分解的在线病理梯度》和金池、贾蓉等人的最新力作《如何高效逃离鞍点》。

如果要优化一个函数,也就是求它的最小值,常用的方法叫做梯度下降(GD),也就是最速下降法。简单来说,你每沿着当前位置的导数方向走一小步,就一定能走到好的地方。

如上图所示,就像你下山,每走一步都走最陡的路。如果最后没有摔死,一般很快就能到山脚下。从数学上来说,是的

这是步长t的位置,导数,和步长。所以这个算法很简单,就是重复这条线迭代。

虽然简单美观,但GD算法至少有两个明显的缺陷(其实更多,不过今天先说这两个)。

首先,当我们使用它的时候,尤其是在机器学习的使用中,我们都会面对一个非常庞大的数据集。这时候,如果我们坚持要计算精确导数(别管是什么,反正每个机器学习算法里都有这么一个东西),往往意味着我们要扫描整个数据集好几个小时,然后只能走一小步。一般GD收敛需要几千上万步,根本完成不了。

其次,如果我们不小心陷入鞍点,或者局部最优不佳,GD算法也不会用完,因为这些点的导数都是0。什么是鞍点:

当地的最佳优势是什么(在下图的右侧):

有意思的是,这两个缺陷可以用同一个方法解决,就是我们今天要讲的随机梯度下降(SGD)算法。

SGD算法的表达式类似于GD:

这里是所谓的随机梯度,它满足

也就是说,虽然它包含了一些随机性,但它等于从期望出发的正确导数。其实SGD就像喝醉了的GD。它模模糊糊的认路,最后还能自己走回家,但是歪歪扭扭的。(红色的是GD的路线,粉色的是s GD的路线)。

如果你仔细观察,实际上SGD需要更多的步骤来收敛。毕竟是醉了。但由于它对导数的要求非常低,可以包含很多噪声,只要期望是正确的(有时期望是错误的),所以导数可以非常快地计算出来。就拿我刚才说的机器学习举例,比如神经网络。在训练中,我们一次只从数百万个数据点中取128或256个数据点,计算一个不太精确的导数,然后用SGD走一步。想想看,这样计算时间每次都快一万倍。就算要多走几趟,算下来也挺值的。

所以可以完美解决GD的第一个问题。3354慢。这也是当初人们使用SGD的主要目的。而且,你也不用担心导数中包含的噪声的负面影响。大量的理论工作表明,只要噪声不离谱(至少在f是凸函数的情况下),SGD就能很好地收敛。

虽然理论家这么说,但许多完美主义者仍然对使用带有随机噪声的导数来训练他们的神经网络感到不安。他们必须使用最精确的导数。所以他们经常尝试用GD再次运行它,并与SGD获得的结果进行比较。

结果如何?因为我经常做这样的事情,所以我可以负责任的告诉你,即使GD有成百上千倍的时间去训练,最后的结果也是SGD的网络性能比GD好很多!

惊喜吧?有噪声的算法更好,就像说“让路上的司机多喝点,交通会更顺畅”一样让人无法接受。

但事实就是如此。在实践中,人们发现SGD除了计算速度快之外,还有许多优良的性质。它能自动逃离鞍点和局部最优。而且最终找到的答案有很强的泛化能力,就是在从未见过但服从相同分布的数据集上也能表现非常好!

这是为什么呢?今天我们就简单说说它为什么能逃出鞍点。有机会后我再详细介绍一下SGD的其他优秀性质,——。这些性质也是优化和机器学习领域的热点问题。

那么我们先来了解一下鞍点的数学表达式是什么。

首先,我们考虑导数为零的情况。这些点称为驻点,即稳定点。如果这个点是稳定的,它可以是一个(局部)最小值,一个(局部)最大值或一个鞍点。如何判断?我们可以计算它的海森矩阵h。

如果h为负,则所有特征值都为负。这时候不管你往哪个方向走,导数都会变成负值,也就是说函数值会减小。所以,这是(局部)最大值。

如果h是正的,则所有特征值都是正的。这时候不管你往哪个方向走,导数都会变成正的,也就是说函数值会上升。所以,这是(局部)最小值。

如果h同时包含正负特征值,那么这个稳定点就是鞍点。具体参考之前的图片。也就是说,有些方向函数值会上升,有些方向函数值会下降。

虽然看起来包含了所有的信息,但其实不然!另一个很重要的情况是H可能包含特征值为0的情况。在这种情况下,我们无法判断属于哪种稳定点,往往需要参考更高维的导数。想想看,如果特征值是

0,就说明有些方向一马平川一望无际,函数值一直不变,那我们当然不知道是怎么回事了:)

我们今天讨论的情况只包含前三种,不包含第四种.第四种被称为退化了的情况,所以我们考虑的情况就叫做非退化情况。

在这种非退化的情况下面,我们考虑一个重要的类别,即 strict saddle 函数。这种函数有这样的特点:对于每个点 x

要么 x 的导数比较大

要么 x 的 Hessian 矩阵包含一个负的特征值

要么 x 已经离某一个(局部)最小值很近了

为什么我们要 x 满足这三个情况的至少一个呢?因为

如果 x 的导数大,那么沿着这个导数一定可以大大降低函数值(我们对函数有光滑性假设)

如果 x 的 Hessian 矩阵有一个负的特征值,那么我们通过加噪声随机扰动,跑跑就能够跑到这个方向上,沿着这个方向就能够像滑滑梯一样一路滑下去,大大降低函数值

如果 x 已经离某一个(局部)最小值很近了,那么我们就完成任务了,毕竟这个世界上没有十全十美的事情,离得近和精确跑到这个点也没什么区别。

所以说,如果我们考虑的函数满足这个 strict saddle 性质,那么 SGD 算法其实是不会被困在鞍点的.那么 strict saddle 性质是不是一个合理的性质呢?

实际上,有大量的机器学习的问题使用的函数都满足这样的性质。比如 Orthogonal tensor decomposition,dictionary learning, matrix completion 等等。而且,其实并不用担心最后得到的点只是一个局部最优,而不是全局最优。因为实际上人们发现大量的机器学习问题,几乎所有的局部最优是几乎一样好的,也就是说,只要找到一个局部最优点,其实就已经找到了全局最优,比如 Orthogonal tensor decomposition 就满足这样的性质,还有小马哥 NIPS16 的 best student paper 证明了 matrix completion 也满足这样的性质。我觉得神经网络从某些角度来看,也是(几乎)满足的,只是不知道怎么证。

下面讨论一下证明,主要讨论一下第二篇。第一篇论文其实就是用数学的语言在说"在鞍点加扰动,能够顺着负的特征值方向滑下去"。第二篇非常有意思,我觉得值得介绍一下想法。

首先,算法上有了一些改动。算法不再是 SGD,而是跑若干步 GD,然后跑一步 SGD。当然实际上大家是不会这么用的,但是理论分析么,这么考虑没问题。什么时候跑 SGD 呢?只有当导数比较小,而且已经很长时间没有跑过 SGD 的时候,才会跑一次。也就是说,只有确实陷在鞍点上了,才会随机扰动一下下。

因为鞍点有负的特征值,所以只要扰动之后在这个方向上有那么一点点分量,就能够一马平川地滑下去。除非分量非常非常小的情况下才可能会继续陷在鞍点附近。换句话说,如果加了一个随机扰动,其实大概率情况下是能够逃离鞍点的!

虽然这个想法也很直观,但是要严格地证明很不容易,因为具体函数可能是很复杂的,Hessian 矩阵也在不断地变化,所以要说明"扰动之后会陷在鞍点附近的概率是小概率"这件事情并不容易。

[原文 Figure 1 画得很漂亮,推荐一下]

相关问答:sgd是什么货币

1、SGD指新加坡元,是新加坡的法定货币,货币代码为S$。是新加坡的法定货币,货币代码为"S$”。事实上,新加坡元直到1967年才正式发行。此前,从1845年到1939年,新加坡使用海峡殖民地发行的"叻币”作为流通货币。一元可被细分为10角(也称为“毛”)或者100分(cent)。2、事实上,新加坡元直到1967年才正式发行。此前,从1845年到1939年,新加坡使用海峡殖民地发行的叻币,作为流通货币。一元可被细分为10角(也称为“毛”)或者100分(cent)。拓展资料:1965年8月9日新加坡*退出马来西亚联邦宣告独立,12月22日成立共和国,但仍使用马来亚与英属婆_洲元。1967年,英镑贬值,原“马来亚与英属婆_洲货币委员会”停止发行马来亚与英属婆_洲元,新加坡于同一年开始发行自己的钞票“新加坡元”,至今共发行四套钞票。 新加坡元可分为纸币和硬币,“船”系列钞票近期也开始发行塑胶钞票。截止2017年在新加坡流通的钞票有:10000元、1000元、100元、50元、10元、5元、2元面额的钞票,另硬币则有1元,50分(5角)、20分(2角)、10分(1角)、5分与1分硬币。1分硬币虽然还能使用,不过新加坡*已经停止了发行1分硬币。*对停止发行的理由是市场已经有足够的硬币可以使用。此前1845年至1939年新加坡使用由海峡殖民地发行的“叻币”作为流通货币,1940年后,新加坡跟随马来亚使用马来亚元,1965年8月9日新加坡*独立后,仍使用马来亚与英属婆_洲元。不过1967年,由于英镑贬值,新加坡*才发行了自己的新加坡元。货币代码为“S$”,新加坡元自1967年才正式发行。新加坡元可分为纸币和硬币。截止2017年在新加坡流通的钞票有:10000元、1000元、100元、50元、10元、5元、2元面额的钞票,另硬币则有1元,50分(5角)、20分(2角)、10分(1角)、5分与1分硬币。1分硬币虽然还能使用,不过新加坡*已经停止了发行1分硬币。
随机梯度下降(SGD)与其他优化器的比较

随机梯度下降(Stochastic Gradient Descent,简称SGD)与其他优化器的比较 SGD是最基础的一阶优化器,其核心思想是每次迭代时仅使用一个样本的梯度信息来更新模型参数。SGD在每次迭代中从训练数据集中随机选择一个样本,计算该样本的梯度,并使用该梯度信息来更新模型参数。动量法(Momentum)在SGD的基础上引...

随机梯度下降(SGD)算法的收敛性分析(入门版-1)

SGD算法,即随机梯度下降,本质上是对一个函数[公式]进行优化,其中[公式]是优化变量,如神经网络权重。与常规梯度下降不同,SGD利用[公式]对[公式]进行估计,[公式]是随机变量,如机器学习中,这可以视为根据样本分布的泛化误差的期望。每次更新仅基于一小部分样本的梯度,而非全局目标[公式],这导致...

sgd是什么意思数据简称

SGD是指随机梯度下降(Stochastic Gradient Descent)的缩写,它是一种优化算法,用于机器学习中的参数更新。它的特点是在每次迭代时,使用来自训练集的一小部分样本(通常只有一个样本)计算梯度,而不是使用全部训练集,这就是“随机”的含义。SGD能够以极快的速度搜索全局最优解,但是它的收敛性受到噪声...

批量梯度下降(BGD)、随机梯度下降(SGD)以及小批量梯度下降(MBGD)的...

随机梯度下降(SGD)则不同,每次迭代只使用一个样本来更新参数。这种方法加快了训练速度,因为每次迭代只需要处理一个样本。然而,由于使用的是单个样本,SGD的准确度可能会下降,并且可能收敛到局部最优解。SGD的收敛速度比BGD快,主要因为每次更新的计算成本较低,可以更快地找到一个合适的解。小批量梯...

批量梯度下降(BGD)、随机梯度下降(SGD)、小批量梯度下降(MBGD)

在机器学习优化算法中,批量梯度下降(BGD)、随机梯度下降(SGD)和小批量梯度下降(MBGD)各有特点。批量梯度下降,虽然精准但计算耗时,适用于凸函数,而SGD虽更新快但易在局部极小值徘徊,MBGD则是两者之间的折衷,速度快且更稳定。具体来说:1. BGD,又称批量或确定性梯度,每次迭代使用所有样本,保证...

SGD是什么

SGD指的是随机梯度下降。接下来对SGD进行详细解释:1. 基本概念:SGD是梯度下降法的一个变种,用于优化或最小化一个目标函数。在机器学习和深度学习的背景下,SGD常被用于训练模型。其核心思想是根据每个样本点的损失函数梯度来更新模型的参数,以迭代的方式逐步调整模型参数,从而达到降低整体损失函数值的...

优化算法梯度下降、牛顿法、SGD、AdaGrad、Adam是不是还不清楚?八千字...

随机梯度下降(SGD)是梯度下降法的变种,它在每一步仅使用一个样本来更新参数,这使得SGD在处理大规模数据时更为高效,但其迭代路径更为不稳定。小批量梯度下降(MBGD)结合了梯度下降和SGD的优点,每次使用小批量样本进行更新,以获得更平稳的收敛路径。动量梯度下降(Momentum GD)通过引入历史梯度信息,...

...5分钟快速复习梯度优化算法 | SGD | AdaGrad | RMSprop | Adam_百...

1. SGD (随机梯度下降)torch.optim.SGD封装了基本的SGD,其中momenutm=0的公式为:<公式1> 当momentum不为0时,公式为:<公式2> 如果启用Nesterov加速,公式变为:<公式3> 2. AdaGradAdagrad使用累积平方梯度,其公式如下:<公式4> 实现方法如下:3. RMSpropRMSprop通过加权移动平均来平滑梯度,公式如下...

sgd是什么意思

SGD是英文“Stochastic Gradient Descent”的缩写,中文意思为“随机梯度下降”。详细解释 1. 基础概念:SGD是一种优化算法,主要用于机器学习和深度学习中的参数优化。它的核心思想是利用梯度下降法来更新模型的参数,以最小化损失函数。2. 具体运作方式:在传统的梯度下降方法中,我们使用了整个训练数据集...

sgd是什么意思

SGD的意思 SGD是英文“Stochastic Gradient Descent”的缩写,中文通常称之为“随机梯度下降法”。以下对SGD进行详细的解释:1. 基础含义:SGD是一种用于优化机器学习模型参数的方法。在训练深度学习模型时,通常会使用大量的数据,这些数据可以表示为高维空间中的点。SGD通过计算这些点...

SGD随机梯度下降说明了什么 随机梯度下降sgd算法实现 SGD梯度下降法 随机梯度下降是什么意思 什么是随机梯度算法 随机梯度下降算法的概念 随机梯度下降算法 sgd损失 随机梯度训练
声明声明:本网页内容为用户发布,旨在传播知识,不代表本网认同其观点,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。E-MAIL:11247931@qq.com
如果要去西藏旅游该注意哪些事项? 配一台三千左右的电脑 平时就是玩穿越火线和魔兽 最好FPS能高点 可以... 帮忙看看我的电脑的内存读入测试!什么意思?说明什么? 我家的花,三角梅,就是盘起来的那种,往上盘的主干尖折了,还能长吗?? 上海哪里学琵琶好? 请问在上海杨浦区地铁8号线附近的琴行有没有啊,我想学钢琴,谢谢大家了... 上海杨浦区有哪些地方学乐器和高一课程比较好 上海瀚音琴行怎么样? ipad和手机相册怎么取消同步 现在买郑州到厦门的火车票好买吗? 棉麻的披肩好吗 35和55的最大公因数,要有解析过程? 36和54的最大公因数,35和42的最大公因数,52和78的最大公因数 35/54化为最简分数是多少? 35和49的最大公因数 35和49的还有18和54的,要有式子, 35与54的最大公因数? 香港八大名校 - 信息提示 hkbu是哪个学校 香港留学浸会大学简介 香港浸会大学国内认可度 三点水旁加个山读什么? 奇瑞E5的钥匙门有芯片吗 艾瑞泽5钥匙怎么换电池? 奇瑞e5钥匙型号 怎么在XP系统进行SYN扫描? 如何判断轮胎的正反面? 激光脱毛对身体没有什么伤害吧 3匹风管机和2匹风管机用电一样吗 根据鲸的形体特征发明了轮船还是潜艇? 新加坡税前月薪3800SGD怎么样? 新加坡工作签证分几种?怎么申请? 梦见毛刺槐的预兆 梦见三个喜鹊窝在风雨中摇晃的预兆 求助:我玩游戏PM4( 美少女梦工厂4)总有几张图、几个事件玩不出来,拜托大家指教。 手机PM4是什么格式 请教,我用PM4做图片转十字绣,为什么效果很差呢? 我买了一个PM4,怎么从网上下载歌曲啊? pm4软件怎样操作才能输出分页的电子版图纸?急 失业保险金和失业补助金怎么申请 为什么苹果手机黑屏了还在响 佳能700D相机机身+广角变焦镜头17-40L在室内能拍出如下图一样的画质图片吗?具体什么方法? 松人r240显示器竖条纹 远行的 孩子的 作者 背景 主题 梦见梅花开满枝头的预兆 为什么_丝男的标配是戴副眼镜 戴副眼镜,能不能在酒吧工作? 一吨有色玻璃是多少 一吨浮法玻璃多少多少吨煤制气 家园守卫战守护文明攻略