【摘要】:基于Spark+Hadoop处理技术的机器学习使得样本数量大量增加,以大量样本作为基础实现问题的分类求解。Spark不仅具有Hadoop MapReduce数据处理技术的优点,而且可以适用于需要迭代MapReduce算法的数据处理与机器学习等。通过大数据技术Spark+Hadoop进行全量数据分析,解决统计/机器学习依赖于数据抽样且不能精准反映全集的问题,揭示其全量数据分析而能精准反映全集的机理。
机器学习是从大量数据中获取经验并且改善性能的方法,是数据挖掘常用的学习方法,从而实现某种程度的人工智能。机器学习主要基于统计学习SVM、分类算法NaiveBayes、聚类算法K-means等算法,计算现有数据,对计算结果及更高级别的数据进行分析,实现趋势预测。大数据分析描述从数据量、数据类型和数据增长速度等角度描述数据,采用分布式架构进行一致性、资源调度和性能优化等。大数据分析描述的重点是数据应用,机器学习主要是描述方法,从大量完整而真实的原始数据中寻找到潜在的有价值的知识和规律。数据量越大,机器学习模型提升的准确性越高。数据量越大,模型越复杂,机器学习算法的计算时间复杂度也就越高,也越离不开分布式计算与内存计算等大数据的关键技术,二者相辅相成,互相促进。
基于Spark+Hadoop处理技术的机器学习使得样本数量大量增加,以大量样本作为基础实现问题的分类求解。随着数据规模的爆炸式增长,单一服务器已经不能满足机器学习的需要,从单一服务器向成千上万台服务器扩展,这就需要Hadoop技术来实现。在Hadoop技术架构下,本地计算和存储等功能可以由每台机器来实现。Spark不仅具有Hadoop MapReduce数据处理技术的优点,而且可以适用于需要迭代MapReduce算法的数据处理与机器学习等。
机器学习处理数据时,Spark中基本的数据抽象RDD(Resilient Distributed Dataset,弹性分布式数据集)能够有效降低I/O资源消耗和容错能力的开销,Spark+Hadoop处理技术的机器学习扩充了样本的数量,使数据价值能够最大化地发挥出来,从大规模、复杂结构的数据中通过大数据处理分析找出隐藏在数据中的内在规律,适应了迭代式机器学习模型的特定需求。Spark常用机器学习算法的实现库MLlib,MLlib基于弹性分布式数据集与Spark SQL实现无缝集成,以RDD为基石,可以构建大数据计算中心。通过大数据技术Spark+Hadoop进行全量数据分析,解决统计/机器学习依赖于数据抽样且不能精准反映全集的问题,揭示其全量数据分析而能精准反映全集的机理。[167]
机器学习分析数据中的关系,以获得规律,预测新样本,机器学习在语音识别、自动驾驶、图像检索、自然语言处理等各个领域中都有着广泛的应用。机器学习让计算机进行自学习,通过这样的算法,分析数据中的关系,并获得规律,分析其内在规律,再预测新的样本。以自动驾驶为例,实现自动驾驶,就需要识别交通标志。首先,通过机器学习算法学习交通标志,包括数据集中的数百万张交通标志图片,可以采用机器学习中深度学习的卷积神经网络进行图像识别训练,并生成模型。其次,自动驾驶系统让生成的模型使用摄像头识别交通标志,经反复验证、测试,并不断进行调优,从而实现较高的识别精确度。(www.chuimin.cn)
结合可以进行大数据分析的机器学习技术,如模式识别、个性化推荐系统、智能控制等在网店购物时有着经典的应用。从原始数据的提取、转换、加载等形成一系列的处理,最终成为信息或知识,作为决策判断的标准。对数据进行收集、统计和分析的大数据系统引入机器学习进行大数据计算,机器学习的深度和广度也提升了大数据的分析效率。
大数据和机器学习的关联度大,二者联系紧密,大数据处理分析能够从大量数据里面发现隐藏的、有逻辑关系的准确的知识,并通过决策来执行。大多数大数据分析算法来源于机器学习,机器学习通过大数据的理论分析,在实际应用中进行优化,从而实现数据分析的目标,机器学习也成为大数据分析的重要支撑技术。
相关推荐