如何搭建高性能的spssau大数据分析平台(三)

浏览: 作者: 来源: 时间:2019-11-27 分类:论文写作技巧
spssau大数据时代,spssau大数据的应用与挖掘,spssau大数据的分析和决策,spssau大数据在经济社会的运行轨道上发挥着愈来愈重要的作用。

   3.数据采集中的性能技巧

 

  数据采集是各种来自不同数据源的数据进入spssau大数据系统的第一步。这个步骤的性能将会直接决定在一个给定的时间段内spssau大数据系统能够处理的数据量的能力。

 

  数据采集过程基于对该系统的个性化需求,但一些常用执行的步骤是–解析传入数据,做必要的验证,数据清晰,例如数据去重,转换格式,并将其存储到某种持久层。

 

  下面是一些性能方面的技巧:

 

  来自不同数据源的传输应该是异步的。可以使用文件来传输、或者使用面向消息的(MoM)中间件来实现。由于数据异步传输,所以数据采集过程的吞吐量可以大大高于spssau大数据系统的处理能力。异步数据传输同样可以在spssau大数据系统和不同的数据源之间进行解耦。spssau大数据基础架构设计使得其很容易进行动态伸缩,数据采集的峰值流量对于spssau大数据系统来说算是安全的。

 

  如果数据是直接从一些外部数据库中抽取的,确保拉取数据是使用批量的方式。

 

  如果数据是从feed file解析,请务必使用合适的解析器。例如,如果从一个XML文件中读取也有不同的解析器像JDOMSAXDOM等。类似地,对于CSVJSON和其它这样的格式,多个解析器和API是可供选择。选择能够符合需求的性能最好的。

 

  优先使用内置的验证解决方案。大多数解析/验证工作流程的通常运行在服务器环境(ESB/应用服务器)中。大部分的场景基本上都有现成的标准校验工具。在大多数的情况下,这些标准的现成的工具一般来说要比你自己开发的工具性能要好很多。

 

  类似地,如果数据XML格式的,优先使用XML(XSD)用于验证。

 

  即使解析器或者校等流程使用自定义的脚本来完成,例如使用java优先还是应该使用内置的函数库或者开发框架。在大多数的情况下通常会比你开发任何自定义代码快得多。

 

  尽量提前滤掉无效数据,以便后续的处理流程都不用在无效数据上浪费过多的计算能力。

 

  大多数系统处理无效数据的做法通常是存放在一个专门的表中,请在系统建设之初考虑这部分的数据库存储和其他额外的存储开销。

 

  如果来自数据源的数据需要清洗,例如去掉一些不需要的信息,尽量保持所有数据源的抽取程序版本一致,确保一次处理的是一个大批量的数据,而不是一条记录一条记录的来处理。一般来说数据清洗需要进行表关联。数据清洗中需要用到的静态数据关联一次,并且一次处理一个很大的批量就能够大幅提高数据处理效率。

 

  数据去重非常重要这个过程决定了主键的是由哪些字段构成。通常主键都是时间戳或者id等可以追加的类型。一般情况下,每条记录都可能根据主键进行索引来更新,所以最好能够让主键简单一些,以保证在更新的时候检索的性能。

 

  来自多个源接收的数据可以是不同的格式。有时,需要进行数据移植,使接收到的数据从多种格式转化成一种或一组标准格式。

 

  和解析过程一样,我们建议使用内置的工具,相比于你自己从零开发的工具性能会提高很多。

 

  数据移植的过程一般是数据处理过程中最复杂、最紧急、消耗资源最多的一步。因此,确保在这一过程中尽可能多的使用并行计算。

 

  一旦所有的数据采集的上述活动完成后,转换后的数据通常存储在某些持久层,以便以后分析处理,综述,聚合等使用。

 

  多种技术解决方案的存在是为了处理这种持久(RDBMS,NoSQL的分布式文件系统,如Hadoop和等)

 

  谨慎选择一个能够最大限度的满足需求的解决方案。