从ETL到数据集成,企业应该如何选择大数据技术?

ETL原本是作为构建数据仓库的一个环节,负责将分布的,异构数据源中的数据如关系数据、平面数据文件等抽取到临时中间层后进行清洗、转换、集成,最后加载到数据仓库或数据集市中,成为联机分析处理、数据挖掘的基础。现在也越来越多地将ETL应用于一般信息系统中数据的迁移、交换和同步。

随着企业信息化建设的发展,企业建立了众多的信息系统以进行内外部业务的工作,但是随着信息系统的增加,各自孤立工作的信息系统将会造成大量的冗余数据和业务人员的重复劳动。企业该如何完成企业内部ERP、CRM、SCM、数据库、数据仓库,以及其它重要的内部系统之间数据无缝共享和交换?如何实现外部数据的采集与链接?ETL和数据集成两种技术如何选择?

基于ETL技术的数据处理过程

ETL原本是作为构建数据仓库的一个环节,负责将分布的,异构数据源中的数据如关系数据、平面数据文件等抽取到临时中间层后进行清洗、转换、集成,最后加载到数据仓库或数据集市中,成为联机分析处理、数据挖掘的基础。现在也越来越多地将ETL应用于一般信息系统中数据的迁移、交换和同步。

ETL中三个字母分别代表的是Extract、Transform、Load,即抽取、转换、加载。(1)数据抽取:从源数据源系统抽取目的数据源系统需要的数据;(2)数据转换:将从源数据源获取的数据按照业务需求,转换成目的数据源要求的形式,并对错误、不一致的数据进行清洗和加工。(3)数据加载:将转换后的数据装载到目的数据源。

从ETL到数据集成,企业应该如何选择大数据技术?

为什么要选择ETL技术

自动化流程将节省数据获取时间:ETL的优点在于它具有以自动化方式收集,转换和组装数据的能力,从而为用户节省了手动进行操作的时间和精力。行和行的数据将被手动导入和分析的日子已经一去不复返了。

复杂数据不再是挑战:企业使用的数据是复杂且变化多端的,通过ETL可以将企业中的分散、零乱、标准不统一的数据整合到一起,

人为错误已不再是问题:在数据应用初期,大多数的数据质量问题是由人工处理导致的,ETL工具的规范可以帮助您避免这种情况。

数据质量得到保证,决策更智能:通过自动化关键数据流程最大程度地减少出错的机会,确保要分析的数据具有最高质量。高质量数据是制定强大业务决策的核心。

数据集成——基于ETL技术的数据共享、融合工具

百度百科释义:“数据集成是把不同来源、格式、特点性质的数据在逻辑上或物理上有机地集中,从而为企业提供全面的数据共享。”简单来说, 数据集成是将来自不同网站的数据聚合和管理到单个同类工作流程的过程。该过程包括数据访问,转换,映射,质量保证和数据融合。

数据集成是个统称, 可以通过ETL的方法收集数据。 数据集成包含了:ETL、主数据管理、数据质量监控、元数据管理、数据生命周期管理共五大功能模块。

数据集成消除“数据孤岛”,释放数据价值

数据集成是包含ETL、主数据管理等大数据技术的融合,为组织提供了存储在多个数据源中数据的统一视图,而提取、转换和加载(ETL)技术就是数据集成的早期尝试。数据集成技术更加能够应对企业持续变化的需求和大数据时代下不断涌现的新型挑战。

数据集成是信息系统集成的基础和关键,现在,越来越多的现代企业已经意识到商业数据集成在企业日常运作和管理中的重要性,全球着名的IT企业如0racle、IBM, 数据开发环境单一,工具环境无关性差等缺点。而且随着应用的不断深入,对Microsoft和Sybase等都针对自己的产品提出了数据仓库的数据集成解决方案。

从ETL到数据集成,企业应该如何选择大数据技术?

本文来自信息化观察者网,转载请注明出处。