|
整合大数据价值最大化的三个关键因素 |
作者:佚名 来源:网络 |
大数据通过人们生活,工作平台,应用程序,以及设备提供了多种格式的大量的数据。大量的结构化和非结构化的内容往往使用户非常难以访问和分析所需的信息。 现代数据中心往往是一个复杂的系统,相互连接的服务器和设备存储,处理和分发各种来源的大量信息。但智能大数据整合,在改造传统的信息系统,可以缓解从地理位置分散的网站,甚至其他数据中心的聚集和分析信息的斗争。 现代数据中心趋向于储存,处理互联服务器和设备的一个复杂的系统,以及大量的信息分发和从各种来源。但聪明的大数据整合,重塑传统IT系统,可以缓解汇总和分析来自地理上分散的地点,甚至其他的数据中心信息的斗争。 如果一个数据中心是一个组织的大脑,那么可以认为其数据源就是反馈给神经和细胞的信息。智能大数据集成意味着该组织的“神经系统”,为整个企业快速传达信息,为现代商业生态系统起着至关重要的作用。但这也意味着数据中心的管理人员将获得他们寻求的准确和高效的数据处理的安全性,质量,控制和管理。 从哪里开始 任何大数据项目的目的是为了获得更好的结果,其中包括直接进行实时洞察和基于循环模式的长期观点,但首先你必须克服早期的集成挑战。所以要问你自己: 1、你所有的关键数据来自哪里? 2、你的组织如何聚合并快速移动所有的数据? 3、如何分析可用的数据是否有价值? 4、通过在技术和基础设施方面的投资,你的企业如何才能最大限度地发挥价值? 最终,大数据整合摄入,准备和提供的数据,不管是什么来源。这包括利用在企业每一类型的数据,包括复杂的,往往是非结构化的机器产生的数据,这通常需要一个更加融合的数据中心的基础设施。 因此,第一步骤,可以说是最重要的一步,是整合所有可用的数据。以下是确定你的大数据集成项目有效实施的三个关键领域。 (1)可靠的数据流 摄入大数据到一个平台,像ApacheHadoop这样的平台是不够智能的,不足以启动一个Hadoop集群,输入所有类型的数据,并得出具有突破性的新见解,展现自己。大数据行业厂商似乎每一个星期都在发布新的工具和升级版本,甚至将某一技术引入到你的堆栈,虽然功能并不强大,但却可以使你的整个平台过时。 这是常见的企业应用程序和Hadoop集群之间的经验数据流和数据退化问题。因此,大多数反应涉及手工编码正在尝试努力工作,并抛弃一些其他类型的技术。通常情况下,这是一个解决方案。但这不是最终的解决办法。 采用一个安全的,敏捷的集成平台,专注于调动实际的数据流进出数据中心的管道,确保在越来越复杂的工作场所的生态系统进行可靠的信息交换。 (2)可扩展性 目前存在一些主要的整合,治理和安全问题,需要针对不同层次的大数据采取不同的举措,特别是在数据中心。我们今天正在经营业务在其规模和信息方面日益庞大,这使得数据成为“大数据”。而人们需要跨越地域和传统的数据中心来管理大数据,那些过时陈旧的工具已经严重低估了现代需求。 随着企业的发展和新的数据源开始发挥作用,需要增加不同的技术,你的系统将无一例外地必须适应。如果你将现在的问题通过手工编码解决,当你试图扩展之后,会不会在拥有它以后抛弃它? 简单地增加更多的工作人员或代码的问题并不是一个可扩展的策略,也不会解决复杂的大数据传输问题。需要有一个坚实的数据集成和管理平台下的商业智能工具,可以轻松地扩展,采用众多的大数据工具,并且其来源而不中断。 (3)数据质量,分类,治理 而从结构化数据出来的CRM和ERP应用程序通常很好地进行企业的分析,但它是非结构化的数据,更加难以管理。企业必须以某种方式治理信息混乱,因为即使是最小的数据质量的问题也会产生巨大的错误。成功的公司在元数据级别上做到这一点。 通过元数据定义信息是至关重要的,因为它提供了来自大数据的结构,帮助进行分类和整理这些信息以后可以轻松找到。当信息流动到你的数据湖,必须进行某种分类,因此你正在做分析的数据实际上是准确的。 企业在错误的数据方面浪费了一些技术周期,特别是昂贵的今天。所有这些质量和分类必须在某一点上进行,但它应该在早期的水平,即使在集成周期。企业认为在数据质量的早期可以得到更好的,更有价值的分析。 ..
|
|