学习大数据技术,首先要明确大数据的概念。
大数据的概念作者认为有如下几点:
1.数据的来源多样性。例如关系数据库+文本+excel等
2.数据量大。TB级别的数据。
3.业务应用领域。实时性高与实时性不高的应用。
学习大数据应该就是要解决上述三个技术问题。
很多初学者,对大数据的概念都是模糊不清的,大数据是什么,能做什么,学的时候,该按照什么线路去学习,学完往哪方面发展,想深入了解,想学习的同学欢迎加入大数据学习qq群:199427210,有大量干货(零基础以及进阶的经典实战)分享给大家,并且有清华大学毕业的资深大数据讲师给大家免费授课,给大家分享目前国内最完整的大数据高端实战实用学习流程体系。
针对第一个问题,就是ETL技术-数据的抽取,清洗,加载。传统数据抽取、清洗、加载是无法做到的。例如一个1TB的数据,需要抽取一些客户的基本信息。上万的文件,多种数据库,每个数据库有很多节点等,这些问题如何解决。第二是时间问题,如果这个ETL过长需要半个月时间,那么就没有意义的。
针对第二个问题,数据如何存储,如何查询。TB级的数据如何存储,如何查询,面对亿级别的数据集合,如何提升查询速度。
针对第三个问题,实时分析系统和非实时分析系统。实时分析系统我们如何解决在海量的数据中,及时根据数据分析模型,得出分析报告。非实时系统我们技术要求可能会低些。
围绕解决上述问题为中心,进行探讨学习之路-称为大数据学习之路
以上及供参考,欢迎评论交流探讨。
大数据真的很难吗?不见得,如果你想做个开发工程师的话,map reduce、spark 的编程范式对于有一定开发经验的程序员来说,上手是很快的。
但根据讲师自己多年的经验来说,单纯做程序员很容易思维固化、眼界局限,重复的发明轮子。但是要想再往高一层的level晋升,比如架构师级别,那hdfs、yarn、hive、hbase、kafka、zookeeper、impala、presto、phoenix、kylin、CAP、ELK、Solr一大堆面目可憎的小怪兽就成了拦路虎。 大数据的难点在于它的生态系统太庞杂,家族血统太混乱,面对一个企业场景有n多的方案说“我行,我不是一般人”。
就好比吃顿午餐,既可以端着碗吃,也可以就着锅吃,甚至倒到桌上手抓。每种吃法都能吃饱,但有的吃相很自然、很舒服,有的吃法很别扭,很猥琐。如何温文尔雅、如沐春风这就体现架构师的水平了。 本课程根据老师多年在国内一线互联网公司实际工作经验,整理提炼的一套侧重培养大数据架构师级别的实战课程,讲重点介绍大数据在一线企业中的使用方案,对于各个组件,除了详细介绍必须掌握的操作要领,更重点介绍不同业务场景下的设计和应用技巧。绝不同于市面上大多数的操作手册朗读者。
本课程设计包括如下几个层面: 1.大数据集成:主要介绍目前很火的ELK框架中的filebeat和logstash,相比较flume更轻量、更容易上手。 2.大数据传输:主要介绍kafka的原理和使用技巧 3.大数据落地:主要介绍hive和hbase这两款标准组合的原理和使用,并结合具体的业务场景揭秘高级设计和应用。 4.大数据使用:主要介绍企业中最有用的sql on hive、sql on hbase的解决方案,如何让hive速度提升十倍,如何让hbase像个rdbms,如何在hive中实现scd2等实际问题。
5.大数据搜索引擎:主要介绍目前很火的ELK框架中Elasticsearch,并详细演示从常规操作到高阶查询的全实战内容。 相信通过本课程的学习,勤奋的您已经深入到大数据的架构师层面,剩下来的就是在工作中不断的填坑不断的打怪升级,最终圆满。