大数据主要学习什么呢?
发布网友
发布时间:2022-04-23 13:04
我来回答
共13个回答
热心网友
时间:2022-04-09 06:13
大数据主要学习的东西有6个方面:
第一阶段
JavaSE基础核心
第二阶段
数据库关键技术
第三阶段
大数据基础核心
第四阶段
Spark生态体系框架&大数据高薪精选项目
第五阶段
Spark生态体系框架&企业无缝对接项目
第六阶段
Flink流式数据处理框架
热心网友
时间:2022-04-09 07:31
学习大数据目前主要三个平台hadoop,storm,spark
比如学hadoop,从哪儿开始学首先要根据你的基本情况而定,如果你就一小白,没有任何开发基础,也没有学过任何开发语言,那就必须先从基础java开始学起(大数据支持很多开发语言,但企业用的最多的还是JAVA),接下来学习数据结构、关系型数据库、linux系统操作,夯实基础之后,再进入大数据的学习,例如:hadoop离线分析、Storm实时计算、spark内存计算的学习,学习体系可以按照如下:
第一阶段
CORE JAVA (加**的需重点熟练掌握,其他掌握)
Java基础**
数据类型
运算符、循环
算法
顺序结构程序设计
程序结构
数组及*数组
面向对象**
构造方法、控制符、封装
继承**
多态**
抽象类、接口**
常用类
集合Collection、list**
HashSet、TreeSet、Collection
集合类Map**
异常
File
文件/流**
数据流和对象流**
线程(理解即可)
网络通信(理解即可)
第二阶段
数据结构
关系型数据库
Linux系统操作
Linux操作系统概述
安装Linux操作系统
图形界面操作基础
Linux字符界面基础
字符界面操作进阶
用户、组群和权限管理
文件系统管理
软件包管理与系统备份
Linux网络配置
(主要掌握Linux操作系统的理论基础和服务器配置实践知识,同时通过大量实验,着重培养学生的动手能力。使学生了解Linux操作系统在行业中的重要地位和广泛的使用范围。在学习Linux的基础上,加深对服务器操作系统的认识和实践配置能力。加深对计算机网络基础知识的理解,并在实践中加以应用。掌握Linux操作系统的安装、命令行操作、用户管理、磁盘管理、文件系统管理、软件包管理、进程管理、系统监测和系统故障排除。掌握Linux操作系统的网络配置、DNS、DHCP、HTTP、FTP、SMTP和POP3服务的配置与管理。为更深一步学习其它网络操作系统和软件系统开发奠定坚实的基础。与此同时,如果大家有时间把javaweb及框架学习一番,会让你的大数据学习更自由一些)
重点掌握:
常见算法
数据库表设计
SQL语句
Linux常见命令
第三阶段
Hadoop阶段
离线分析阶段
实时计算阶段
重点掌握:
Hadoop基础
HDFS
MapRece
分布式集群
Hive
Hbase
Sqoop
Pig
Storm实时数据处理平台
Spark平台
若之前没有项目经验或JAVA基础,掌握了第一阶段进入企业,不足以立即上手做项目,企业需再花时间与成本培养;
第二阶段掌握扎实以后,进入企业就可以跟着做项目了,跟着一大帮人做项目倒也不用太担心自己能不能应付的来,当然薪资不能有太高的要求;
前两个阶段都服务于第三阶段的学习,除了熟练掌握这些知识以外,重点需要找些相应的项目去做,不管项目大小做过与没有相差很多的哦!掌握扎实后可直接面对企业就业,薪资待遇较高!
热心网友
时间:2022-04-09 09:06
大数据是近五年兴起的行业,发展迅速,大数据需要学习什么?
大数据需要的语言
Java、Scala、Python和Shell
分布式计算
分布式计算研究的是如何把一个需要非常巨大的计算能力才能解决的问题分成许多小的部分,然后把这些部分分配给许多服务器进行处理,最后把这些计算结果综合起来得到最终的结果。
分布式存储
是将数据分散存储在多*立的设备上。采用的是可扩展的系统结构,利用多台存储服务器分担存储负荷,利用位置服务器定位存储信息,它不但提高了系统的可靠性、可用性和存取效率,还易于扩展。
分布式调度与管理
分布式的集群管理需要有个组件去分配调度资源给各个节点,这个东西叫yarn; 需要有个组件来解决在分布式环境下"锁"的问题,这个东西叫zookeeper; 需要有个组件来记录任务的依赖关系并定时调度任务,这个东西叫azkaban。
热心网友
时间:2022-04-09 10:57
一般来说,在一线城市,以BAT来说它们企业给应届毕业生的起薪并不高,但只要工作拼命、能力出众,事实上入职后的2、3年里就很容易拿到15万元以上的年薪。而在三线互联网公司,同等条件下,普通技术员工的年薪一般能达到15万元左右。而准二线的互联网公司的普通员工薪水基本也能达到或超过20万元,与许多传统行业相比,这样的收入水平绝对令人艳羡。工作经验超过5年后,互联网企业中的收入差距就会拉大。
如此诱人的薪资,肯定是人人都想加入的。但加入的条件就在于需要掌握一定的技能,综合很多大数据公司的要求统计如下:
1、熟练使用SQL语言;
2、熟练使用Hadoop、M/R、Hive、Storm等开发工具;
3、熟悉Linux命令及Shell编程;
4、对数据敏感,良好的逻辑分析能力,良好沟通能力和团队精神;
5、熟悉Impala、Druid、Mdrill、ElasticSearch等大数据工具者优先;
根据企业对大数据工程师的要求,你需要学习的技术如下:
阶段一、大数据基础——java语言基础方面
(1)Java语言基础
(2) HTML、CSS与JavaScript
(3)JavaWeb和数据库
阶段二、 Linux&Hadoop生态体系
Linux体系、Hadoop离线计算大纲、分布式数据库Hbase、数据仓库Hive、数据迁移工具Sqoop、Flume分布式日志框架
阶段三、 分布式计算框架和Spark&Strom生态体系
(1)分布式计算框架
Python编程语言、Scala编程语言、Spark大数据处理、Spark—Streaming大数据处理、Spark—Mlib机器学习、Spark—GraphX 图计算、实战一:基于Spark的推荐系统(某一线公司真实项目)、实战二:新浪网(www.sina.com.cn)
(2)storm技术架构体系
Storm原理与基础、消息队列kafka、Redis工具、zookeeper详解、实战一:日志告警系统项目、实战二:猜你喜欢推荐系统实战
阶段四、 大数据项目实战(一线公司真实项目)
数据获取、数据处理、数据分析、数据展现、数据应用
阶段五、 大数据分析 —AI(人工智能)
Data Analyze工作环境准备&数据分析基础、数据可视化、Python机器学习
1、Python机器学习2、图像识别&神经网络、自然语言处理&社交网络处理、实战项目:户外设备识别分析
热心网友
时间:2022-04-09 13:05
想要学好大数据需掌握以下技术:
1. Java编程技术
Java编程技术是大数据学习的基础,Java是一种强类型语言,拥有极高的跨平台能力,可以编写桌面应用程序、Web应用程序、分布式系统和嵌入式系统应用程序等,是大数据工程师最喜欢的编程工具,因此,想学好大数据,掌握Java基础是必不可少的!
2.Linux命令
对于大数据开发通常是在Linux环境下进行的,相比Linux操作系统,Windows操作系统是封闭的操作系统,开源的大数据软件很受*,因此,想从事大数据开发相关工作,还需掌握Linux基础操作命令。
3. Hadoop
Hadoop是大数据开发的重要框架,其核心是HDFS和MapRece,HDFS为海量的数据提供了存储,MapRece为海量的数据提供了计算,因此,需要重点掌握,除此之外,还需要掌握Hadoop集群、Hadoop集群管理、YARN以及Hadoop高级管理等相关技术与操作等等
想学习大数据可以到CDA进行详细的了解。全球教育咨询类企业、高等院校、行业机构可申请成为“CDA授权管理中心”,开展CDA认证、咨询、人才培养等业务,普及数据科学知识,传播CDA职业道德与行为准则,助力个人与企业更加高效的达到CDA数据分析师各等级专业知识与实务技能的执业标准,获得CDA数据分析师认证证书。
热心网友
时间:2022-04-09 15:30
希望你首先理解大数据的相关概念,要做这东西你最起码要知道这东西是什么,从 what,how 的角度去做,最后实现出来之后思考 why 才是你更上一个台阶的步骤。
大数据无非就是两个基础部分,存储和计算。后续再利用机器学习,深度学习结合 TensorFlow 利用你的数据分析训练处一个模型,或者直接数据分析得到有价值的东西,能够帮助人们预测或者知道某件事情或者数据的走向。
java 需要学习,毕竟主流的大数据工具 Hadoop 就是 java 搞的。第一阶段可以先了解 Hadoop 的体系结构、原理、编程,第二阶段需要知道 NoSQL 数据库是什么,然后学习一下 Hadoop 生态的 NoSql ( HDFS、MapRece、HBase ),第三阶段就是去学习数据分析引擎了,Hadoop 生态的数据分析引擎 Hive、Pig 等。
再者再去学习一下流引擎,如 Spark、Apache Storm 等。最后在学习一下现在流行的实行计算引擎 Apache Flink,以及处理消息队列的 kafka。如果只做数据分析的话 python 也是可以的,要学习 numpy 和 pandas 等等。视频资源网上一搜一大把,记得B站上就有人整理过。
热心网友
时间:2022-04-09 18:11
大数据具体学习内容有六个方面,5261分别如下:
基础阶段:Linux、Docker、KVM、MySQL基础、Oracle基础、MongoDB、redis。
hadoop maprece hdfs yarn:4102hadoop:Hadoop 概念、版本、历史,HDFS工作原理,YARN介绍及组件介绍。1653
大数据存储阶段:hbase、hive、sqoop。
大数据架构设计阶段:Flume分布式、Zookeeper、Kafka。
大数据实时计算阶段:Mahout、Spark、storm。
大数据数据采集阶段:Python、Scala。
大数据商业实战阶段:实操企业大数据处理业务场景,分析回需求、解决方案实施,综合技术实战应用。
热心网友
时间:2022-04-09 21:09
大数据主要还是学习一些数据的收集以及数据分析等等,还是非常有用处。
热心网友
时间:2022-04-10 00:24
学大数据更多的是都是hadoop、spark生态体系、storm实时开发,还有一些JAVA基础,需要学习的东西还是比较多的,如果是零基础的话还是报个班学吧,自己学很难的,我确实也试着自学过,但是实在是坚持不下来,后来又去的光环大数据学的,如果不知道哪里靠谱,可以申请试听一下,看下授课内容怎么样,再决定!
热心网友
时间:2022-04-10 04:28
具体学习内容,如图:
第一阶段
第二阶段
第三阶段
第四阶段
第五阶段
第六阶段
第七阶段
热心网友
时间:2022-04-10 08:50
大数据学习首先主要java经验,如果想学习建议可以找个专业的培训机构学习一下,如果不想花钱,可以找一个机构的全套视频,然后跟着他们的课程大纲开始学习,一步一步学习就行。推荐一下,百战程序员的课程视频还有大纲,比较适合自己学习。如果有钱还是参加一下培训比较好
热心网友
时间:2022-04-10 13:28
我是来自农村的一名很普通的女孩,17年大学毕业,现在在杭州一家大数据公司做分析师。想跟大家分享一下,我是如何从刚毕业的一张白纸,成长为一名大数据分析师的,希望我的学习成长心路历程,能够给到现在想往大数据分析行业发展的小伙伴一些参考。
我刚毕业的时候和现在许多学弟学妹一样,都非常迷茫,因为我对自己未来并没有一个非常清晰的职业规划,我不知道自己能够做什么?心里还有一些自卑,因为即便我很爱我的大学,但不得不承认,它只是一个很普通的大学,并非985、211。在如今大学生多如牛毛,激烈的就业环境中,我的学历和专业并没有太大竞争力,也有些后悔为什么大学期间没有再认真努力一些,但为时已晚。毕业,意味着新的人生起点,必须要勇敢面对,未来只能靠自己的能力在社会上生存和发展。
于是,就这样,带着对母校和同学们的不舍、对社会的彷徨、对自己内心的恐惧、以及家人给予我的期望迈入社会,开始了我的求职之路。找了半个月的工作,面试20来家,有3家成功的,但是开的工资最高3500一个月,并且2家是销售岗位,1家也不是我本专业的岗位(我的专业是信息与计算科学),我算了一下,就算我接受这些陌生并且不喜欢的岗位,在杭州这样的城市,合租房包水电物业费也得1500左右,公交一个月最少200,生活费最少900,电话费100,3500一个月的工资还要扣除五险一金,每个月还要倒贴。我简直快奔溃了,感觉自己很没用,连独立在城市生存下去的能力都没有,心里非常的沮丧。
也许命运就是这样,当你面临几乎绝望的时候,往往能审视自己,明白自己真的想要什么,静下心来的时候,我问自己,为什么企业不要我这样的学生?答案其实大家都知道,一是没有工作经验,二是啥都不懂不能为企业创造价值;三是面试的时候紧张、不自信、没有很好的表现自己。按这个逻辑分析下去,再找半个月我也不指望能出现奇迹,可能连我最后一点的自信都会被打击光。我隐约的感觉到需要重新定位自己,需要与其他同学拉开区分度,目前我学的这个专业和知识好像与企业要求的能力相差太大,如此分析后,摆在我面前的路有三条,一是接受3500的工作,熬个一年半载希望能加点工资,让自己在杭州生活下去,以后再谋发展;二是回老家的小城市随便找个工作以后结婚过日子;三是选择一个现在人才缺口大的行业,并且未来有前景的职业从头开始学习,这样至少我还比别人快一步。
去年社会上最热门的字眼就是人工智能、大数据,当时我在网上查了很多信息,看了很多新闻,也在招聘网站上查询大数据岗位的薪资和招聘人数及技术要求等情况,我发现大数据行业分二个方向,一是大数据工程开发类,二是大数据分析类,开发类的编程要求比较高,而分析类的编程技术要求相对低些,在网上找了一些分析课程听了一下,感觉还挺有意思的,也能听懂,相比与开发类,自己更喜欢也更适合分析类,所以就下定决心往数据分析这个方向进行学习。后面我花了10来天的时间去了解数据分析的前景和学习路径,但是网上的信息太杂乱,只能了解一个大概,在网上买了一些课,也买了好几本书,一个星期下来还是毫无头绪,本以为把HADOOP学会就能入门了,结果发现HADOOP搭建会了后面的SPARK太吃力;这时候我感觉还是需要去正式培训一下,自学找不到方向,也比较浪费时间;上天还是比较眷顾我的,我记得是去年的7月初,我在网上查大数据分析培训的时候,发现阿里云和他的内容提供商杭州决明数据科技联合推出一个《阿里云大数据分析师企业实战训练营》,需要选拨才能进入,抱着对阿里云品牌的信任,我进行了考试筛选,当时考的内容是两部分,一是数据库、二是C语言和JAVA;说真的JAVA一窍不通,没想到第二天接到通知说通过了,接下来需要电话面试,我当时就怀疑是不是骗人的,在电话面试的时候我就问了负责的老师,老师说是从250多个报名参加的学生中选10个人参加,主要是为新研发出来的课程体系做实验,我作为计算机相关专业、不懂JAVA只懂数据库的学生样本被选中了,另外面试沟通表达能力必须通过。突然有种被实验的感觉,这不是拿我做小白鼠嘛,我问还有其他样本是怎么样的,负责老师说,有一个是大三未毕业数学统计专业的、有一个机械工程三本学生、有一个软件开发专业的一本学生、有一个工作三年软件开发的学生、有一个工商管理专业的学生……我的个神了,当时就蒙圈了,这玩意万一实验失败我钱不就白花了,还浪费1个多月时间,我给父母说后没一个人支持我的,直到7月9号正式开营的前一天我才想明白一件事,在中国连阿里云这样的企业目前都没有一套完整的科学的课程体系,那其他家肯定也没有,如果是骗人的负责老师也没必要把做实验这事情给我说的这么清楚,最后一天选择了这个训练营,其实心里非常忐忑不安。
集训营10个同学一起学习35天,近2个月时间,经过系统的训练,我们10个同学被杭州7家企业录用,全部是数据分析岗位,有去电信的、有去外贸企业的、有去金融企业的、有去阿里系相关企业的,我和那个大三的学弟一起去了阿里系的企业,我试用期,他实习期,大家都非常的开心,说真的非常感谢阿里云和阿里云的合作伙伴决明数据科技的老师们,当时给我们上课的全部都是决明的老师,老师们都非常的专业负责,公司本来就是做企业商业数据咨询的,所以有很多商业案例跟我们分享,用的实验平台是九道门商业数据分析实验平台。
从小白鼠到入行,到现在也有小三年工作经验的我,给大家一个学数据分析师的学习路径,仅供大家参考;
1、 建议大家先学习MYSQL关系数据库,在分析师岗位上数据库是经常要用到的,也是必须要会的;
2、 建议大家接下来学习数据建模、数据仓库,ETL数据清洗,特别在工作中数据质量管理是比较重的,ETL是经常用的(当然数据清洗工具也有其他的,ETL是大家通用的);
3、 HADOOP分布式其实在分析师这个岗位上用的比较少,了解就可以了,因为现在分布式这块大公司都有现成的工具用,连搭建都不需要,直接用就可以了,非常方便。
4、 分析工具还是需要好好学一下的,建议大家学Python,现在公司里面大部分都是用这个,EXCEL也需要学习学习,一些小的数据集和简单的BI报表还是比较方便的。当然分析工具比较多比如R、SPSS,SAS等都是工具,就看你自己用什么了,会用一个熟练的工具就可以了。另外Python功能非常强大,也不需要研究太深,其实工作做在做项目的时候经常用很快就能学会的,毕竟只是个工具,就像EXCEL要想全部弄清楚所有功能那可不是一天二天的事情,而我们日常经常用的也就是那点东西。
5、 接下来需要学习机器学习,原来叫数据挖掘,现在叫机器学习,也有的叫人工智能,这个需要大家花点时间去学习了,我现在经常用的比如决策树、回归问题、分类问题、聚类问题、降维问题等,还有预测、无监督、最优化也经常用到,这门学科可能是需要我们长时间学习和研究的。
6、 算法方面其实我没有学过,在项目组里面有专门的算法工程师,另外有些通用算法是可以套用的,所以这方面我觉得项目组团队可以配合来做,这方面本人没有经验不做建议。
7、 我现在觉得分析师最重要的是看待问题、处理问题的思路,在这一年工作中我发现团队的大牛们解决问题的思路和我们真不一样,在每次项目组会议的时候我感觉学到的东西最多,那就是解决问题的思路和能力;而且分析师还需要对业务深入了解,因为不同的行业数据结构和业务逻辑都是不一样的,需要花时间去理解和学习;同时我也感觉到作为数据分析师还需要学习商业思维和营销知识。
8、 另外一个就是数据可视化,这个主要是把我们分析出来的数据结构用图像、动画等按时呈现出来。我现在正在做的就是数据大屏,工具很多,BAT公司都有自己的工具,当时老师教我们的时候教的是 Tableau,个人感觉非常好用,这个随便自己喜好了,做大屏可能需要一点美术功底,当然现在模板比较多,也可以套用。
9、 其实在学习的过程中要想学得快,最好是从项目案例入手,当时阿里云和他的内容提供商决明数据就是先让我们训练九道门实验平台上的23个场景案例,数据集全部做好放在服务器里,和我们现在工作的场景很像。老师上午讲知识点,下午和晚上我们就是做实操实验,工具老师基本上都不讲,在做案例项目的时候用到什么临时去查,二次下来工具就上手了。最后一周是加拿大的赵强老师给我们训练了一个大项目,模拟一个企业的数据分析项目,那5天是我最刻苦铭心的,虽然压力很大,分组进行,但是5天时间把我们原来所学的东西全部串起来了,一下子思路就通了,最后每个人还要上台去讲,也培养了自己的沟通能力和演讲能力,整个项目流程下来,受益匪浅。赵老师原来为世界500强企业做过数据咨询项目的,又是加拿大舒立克商学院的MBA教授,项目经验丰富,确实是国内少有的专家大咖,是决明科技的创始人,也是我现在上班这家公司的项目顾问,多亏了赵老师的悉心指导,让我在成为大数据分析师的学习之路上少走了很多弯路,真的蛮感谢赵老师的,也希望大家在学习的路上都能遇到这样的良师益友。
10、 最后一个建议就是大家还需要学习学习PPT制作和演讲,最近我们项目要陆续交付,每次交付都需要向客户进行讲解,每个人做的部分由自己讲,所以PPT制作和演讲都需要训练,亚历山大。
说了这么多,只能代表我这一年来的经历和感受,也不知道对学弟学妹有没有帮助,反正如果你们想往大数据分析师这个职业发展的话,建议大家一定要从项目入手去学习,工具要学但是不要研究太深,会浪费时间,工作后用起来上手非常快,如果自学没有头绪,培训还是很有必要的,但一定要找专业方面的人进行培训,我觉得我还是非常幸运的,遇到了阿里云以及杭州决明科技的老师们,如果学弟学妹们有这样的想法,可以去了解一下,当时我们是第一批培训的,不知道他们现在还在不在做,他们集训就是从项目入手,跟我现在工作内容十分相似,虽然集训过程很辛苦学的也很累,但收获与影响是巨大的。
我当时集训结束的时候就拿到了两个个公司的OFFER,一个是全球排名前十的游戏营销咨询公司,一个是我现在上班的XX云公司;当时选择的时候其实很痛苦,两个个公司都非常不错,因为我是在阿里云实验班出来的,我还是选择了阿里系的企业。
如愿以偿进入了大数据分析职业,天天做项目,非常开心,我相信我自己能在杭州好好的工作,好好的生活下去,毕业季,也祝小伙伴们能和我一样幸运,找到自己喜欢的工作。
最后感谢阿里云和决明数据科技的老师,同时也推荐想学大数据分析的学弟学妹们去九道门商业大数据分析实训中心,因为专业所以认同。
热心网友
时间:2022-04-10 18:22
信息是最可珍贵之物,它是一切客观事物相互联系,转折发展,矛盾前进的统一体,是客观事物的客观反应。它具有真假的相对性,和存在的客观性的特征。
可以到这边看看大数据,进行对比学习下