数据工程师学习时间

梦里我们可以相见
  • 回答数

    7

  • 浏览数

    3858

首页> 工程师报名> 数据工程师学习时间

7个回答默认排序
  • 默认排序
  • 按时间排序

心也容易碎

已采纳

1、基础不同,学习人工智能的时间也是不同的,零基础学员人工智能培训周期一般在五个月左右。2、零基础学员没有计算机编程能力也没有相关开发经验,所以要从最基本的 python 编程语言开始学习,python因为其功能强大,应用广泛,同时有很多的现成的人工智能,机器学习相关的资源,因此选择 python作为人工智能学习的基础,学习起来并不是很困难,一个月左右就可以胜任。零基础学员学习了编程之后,具备一定的人工智能基础和学习能力之后就可以开始学习人工智能相关课程了。3、如果你有对应的计算机编程或者有过相关的开发经验,然后来学习人工智能,那么难度上会小很多,而且根据个人的情况,可以考虑直接跳过基础部分内容的学习,直接开始学习后面中级和高级部分的课程,这样一来,你的学习所需要的时间就会缩短。

61评论

她是他的不知所措

包含的课程还是比较多的,一般要学5个月左右。了解下魔据,有没有基础都可以,主要看的是自身学习是不是用心,够不够努力,现在这方面人才比较缺不用担心就业问题,也可以去实际了解一下。

130评论

劳资要的是朋友不是狗

一般来说,人工智能培训在半年以内。人工智能培训是按阶段来进行的,一般分为6个阶段

34评论

爺拽的有格調姐騷的有情調

主要学习office办公自动化,HTML+css3,JavaScript,C语言程序设计,Linux服务器配置与应用,MySQL数据库管理的应用等。

58评论

别说你爱我你有什么资格

1. 了解行业情况刚开始一定要了解清楚自己和行业的情况,很多人根本就分不清招聘信息中的大数据和数据挖掘的区别就说自己要转行,其实是很不负责的。不要总是赶热点,反正我就是经常被鄙视做什么大数据开发太Low,做数据就要做数据挖掘,不然永远都是水货。2. 选择学习途径如果真是清楚自己明确地想转数据开发了,要考虑一下自己的时间和精力,能拿出来多少时间,而且在学习的时候最好有人能多指点下,不然太容易走弯路了。在选择具体的学习途径时,要慎重一点,有几个选择:自学报班找人指点别的不说了,报班是可以考虑的,不要全指望报个辅导班就能带你上天,但是可以靠他帮你梳理思路。如果有专业从事这一行的人多帮帮的话,是最好的。不一定是技术好,主要是可沟通性强。3. 学习路线学习路线,下面是一个大致的建议:第一阶段先具备一定的Linux和Java的基础,不一定要特别深,先能玩起来,Linux的话能自己执行各种操作,Java能写点小程序。这些事为搭建Hadoop环境做准备。学习Hadoop,学会搭建单机版的Hadoop,然后是分布式的Hadoop,写一些MR的程序。接着学学Hadoop生态系统的其它大数据组件,比如Spark、Hive、Hbase,尝试去搭建然后跑一些官网的Demo。Linux、Java、各种组件都有一些基础后,要有一些项目方面的实践,这时候找一些成功案例,比如搜搜各种视频教程中如何搞一个推荐系统,把自己学到的用起来。第二阶段到这里是一个基本的阶段了,大致对数据开发有一些了解了。接着要有一些有意思内容可以选学。数据仓库体系:如何搞数据分层,数据仓库体系该如何建设,可以有一些大致的了解。用户画像和特征工程:这一部分越早了解越好。一些系统的实现思路:比如调度系统、元数据系统、推荐系统这些系统如何实现。第三阶段下面要有一些细分的领域需要深入进行,看工作和兴趣来选择一些来深入进行分布式理论:比如Gossip、DHT、Paxo这些构成了各种分布式系统的底层协议和算法,还是要学一下的。数据挖掘算法:算法是要学的,但是不一定纯理论,在分布式环境中实现算法,本身就是一个大的挑战。各种系统的源码学习:比如Hadoop、Spark、Kafka的源码,想深入搞大数据,源码跑不掉。

158评论

温柔不失优雅的禽兽

1.大数据工程师工作中会做什么?集群运维:安装、测试、运维各种大数据组件数据开发:细分一点的话会有ETL工程师、数据仓库工程师等数据系统开发:偏重Web系统开发,比如报表系统、推荐系统等这里面有很多内容其实是十分重合的,下面大致聊一下每一块内容大致需要学什么,以及侧重点。2.集群运维数据工程师,基本上是离不开集群搭建,比如hadoop、Spark、Kafka,不要指望有专门的运维帮你搞定,新组件的引入一般都要自己来动手的。因此这就要求数据工程师了解各种大数据的组件。由于要自己的安装各种开源的组件,就要求数据工程师要具备的能力: Linux 。要对Linux比较熟悉,能各种自己折腾着玩。由于现在的大数据生态系统基本上是 JVM系的,因此在语言上,就不要犹豫了,JVM系的Java和Scala基本上跑不掉,Java基本上要学的很深,Scala就看情况了。3. ETLETL在大数据领域主要体现在各种数据流的处理。这一块一方面体现在对一些组件的了解上,比如Sqoop、Flume、Kafka、Spark、MapReduce;另一方面就是编程语言的需要,Java、Shell和Sql是基本功。4.系统开发我们大部分的价值最后都会由系统来体现,比如报表系统和推荐系统。因此就要求有一定的系统开发能力,最常用的就是 Java Web这一套了,当然Python也是挺方便的。需要注意的是,一般数据开发跑不掉的就是各种提数据的需求,很多是临时和定制的需求,这种情况下, Sql就跑不掉了,老老实实学一下Sql很必要。如何入门?前面提到了一些数据工程师会用到的技能树,下面给一个入门的建议,完全个人意见。1.了解行业情况刚开始一定要了解清楚自己和行业的情况,很多人根本就分不清招聘信息中的大数据和数据挖掘的区别就说自己要转行,其实是很不负责的。不要总是赶热点,反正我就是经常被鄙视做什么大数据开发太Low,做数据就要做数据挖掘,不然永远都是水货。2.选择学习途径如果真是清楚自己明确地想转数据开发了,要考虑一下自己的时间和精力,能拿出来多少时间,而且在学习的时候最好有人能多指点下,不然太容易走弯路了。在选择具体的学习途径时,要慎重一点,有几个选择:自学报班找人指点别的不说了,报班是可以考虑的,不要全指望报个辅导班就能带你上天,但是可以靠他帮你梳理思路。如果有专业从事这一行的人多帮帮的话,是最好的。不一定是技术好,主要是可沟通性强。3.学习路线学习路线,下面是一个大致的建议:第一阶段先具备一定的Linux和Java的基础,不一定要特别深,先能玩起来,Linux的话能自己执行各种操作,Java能写点小程序。这些事为搭建Hadoop环境做准备。学习Hadoop,学会搭建单机版的Hadoop,然后是分布式的Hadoop,写一些MR的程序。接着学学Hadoop生态系统的其它大数据组件,比如Spark、Hive、Hbase,尝试去搭建然后跑一些官网的Demo。Linux、Java、各种组件都有一些基础后,要有一些项目方面的实践,这时候找一些成功案例,比如搜搜各种视频教程中如何搞一个推荐系统,把自己学到的用起来。第二阶段到这里是一个基本的阶段了,大致对数据开发有一些了解了。接着要有一些有意思内容可以选学。数据仓库体系:如何搞数据分层,数据仓库体系该如何建设,可以有一些大致的了解。用户画像和特征工程:这一部分越早了解越好。一些系统的实现思路:比如调度系统、元数据系统、推荐系统这些系统如何实现。第三阶段下面要有一些细分的领域需要深入进行,看工作和兴趣来选择一些来深入进行分布式理论:比如Gossip、DHT、Paxo这些构成了各种分布式系统的底层协议和算法,还是要学一下的。数据挖掘算法:算法是要学的,但是不一定纯理论,在分布式环境中实现算法,本身就是一个大的挑战。各种系统的源码学习:比如Hadoop、Spark、Kafka的源码,想深入搞大数据,源码跑不掉。

14评论

安静的疯子

零基础开始学习的话,大概需要5个月左右。大数据挖掘工程师的课程内容涉猎很多,包括JavaSE 开发、JavaEE开发、并发编程实战开发、Linux精讲、Hadoop 生态体系、Python 实战开发、Storm 实时开发、Spark 生态体系、ElasticSearc、Docker容器引擎、机器学习、超大集群调优、大数据项目实战等。如果想要全部掌握以上的知识,必须要进行系统的学习,建议报名相关的专业机构进行线上或者线下课程的学习。同时,学成之后大数据工程师的就业前景还是很明朗的,在薪酬待遇也是很有优势的,因为大数据工程师在IT类职业中比较稀缺的,收入待遇可以说达到了同类的顶级。国内IT、通讯、行业招聘中,有10%都是和大数据相关的,且比例还在上升。想要了解更多有关数据挖掘的信息,可以了解一下CDA数据分析师的课程。课程内容兼顾培养解决数据挖掘流程问题的横向能力以及解决数据挖掘算法问题的纵向能力。要求学生具备从数据治理根源出发的思维,通过数字化工作方法来探查业务问题,通过近因分析、宏观根因分析等手段,再选择业务流程优化工具还是算法工具,而非“遇到问题调算法包”

141评论

相关问答