1. 提前了解应聘公司信息,知道该公司是做什么的,发展情况,招聘的岗位的要求等;

2、面试不要说自己是培训班出身,个人技能里千万尽量不要体现出学习、了解字样

3、找工作策略:先可以找一些普通公司试试经验,面试几次熟悉套路后,再去面试心仪公司。

4、简历写的不要太多,尤其是项目不用写太细,提前想好可能被提问的点,留一些空间现场聊。

5、不要进入误区,完全依靠培训课程内容还不够,课程内容只是帮助大家完善一个项目和既能,面试考察基本功(数据结构、基础算法

6、面试的时候要听清问题再回答,可以停顿一段时间再回答。

7、现场面试的话建议要简历,(1)注意礼貌,着装合体(2)辅助描述

8、聪明程度,迂回法;合理利用规则,如电话面试。

9、时间把握 (1)自我介绍 5分钟左右或以内 (2)中间环节,尽可能用项目、工作内容占满。

一、简历

简历是获得面试机会的敲门砖,

1.自我介绍

主要考察应聘者的逻辑思维、语言表达、自我认知等能力。

参考建议:

第一,条理清晰,层次分明,突出与岗位要求相吻合的技能、个人所长、行为风格、实际经验等。

第二,现场表达必须与个人简历所写保持一致。

第三,控制时间,一般不超过 5分钟。

第四,尽量口语化,语言平实可信。

我的建议:提前打好稿子,背熟,注意自我介绍往往时间不需要过长,面试官通过自我介绍了解你的基本情况后,然后展开提问,所以自我介绍中要有吸引面试官的点,去引导面试官提问,以下是我之前观看视频收集的自我介绍模板,每个人情况不一样,仅供参考!

关于校招简历自我介绍模板:

关于社招简历自我介绍模板:

2.项目:

关于项目如何编写亮点、流程,强烈推荐观看以下视频。:

TALKDATA:【终于把项目讲明白了】如何封装简历上的项目?项目亮点怎么写、项目流程如何描述、如何与面试官聊项目_哔哩哔哩_bilibili

注意:根据自己的项目分点展开写,挑重点,内容不宜过多。

3.专业技能模板:

注:主要学会用词搭配,内容根据自己个人情况及招聘岗位删改。

模板1

■语言开发

1.扎实的Java基础,理解IO,多线程,集合,熟练使用Java,Scala进行开发;

2.掌握常用的数据结构和算法,如栈、队列、递归和常用排序算法;

■计算引擎

1)熟练掌握MapReduce的原理和运作流程,对海量的数据进行分析;

2)熟练掌握Spark Core和Spark SQL对离线数据进行相应的分析;

3)熟练掌握Spark Streaming实现对实时数据进行分析;

4)熟练掌握HQL语句的编写,进行业务分析。

■存储工具

2)熟练掌握Hbase的架构,以及相对应组件的工作原理,能够根据业务的不同设计相应的表,并且进行相应的优化,设计相应的二级索引;

3)熟练掌握Redis的工作原理,能够对相应的数据进行快速的操作;

4)熟练掌握MySQL的工作原理,能够使用开发语言进行数据库的连接,熟练的使用SQL语句对相应的业务进行分析。

■相关组件

1)对Hadoop生态圈有详细的理解,能够独立完成Hadoop集群的搭建和 Hadoop系统架构的搭建;

2)熟练掌握HDFS分布式文件系统原理,实现对数据的合理存储;

3)熟练掌握Yarn(分布式资源管理)架构和工作原理,熟悉资源分配的整 个流程;

4)熟练掌握Flume的工作机制,内部的运作流程。实现相应的配置,实现数 据的拉取;

5)熟练掌握Sqoop(SQL-to-Hadoop)的工作的原理,运作流程,实现数据 在各组件之间的传输;

6)熟练掌握Kafka分布式消息队列的架构。能够使用Kafka和Flume结合对 实时数据进行简单的处理;

7)熟练掌握Zookeeper(分布式协作服务)的架构,工作原理;

8)能够使用Oozie(工作流程调度器)进行程序流式运行;

9)掌握Git管理工具。

模板2

■语言

1.Java

•熟悉JVM的垃圾清理机制和调优,理解Java多线程的技术;

•拥有OOP的思想,能够熟练地使用Java语言进行MapReduce以及Spark的开发。

2.能够熟练使用Scala语言进行Spark的业务开发。

3.熟悉Linux命令,能够编写Shell脚本。

4.精通SQL语句,能够进行Hive和SparkSQL的开发。

■框架

1.Hadoop

•熟悉HDFS的读写流程,并能用其进行海量数据的存取;

•熟悉MapReduce的运行流程,并能用其进行海量数据的分析;

•熟悉Hive的原理,能够熟练使用hql语句以及自定义UDF进行Hive的数据分析,能够进行Hive的调优;

•了解ZooKeeper的原理,能够使用ZooKeeper对集群进行协同服务;

•理解HBase的特性,能够使用HBase进行数据的存储,能够完成HBase的表设计;

•熟悉Flume的框架,能够使用Flume实现不同场景下的数据采集;

•熟知Sqoop的原理,能够使用Sqoop实现不同场景下的数据传输。

2.Spark

•熟悉Spark的框架以及Spark任务的执行流程;

•熟悉RDD的属性,能够使用RDD算子进行Spark Core的开发;

•精通SQL,能够进行Hive on Spark以及SparkSQL的开发;

•能够使用Spark Streaming进行实时处理;

•理解消息中间件Kafka的原理与结构,能够完成Kafka与Spark的对接。

■工具

1.熟悉IEDA/Eclipse开发工具,熟悉Git版本控制工具;

2.熟悉数据库连接工具Navicat和Linux系统远程连接工具MobaXterm;

3.熟悉数据仓库建模工具PowerDesigner,能够完成ODS层,DW层以及DM层的设计。

■数据库

1.精通SQL语句,熟悉MySQL数据库;

2.熟悉Redis的数据类型以及常规操作,了解Redis的持久化和主从配置。

■其他

1.熟悉数据仓库的建模,掌握星型模型和雪花模型的设计;

2.了解二叉树、红黑树的排序算法,了解二叉树的遍历算法。

简历模板:

可以使用招聘软件上的在线简历,填写后导出,也可以在专业简历网站上编写,如五百丁、超级简历等,不建议直接在word模板中改,容易出现格式错误。

其他注意事项:

1.简历中的学校课程校招可以选择性填写 ,有社招经验的不需要。

2.简历内容充实时自我评价可不写。

3.简历中的照片可以不加,留神秘感。

4.求职是双向选择。

二、常见问题 三、求职软件

互联网行业首推招聘网站:BOSS、拉勾

注意:一定要在找工作面试前提前写好在线简历,如果简历符合公司要求,HR会主动联系你投递简历。

校招要提前去公司官网投递简历,尽量熟人找内推。

四、知识体系

每个岗位的知识体系不同,这里我熟悉的以大数据为例,知识点很多,但不一要全会,围绕自己简历中技能或项目班包含的技术,挑自己的强项写进简历中。

1.大数据体系

数据采集传输:Flume(进) Kafka(缓冲池) Sqoop(出) Logstash -- ELK Data X -- 阿里

数据存储:

MySQL -- 模拟java后台的数据

HDFS -- Hive

HBase -- kylin,

实时的kv格式数据 Redis -- 缓存 MongoDB -- 前端

数据计算:

Hive -- 底层是mr

Tez -- 基于内存

Spark -- 计算引擎(多表)

Flink -- 支持实时的单条数据处理与批处理(多表,被阿里收购,取名Blink,添加了很多新特性)

Strom -- 实时处理(old)

数据查询:

Presto -- 基于内存(快速查询,Apache)

Druid -- 德鲁伊(只支持单表、宽表查询)

Impala -- 基于内存(快速查询,CDH)

Kylin -- 预计算,预聚合,多维度(国人开发的Apache顶级项目)

数据可视化:

Echarts -- 百度开源,需要绘图,使用难度高

Superset -- 免费开源,适合中小型企业使用,简单轻量

QuickBI -- 收费

Data D -- 收费、酷炫

任务调度:Azkaban Oozie -- CDH内部集成,web页面安装即可

集群监控:Zabbix -- 报警(通过邮件、钉钉、甚至电话通知,属于专业运维使用)

元数据管理 Atlas -- 可以用来管理hive的元数据,形成血缘依赖关系

另外,推荐几个优秀的大数据面试系列博客:

1.《大数据面试题》面试大数据这一篇就够了_abluer~的博客-CSDN博客_大数据面试

五、面经 推荐观看:短时间内准备面试技巧 | 通过大厂面试 | 基础知识、项目和算法

【2个月通过秋招】短时间内准备面试技巧 | 通过大厂面试 | 基础知识、项目和算法_哔哩哔哩_bilibili

面经有时候比你的技能知识储备更重要,通过心仪公司的面经有助于你看准方向,充分应对面试。

牛客网:看面经+刷题

LeetCode算法:进大厂算法必刷

leetcode数据库,适合数据库方向练手

看准网:看面经的同时看公司评价情况。

LeetCodetop100可以参考这篇文章:leetcode笔记(Python版)待更新_GoAl的博客-CSDN博客

六、优秀面试心得总结

算法岗:校招|一个“普通人”的秋招算法岗上岸心得 - 知乎


本文由转载于互联网,如有侵权请联系删除!