⚙️ 一、技术核心考察点
-
数据建模能力
- 星型 vs 雪花模型:面试官常要求对比两种模型。星型模型(事实表+冗余维度表)查询性能高但存储冗余;雪花模型(规范化维度表)减少冗余但增加JOIN复杂度。需结合场景选择,如实时分析首选星型。
- 建模实战题:例如设计电商销售数仓,需明确事实表(订单流水)、维度表(商品、用户、时间),并解释粒度选择(如订单级)。
-
ETL流程与优化
- 增量抽取方案:面试高频题。需掌握基于时间戳、CDC(变更数据捕获)、日志解析(如Canal)等技术,并说明如何解决增量数据漂移。
- 数据清洗策略:举例说明如何处理缺失值(填充默认值/剔除)、重复数据(分布式去重)、异常值(阈值过滤)。
-
存储与计算引擎
- OLAP引擎选型:对比Kylin(预计算)、Druid(实时摄入)、ClickHouse(单表高性能)的适用场景。如实时监控选Druid,Ad-hoc查询用ClickHouse。
- Hive优化技巧:需熟悉分区(时间/业务)、分桶、向量化查询、Tez引擎替换MR等优化手段。
⚡ 二、算法与优化能力
-
查询性能优化
-
SQL调优案例 :例如优化慢查询:
sql-- 原查询(全表扫描) SELECT * FROM sales WHERE date > '2023-01-01'; -- 优化后(分区裁剪+聚合下推) SELECT product_id, SUM(amount) FROM sales PARTITION (p_2023) WHERE date > '2023-01-01' GROUP BY product_id;
-
索引与物化视图:解释位图索引在低基数维度表的应用,以及物化视图预聚合的代价/收益权衡。
-
-
实时计算算法
- 窗口聚合难点:如Flink中处理乱序事件需用Watermark+AllowLatency机。举例:计算每分钟GMV时,允许迟到数据更新结果。
- 维表关联方案:实时JOIN商品维度表,可采用预加载缓存(Redis)+异步更新,避免每条数据查DB。
-
算法模型应用
- 数据质量监控:利用统计学算法(如Z-score检测异常值)、机器学习(聚类发现数据分布模式)。
- 预测与推荐:在用户画像场景中,协同过滤用于商品推荐,需说明如何解决冷启动(热门填充/跨域迁移)。
🛠️ 三、大数据生态工具链
-
Hadoop/Spark生态
- Spark vs MapReduce:强调Spark内存计算、DAG优化比MR磁盘IO效率提升10倍以上。
- Shuffle调优 :解释Spark的bypass机制规避排序开销,调整
spark.shuffle.partitions
避免小文件。
-
流处理框架
- Lambda架构 vs Kappa架构:Lambda(批流并行)保障数据一致性但维护复杂;Kappa(全流式)简化架构但依赖消息回溯。面试需根据业务容错要求选择。
- Flink Checkpoint机制:描述Barrier对齐实现精确一次语义(Exactly-once)。
-
云数仓与开源方案
- Snowflake vs Redshift:云数仓对比重点在存储计算分离、自动扩缩容能力、跨云支持。
- Hudi/Iceberg应用:举例Hudi的UPSERT如何解决CDC场景。
📐 四、项目架构设计能力
-
实时数仓架构
- 典型方案 :
数据校准 Kafka 实时ETL ClickHouse 维表缓存 Hive离线 强调离线校准实时数据的必要性。
- 典型方案 :
-
数据治理实践
- 元数据管理:Apache Atlas实现血缘追踪(分析SQL影响下游报表),辅助故障定位。
- 质量监控体系:定义6大指标(完整性、唯一性、时效性等),用规则引擎(如Griffin)自动告警。
🤝 五、软技能与行业认知
- 业务驱动思维:举例说明如何将"用户复购率下降"转化为数仓指标(如流失用户画像+商品关联分析)。
- 前沿趋势:被问及数据湖仓(Lakehouse)时,需解释Delta Lake如何结合ACID事务与湖存储。
- 故障排查逻辑:经典问题"半夜发现报表数据异常,如何排查?" 应展示链路:元数据检查→ETL日志→源数据比对→重跑容错。
📌 六、面试准备清单
类别 | 必刷题库 |
---|---|
SQL优化 | 慢查询改写、窗口函数应用、分区剪裁技巧 |
场景设计 | 设计实时大屏监控、用户画像标签体系、广告点击归因模型 |
源码原理 | Spark Shuffle流程、Flink状态后端、HDFS读写机制 |
项目深挖 | 准备1-2个高复杂度项目,说明技术选型对比(如Kafka vs Pulsar)、踩坑解决方案 |