文章目录
-
-
- 一、分布式消息系统(Kafka相关问题5-10)
-
- [5. Kafka如何保证消息不丢失?](#5. Kafka如何保证消息不丢失?)
- [6. 项目中Kafka具体怎么使用的?](#6. 项目中Kafka具体怎么使用的?)
- [7. 消息异常未发送成功怎么解决?](#7. 消息异常未发送成功怎么解决?)
- [8. 重试具体怎么做的,循环吗?](#8. 重试具体怎么做的,循环吗?)
- [9. 重试多次失败怎么办,抛出异常吗?](#9. 重试多次失败怎么办,抛出异常吗?)
- [10. 消息一直没发出去是什么原因?](#10. 消息一直没发出去是什么原因?)
- 二、数据库设计与优化(问题11-18)
-
- [11. SQL怎么优化?](#11. SQL怎么优化?)
- [12. 怎么判断是慢查询?](#12. 怎么判断是慢查询?)
- [13. 怎么设计一个好的数据库?](#13. 怎么设计一个好的数据库?)
- [14. 项目中数据库表怎么设计的?](#14. 项目中数据库表怎么设计的?)
- [15. 主键怎么设计?普通递增 vs 分布式雪花算法](#15. 主键怎么设计?普通递增 vs 分布式雪花算法)
- [16. 除了雪花算法和UUID,还有什么主键不重复方案?](#16. 除了雪花算法和UUID,还有什么主键不重复方案?)
- [17. 具体字段类型设计:用户名用什么类型?](#17. 具体字段类型设计:用户名用什么类型?)
- [18. 什么时候用到JOIN?](#18. 什么时候用到JOIN?)
- 三、加密算法(问题19-20)
-
- [19. 左连接、右连接、外连接的区别?](#19. 左连接、右连接、外连接的区别?)
- [20. 加密算法有哪些,什么区别?](#20. 加密算法有哪些,什么区别?)
-
以下是针对您提出的20个问题的详细解答,分为分布式消息系统(Kafka) 、数据库设计与优化 、加密算法三个模块:
一、分布式消息系统(Kafka相关问题5-10)
5. Kafka如何保证消息不丢失?
Kafka通过生产者、Broker、消费者三端机制确保消息不丢失:
- 生产者端 :
- 设置
acks=all
(或acks=-1
):等待所有ISR副本确认接收消息。 - 启用
retries
重试机制(默认10次),处理网络抖动等临时错误。 - 记录
producer.send()
返回的RecordMetadata
,用于故障后重试(需避免幂等性问题,可通过enable.idempotence=true
开启幂等生产者)。
- 设置
- Broker端 :
- 副本机制:消息写入分区的Leader副本后,需等待ISR(In-Sync Replicas)中的Follower副本同步完成才标记为"已提交"。
- 持久化:消息写入磁盘时使用
fsync
强制刷盘(可通过log.flush.interval.messages
等参数控制)。
- 消费者端 :
- 手动提交offset:关闭自动提交(
auto.commit.offset=false
),确保消费成功后再提交。 - 重复消费处理:通过业务层去重(如利用消息唯一ID+Redis存储已消费记录)。
- 手动提交offset:关闭自动提交(
6. 项目中Kafka具体怎么使用的?
典型应用场景:
- 异步解耦:订单系统下单后,通过Kafka通知库存、物流、支付等系统,避免同步调用超时。
- 流量削峰:秒杀活动中,将用户请求写入Kafka,消费者(如Java服务)按限流速度处理,防止数据库被瞬时流量冲垮。
- 日志采集:将应用日志发送到Kafka,供ELK(Elasticsearch+Logstash+Kibana)或Flink等系统进行实时分析。
代码示例(Java生产者):
java
Properties props = new Properties();
props.put("bootstrap.servers", "kafka:9092");
props.put("acks", "all");
props.put("retries", 3);
props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");
KafkaProducer<String, String> producer = new KafkaProducer<>(props);
ProducerRecord<String, String> record = new ProducerRecord<>("order-topic", "123", "{\"orderId\":\"1001\",\"amount\":1000}");
try {
producer.send(record, (metadata, exception) -> {
if (exception != null) {
log.error("消息发送失败:{}", exception.getMessage());
} else {
log.info("消息已发送至分区{},偏移量{}", metadata.partition(), metadata.offset());
}
});
} finally {
producer.close();
}
7. 消息异常未发送成功怎么解决?
排查步骤:
- 生产者日志 :查看是否有网络异常(如
org.apache.kafka.common.errors.NetworkException
)、分区不存在等错误。 - Broker状态 :检查Kafka集群是否正常(节点存活、分区Leader是否存在),使用
kafka-topics.sh --describe
查看分区ISR状态。 - 重试机制 :若为临时性错误(如分区负载过高),通过
retries
自动重试;若为永久性错误(如消息格式错误),需捕获异常并记录到死信队列(Dead Letter Queue,DLQ)。 - 监控告警 :通过Prometheus+Grafana监控
producer_request_error_rate
等指标,及时发现发送失败趋势。
8. 重试具体怎么做的,循环吗?
- Kafka内置重试 :
生产者通过retries
参数设置重试次数(默认10次),每次重试间隔由retry.backoff.ms
控制(默认100ms)。重试逻辑为指数退避(如第1次重试间隔100ms,第2次200ms,避免频繁重试加剧网络负载)。 - 业务层重试 :
若内置重试耗尽仍失败,可将消息存入数据库(如MySQL)或Redis,通过定时任务(如Spring Task)或分布式调度框架(如Elastic-Job)进行循环重试,直至成功或标记为"需要人工处理"。
9. 重试多次失败怎么办,抛出异常吗?
- 有限重试后终止 :
设定最大重试次数(如5次),超过后不再自动重试,而是:- 发送告警(邮件/短信通知运维人员)。
- 将消息写入死信队列(如Kafka的
dead-letter-topic
),供人工排查(如消息格式错误、下游系统故障)。
- 异常处理 :
在生产者的回调函数中捕获最终异常,记录详细日志(如消息内容、失败原因),但不建议直接抛出异常中断业务流程,应保证主流程继续运行,仅对失败消息做异步处理。
10. 消息一直没发出去是什么原因?
常见原因分析:
- 网络问题 :
- 生产者与Broker之间网络断开(如防火墙拦截、VPN中断)。
- Broker节点负载过高,无法处理新请求(可通过
kafka-consumer-groups.sh
查看分区Lag)。
- 元数据问题 :
- 生产者未正确获取分区元数据(如首次连接时未等待
metadata.max.age.ms
刷新)。 - 主题被删除或分区数变更,导致生产者缓存的元数据失效。
- 生产者未正确获取分区元数据(如首次连接时未等待
- 配置错误 :
acks
设置为0
(不等待Broker确认),但网络故障导致消息丢失。- 消息大小超过Broker限制(
message.max.bytes
默认1MB)。
- 权限问题 :
- 生产者未被授予主题的写入权限(如使用ACL认证时未正确配置)。
- 下游系统故障 :
- 消费者组挂掉或消费速度过慢,导致分区积压,Broker拒绝新消息写入(需调整分区数或消费者并行度)。
二、数据库设计与优化(问题11-18)
11. SQL怎么优化?
优化方向:
- 索引优化 :
- 为高频查询字段添加索引(如
WHERE
、JOIN
、ORDER BY
字段),避免全表扫描。 - 避免过度索引(索引会增加写入成本),使用
EXPLAIN
分析执行计划,查看type
是否为range
/ref
(优于ALL
)。
- 为高频查询字段添加索引(如
- 分页优化 :
- 大偏移量分页(如
LIMIT 100000, 10
)性能差,可通过子查询或WHERE id > last_id
优化。
- 大偏移量分页(如
- 查询语句优化 :
- 避免在索引字段上使用函数(如
SELECT * FROM users WHERE YEAR(create_time) = 2023
)。 - 用
EXISTS
替代IN
查询子集(如SELECT * FROM A WHERE EXISTS (SELECT 1 FROM B WHERE B.a_id = A.id)
)。
- 避免在索引字段上使用函数(如
- 分库分表 :
- 单表数据量超过500万行时,可按业务维度(如用户ID取模)拆分到多个库/表。
12. 怎么判断是慢查询?
方法:
- 开启慢查询日志 :
MySQL中通过SET GLOBAL slow_query_log = ON;
开启,设置long_query_time
阈值(默认10秒,可调整为0.5秒)。 - 监控工具 :
- 使用
pt-query-digest
分析慢查询日志,统计执行频率、平均耗时、锁等待等。 - 数据库监控平台(如Prometheus+MySQL Exporter)实时监控
slow_queries
指标。
- 使用
- 执行计划分析 :
对疑似慢查询执行EXPLAIN
,查看:type
:ALL
表示全表扫描,需优化索引。rows
:扫描行数是否过大(理论上应小于总数据量的5%)。Extra
:是否包含Using filesort
(文件排序)或Using temporary
(临时表),这两者通常性能较差。
13. 怎么设计一个好的数据库?
设计原则:
- 需求分析 :
- 明确业务场景(如电商订单、社交动态),识别核心实体(用户、订单、商品)及关系(一对一、一对多)。
- 范式设计 :
- 遵循3范式(如消除重复数据、确保依赖关系正确),但可适当反范式(如冗余字段)提升查询性能。
- 字段设计 :
- 选择合适的数据类型(如
INT
存储用户ID,VARCHAR(255)
存储用户名),避免TEXT
等大字段滥用。 - 允许
NULL
的字段需添加默认值(如create_time DEFAULT CURRENT_TIMESTAMP
)。
- 选择合适的数据类型(如
- 性能考量 :
- 主键设计:使用自增ID或雪花算法(分布式场景),确保主键查询高效。
- 分区分表:按时间(如按年/月分表)或业务维度拆分,降低单表数据量。
- 扩展性 :
- 预留字段(如
extend_info JSON
)应对未来需求变化,避免频繁修改表结构。
- 预留字段(如
14. 项目中数据库表怎么设计的?
示例:电商订单系统核心表
sql
-- 用户表
CREATE TABLE user (
user_id BIGINT PRIMARY KEY AUTO_INCREMENT, -- 自增主键
username VARCHAR(50) NOT NULL UNIQUE, -- 用户名(唯一索引)
password VARCHAR(64) NOT NULL, -- 密码(加密存储)
mobile CHAR(11) UNIQUE, -- 手机号(唯一索引)
create_time DATETIME DEFAULT CURRENT_TIMESTAMP
) ENGINE=InnoDB CHARSET=utf8mb4;
-- 商品表
CREATE TABLE product (
product_id BIGINT PRIMARY KEY AUTO_INCREMENT,
product_name VARCHAR(100) NOT NULL,
category_id INT NOT NULL, -- 分类ID(外键关联category表)
price DECIMAL(10, 2) NOT NULL, -- 价格(精确到分)
stock INT NOT NULL DEFAULT 0
) ENGINE=InnoDB;
-- 订单表
CREATE TABLE order (
order_id BIGINT PRIMARY KEY, -- 雪花算法生成
user_id BIGINT NOT NULL, -- 买家ID(外键)
total_amount DECIMAL(10, 2) NOT NULL,
status TINYINT NOT NULL DEFAULT 0, -- 订单状态(0待支付,1已支付,2已发货)
create_time DATETIME DEFAULT CURRENT_TIMESTAMP,
FOREIGN KEY (user_id) REFERENCES user(user_id)
) ENGINE=InnoDB;
-- 订单详情表
CREATE TABLE order_detail (
order_id BIGINT NOT NULL, -- 订单ID(联合主键)
product_id BIGINT NOT NULL, -- 商品ID(联合主键)
quantity INT NOT NULL,
price DECIMAL(10, 2) NOT NULL,
PRIMARY KEY (order_id, product_id),
FOREIGN KEY (order_id) REFERENCES order(order_id),
FOREIGN KEY (product_id) REFERENCES product(product_id)
) ENGINE=InnoDB;
15. 主键怎么设计?普通递增 vs 分布式雪花算法
- 单库场景 :
使用AUTO_INCREMENT
自增主键,简单高效,适合单节点数据库。 - 分布式场景 :
- 雪花算法(Snowflake) :生成64位唯一ID(时间戳+工作节点+序列号),支持高并发,如Java的
Twitter雪花算法实现
。 - UUID :生成36位字符串(如
550e8400-e29b-41d4-a716-446655440000
),虽全球唯一但占用空间大,不适合作为主键(可作为业务唯一标识)。
- 雪花算法(Snowflake) :生成64位唯一ID(时间戳+工作节点+序列号),支持高并发,如Java的
16. 除了雪花算法和UUID,还有什么主键不重复方案?
-
数据库自增+分库键 :
分库场景下,为每个库设置不同的自增起始值和步长(如库1起始1,步长2;库2起始2,步长2),确保跨库唯一。 -
Redis生成ID :
使用INCR
命令原子性生成递增ID,适合分布式系统,如:pythonimport redis r = redis.Redis(host='localhost', port=6379) order_id = r.incr('order_id_counter')
-
UUID变种 :
- UUID without hyphens :去掉连字符(如
550e8400e29b41d4a716446655440000
),节省空间。 - ULID(Universally Unique Lexicographical Identifier):比UUID更短(26字符),按字典序排列,适合索引。
- UUID without hyphens :去掉连字符(如
17. 具体字段类型设计:用户名用什么类型?
- 推荐类型 :
- VARCHAR(n) :
n
根据业务需求设定(如VARCHAR(50)
),存储用户名文本(支持中文、字母、数字混合)。 - CHAR(n) :固定长度(如
CHAR(20)
),适合长度一致的场景(如学号),但浪费空间,不推荐用户名。
- VARCHAR(n) :
- 注意事项 :
- 字符集使用
utf8mb4
(支持Emoji和生僻字):CREATE TABLE ... CHARSET=utf8mb4;
- 唯一性约束:
UNIQUE KEY(username)
,避免重复注册。 - 密码字段:绝不存储明文,使用
SHA-256
+盐值加密(如password VARCHAR(64) NOT NULL
存储哈希值)。
- 字符集使用
18. 什么时候用到JOIN?
适用场景:
- 关联多张表查询数据(如查询订单对应的用户姓名和商品信息)。
- 替代子查询,提升性能(如
SELECT u.name, o.total_amount FROM user u JOIN order o ON u.user_id = o.user_id;
)。
JOIN类型选择:
- INNER JOIN:仅返回两张表中匹配的行(如用户存在且订单存在)。
- LEFT JOIN :返回左表所有行,右表匹配不到的行用
NULL
填充(如查询所有用户及其订单,包括未下单用户)。 - RIGHT JOIN:与LEFT JOIN相反,返回右表所有行,实际中较少使用,可用LEFT JOIN+表交换替代。
- FULL OUTER JOIN (外连接):返回左右表所有行,匹配不到的用
NULL
填充(MySQL不支持,需用LEFT JOIN UNION RIGHT JOIN
模拟)。
三、加密算法(问题19-20)
19. 左连接、右连接、外连接的区别?
类型 | 定义 | 示例(表A: 用户,表B: 订单) |
---|---|---|
INNER JOIN | 仅返回A和B中ON 条件匹配的行 |
只返回有订单的用户 |
LEFT JOIN | 返回A的所有行,B中无匹配的行用NULL 填充 |
返回所有用户,无订单的用户订单字段为NULL |
RIGHT JOIN | 返回B的所有行,A中无匹配的行用NULL 填充 |
返回所有订单,无用户的订单(异常数据)字段为NULL |
FULL OUTER JOIN | 返回A和B的所有行,无匹配的行用NULL 填充(MySQL不支持) |
需用A LEFT JOIN B UNION A RIGHT JOIN B 模拟 |
20. 加密算法有哪些,什么区别?
常见加密算法分类及对比:
类别 | 算法名称 | 密钥类型 | 用途 | 特点 |
---|---|---|---|---|
对称加密 | AES(AES-128/256) | 单密钥 | 数据加密(如敏感字段存储、通信加密) | 速度快,密钥需安全传输(常用作HTTPS底层加密) |
DES/3DES | 单密钥 | 历史系统兼容(已逐渐被AES取代) | 密钥长度短(56位),安全性低 | |
Blowfish | 单密钥 | 快速加密(如VPN) | 可变密钥长度(32-448位),适合资源受限环境 | |
非对称加密 | RSA(2048/4096位) | 公钥+私钥 | 数字签名、密钥交换(如HTTPS证书) | 安全性高,但速度慢,适合少量数据加密 |
ECC(椭圆曲线) | 公钥+ |