Linux运维必备:sort 命令快速上手指南

作为运维工程师,处理日志、分析数据是家常便饭。sort命令是Linux中高效整理文本的神器,能快速对文件内容排序、去重、统计。本文用最简洁的方式,帮你掌握sort的核心用法。


一、基础排序:秒杀杂乱文本

bash 复制代码
# 默认按字典序升序排列(文件/输入流)
sort filename.txt

# 示例:对日志时间排序(假设第一列为时间)
sort /var/log/nginx/access.log

二、实用参数:精准控制排序

  1. 按数值排序

    处理数字时,务必用-n,避免"10"排在"2"后面!

    bash 复制代码
    sort -n numbers.txt
  2. 逆序排列
    -r实现从大到小或从Z到A:

    bash 复制代码
    sort -nr large_numbers.txt  # 数值逆序
  3. 按指定列排序

    -k选择列,-t指定分隔符(如逗号、冒号):

    bash 复制代码
    # 按第2列(数值)排序CSV文件
    sort -t',' -k2n data.csv
  4. 去重
    -u快速清理重复行(需先排序):

    bash 复制代码
    sort -u ips.txt > unique_ips.txt
  5. 忽略大小写
    -f让"Apple"和"apple"视为相同:

    bash 复制代码
    sort -f mixed_case.txt

三、运维实战场景

1. 统计日志IP访问频率

bash 复制代码
cat access.log | awk '{print $1}' | sort | uniq -c | sort -nr
  • 步骤拆解
    • awk提取IP列
    • sort排序以便uniq统计
    • uniq -c计数
    • sort -nr按访问量倒序

2. 按内存占用排序进程

bash 复制代码
ps aux --sort=-%mem | head -n 10
  • --sort=-%mem等价于sort -k4nr(按第4列内存倒序)

3. 合并多个已排序文件

bash 复制代码
sort -m file1.txt file2.txt > merged.txt
  • -m(merge)效率远高于重新排序大文件

四、避坑指南

  • 性能优化

    处理超大文件时,可用-T指定临时目录(避免默认分区空间不足):

    bash 复制代码
    sort -T /mnt/big_disk/tmp/ huge_file.txt
  • 语言环境

    非英文排序异常时,设置LC_ALL=C禁用本地化规则:

    bash 复制代码
    LC_ALL=C sort file.txt
  • 稳定排序

    若需保留等值行的原始顺序,加-s(stable sort)。


五、总结

sort + awk/uniq等命令组合,是运维分析数据的瑞士军刀。掌握核心参数:
-n(数值)、-k(列)、-t(分隔符)、-r(逆序)、-u(去重),即可应对90%的排序需求。

记住: 处理数据前,先用headsample.txt测试命令,避免直接操作大文件翻车!