linux命令 根据某一字段去掉txt中重复的数据

前提:

文档为格式化好的数据。比如一行是一个json。

判断总共有多少行数据:

grep No f.txt | wc -l

查询重复数据有多少行:

grep No f.txt | sort -u | wc -l

找到重复的那行数据:(如果每行的json数据大,可忽略此操作)

grep No f.txt |sort|uniq -d

去除重复数据:

awk -v No=2 '!seen[$No]++' f.txt > output.txt

去重命令的工作原理是:

  • awk:文本处理工具。

  • -v No=2:设置awk变量No为2,这是我们要去重的列号。

  • !seen[$No]++:前缀运算符!用来判断数组seen中是否存在当前行的第No列的值。如果不存在,则执行后面的操作,即打印当前行。

  • input.txt:输入文件名。

  • > output.txt:将结果输出到output.txt文件中。

请确保你的输入文件是以空格或者制表符分隔的,并且列号是从1开始计数的。如果列与列之间的分隔符是其他字符,可以通过-F选项来指定分隔符。

相关推荐
瀚高PG实验室6 分钟前
xx000 can not wait without a pgproc
服务器·数据库·oracle·瀚高数据库
xhbh6668 分钟前
服务器转发表完全教程:路由表vs转发表的区别与联系
运维·服务器
互联科技报11 分钟前
2026 年度甄选:国内高可靠性 AI 算力服务器供应商
运维·服务器·人工智能
lzh2004091912 分钟前
效率与安全并重:C++ 线程安全
linux·c++
AIBox36513 分钟前
Claude 中转站怎么接入:2026 年国内调用 Claude API 的方法、能力与示例
服务器·开发语言·人工智能·gpt·php·python3.11
l1t14 分钟前
DeepSeek总结的Quack:DuckDB 客户端-服务器协议
运维·服务器·数据库·duckdb
楼田莉子15 分钟前
仿Muduo的高并发服务器:基于HTTP的HTTP服务器及其测试
运维·服务器·http
Lucis__15 分钟前
I/O多路复用:基于epoll实现Reactor高性能TCP服务器
linux·服务器·网络·reactor·多路复用
kyle~16 分钟前
Linux时间系统3---时间同步控制机制(step、slew、offset、frequency)
linux·运维·服务器
Mike117.22 分钟前
GBase 8c 序列用在业务流水号上要留几道边界
服务器·数据库