linux命令 根据某一字段去掉txt中重复的数据

前提:

文档为格式化好的数据。比如一行是一个json。

判断总共有多少行数据:

grep No f.txt | wc -l

查询重复数据有多少行:

grep No f.txt | sort -u | wc -l

找到重复的那行数据:(如果每行的json数据大,可忽略此操作)

grep No f.txt |sort|uniq -d

去除重复数据:

awk -v No=2 '!seen[$No]++' f.txt > output.txt

去重命令的工作原理是:

  • awk:文本处理工具。

  • -v No=2:设置awk变量No为2,这是我们要去重的列号。

  • !seen[$No]++:前缀运算符!用来判断数组seen中是否存在当前行的第No列的值。如果不存在,则执行后面的操作,即打印当前行。

  • input.txt:输入文件名。

  • > output.txt:将结果输出到output.txt文件中。

请确保你的输入文件是以空格或者制表符分隔的,并且列号是从1开始计数的。如果列与列之间的分隔符是其他字符,可以通过-F选项来指定分隔符。

相关推荐
FED_AF11 小时前
CUPS打印系统完全指南:从安装配置到故障排除
运维
infiniteWei12 小时前
【VIM 入门到精通】第1节:揭开Vim的神秘面纱:入门与基础操作
linux·编辑器·vim
❀͜͡傀儡师12 小时前
docker部署 paperless-ngx
运维·docker·容器
谷粒.12 小时前
测试数据管理难题的7种破解方案
运维·开发语言·网络·人工智能·python
卌卄12 小时前
Linux下安装Docker
linux·运维·docker
派阿喵搞电子12 小时前
配置srs的鉴权时遇到的问题
服务器·docker·容器·srs
The star"'12 小时前
ceph(5-8)
运维·ceph·云计算
The star"'12 小时前
ceph(1-4)
运维·ceph
wanhengidc13 小时前
云手机 网络连接与持续性的表现如何
运维·服务器·科技·游戏·智能手机