shell 删除文本中的重复行(sort+uniq/awk/sed) (方法=效率啊)
生活随笔
收集整理的這篇文章主要介紹了
shell 删除文本中的重复行(sort+uniq/awk/sed) (方法=效率啊)
小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.
From: http://churuimin425.blog.163.com/blog/static/341298772012230112956712/
刪除文本中的重復(fù)行(sort+uniq/awk/sed)
三種常見方法:
第一,用sort+uniq,注意,單純uniq是不行的。
| shell> sort -k2n file | uniq > a.out |
這里我做了個簡單的測試,當(dāng)file中的重復(fù)行不再一起的時候,uniq將服務(wù)刪除所有的重復(fù)行。經(jīng)過排序后,所有相同的行都在相鄰,因此unqi可以正常刪除重復(fù)行。
第二,用sort+awk命令,注意,單純awk同樣不行,原因同上。
| ?shell> sort -k2n file | awk '{if ($0!=line) print;line=$0}' |
當(dāng)然,自己把管道后面的代碼重新設(shè)計(jì)一下,可能不需要sort命令先排序拉。
第三,用sort+sed命令,同樣需要sort命令先排序。
| shell> sort -k2n file | sed '$!N; /^\(.*\)\n\1$/!P; D' |
最后附一個必須先用sort排序的文本的例子,當(dāng)然,這個需要用sort排序的原因是很簡單,就是后面算法設(shè)計(jì)的時候的“局部性”,相同的行可能分散出現(xiàn)在不同的區(qū)域,一旦有新的相同行出現(xiàn),那么前面的已經(jīng)出現(xiàn)的記錄就被覆蓋了,看了這個例子就好理解拉。
| ffffffffffffffffff ffffffffffffffffff eeeeeeeeeeeeeeeeeeee fffffffffffffffffff eeeeeeeeeeeeeeeeeeee eeeeeeeeeeeeeeeeeeee gggggggggggggggggggg |
其實(shí),這是我隨便打進(jìn)去的幾行字,沒想到就是必須用sort的很好例子,大家可以自己試試看。
參考資料:
[1] SED單行腳本快速參考
http://linux.chinaitlab.com/administer/381792.html
[2] 如何刪除重復(fù)的行(sed或awk)
http://www.linuxsir.org/bbs/showthread.php?t=132848
總結(jié)
以上是生活随笔為你收集整理的shell 删除文本中的重复行(sort+uniq/awk/sed) (方法=效率啊)的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。