Удаляем дубликаты строк из файла средствами Linux

archive view archive save

article Как средствами Linux удалить дубликаты строк из текстового файла? Удаление дубликатов строк из текстового файла средствами ОС Linux не составляет особого труда, для этого нам достаточно стандартных программ sort и uniq.

К примеру у нас имеется текстовый файл garbage.txt с содержимым:

строка 1
строка 2
строка 3
строка 1
строка 4
строка 5
строка 1
строка 6
строка 7

Стандартные утилиты sort и uniq помогут нам отсортировать строки и выбрать только уникальные:

$ sort garbage.txt | uniq -u
строка 2
строка 3
строка 4
строка 5
строка 6
строка 7

Результат мы можем вывести в файл:

$ sort garbage.txt | uniq -u > sort.txt

Комментарии   

Иван Шаман
+1 #2 Иван Шаман 04.02.2020 05:06
Цитирую Алексндр:
А без потери дублирующихся никак?
В смысле хотелось бы чтобы одна "строка 1" все же осталась в списке

Можно 8) так Код:sort -u garbage.txt или так Код:sort garbage.txt | uniq
Цитировать
Алексндр
+5 #1 Алексндр 01.02.2020 12:59
А без потери дублирующихся никак?
В смысле хотелось бы чтобы одна "строка 1" все же осталась в списке
Цитировать

Добавить комментарий

АХТУНГ! Все комменты гостей модерасятся модерастом.
  1. Мессаги исключительно рекламного содержания, либо содержащие только одни оценочные суждения типа "круто" ("отлично", "спасибо", "автор дебил" и т.п.) не публикуются;
  2. Злостным спамерам, пранкерам и прочей сетевой нечисти рекомендуем напрасно не тратить своего времени и удовлетворять свои больные фантазии на специализированных Интернет ресурсах!;
  3. Разумная обоснованная критика, замечания, дополнения приветствуются. Поля помеченные символом * обязательны к заполнению.


Защитный код
Обновить

Комментарии в блоге
Новое на форуме