artiom -> debian-russian@lists.debian.org @ Sun, 18 Feb 2018 21:15:25 +0300:
>> >> Синхронизатор не отличает намеренное удаление или порчу от >> >> ненамеренного, и аккуратно его синхронизирует. Из синхронизатора, в >> >> отличие от бэкапа, нельзя достать файлы, которые были испорчены и успели >> >> засинхронизироваться. >> >> >> > Как отличает система резервного копирования? >> > Или тоже не отличает, но это компенсируется историей бэкапов? >> >> Именно. Предыдущий бэкап не изменяется. Либо по мере устаревания >> удаляется целиком, либо (если ему повезло оказаться, например, годичным) >> хранится "вечно". >> > А какова частота полного, декремента и инкремента? Зависит от характера изменения данных. На работе бэкап делался ежедневно - восстанавливать работу всей конторы за неделю было сложно, поскольку задач много, и за неделю тупо успеваешь забыть, что делал, не то что как. Дома делается раз в неделю. Это, если применяются инкрементные, частота инкрементных (у меня довольно давно применяются обратно-инкрементные, там бэкап бывает только одного типа). Если же говорить о декрементных и полных, то тут вопрос баланса трафика туда и времени восстановления. Я бы сказал, что полные следует делать настолько часто, насколько позволяет жаба по трафику. Деление на декремент и инкремент проводить скорее из соображений "больше десятка инкрементов за одну операцию восстановления не офигеть как удобно накатывать". В man tar приводился для прикидки вариант "полные раз в месяц, декременты раз в неделю, инкременты раз в день". Тогда при восстановлении накатывается один полный, один декремент (он по определению один) и не больше 6 инкрементов. >> >> >> Инкрементальный бэкап, который обеспечивает tar и основные >> >> >> продвинутые инкрементальные средства бэкапа, типа той же бакулы, >> дает >> >> >> первое и второй ценой невозможности третьего. Обратный >> инкрементальный, >> >> >> как у rsync, второе и третье ценой невозможности первого. Первое и >> >> >> третье можно делать, гоняя каждый раз полный бэкап. >> >> >> >> >> > Вы не вполне верно поняли требование, либо я не точно выразился. >> >> > Шифровать каналы отправки и шифровать при отправке на внешнее >> хранилище >> >> > (облако). >> >> > Шифровать отдельно при хранении в NAS, не требуется. >> >> >> >> Я понял. Я как бы намекаю, что при бэкапе на NAS и в облако имеет смысл, >> >> вообще-то, выбирать разные два из трех. Но, естественно, получатся >> >> разные технологии бэкапа :) >> >> >> > Да, конечно, так и планировалось изначально. >> >> Минус простота настройки. >> > В рамках всей системы - терпимо. Не сразу. К тому же, настроить - один раз. В изначальной постановке задачи простота настройки была одним из условий :) >> >> >> В многолетней практике (man tar, там эта практика еще со времен >> бэкапов >> >> >> на магнитные ленты, но "гнать шифрованное в облако" - это примерно >> оно >> >> >> по временнЫм характеристикам) обычно устраивают комбинированное >> решение: >> >> >> раз в некоторое время гонят полный бэкап, а между ними >> >> >> инкрементальный. tar вот даже различает дифференциальный (разница с >> >> >> предыдущим полным) и инкрементальный (разница с предыдущим, каким >> бы он >> >> >> ни был). Для разумного времени восстановления характерная частота >> >> >> полного - раз в месяц, дифференциального - в неделю, >> инкрементального - >> >> >> ежедневно. В результате получается дорого, но не невменяемо дорого. >> >> >> >> >> > Любопытно, на основе инструментов, которые тут советовали, возможно >> это >> >> > построить не сильно напрягаясь? >> >> >> >> Скажем так. Если инструмент, заявленный как инструмент для бэкапа, этого >> >> не позволяет, его нужно выкинуть и посмотреть на другой. >> >> >> > Согласен. >> > Пока не вполне понятно, что из этого выкинуть. >> > Кроме Bacula, но тут хвалят её форки. >> >> >> На глазок, при использовании собственно tar, gpg и любого способа >> >> копирования такая конструкция собирается за неделю, включая написание >> >> регламента. Но трафика будет изрядно. >> >> >> > И не вполне портируемо. >> >> Вполне портируемо. Ну, нерутованные андроиды и айфоны не осилят. И на >> винде не будут забэкаплены открытые в данный момент файлы. >> > Всё-таки, не вижу пока чем хуже urbackup: агенты уже реализованы и > отлажены, web-интерфейс есть, по фичам всё нормально и статей о нём нет > типа "О том, как я неделю вдуплял в BareOS". Я не имею цели отвратить тебя от urbackup. Которого я в глаза не видел. >> >> >> Но вообще, если уж ты собираешься делать бэкапы как следует, то надо >> >> >> понимать, что первое, что тут требуется - это дисциплина. Не такая, >> как >> >> >> при работе в архиве, но все же изрядная. >> >> > Она мне, в принципе, требуется. >> >> > В плане организации я пытаюсь сейчас всё постепенно рассортировать >> >> > (сейчас закончил только с музыкой и видео, проекты в нормальном >> >> > состоянии, книги и документы в процессе сортировки). >> >> > Поэтому, что бэкапить, я могу сказать. >> >> >> >> Там не просто "что бэкапить". Там еще "как бэкапить" и "как и когда >> >> проверять восстанавливаемость из бэкапа". Два письменных документа, ага. >> >> >> > Ну ok, политика и регламент бэкапа? >> > Если делать на серьёзном уровне, конечно полезно. >> > В принципе, это в любом случае полезно, так что пока ещё NAS не >> > завершён, в рамках этого проекта возможно и системой резервного >> > копирования более серьёзно заняться. >> >> Тут ведь как... Даже к домашнему бэкапу нужен регламент, известный всем, >> чья техника бэкапится. И, сюрприз, его выполнение. Каждым участником в >> касающейся его части. >> > Т.е. мной. Кроме того, я почему-то сомневаюсь, что в компаниях все > слышали такое понятие, как "регламент бэкапа". Кое-что пользователю > знать не нужно. А есть разные регламенты. Для админа, настраивающего бэкап, для админа, следящего за бэкапами, и для пользователя, желающего, чтобы его данные и/или систему в случае сбоев можно было восстановить. Мне не попадалось ситуаций, где бы все данные, ценные для пользователя, удавалось отследить и забэкапить без его осознанного участия. Кроме конструкций с бездисковыми X-терминалами в конце 90-х - начале 2000-х, когда все данные, а зачастую и ОС терминала хранились на одном сервере и только на нем. Повторюсь, >> >> >> "Результатом автоматизации >> >> >> бардака может быть только автоматизированный бардак." >> > Хорошо, тогда касательно rsync: как делать дифференциальный и >> > инкрементальный бэкап? >> >> У rsync обратный инкрементальный. cp -al последний_бэкап будущий_бэкап, >> и потом rsync -a --delete в будущий_бэкап. >> > А про упомянутый тут restic можете что-то сказать? Не могу. >> Если бэкапится юниксовая машина, то вся конструкция без особых >> сложностей скриптуется с сервера, который и следит за расписанием. С >> виндовой, как показала практика, удобнее, чтобы сервер делал часть "cp >> -al" и по расписанию пинал по почте владельца машины. А часть rsync >> запускает уже владелец машины. >> > Как понять "скриптуется с сервера"? Скрипт бэкапа выполняется на бэкап-сервере. "Клиент" (та машина, которую мы бэкапим) с точки зрения rsync является сервером. >> > Касательно проверок: как это делается? >> > На практике, там где это было, как проводится такая проверка в >> > существующей инфраструктуре? >> >> Тупо и цинично. Берется специальная тренировочная машина, типа с пустым >> диском (обычно виртуалка, но по возможности иногда и на железе стоит >> прогнать), и на нее выполняется регламент восстановления. Если не >> сработал - все бросаем, чиним, корректируем регламент. >> >> Если речь идет о восстановлении пользовательских данных, а не всей >> системы, то машина берется не пустая, а с установленной ОС. В этом >> случае регламент восстановления должен включать установку необходимого >> софта поверх базовой установки ОС (буде он нужен), если он еще не >> установлен. Это тоже надо проверять, а то разное может получиться. >> > В общем-то я это и хотел услышать. Есть "учебная" машина. Работа > основной инфраструктуры ради проверки восстановления не прерывается. Вообще говоря, возможны ситуации, когда приходится прерывать. Потому что оценить результат восстановления можно только протестировав, что все документированные функции целевой машины работают. А у нее могут быть сетевые сервисы, которые надо проверить по тому самому имени. Для чего "учебная" машина должна подменить в сети "боевую". Тут можно в разных местах проводить границу, и получать разную степень уверенности в результате. Если, скажем, восстанавливается какой-нибудь трекер (веб-морда плюс база плюс почта), то можно в регламент восстановления включить часть "для учебной тревоги", где расписать перенастройку на тестовое имя хоста и на тестовый вариант рассылки по почте (что утраивает работу по написанию регламента и в полтора-два раза увеличивает работу по учебной тревоге). Но, скажем, проверить работоспособность восстановленного домен-контроллера виндовой сети без замены им настоящего я бы вот так вот сходу не взялся, так что надо приходить ночью, когда никого нет, и выключать настоящий.