14.03.2013 20:11, Dmitry A. Zhiglov пишет: > 12 марта 2013 г., 22:10 пользователь "Артём Н." <artio...@yandex.ru> написал: >>> Одну СХД на три сервака - вот что точно нужно. >> Хотелось бы СХД разместить на 2-х серверах, которые имеют по 6 Тб (для моих >> нужд >> пока вполне хватит), но не хотелось бы задействовать их исключительно по СХД. >> Возможно ли? Или лучше не стоит? >> >> По СХД, кстати, больше всего вопросов... > Это ветка еще актуальна? Актуальна. Я, пока что, читаю про облачные системы.
> Прочитал первое сообщение. Должна быть выстроена система мониторинга и > архивирования с высокой степенью доступности. > Верно? Да. С оговоркой: должна быть система с высокой степенью доступности. Но запихнуть всю серверную в облако мне никто не даст. :-) В общем-то, я хочу сделать облако для себя, на свой риск. Не дадут возможности - уволюсь. > Что бы перетекали виртуалки (не делал на linux) нужен shared storage. > В "дешевом варианте" подойдет iSCSI. Да, думаю OpenISCSI. > Создаете на одном сервере iSCSI initiator и подключаете storage по iSCSI. > На storage нарезаем VG на LVM. Правда не скажу как поведет себя LVM в > данном случае, возможно надо смотреть в сторону cLVM... надо бы > почитать Вот и будут работать два гипервизора подключенные к одному > схд по iscsi Прочитал статью, в которой как раз описывалось, как организовать СХД на cLVM и OpenISCSI. Правда, в качестве ВМ там использовался OpenVZ и Proxmox. OpenVZ не хочется. > Дальше ставится kvm (предпочитаю именно его) Использую его на своём компьютере с qemu. Мне тоже нравится. Но любопытно было бы пощупать Xen. Имеет смысл? > и на какой либо машине > Debian c gui на котором запускаем virtmanager, подключаемся удаленно к > гипервизору и настраиваем. Только этот virtmanager не все умеет, и > надо смотреть на его возможность. Мне он так не нравится... Может, есть что-то лучше, чем virt-manager? Может, Proxmox? > СХД. > Видел как ставят небыстрые и ёмкие схд и получается следующее: > наступает в организации профилактика и вся дежурная смена начинает по > задании верховного руководства делать бэкапы акронисом и ничего не > успевают сделать за 4-8 часов профилактики или успевают частично. > Упираются или в производительность схд (физическую способность) или в > пропускную способность сетевого интерфейса или в то, что копируют не > raw а files несколько десятков миллионов россыпью. Похожая ситуация. Бэкапы есть только частичные. Была ситуация: перезагрузили шлюз во время текущих работ. Шлюз не поднялся. Остался единственный второй шлюз. Когда принесли диск шлюза, оказалось, что ext3 сильно разрушена. Бэкапа нет. Даже акронисового и гхостового. С трудом восстановил настройки ПО, которое стояло на шлюзе, буквально по кускам. > Здесь надо бы смотреть на общую ситуацию, выдумывать сценарии, > опрашивать клиентов пользующиеся соответствующими сервисами, > разрабатывать план бэкапирования и план восстановления. Внутренняя сеть. Клиентов опрашивать, в основном, без толку. Им нужно, чтобы если свалится какой-либо из серверов, знать какие кнопки нажать, чтобы быстро его восстановить (краткая простая инструкция). А что я там разверну, их, надеюсь, не волнует. По правде говоря, облако там не очень-то и нужно. Я просто хочу освоить инструмент. > Отсюда > вытекает требование на реакцию вашей системы хранения на эти планы и > насколько организация готова простаивать пока поднипите что-то из > бэкапа. По-идее, там горячее резервирование каждой машины. Поэтому, простаивать там вряд ли она будет. Если же действительно будет простой и реальная задержка в функционировании, да ещё и по вине сети или службы, которая за неё отвечает, будут ОЧЕНЬ большие потери и очень серьёзные разборки, которые повлекут, как минимум, лишение премий. С учётом того, что к данной организации я не отношусь (есть сейчас модное слово "аутсорсинг"), плакал мой кластер, в случае простоя... > Ну а далее можно тасовать диски в raid 1, 10, 50, 60 или > что-то еще и разделять критичные и быстрые данные на быстрые > устройства, а те что могут "покурить" на более медленные. Набросок, касательно СХД (поправьте, где неправильно): 1. Есть две машины по 6-ть дисков на 1Тб. 2. Создаю программный RAID средствами mdadm (не знаю есть ли аппаратный контроллер, но, скорее всего, нет). Может, RAID1? С другой стороны, я не уверен, что мне хватит 6 Тб. Тут надо думать. Могу ли я обойтись только LVM и не использовать mdadm? На каждой из машин конфигурация одинакова. 4. Устанавливаю на каждой из машин хранилища OpenISCSI. Впоследствии - на каждой ноде кластера. Имею два блочных устройства. 5. Создаю разделы на устройствах. Три раздела: для ВМ, для хранилища копий, например, и один резервный. 6. Создаю три группы cLVM, в каждую из которых входит один раздел. 7. Создаю логические тома. пока не знаю, наверное, всё-таки будет один том на группу, поскольку разграничивать там нечего. 8. Создаю ФС. Например, GFS2. То, что не нравится: 1.Получается, что ВМ находятся на одном сервере. Если он выходит из строя, нет ВМ. Возможно ли как-то сделать так, чтобы ВМ были "размазаны" между серверами и, при этом, если выходит из строя один сервер, всё переходило бы на другой и не рушилось? 2. Именно GFS2, насколько я понял, требует количество журналов не меньше, чем нод в кластере. Снижает гибкость. Возможно ли как-то избавиться или какой ФС заменить? 3. multipath для балансировки нагрузки возможно как-то прикрутить к двум серверам, а не к двум интерфейсам одного массива? o.O > Заббикс > Много не скажу, здесь, и не только здесь, есть более опытные коллеги > которые работают с ним ежедневно, я лишь пока планирую его внедрить во > 2-3 квартале. Все может упереться с схд на БД, если очень много хостов > и тикеров будет. Некоторые рекомендации на сайте заббикса можно > получить из документации, отсюда и плясать. Насчёт Zabbix, пока не знаю про количество хостов. Он сейчас работает в тестовом режиме и есть накладки. Вчера установил агента на машину в другой подсети, при этом, для неё была создана отдельная группа (поскольку она является "как-бы шлюзом" для трёх других машин, но на ней windows, а zabbix-proxy под windows нет, сделал на перспективу). Сейчас в Zabbix два пользователя, включая администратора. На группу с этой машиной есть права только у администратора. Но почему-то, после установки, начальнику позвонил инженер, у которого прав на группу нет, и ругался в стиле: "Какого хрена ваша машина делает в нашей сети?!" o.O То ли я напортачил, и ему выводятся уведомления, когда в группе, которая ему недоступна, что-то дохнет, то ли это ошибка Zabbix... Буду проверять. > > Очень много "если", как видите. > Было бы интересно узнать что решили и как обустроили все хозяйство. Пока ещё решаю. Вроде как, есть возможность получить четыре сервера. И ещё два, если место в стойках найду. Для маленького кластера этого, надеюсь, хватит. Любопытно, а по OpenNebula и Eucalyptus [http://www.eucalyptus.com/why-eucalyptus] (но я пока совсем его не смотрел, в Debian есть какие-то пакеты, но сам он, видимо, идёт цельной ISO-шкой) вы что-нибудь можете сказать? И ещё, что насчёт OpenStack (архитектура интересная, но дальше краткого ознакомления, я пока не шёл)? -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/5142313f....@yandex.ru