Jump to content

відновлення даних з розділу ZFS


Recommended Posts

 

 

Ну смотря как форматировать

А с чего вы решили что переформатирование zfs в ntfs или в что там еще пойдет исключительно на пользу данным, и не похерит часть из них, к примеру переписав поверх MFT? Не говоря уже о том, что винт умирает, и попытка заставить его писать данные может обернуться большим горем - к примеру, похерятся сервометки...

 

 

 

можна і софтрейд але на тому ж ebay можна купити натюрліх апаратний контролер і порівняно недорого і дзеркало він вмітиме, і страйп, і майже все таке інше

А смысл? Навернулся у вас контроллер, как данные вытянуть? Месяц ждать пока новый приедет? :)

Link to post
Share on other sites

 

 

А смысл? Навернулся у вас контроллер, как данные вытянуть? Месяц ждать пока новый приедет?

 

Вот, я тоже себе в свое время задавал такой вопрос. А если умрет не диск в зеркале а суперкрутой рейд-контролер. Куда мне размеченные им диски совать? Для 3ware у меня лежит "холодный резерв". А вот LSI такового нету. Тьфу-тьфу.

Link to post
Share on other sites

б/в контролер коштує просто нереальних грошей, гадаю їх можна купити штуки 3-4 якщо йтиме мова про самозбірний сервер в продакшн :)

ми ж тримаємо мережеві карти про запас на полиці? SFP-модулі так само, інше залізо. Чом би й контролери не тримати? цей ж не Adaptec з останніх, за тонни нафти

Link to post
Share on other sites

 

 

б/в контролер коштує просто нереальних грошей, гадаю їх можна купити штуки 3-4 якщо йтиме мова про самозбірний сервер в продакшн :)

А смысл? Что он вам даст кроме геморроя? Не говоря о том, что цена смешной кажется только без учета доставки. А она из США будет баксов 40-50.

Link to post
Share on other sites

Це мабуть якщо EMS'ом слати

А так, вже є у нас контори, які тягнуть сюди зі штатів залізяки, за більш гуманними цінами.

Так, авіадоставка десь 12 доларів, морем - 6-7 доларів за кілограм.

На кілограм тих контролерів буде штуки три, я гадаю.

 

але не суть. Звісно, можна і софтварний рейд. Просто я залізякам набагато більше довіряю. Такі як ці Р400 - вже звісно старі, але перевірені часом. У нас трохи новіші, 410, за крайні шість років не здох жоден.

 

зараз граюся зі свіжою FreeNAS, намагаючись змусити її працювати з новим накопичувачем 3ТВ, відформатованим UFS GPT

не хоче, зараза, через вебморду :) всіма силами намагається впарити мені ZFS

Link to post
Share on other sites

 

 

Звісно, можна і софтварний рейд. Просто я залізякам набагато більше довіряю.

А я больше обкатаным софтовым решениям. Как минимум - сильно испорченый софтрэйд можно и принудительно собрать (ну скажем отсохло у рэйда 5-го 2 винта одновременно из-за плохого кабеля сата питания), а железный можно? :)

Link to post
Share on other sites

 

Ну смотря как форматировать

А с чего вы решили что переформатирование zfs в ntfs или в что там еще пойдет исключительно на пользу данным, и не похерит часть из них, к примеру переписав поверх MFT? Не говоря уже о том, что винт умирает, и попытка заставить его писать данные может обернуться большим горем - к примеру, похерятся сервометки...

 

 

 

можна і софтрейд але на тому ж ebay можна купити натюрліх апаратний контролер і порівняно недорого і дзеркало він вмітиме, і страйп, і майже все таке інше

А смысл? Навернулся у вас контроллер, как данные вытянуть? Месяц ждать пока новый приедет? :)

 

Нет не затрет. Был опыт восстановления данных с виртуальной машины у которой диск был EXT3, vmdk виртуальной машины лежал на диске который был отформатирован в VMFS5 который в свою очередь посыпался и нае...лась структура раздела. Через dd сделал цифровую копию, накатил ее на новый диск, сделал быстрое форматирование в NTFS, ибо на сегодня с VMFS5 умеет работать только ESXi. И все это скормил r-studio, примерно 60% файлов были целые. Виртуалки которые были на винде вообще можно было целыми восстанавливать. Но цель восстановления был 1 web проект, восстановить так и не смогли потому что разрушение диска повлекло за собой разрушение таблицы разметки у виртуалки на которой находился этот проект. И весь диск виртуалки состоял из кучи папок inode0015, заходишь в папку и понимаешь что это /etc, заходишь в другую папку с именем inode и понимаешь что это папка /www

Link to post
Share on other sites

 

 

Нет не затрет.

Т.е. MFT и метаданные волшебным образом лягут на то место, которое не занято никакими файлами? :)

 

 

 

И все это скормил r-studio, примерно 60% файлов были целые.

С тем же успехом можно было скормить весь диск, а не переформатированный раздел. Глядишь, и вместо 60% файлов % 70 оказались бы целыми :)

А VMFS - скорее всего тупо контейнер разделов с заголовком/хвостом, и на записанный дамп достаточно было натравить тот же testdisk чтобы раздел нашелся...

Link to post
Share on other sites

> новомодною файловою системою
ZFS уже 10 лет

>ибо на сегодня с VMFS5 умеет работать только ESXi.
Набрал в поиске и тут же нашел утилиту восстановления которая поддерживает VMFS5
Что я делаю не так?

ИМХО
Файловая система которая ориентирована на скоростные параметры не может быть супер надежной настолько, что если есть только 1 физический носитель, обеспечивать 100% восстановление с поврежденного носителя
Кроме того используя поврежденный носитель, есть риск что он разрушается в процессе восстановления
Потому надо использовать RAID и Backup

Из практики один из лучших текущих контроллеров для ZFS – LSI 9211-8i в режиме каналов
Мы пользуемся его дешевым аналогом Dell Perc H310, перешивая его в LSI 9211-8i

А про одиночный диск для серверов забудьте если надо целостность данных

Link to post
Share on other sites

>А смысл? Навернулся у вас контроллер, как данные вытянуть? Месяц ждать пока новый приедет? 

Всегда удивляли такие посты 

Прям все полярники и нет никого рядом на тысячи верст

 

Пару тройку популярных производителей контроллеров сейчас

Adaptec / LSI

Взять один на вечер для восстановления или просто что-то типа дешевого Adaptec 3405 или перешитого в LSI купить

 

Блеск и нищета украинского IT 

За 10+ лет всегда что-то находил меньше чем за сутки

Не полярник-с, да-с

Edited by ValRevan
Link to post
Share on other sites

>А я больше обкатаным софтовым решениям. Как минимум - сильно испорченый софтрэйд можно и принудительно собрать (ну скажем отсохло у рэйда 5-го 2 винта одновременно из-за плохого кабеля сата питания), а железный можно?

Железный тоже можно, подключив каждый целый HDD в режиме каналов, утилитами восстановления

Особых секретов у современных производителей RAID контроллеров нет и все возможно

Link to post
Share on other sites

 

 

Пару тройку популярных производителей контроллеров сейчас

А что, тот же promise к примеру, или LSI имеет неизменный формат суперблоков, что модели 10-летней давности (к примеру), что свежие? Ну т.е. какова вероятность того, что на контроллере другой модели массив вообще соберется, не говоря уже о корректности? :)

 

 

 

Железный тоже можно, подключив каждый целый HDD в режиме каналов, утилитами восстановления

В общем танцами с бубном сторонними утилитами и не факт что получится :)

Сколько это по времени займет?

Link to post
Share on other sites

 

Пару тройку популярных производителей контроллеров сейчас

А что, тот же promise к примеру, или LSI имеет неизменный формат суперблоков, что модели 10-летней давности (к примеру), что свежие? Ну т.е. какова вероятность того, что на контроллере другой модели массив вообще соберется, не говоря уже о корректности? :)

 

+1

Link to post
Share on other sites

К сожалению по LSI точно был разговор с разработчиками, далеко не все контроллеры между собой совместимы, так что.

А самое печальное что и таблицы совместимости если не ошибаюсь тоже не существует.

Link to post
Share on other sites

У других вендоров скорее всего так же. Новое семейство конроллеров - новая команда программеров - новый формат суперблока.

Потому и смысла не вижу в аппаратных контроллерах - ну за исключением высоконаруженных хранилищ, где от них может быть какой-то профит (и то не факт).

Link to post
Share on other sites

Дык даже sun перестал видеть в этом смысл уже 10 лет как, потому и zfs :)

 

Кстати, тоже как раз и не стоит забывать, под кого zfs создавалась, а то вдруг у вас нету массы свободного и запасного железа, а ведь у тех, на кого оно расчитано его всегда валом.

Edited by ttttt
Link to post
Share on other sites

В кого є досвід робочи з FreeNAS - чи можливо тримати диски в UFS і працювати з інтерфейсом як звичайно?

з консолі я створив все що хотів в UFS але GUI вперто не хоче бачити ці розділи

Link to post
Share on other sites

От версии зависит. UFS (Оно реально старое что как продукт житьедеятельности  мамонта) выпилить полностью хотели. Так что используйте ZFS.

Link to post
Share on other sites

UFS (Оно реально старое что как продукт житьедеятельности мамонта)

Ну зачем такое говорить? Вот только недавно soft-update'ы усовершенствовали, теперь можно включить журналирование soft-update'ов и fsck после пропадания питания будет очень быстро проходить. Это очень современная фича.
Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
  • Recently Browsing   0 members

    No registered users viewing this page.

  • Similar Content

    • By pavlabor
      Решил зачистить snapshot, грохнул по невнимательности
      tank/usr/jails/.warden-template-10.3-RELEASE-amd64@clean
      Понятно комп не поднялся.
      пишет нет tank/usr/jails/.warden-template-10.3-RELEASE-amd64@clean
      и вываливается в консоль GRUB
       
      Накатил по новой систему, но не могу примонтировать старый диск, чтобы слить инфу.
       
      Есть спецы чтобы с zfs на ты?
       
      диск видится как ada1
      # gpart show
      =>       34  117231341  ada0  GPT  (56G)
               34       2048     1  bios-boot  (1.0M)
             2082          6        - free -  (3.0K)
             2088  113102848     2  freebsd-zfs  (54G)
        113104936    4096000     3  freebsd-swap  (2.0G)
        117200936      30439        - free -  (15M)

      =>       34  312581741  ada1  GPT  (149G)
               34       2048     1  bios-boot  (1.0M)
             2082          6        - free -  (3.0K)
             2088  308365312     2  freebsd-zfs  (147G)
        308367400    4194304     3  freebsd-swap  (2.0G)
        312561704      20071        - free -  (9.8M)
       
      на новой сборке накатил пул с другим именем pvbtank
      Организовал пул tank, попробовал примонтировать, получилась такая каша
      # zpool list
      NAME      SIZE  ALLOC   FREE  EXPANDSZ   FRAG    CAP  DEDUP  HEALTH  ALTROOT
      pvbtank  53,5G  7,26G  46,2G         -     5%    13%  1.00x  ONLINE  -
      tank      147G   104K   147G         -     0%     0%  1.00x  ONLINE  -
       
       
      # zfs list
      NAME                                                    USED  AVAIL  REFER  MOUNTPOINT
      pvbtank                                                7,26G  44,6G    19K  none
      pvbtank/ROOT                                           6,56G  44,6G    19K  none
      pvbtank/ROOT/initial                                   6,56G  44,6G  6,56G  /mnt
      pvbtank/tmp                                              62K  44,6G    42K  /tmp
      pvbtank/usr                                             713M  44,6G    19K  none
      pvbtank/usr/home                                        346M  44,6G    19K  /usr/home
      pvbtank/usr/home/pvb                                    346M  44,6G   346M  /usr/home/pvb
      pvbtank/usr/jails                                       191M  44,6G    19K  /usr/jails
      pvbtank/usr/jails/.warden-template-10.3-RELEASE-amd64   191M  44,6G   191M  /usr/jails/.warden-template-10.3-RELEASE-amd64
      pvbtank/usr/obj                                          19K  44,6G    19K  /usr/obj
      pvbtank/usr/ports                                       175M  44,6G   175M  /usr/ports
      pvbtank/usr/src                                          19K  44,6G    19K  /usr/src
      pvbtank/var                                            5,97M  44,6G    19K  none
      pvbtank/var/audit                                        19K  44,6G    19K  /var/audit
      pvbtank/var/log                                         274K  44,6G   258K  /var/log
      pvbtank/var/mail                                         24K  44,6G    24K  /var/mail
      pvbtank/var/tmp                                        5,64M  44,6G  5,58M  /var/tmp
      tank                                                     85K   142G    19K  /mnt
       
       
       
      ps. И так времени не в проворт, а тут сам себе головняк подложил.
×
×
  • Create New...