Перейти до

відновлення даних з розділу ZFS


Рекомендованные сообщения

 

 

Ну смотря как форматировать

А с чего вы решили что переформатирование zfs в ntfs или в что там еще пойдет исключительно на пользу данным, и не похерит часть из них, к примеру переписав поверх MFT? Не говоря уже о том, что винт умирает, и попытка заставить его писать данные может обернуться большим горем - к примеру, похерятся сервометки...

 

 

 

можна і софтрейд але на тому ж ebay можна купити натюрліх апаратний контролер і порівняно недорого і дзеркало він вмітиме, і страйп, і майже все таке інше

А смысл? Навернулся у вас контроллер, как данные вытянуть? Месяц ждать пока новый приедет? :)

Ссылка на сообщение
Поделиться на других сайтах

 

 

А смысл? Навернулся у вас контроллер, как данные вытянуть? Месяц ждать пока новый приедет?

 

Вот, я тоже себе в свое время задавал такой вопрос. А если умрет не диск в зеркале а суперкрутой рейд-контролер. Куда мне размеченные им диски совать? Для 3ware у меня лежит "холодный резерв". А вот LSI такового нету. Тьфу-тьфу.

Ссылка на сообщение
Поделиться на других сайтах

б/в контролер коштує просто нереальних грошей, гадаю їх можна купити штуки 3-4 якщо йтиме мова про самозбірний сервер в продакшн :)

ми ж тримаємо мережеві карти про запас на полиці? SFP-модулі так само, інше залізо. Чом би й контролери не тримати? цей ж не Adaptec з останніх, за тонни нафти

Ссылка на сообщение
Поделиться на других сайтах

 

 

б/в контролер коштує просто нереальних грошей, гадаю їх можна купити штуки 3-4 якщо йтиме мова про самозбірний сервер в продакшн :)

А смысл? Что он вам даст кроме геморроя? Не говоря о том, что цена смешной кажется только без учета доставки. А она из США будет баксов 40-50.

Ссылка на сообщение
Поделиться на других сайтах

Це мабуть якщо EMS'ом слати

А так, вже є у нас контори, які тягнуть сюди зі штатів залізяки, за більш гуманними цінами.

Так, авіадоставка десь 12 доларів, морем - 6-7 доларів за кілограм.

На кілограм тих контролерів буде штуки три, я гадаю.

 

але не суть. Звісно, можна і софтварний рейд. Просто я залізякам набагато більше довіряю. Такі як ці Р400 - вже звісно старі, але перевірені часом. У нас трохи новіші, 410, за крайні шість років не здох жоден.

 

зараз граюся зі свіжою FreeNAS, намагаючись змусити її працювати з новим накопичувачем 3ТВ, відформатованим UFS GPT

не хоче, зараза, через вебморду :) всіма силами намагається впарити мені ZFS

Ссылка на сообщение
Поделиться на других сайтах

 

 

Звісно, можна і софтварний рейд. Просто я залізякам набагато більше довіряю.

А я больше обкатаным софтовым решениям. Как минимум - сильно испорченый софтрэйд можно и принудительно собрать (ну скажем отсохло у рэйда 5-го 2 винта одновременно из-за плохого кабеля сата питания), а железный можно? :)

Ссылка на сообщение
Поделиться на других сайтах

 

Ну смотря как форматировать

А с чего вы решили что переформатирование zfs в ntfs или в что там еще пойдет исключительно на пользу данным, и не похерит часть из них, к примеру переписав поверх MFT? Не говоря уже о том, что винт умирает, и попытка заставить его писать данные может обернуться большим горем - к примеру, похерятся сервометки...

 

 

 

можна і софтрейд але на тому ж ebay можна купити натюрліх апаратний контролер і порівняно недорого і дзеркало він вмітиме, і страйп, і майже все таке інше

А смысл? Навернулся у вас контроллер, как данные вытянуть? Месяц ждать пока новый приедет? :)

 

Нет не затрет. Был опыт восстановления данных с виртуальной машины у которой диск был EXT3, vmdk виртуальной машины лежал на диске который был отформатирован в VMFS5 который в свою очередь посыпался и нае...лась структура раздела. Через dd сделал цифровую копию, накатил ее на новый диск, сделал быстрое форматирование в NTFS, ибо на сегодня с VMFS5 умеет работать только ESXi. И все это скормил r-studio, примерно 60% файлов были целые. Виртуалки которые были на винде вообще можно было целыми восстанавливать. Но цель восстановления был 1 web проект, восстановить так и не смогли потому что разрушение диска повлекло за собой разрушение таблицы разметки у виртуалки на которой находился этот проект. И весь диск виртуалки состоял из кучи папок inode0015, заходишь в папку и понимаешь что это /etc, заходишь в другую папку с именем inode и понимаешь что это папка /www

Ссылка на сообщение
Поделиться на других сайтах

 

 

Нет не затрет.

Т.е. MFT и метаданные волшебным образом лягут на то место, которое не занято никакими файлами? :)

 

 

 

И все это скормил r-studio, примерно 60% файлов были целые.

С тем же успехом можно было скормить весь диск, а не переформатированный раздел. Глядишь, и вместо 60% файлов % 70 оказались бы целыми :)

А VMFS - скорее всего тупо контейнер разделов с заголовком/хвостом, и на записанный дамп достаточно было натравить тот же testdisk чтобы раздел нашелся...

Ссылка на сообщение
Поделиться на других сайтах

> новомодною файловою системою
ZFS уже 10 лет

>ибо на сегодня с VMFS5 умеет работать только ESXi.
Набрал в поиске и тут же нашел утилиту восстановления которая поддерживает VMFS5
Что я делаю не так?

ИМХО
Файловая система которая ориентирована на скоростные параметры не может быть супер надежной настолько, что если есть только 1 физический носитель, обеспечивать 100% восстановление с поврежденного носителя
Кроме того используя поврежденный носитель, есть риск что он разрушается в процессе восстановления
Потому надо использовать RAID и Backup

Из практики один из лучших текущих контроллеров для ZFS – LSI 9211-8i в режиме каналов
Мы пользуемся его дешевым аналогом Dell Perc H310, перешивая его в LSI 9211-8i

А про одиночный диск для серверов забудьте если надо целостность данных

Ссылка на сообщение
Поделиться на других сайтах

>А смысл? Навернулся у вас контроллер, как данные вытянуть? Месяц ждать пока новый приедет? 

Всегда удивляли такие посты 

Прям все полярники и нет никого рядом на тысячи верст

 

Пару тройку популярных производителей контроллеров сейчас

Adaptec / LSI

Взять один на вечер для восстановления или просто что-то типа дешевого Adaptec 3405 или перешитого в LSI купить

 

Блеск и нищета украинского IT 

За 10+ лет всегда что-то находил меньше чем за сутки

Не полярник-с, да-с

Відредаговано ValRevan
Ссылка на сообщение
Поделиться на других сайтах

>А я больше обкатаным софтовым решениям. Как минимум - сильно испорченый софтрэйд можно и принудительно собрать (ну скажем отсохло у рэйда 5-го 2 винта одновременно из-за плохого кабеля сата питания), а железный можно?

Железный тоже можно, подключив каждый целый HDD в режиме каналов, утилитами восстановления

Особых секретов у современных производителей RAID контроллеров нет и все возможно

Ссылка на сообщение
Поделиться на других сайтах

 

 

Пару тройку популярных производителей контроллеров сейчас

А что, тот же promise к примеру, или LSI имеет неизменный формат суперблоков, что модели 10-летней давности (к примеру), что свежие? Ну т.е. какова вероятность того, что на контроллере другой модели массив вообще соберется, не говоря уже о корректности? :)

 

 

 

Железный тоже можно, подключив каждый целый HDD в режиме каналов, утилитами восстановления

В общем танцами с бубном сторонними утилитами и не факт что получится :)

Сколько это по времени займет?

Ссылка на сообщение
Поделиться на других сайтах

 

Пару тройку популярных производителей контроллеров сейчас

А что, тот же promise к примеру, или LSI имеет неизменный формат суперблоков, что модели 10-летней давности (к примеру), что свежие? Ну т.е. какова вероятность того, что на контроллере другой модели массив вообще соберется, не говоря уже о корректности? :)

 

+1

Ссылка на сообщение
Поделиться на других сайтах

К сожалению по LSI точно был разговор с разработчиками, далеко не все контроллеры между собой совместимы, так что.

А самое печальное что и таблицы совместимости если не ошибаюсь тоже не существует.

Ссылка на сообщение
Поделиться на других сайтах

У других вендоров скорее всего так же. Новое семейство конроллеров - новая команда программеров - новый формат суперблока.

Потому и смысла не вижу в аппаратных контроллерах - ну за исключением высоконаруженных хранилищ, где от них может быть какой-то профит (и то не факт).

Ссылка на сообщение
Поделиться на других сайтах

Дык даже sun перестал видеть в этом смысл уже 10 лет как, потому и zfs :)

 

Кстати, тоже как раз и не стоит забывать, под кого zfs создавалась, а то вдруг у вас нету массы свободного и запасного железа, а ведь у тех, на кого оно расчитано его всегда валом.

Відредаговано ttttt
Ссылка на сообщение
Поделиться на других сайтах

В кого є досвід робочи з FreeNAS - чи можливо тримати диски в UFS і працювати з інтерфейсом як звичайно?

з консолі я створив все що хотів в UFS але GUI вперто не хоче бачити ці розділи

Ссылка на сообщение
Поделиться на других сайтах

От версии зависит. UFS (Оно реально старое что как продукт житьедеятельности  мамонта) выпилить полностью хотели. Так что используйте ZFS.

Ссылка на сообщение
Поделиться на других сайтах

UFS (Оно реально старое что как продукт житьедеятельности мамонта)

Ну зачем такое говорить? Вот только недавно soft-update'ы усовершенствовали, теперь можно включить журналирование soft-update'ов и fsck после пропадания питания будет очень быстро проходить. Это очень современная фича.
Ссылка на сообщение
Поделиться на других сайтах

Создайте аккаунт или войдите в него для комментирования

Вы должны быть пользователем, чтобы оставить комментарий

Создать аккаунт

Зарегистрируйтесь для получения аккаунта. Это просто!

Зарегистрировать аккаунт

Вхід

Уже зарегистрированы? Войдите здесь.

Войти сейчас
  • Зараз на сторінці   0 користувачів

    Немає користувачів, що переглядають цю сторінку.

  • Схожий контент

    • Від pavlabor
      Решил зачистить snapshot, грохнул по невнимательности
      tank/usr/jails/.warden-template-10.3-RELEASE-amd64@clean
      Понятно комп не поднялся.
      пишет нет tank/usr/jails/.warden-template-10.3-RELEASE-amd64@clean
      и вываливается в консоль GRUB
       
      Накатил по новой систему, но не могу примонтировать старый диск, чтобы слить инфу.
       
      Есть спецы чтобы с zfs на ты?
       
      диск видится как ada1
      # gpart show
      =>       34  117231341  ada0  GPT  (56G)
               34       2048     1  bios-boot  (1.0M)
             2082          6        - free -  (3.0K)
             2088  113102848     2  freebsd-zfs  (54G)
        113104936    4096000     3  freebsd-swap  (2.0G)
        117200936      30439        - free -  (15M)

      =>       34  312581741  ada1  GPT  (149G)
               34       2048     1  bios-boot  (1.0M)
             2082          6        - free -  (3.0K)
             2088  308365312     2  freebsd-zfs  (147G)
        308367400    4194304     3  freebsd-swap  (2.0G)
        312561704      20071        - free -  (9.8M)
       
      на новой сборке накатил пул с другим именем pvbtank
      Организовал пул tank, попробовал примонтировать, получилась такая каша
      # zpool list
      NAME      SIZE  ALLOC   FREE  EXPANDSZ   FRAG    CAP  DEDUP  HEALTH  ALTROOT
      pvbtank  53,5G  7,26G  46,2G         -     5%    13%  1.00x  ONLINE  -
      tank      147G   104K   147G         -     0%     0%  1.00x  ONLINE  -
       
       
      # zfs list
      NAME                                                    USED  AVAIL  REFER  MOUNTPOINT
      pvbtank                                                7,26G  44,6G    19K  none
      pvbtank/ROOT                                           6,56G  44,6G    19K  none
      pvbtank/ROOT/initial                                   6,56G  44,6G  6,56G  /mnt
      pvbtank/tmp                                              62K  44,6G    42K  /tmp
      pvbtank/usr                                             713M  44,6G    19K  none
      pvbtank/usr/home                                        346M  44,6G    19K  /usr/home
      pvbtank/usr/home/pvb                                    346M  44,6G   346M  /usr/home/pvb
      pvbtank/usr/jails                                       191M  44,6G    19K  /usr/jails
      pvbtank/usr/jails/.warden-template-10.3-RELEASE-amd64   191M  44,6G   191M  /usr/jails/.warden-template-10.3-RELEASE-amd64
      pvbtank/usr/obj                                          19K  44,6G    19K  /usr/obj
      pvbtank/usr/ports                                       175M  44,6G   175M  /usr/ports
      pvbtank/usr/src                                          19K  44,6G    19K  /usr/src
      pvbtank/var                                            5,97M  44,6G    19K  none
      pvbtank/var/audit                                        19K  44,6G    19K  /var/audit
      pvbtank/var/log                                         274K  44,6G   258K  /var/log
      pvbtank/var/mail                                         24K  44,6G    24K  /var/mail
      pvbtank/var/tmp                                        5,64M  44,6G  5,58M  /var/tmp
      tank                                                     85K   142G    19K  /mnt
       
       
       
      ps. И так времени не в проворт, а тут сам себе головняк подложил.
×
×
  • Створити нове...