Перейти до

Файловая система zfs


Рекомендованные сообщения

Решил зачистить snapshot, грохнул по невнимательности

tank/usr/jails/.warden-template-10.3-RELEASE-amd64@clean

Понятно комп не поднялся.

пишет нет tank/usr/jails/.warden-template-10.3-RELEASE-amd64@clean

и вываливается в консоль GRUB

 

Накатил по новой систему, но не могу примонтировать старый диск, чтобы слить инфу.

 

Есть спецы чтобы с zfs на ты?

 

диск видится как ada1

# gpart show
=>       34  117231341  ada0  GPT  (56G)
         34       2048     1  bios-boot  (1.0M)
       2082          6        - free -  (3.0K)
       2088  113102848     2  freebsd-zfs  (54G)
  113104936    4096000     3  freebsd-swap  (2.0G)
  117200936      30439        - free -  (15M)

=>       34  312581741  ada1  GPT  (149G)
         34       2048     1  bios-boot  (1.0M)
       2082          6        - free -  (3.0K)
       2088  308365312     2  freebsd-zfs  (147G)
  308367400    4194304     3  freebsd-swap  (2.0G)
  312561704      20071        - free -  (9.8M)
 

на новой сборке накатил пул с другим именем pvbtank

Организовал пул tank, попробовал примонтировать, получилась такая каша

# zpool list
NAME      SIZE  ALLOC   FREE  EXPANDSZ   FRAG    CAP  DEDUP  HEALTH  ALTROOT
pvbtank  53,5G  7,26G  46,2G         -     5%    13%  1.00x  ONLINE  -
tank      147G   104K   147G         -     0%     0%  1.00x  ONLINE  -
 

 

# zfs list
NAME                                                    USED  AVAIL  REFER  MOUNTPOINT
pvbtank                                                7,26G  44,6G    19K  none
pvbtank/ROOT                                           6,56G  44,6G    19K  none
pvbtank/ROOT/initial                                   6,56G  44,6G  6,56G  /mnt
pvbtank/tmp                                              62K  44,6G    42K  /tmp
pvbtank/usr                                             713M  44,6G    19K  none
pvbtank/usr/home                                        346M  44,6G    19K  /usr/home
pvbtank/usr/home/pvb                                    346M  44,6G   346M  /usr/home/pvb
pvbtank/usr/jails                                       191M  44,6G    19K  /usr/jails
pvbtank/usr/jails/.warden-template-10.3-RELEASE-amd64   191M  44,6G   191M  /usr/jails/.warden-template-10.3-RELEASE-amd64
pvbtank/usr/obj                                          19K  44,6G    19K  /usr/obj
pvbtank/usr/ports                                       175M  44,6G   175M  /usr/ports
pvbtank/usr/src                                          19K  44,6G    19K  /usr/src
pvbtank/var                                            5,97M  44,6G    19K  none
pvbtank/var/audit                                        19K  44,6G    19K  /var/audit
pvbtank/var/log                                         274K  44,6G   258K  /var/log
pvbtank/var/mail                                         24K  44,6G    24K  /var/mail
pvbtank/var/tmp                                        5,64M  44,6G  5,58M  /var/tmp
tank                                                     85K   142G    19K  /mnt
 

 

 

ps. И так времени не в проворт, а тут сам себе головняк подложил.

Відредаговано pavlabor
Ссылка на сообщение
Поделиться на других сайтах
Опубліковано: (відредаговано)

Пишет что нет

tank/usr/jails/.warden-template-10.3-RELEASE-amd64@clean

и вываливается в консоль GRUB

Відредаговано pavlabor
Ссылка на сообщение
Поделиться на других сайтах
Опубліковано: (відредаговано)

В общем так.

Похоже файловую систему завалил, вернее разметку, поэтому не взирая на танцы с бубном инфу не вытянул, но!

Спасибо supportod, настроение улучшилось.

Тут как бы говорят что zfs, не для бедных, но в фре 10.3, если без бубна, то собственно выбора не оставили.

Поэтому раз потратил время, небольшой отчет.

 

Скачал исошку MfsBSD, 10.3-RELEASE-amd64 special edition (203MB), нарезал болванку, подключил на левую машину, левый винт с zfs разметкой, загрузился.

Рутовый пароль mfsroot

Параметры получил по dhcp, в данном случае 10.180.100.248

 

root@mfsbsd:/ # ifconfig
re0: flags=8843<UP,BROADCAST,RUNNING,SIMPLEX,MULTICAST> metric 0 mtu 1500
        options=8209b<RXCSUM,TXCSUM,VLAN_MTU,VLAN_HWTAGGING,VLAN_HWCSUM,WOL_MAGIC,LINKSTATE>
        ether f4:6d:04:39:ab:3d
        inet 10.180.100.248 netmask 0xffffff00 broadcast 10.180.100.255
        nd6 options=29<PERFORMNUD,IFDISABLED,AUTO_LINKLOCAL>
        media: Ethernet autoselect (100baseTX <full-duplex>)
        status: active
lo0: flags=8049<UP,LOOPBACK,RUNNING,MULTICAST> metric 0 mtu 16384
        options=600003<RXCSUM,TXCSUM,RXCSUM_IPV6,TXCSUM_IPV6>
        inet6 ::1 prefixlen 128
        inet6 fe80::1%lo0 prefixlen 64 scopeid 0x2
        inet 127.0.0.1 netmask 0xff000000
        nd6 options=21<PERFORMNUD,AUTO_LINKLOCAL>

 

Конектимся на левый сервак

[pvb@pvb] ~% ssh root@10.180.100.248
The authenticity of host '10.180.100.248 (10.180.100.248)' can't be established.
ECDSA key fingerprint is SHA256:magX1k1bUJkH/Bktc5MfzakUeG90yiKvfk+Pm/jz+yA.
No matching host key fingerprint found in DNS.
Are you sure you want to continue connecting (yes/no)? yes
Warning: Permanently added '10.180.100.248' (ECDSA) to the list of known hosts.
Password for root@mfsbsd:
FreeBSD 10.3-RELEASE (GENERIC) #0 r297264: Fri Mar 25 02:10:02 UTC 2016

Welcome to mfsBSD SE, the memory based FreeBSD distribution.
This is a special version intended for full-ZFS install of FreeBSD

To make a full-ZFS FreeBSD install from this ISO:

1. Mount the CD device
( e.g. mount_cd9660 /dev/cd0 /cdrom )
2. Run "zfsinstall" with path to release directory and your drive
( e.g. zfsinstall -d ada0 -u /cdrom/9.2-RELEASE-amd64 )

Run zfsinstall with the -h flag for help or without flags for options.
I recommend creating a GPT swap partition (e.g. -s 2G for a 2GB swap).

Feel free to email me with any bug reports or feature suggestions.
Martin Matuska <mm@FreeBSD.org>
http://mfsbsd.vx.sk/

Курим

root@mfsbsd:~ # gpart show
=>       34  156312509  ada0  GPT  (75G)
         34       2048     1  bios-boot  (1.0M)
       2082          6        - free -  (3.0K)
       2088  152096768     2  freebsd-zfs  (73G)
  152098856    4194304     3  freebsd-swap  (2.0G)
  156293160      19383        - free -  (9.5M)

=>       34  156312509  diskid/DISK-PF1B75E7S88B7M  GPT  (75G)
         34       2048                           1  bios-boot  (1.0M)
       2082          6                              - free -  (3.0K)
       2088  152096768                           2  freebsd-zfs  (73G)
  152098856    4194304                           3  freebsd-swap  (2.0G)
  156293160      19383                              - free -  (9.5M)

root@mfsbsd:~ # zpool list
no pools available
root@mfsbsd:~ # zfs list
no datasets available

Пусто.

 

Импортируем пул

root@mfsbsd:~ # zpool import -o cachefile=/tmp/zpool.cache -o altroot=/mnt -f tank
root@mfsbsd:~ # zpool list
NAME   SIZE  ALLOC   FREE  EXPANDSZ   FRAG    CAP  DEDUP  HEALTH  ALTROOT
tank  72.5G  1.57G  70.9G         -     0%     2%  1.00x  ONLINE  /mnt
root@mfsbsd:~ # zfs list
NAME                                                 USED  AVAIL  REFER  MOUNTPOINT
tank                                                1.57G  68.7G    19K  none
tank/ROOT                                            978M  68.7G    19K  none
tank/ROOT/initial                                    978M  68.7G   977M  /mnt/mnt
tank/tmp                                              32K  68.7G    21K  /mnt/tmp
tank/usr                                             633M  68.7G    19K  none
tank/usr/home                                       49.5K  68.7G  35.5K  /mnt/usr/home
tank/usr/jails                                       191M  68.7G    19K  /mnt/usr/jails
tank/usr/jails/.warden-template-10.3-RELEASE-amd64   191M  68.7G   191M  /mnt/usr/jails/.warden-template-10.3-RELEASE-amd64
tank/usr/obj                                          28K  68.7G    19K  /mnt/usr/obj
tank/usr/ports                                       442M  68.7G   410M  /mnt/usr/ports
tank/usr/src                                          28K  68.7G    19K  /mnt/usr/src
tank/var                                             250K  68.7G    19K  none
tank/var/audit                                        28K  68.7G    19K  /mnt/var/audit
tank/var/log                                         140K  68.7G    95K  /mnt/var/log
tank/var/mail                                         34K  68.7G    24K  /mnt/var/mail
tank/var/tmp                                          28K  68.7G    19K  /mnt/var/tmp

 

Проверяем наличие нужного файла

root@mfsbsd:~ # ll /mnt/usr/home
total 2
drwxr-xr-x  5 1001  1001  16 May 14 10:25 pvb/
root@mfsbsd:~ # cd /mnt/usr/home/pvb
root@mfsbsd:/mnt/usr/home/pvb # ll
total 14
drwx------  3 1001  1001     3 May 14 06:19 .cache/
drwx------  3 1001  1001     3 May 14 06:19 .config/
-rw-r--r--  1 1001  1001   994 May 13 09:47 .cshrc
-rw-------  1 1001  1001  1092 May 21 19:22 .history
drwx------  3 1001  1001     3 May 14 06:19 .local/
-rw-r--r--  1 1001  1001   186 May 13 09:47 .login
-rw-r--r--  1 1001  1001    91 May 13 09:47 .login_conf
-rw-------  1 1001  1001   301 May 13 09:47 .mail_aliases
-rw-r--r--  1 1001  1001   267 May 13 09:47 .mailrc
-rw-r--r--  1 1001  1001   743 May 13 09:47 .profile
-rw-------  1 1001  1001   212 May 13 09:47 .rhosts
-rw-r--r--  1 1001  1001   909 May 13 09:47 .shrc
-rw-r--r--  1 root  1001   284 May 14 10:25 111
-rw-r--r--  1 root  1001   125 May 14 10:25 ada0.gpt
root@mfsbsd:/mnt/usr/home/pvb # less ada0.gpt
GPT 128
1      bios-boot        34      2048  
2    freebsd-zfs      2088 152096768  
3   freebsd-swap 152098856   4194304

Он радимый!

 

Копируем в нужное место

root@mfsbsd:/mnt/usr/home/pvb # scp /mnt/usr/home/pvb/ada0.gpt pvb@10.180.100.4:/usr/home/pvb/ada0.gpt
The authenticity of host '10.180.100.4 (10.180.100.4)' can't be established.
ECDSA key fingerprint is SHA256:G5PITcgimjaZuMQAKNNKFb5UG6VZHatHpdOKAPDzmSU.
No matching host key fingerprint found in DNS.
Are you sure you want to continue connecting (yes/no)? yes
Warning: Permanently added '10.180.100.4' (ECDSA) to the list of known hosts.
Password for pvb@pvb.pavlabor.net:
ada0.gpt                                                                                                                                                                                                     100%  125     0.1KB/s   00:00    
root@mfsbsd:/mnt/usr/home/pvb #

 

Проверяем на другом серваке

 

[pvb@pvb] /# ifconfig
fxp0: flags=8843<UP,BROADCAST,RUNNING,SIMPLEX,MULTICAST> metric 0 mtu 1500
        options=2009<RXCSUM,VLAN_MTU,WOL_MAGIC>
        ether 00:02:b3:d8:23:5d
        inet6 fe80::202:b3ff:fed8:235d%fxp0 prefixlen 64 scopeid 0x1
        inet 10.180.100.4 netmask 0xffffff00 broadcast 10.180.100.255
        nd6 options=23<PERFORMNUD,ACCEPT_RTADV,AUTO_LINKLOCAL>
        media: Ethernet autoselect (100baseTX <full-duplex>)
        status: active
re0: flags=8843<UP,BROADCAST,RUNNING,SIMPLEX,MULTICAST> metric 0 mtu 1500
        options=8209b<RXCSUM,TXCSUM,VLAN_MTU,VLAN_HWTAGGING,VLAN_HWCSUM,WOL_MAGIC,LINKSTATE>
        ether 48:5b:39:45:c3:08
        inet6 fe80::4a5b:39ff:fe45:c308%re0 prefixlen 64 scopeid 0x2
        nd6 options=23<PERFORMNUD,ACCEPT_RTADV,AUTO_LINKLOCAL>
        media: Ethernet autoselect (none)
        status: no carrier
lo0: flags=8049<UP,LOOPBACK,RUNNING,MULTICAST> metric 0 mtu 16384
        options=600003<RXCSUM,TXCSUM,RXCSUM_IPV6,TXCSUM_IPV6>
        inet6 ::1 prefixlen 128
        inet6 fe80::1%lo0 prefixlen 64 scopeid 0x3
        inet 127.0.0.1 netmask 0xff000000
        nd6 options=21<PERFORMNUD,AUTO_LINKLOCAL>
[pvb@pvb] /# less /usr/home/pvb/ada0.gpt
GPT 128
1      bios-boot        34      2048  
2    freebsd-zfs      2088 152096768  
3   freebsd-swap 152098856   4194304  

/usr/home/pvb/ada0.gpt (END)

Файл на месте.

 

Вот таким образом можно выдернуть инфу с левого диска с разметкой zfs.

Это при условии, что знаем имя пула.

 

supportod, мне не понятно, а если притащили битый винт и не известно имя пула, что делать?

Импортировать под левое имя, подмонтируется?

Відредаговано pavlabor
Ссылка на сообщение
Поделиться на других сайтах

Кроме того, у zfs import есть много других опций, которые позволят примонтировать пул разной степени убитости и деградированности.

Ссылка на сообщение
Поделиться на других сайтах
Опубліковано: (відредаговано)

Пишем просто  zfs import на выхлопе названия пулов и инфа по ним

Посыл понял, после недолгого копания в манах вырыл такую команду - zpool import

По порядку, поставил "левый диск" на другой комп, загрузился с MfsBSD

[pvb@pvb] ~% ssh root@10.180.100.248

The authenticity of host '10.180.100.248 (10.180.100.248)' can't be established.

ECDSA key fingerprint is SHA256:puymXBrNwZPuRL+9cqAusnYxBJQwx0+hsE4o+nqMYIM.

No matching host key fingerprint found in DNS.

Are you sure you want to continue connecting (yes/no)? yes

Warning: Permanently added '10.180.100.248' (ECDSA) to the list of known hosts.

Password for root@mfsbsd:

Last login: Wed May 25 07:46:56 2016

FreeBSD 10.3-RELEASE (GENERIC) #0 r297264: Fri Mar 25 02:10:02 UTC 2016

 

Welcome to mfsBSD SE, the memory based FreeBSD distribution.

This is a special version intended for full-ZFS install of FreeBSD

 

To make a full-ZFS FreeBSD install from this ISO:

 

1. Mount the CD device

( e.g. mount_cd9660 /dev/cd0 /cdrom )

2. Run "zfsinstall" with path to release directory and your drive

( e.g. zfsinstall -d ada0 -u /cdrom/9.2-RELEASE-amd64 )

 

Run zfsinstall with the -h flag for help or without flags for options.

I recommend creating a GPT swap partition (e.g. -s 2G for a 2GB swap).

 

Feel free to email me with any bug reports or feature suggestions.

Martin Matuska <mm@FreeBSD.org>

http://mfsbsd.vx.sk/

root@mfsbsd:~ # zpool import

   pool: pvbtank

     id: 15721184493470013359

  state: ONLINE

 action: The pool can be imported using its name or numeric identifier.

 config:

 

        pvbtank     ONLINE

          ada0p2    ONLINE

root@mfsbsd:~ #

Обнаружил pool: pvbtank, дальше выдергиваем инфу как в предыдущей статье.

 

Но, жаба давит как восстановить/перенести машину.

Поэтому решил покопаться дальше.

По этой статье, попробовал перенести систему на другой диск,

но то ли zfs обновился, то ли что то упустил, но не смог перенести систему PCBSD 10.3.

В результате получилась своя версия переноса.

Имеем машину источник комп1(диск1), машину клон комп2(диск2)

1. На целевой диск2, инсталлировал минимальную установку, задача сформировать рабочий загрузочный диск.

2. Загрузился на комп2 с MfsBSD, грохнул пул и создал пул с именем машины источника комп1, сетевые параметры получил по DHCP.

3. На машины источника комп1, создал snapshot.

4. Передал snapshot с комп1 на комп2, с помощью ssh.

5. Поменял сетевые настройки на комп2, перегрузился, система синхронизировала структуру, после повторной перезагрузки все задышало в штатном режиме на клон. Прикольно что восстановилась вся инфа, в плоть до буфера обмена.

 

Теперь инфа

1. На целевой диск2, инсталлировал минимальную установку, задача сформировать рабочий загрузочный диск.

Тут просто установить минималку, 10-15 минут.

2. Загрузился на комп2 с MfsBSD, конектчусь с комп1 по ssh (пароль рута mfsroot), грохнул пул и создал пул с именем машины источника комп1, сетевые параметры получил по DHCP.

[pvb@pvb] ~% ssh root@10.180.100.248

The authenticity of host '10.180.100.248 (10.180.100.248)' can't be established.

ECDSA key fingerprint is SHA256:puymXBrNwZPuRL+9cqAusnYxBJQwx0+hsE4o+nqMYIM.

No matching host key fingerprint found in DNS.

Are you sure you want to continue connecting (yes/no)? yes

Warning: Permanently added '10.180.100.248' (ECDSA) to the list of known hosts.

Password for root@mfsbsd:

Last login: Wed May 25 07:46:56 2016

FreeBSD 10.3-RELEASE (GENERIC) #0 r297264: Fri Mar 25 02:10:02 UTC 2016

 

Welcome to mfsBSD SE, the memory based FreeBSD distribution.

This is a special version intended for full-ZFS install of FreeBSD

 

To make a full-ZFS FreeBSD install from this ISO:

 

1. Mount the CD device

( e.g. mount_cd9660 /dev/cd0 /cdrom )

2. Run "zfsinstall" with path to release directory and your drive

( e.g. zfsinstall -d ada0 -u /cdrom/9.2-RELEASE-amd64 )

 

Run zfsinstall with the -h flag for help or without flags for options.

I recommend creating a GPT swap partition (e.g. -s 2G for a 2GB swap).

 

Feel free to email me with any bug reports or feature suggestions.

Martin Matuska <mm@FreeBSD.org>

http://mfsbsd.vx.sk/

root@mfsbsd:~ # zpool import

   pool: tank

     id: 15721184493470013359

  state: ONLINE

 action: The pool can be imported using its name or numeric identifier.

 config:

 

        pvbtank     ONLINE

          ada0p2    ONLINE

root@mfsbsd:~ # gpart show -p

=>      34  30033293    ada0  GPT  (75G)

        34      2048  ada0p1  bios-boot  (1.0M)

      2082         6          - free -  (3.0K)

      2088  28962816  ada0p2  freebsd-zfs  (73G)

  28964904   1048576  ada0p3  freebsd-swap  (2G)

  30013480     19847          - free -  (9.7M)

 

=>      34  30033293    diskid/DISK-G80GLW7Q096  GPT  (75G)

        34      2048  diskid/DISK-G80GLW7Q096p1  bios-boot  (1.0M)

      2082         6                             - free -  (3.0K)

      2088  28962816  diskid/DISK-G80GLW7Q096p2  freebsd-zfs  (73G)

  28964904   1048576  diskid/DISK-G80GLW7Q096p3  freebsd-swap  (2G)

  30013480     19847                             - free -  (9.7M)

 

root@mfsbsd:~ # zpool import tank

root@mfsbsd:~ # zpool destroy tank

root@mfsbsd:~ # zpool create pvbtank /dev/ada0p2

root@mfsbsd:~ # df -h

Filesystem    Size    Used   Avail Capacity  Mounted on

/dev/md0       66M     56M    4.4M    93%    /

devfs         1.0K    1.0K      0B   100%    /dev

tmpfs         3.2G    4.0K    3.2G     0%    /tmp

tmpfs         3.3G    128M    3.2G     4%    /usr

tmpfs         3.2G    4.0K    3.2G     0%    /var/db/pkg

tmpfs         3.2G    4.0K    3.2G     0%    /var/cache/pkg

pvbtank        73G     19K     13G     0%    /pvbtank

root@mfsbsd:~ #

3. На машине источника комп1, создал snapshot, ключь "-r" создать рекурсивно всю структуру пула.

pvb@pvb:/# zpool list

NAME      SIZE  ALLOC   FREE  EXPANDSZ   FRAG    CAP  DEDUP  HEALTH  ALTROOT

pvbtank  53,5G  20,8G  32,7G         -    20%    38%  1.00x  ONLINE  -

pvb@pvb:/# zfs snapshot -r pvbtank@auto-2016-05-24-13-00-00

pvb@pvb:/# zfs list -t snapshot

NAME                                                                             USED  AVAIL  REFER  MOUNTPOINT

pvbtank@auto-2016-05-24-13-00-00                                                    0      -    19K  -

pvbtank/ROOT@auto-2016-05-24-13-00-00                                               0      -    19K  -

pvbtank/ROOT/10.3-RELEASE-p3-up-20160523_085102@2016-05-23-07:54:45              159M      -  7,89G  -

pvbtank/ROOT/10.3-RELEASE-p3-up-20160523_085102@2016-05-23-08:29:35              404M      -  9,03G  -

pvbtank/ROOT/10.3-RELEASE-p3-up-20160523_085102@auto-2016-05-24-13-00-00        26,2M      -  9,22G  -

pvbtank/ROOT/beforeUpdate-2016-05-23_07-54-45@auto-2016-05-24-13-00-00              0      -  7,89G  -

pvbtank/ROOT/initial@auto-2016-05-24-13-00-00                                       0      -  9,02G  -

pvbtank/tmp@auto-2016-05-24-13-00-00                                            1,44M      -  1,44M  -

pvbtank/usr@auto-2016-05-24-13-00-00                                                0      -    19K  -

pvbtank/usr/home@auto-2016-05-24-13-00-00                                          9K      -    19K  -

pvbtank/usr/home/pvb@auto-2016-05-24-13-00-00                                    206M      -  1,41G  -

pvbtank/usr/jails@auto-2016-05-24-13-00-00                                         9K      -    19K  -

pvbtank/usr/jails/.warden-template-10.3-RELEASE-amd64@clean                      690K      -   191M  -

pvbtank/usr/jails/.warden-template-10.3-RELEASE-amd64@auto-2016-05-24-13-00-00   699K      -   191M  -

pvbtank/usr/obj@auto-2016-05-24-13-00-00                                           9K      -    19K  -

pvbtank/usr/ports@auto-2016-05-24-13-00-00                                      54,6M      -  4,15G  -

pvbtank/usr/src@auto-2016-05-24-13-00-00                                           9K      -    19K  -

pvbtank/var@auto-2016-05-24-13-00-00                                                0      -    19K  -

pvbtank/var/audit@auto-2016-05-24-13-00-00                                         9K      -    19K  -

pvbtank/var/log@auto-2016-05-24-13-00-00                                         113K      -   610K  -

pvbtank/var/mail@auto-2016-05-24-13-00-00                                         13K      -    24K  -

pvbtank/var/tmp@auto-2016-05-24-13-00-00                                        4,77M      -  34,3M  -

pvb@pvb:/#

4. Передал snapshot (ключ "-R" рекурсивно), с комп1 на комп2, с помощью ssh.

pvb@pvb:/# zfs send -R pvbtank@auto-2016-05-24-13-00-00 | ssh 10.180.100.248 zfs receive -vFd pvbtank

The authenticity of host '10.180.100.248 (10.180.100.248)' can't be established.

ECDSA key fingerprint is SHA256:8UBejKGhHFalpZOyYRHZ/zkTJhmjOy15bIJvlIn7Rug.

No matching host key fingerprint found in DNS.

Are you sure you want to continue connecting (yes/no)? yes

Warning: Permanently added '10.180.100.248' (ECDSA) to the list of known hosts.

Password for root@mfsbsd:

receiving full stream of pvbtank@auto-2016-05-24-13-00-00 into pvbtank@auto-2016-05-24-13-00-00

received 41.7KB stream in 1 seconds (41.7KB/sec)

receiving full stream of pvbtank/tmp@auto-2016-05-24-13-00-00 into pvbtank/tmp@auto-2016-05-24-13-00-00

received 4.18MB stream in 1 seconds (4.18MB/sec)

receiving full stream of pvbtank/var@auto-2016-05-24-13-00-00 into pvbtank/var@auto-2016-05-24-13-00-00

received 41.7KB stream in 1 seconds (41.7KB/sec)

receiving full stream of pvbtank/var/audit@auto-2016-05-24-13-00-00 into pvbtank/var/audit@auto-2016-05-24-13-00-00

received 44.2KB stream in 1 seconds (44.2KB/sec)

receiving full stream of pvbtank/var/tmp@auto-2016-05-24-13-00-00 into pvbtank/var/tmp@auto-2016-05-24-13-00-00

received 76.3MB stream in 7 seconds (10.9MB/sec)

receiving full stream of pvbtank/var/mail@auto-2016-05-24-13-00-00 into pvbtank/var/mail@auto-2016-05-24-13-00-00

received 52.1KB stream in 1 seconds (52.1KB/sec)

receiving full stream of pvbtank/var/log@auto-2016-05-24-13-00-00 into pvbtank/var/log@auto-2016-05-24-13-00-00

received 5.14MB stream in 1 seconds (5.14MB/sec)

receiving full stream of pvbtank/usr@auto-2016-05-24-13-00-00 into pvbtank/usr@auto-2016-05-24-13-00-00

received 41.7KB stream in 1 seconds (41.7KB/sec)

receiving full stream of pvbtank/usr/src@auto-2016-05-24-13-00-00 into pvbtank/usr/src@auto-2016-05-24-13-00-00

received 41.7KB stream in 1 seconds (41.7KB/sec)

receiving full stream of pvbtank/usr/obj@auto-2016-05-24-13-00-00 into pvbtank/usr/obj@auto-2016-05-24-13-00-00

received 41.7KB stream in 1 seconds (41.7KB/sec)

receiving full stream of pvbtank/usr/jails@auto-2016-05-24-13-00-00 into pvbtank/usr/jails@auto-2016-05-24-13-00-00

received 43.0KB stream in 1 seconds (43.0KB/sec)

receiving full stream of pvbtank/usr/jails/.warden-template-10.3-RELEASE-amd64@clean into pvbtank/usr/jails/.warden-template-10.3-RELEASE-amd64@clean

received 420MB stream in 38 seconds (11.1MB/sec)

receiving incremental stream of pvbtank/usr/jails/.warden-template-10.3-RELEASE-amd64@auto-2016-05-24-13-00-00 into pvbtank/usr/jails/.warden-template-10.3-RELEASE-amd64@auto-2016-05-24-13-00-00

received 3.03MB stream in 1 seconds (3.03MB/sec)

receiving full stream of pvbtank/usr/ports@auto-2016-05-24-13-00-00 into pvbtank/usr/ports@auto-2016-05-24-13-00-00

received 6.61GB stream in 606 seconds (11.2MB/sec)

receiving full stream of pvbtank/usr/home@auto-2016-05-24-13-00-00 into pvbtank/usr/home@auto-2016-05-24-13-00-00

received 43.0KB stream in 1 seconds (43.0KB/sec)

receiving full stream of pvbtank/usr/home/pvb@auto-2016-05-24-13-00-00 into pvbtank/usr/home/pvb@auto-2016-05-24-13-00-00

received 1.64GB stream in 151 seconds (11.1MB/sec)

receiving full stream of pvbtank/ROOT@auto-2016-05-24-13-00-00 into pvbtank/ROOT@auto-2016-05-24-13-00-00

received 41.7KB stream in 1 seconds (41.7KB/sec)

receiving full stream of pvbtank/ROOT/10.3-RELEASE-p3-up-20160523_085102@2016-05-23-07:54:45 into pvbtank/ROOT/10.3-RELEASE-p3-up-20160523_085102@2016-05-23-07:54:45

received 12.6GB stream in 1159 seconds (11.2MB/sec)

receiving incremental stream of pvbtank/ROOT/10.3-RELEASE-p3-up-20160523_085102@2016-05-23-08:29:35 into pvbtank/ROOT/10.3-RELEASE-p3-up-20160523_085102@2016-05-23-08:29:35

received 1.76GB stream in 162 seconds (11.1MB/sec)

receiving incremental stream of pvbtank/ROOT/10.3-RELEASE-p3-up-20160523_085102@auto-2016-05-24-13-00-00 into pvbtank/ROOT/10.3-RELEASE-p3-up-20160523_085102@auto-2016-05-24-13-00-00

received 10.2GB stream in 939 seconds (11.1MB/sec)

found clone origin pvbtank/ROOT/10.3-RELEASE-p3-up-20160523_085102@2016-05-23-08:29:35

receiving incremental stream of pvbtank/ROOT/initial@auto-2016-05-24-13-00-00 into pvbtank/ROOT/initial@auto-2016-05-24-13-00-00

received 55.6MB stream in 6 seconds (9.27MB/sec)

found clone origin pvbtank/ROOT/10.3-RELEASE-p3-up-20160523_085102@2016-05-23-07:54:45

receiving incremental stream of pvbtank/ROOT/beforeUpdate-2016-05-23_07-54-45@auto-2016-05-24-13-00-00 into pvbtank/ROOT/beforeUpdate-2016-05-23_07-54-45@auto-2016-05-24-13-00-00

received 312B stream in 1 seconds (312B/sec)

pvb@pvb:#

Обратите внимание что pvbtank/ROOT/10.3-RELEASE-p3-up-20160523_085102 кроме исходника имеет два последующих снимка.

5. Поменял сетевые настройки на комп2(в MfsBSD имеется редактор "ее"),

 root@mfsbsd:~ # zfs list

NAME                                                    USED  AVAIL  REFER  MOUNTPOINT

pvbtank                                                20.5G  31.3G    19K  none

pvbtank/ROOT                                           14.7G  31.3G    19K  none

pvbtank/ROOT/10.3-RELEASE-p3-up-20160523_085102        14.7G  31.3G  9.22G  /

pvbtank/ROOT/beforeUpdate-2016-05-23_07-54-45             1K  31.3G  7.89G  /mnt

pvbtank/ROOT/initial                                   32.2M  31.3G  9.02G  /mnt

pvbtank/tmp                                            1.44M  31.3G  1.44M  /tmp

pvbtank/usr                                            5.75G  31.3G    19K  none

pvbtank/usr/home                                       1.41G  31.3G    19K  /usr/home

pvbtank/usr/home/pvb                                   1.41G  31.3G  1.41G  /usr/home/pvb

pvbtank/usr/jails                                       191M  31.3G    19K  /usr/jails

pvbtank/usr/jails/.warden-template-10.3-RELEASE-amd64   191M  31.3G   191M  /usr/jails/.warden-template-10.3-RELEASE-amd64

pvbtank/usr/obj                                          19K  31.3G    19K  /usr/obj

pvbtank/usr/ports                                      4.15G  31.3G  4.15G  /usr/ports

pvbtank/usr/src                                          19K  31.3G    19K  /usr/src

pvbtank/var                                            34.9M  31.3G    19K  none

pvbtank/var/audit                                        19K  31.3G    19K  /var/audit

pvbtank/var/log                                         608K  31.3G   608K  /var/log

pvbtank/var/mail                                         24K  31.3G    24K  /var/mail

pvbtank/var/tmp                                        34.3M  31.3G  34.3M  /var/tmp

root@mfsbsd:~ #

перегрузился, система синхронизировала структуру, после повторной перезагрузки все задышало в штатном режиме на клоне. Прикольно что восстановилась вся инфа, в плоть до буфера обмена.

Время создания клона, около часа.

 

Вроде как все, ZFS довольно мощная штука.

Все даже по боевому, в случай сбоя сервака, клон с другого сервере можно сделать "по гарячему".

Но остались вопросы;

- как даную процедуру, сделать на одном компе, не понятно как можно создать на одном компе организовать два пула с одинаковыми именами.

Ниже видео, с которого не понятно, как у человека на целевом компе, оказался только один пул, при чем пустой.

- как создать депозитарий для нескольких компов/пулов, потому как вроде на пул минимум нужен один диск. (Отправка снимка ZFS)

 

Life Preserver / System Backup & Restore

 

Поэтому пока тема не закрыта.

 

Технические возможности ZFS

Шпаргалка по ZFS

При попытке перенести на диск меньшей емкости, процесс вылетал с ошибкой "cannot receive new filesystem stream: out of space".

Відредаговано pavlabor
Ссылка на сообщение
Поделиться на других сайтах

В общем, вы там намутили с восстановлением снапшота, в итоге, пошли по самому длинному пути реинсталла и трансфера иерархии разделов ZFS.

Ссылка на сообщение
Поделиться на других сайтах
Опубліковано: (відредаговано)

PCBSD 10.3, файловая система ZFS

Захотел в fstab прописать автоматическое монтирования сетевой папки

192.168.10.60:/usr/home/pvb/Documents        /usr/home/pvb/Documents         ufs     rw      2       2

После перезагрузки система не поднялась, ошибка монтирования диска.

Лечение.

Зашел в одно пользовательском режиме.

Монтирование в режиме только чтение, перемонтируем

# zfs set readonly=off zroot

zroot - название пула

редактором открыл fstab

# ee /etc/fstab

закоментировал строчку, перезагрузка, все загрузилось в штатном режиме.

Так же можно скопировать и другую инфу с корня, без монтирования пула.

 

Мне начинает нравится zfs!

Відредаговано pavlabor
Ссылка на сообщение
Поделиться на других сайтах

Хотел еще посоветовать может тоже кому-то поможет прожка UFS Explorer мне помогла вытянуть даные когда пул не монтировался, даже под виндой!

Ссылка на сообщение
Поделиться на других сайтах
  • 3 months later...
Опубліковано: (відредаговано)

Разбор одной проблемы.

Начала падать Фря 10.3, без предупреждения,

ни в логах, ни на экране не выбрасывалась никакая ошибка,

при чем трафик через нее шел без проблем.

По ходу анализа пришли к выводу что блокировался диск в связи со старостью.

Скрипты которые работали с памятью продолжали работать,

но скрипты которым требовался доступ к диску вешались вместе с консолью.

 

Система была восстановлена с бекапа на другой диск, последовательность действий.

====== Создание бекапа ======
Создаем snapshot
# zfs snapshot -r tank@20160926
Проверяем наличие
# zfs list -t snapshot
Монтируем сетевой диск
# mount 172.16.180.26:/backup-180-26 /backup-180-26
Сохраняем snapshot tank@20160926
# zfs send -R tank@20160926 | gzip > /backup-180-26/bras02.gz
====== конец ======

====== Востановление из бекапа ======
Берем диск с минимальной установкой, загружаемся с mfsbsd
Монтируем пул
root@mfsbsd:~ # zpool import
   pool: pvbtank
     id: 7118257147973946325
  state: ONLINE
 action: The pool can be imported using its name or numeric identifier.
 config:

        pvbtank     ONLINE
          ada0p2    ONLINE
root@mfsbsd:~ # zpool import pvbtank
root@mfsbsd:~ # zpool list
NAME      SIZE  ALLOC   FREE  EXPANDSZ   FRAG    CAP  DEDUP  HEALTH  ALTROOT
pvbtank  13.8G   120K  13.7G         -     0%     0%  1.00x  ONLINE  -
Удаляем пул pvbtank
root@mfsbsd:~ # zpool destroy pvbtank

Создаем пул tank
root@mfsbsd:~ # zpool create tank /dev/ada0p2
Монтируем хранилище
root@mfsbsd:~ # mount 172.16.180.26:/backup-180-26 /mnt
Проверяем смонтированые разделы
root@mfsbsd:~ # df -h
Filesystem                     Size    Used   Avail Capacity  Mounted on
/dev/md0                        66M     56M    4.4M    93%    /
devfs                          1.0K    1.0K      0B   100%    /dev
tmpfs                          3.2G    4.0K    3.2G     0%    /tmp
tmpfs                          3.4G    128M    3.2G     4%    /usr
tmpfs                          3.2G    4.0K    3.2G     0%    /var/db/pkg
tmpfs                          3.2G    4.0K    3.2G     0%    /var/cache/pkg
172.16.180.26:/backup-180-26    451G    385G     30G    93%    /mnt
tank                            13G     19K     13G     0%    /tank
Загружаем snapshot bras02.gz
root@mfsbsd:/mnt # gzip -d -c /mnt/bras02.gz | zfs receive -vF -d tank
====== конец ======

 

Думаю что это не самый оптимальный вариант, но тем не менее позволил восстановить систему за 20 минут.

Відредаговано pavlabor
Ссылка на сообщение
Поделиться на других сайтах

192.168.10.60:/usr/home/pvb/Documents        /usr/home/pvb/Documents         ufs     rw      2       2

 

а по факту ZFS рулит, очень удобная нарезка vdev`ов для iscsi, в том числе раздельное управление квот, резервирования, сжатия, уровней кеширования и так далее

плюс злая вешчь - дедупликация, удалось на 4гиговую флешку записать по факту под 6гиг инфы и ещё место осталось, тоесть иксы, полные кеды и ещё всякий диагностический софт

Ссылка на сообщение
Поделиться на других сайтах

Создайте аккаунт или войдите в него для комментирования

Вы должны быть пользователем, чтобы оставить комментарий

Создать аккаунт

Зарегистрируйтесь для получения аккаунта. Это просто!

Зарегистрировать аккаунт

Вхід

Уже зарегистрированы? Войдите здесь.

Войти сейчас
  • Зараз на сторінці   0 користувачів

    Немає користувачів, що переглядають цю сторінку.

  • Схожий контент

    • Від Lambert
      Вітаю!
      колеги, а чи доводилось комусь гратися з новомодною файловою системою?
      суть така - зробив собі на роботі хламозберігалку для погратися, на базі FreeNAS
      і так сподобалося гратися що забув купити туди людські накопичувачі, зробити дзеркало і взагалі запустити це на пристойному рівні
      ну і як завжди водиться - старий вінчестер помер неочікувано, звісно що з даними
      запустив mhdd - уйма бедів, багато unc і все таке інше. Дивно, але smart нічого кримінального не показує.
      Система вінчестер бачить але каже що volume corrupt і звісно що ніяких даних там не видно
       
      Чи існує якийсь софт-інструментарій (щось типу r-studio під zfs) для спробувати самостійно витягти звідти хоч щось?
×
×
  • Створити нове...