Jump to content

Linux NAT и потери при настройке nftables с flow offload


Recommended Posts

Приветствую,

 

Ребята такое дело есть nat сервер на базе линукса и все вроде бы правильно с таким вот конфигом:

flush ruleset

table ip filter {
        chain input {
                type filter hook input priority 0; policy accept;
                ct state established accept
                iif "vlan4" counter drop
                iif "vlan5" counter drop
        }

        #flowtable fastnat {
        #        hook ingress priority 0
        #        devices = { vlan4, vlan5 }
        #}

        #chain forward {
        #        type filter hook forward priority 0; policy accept;
        #        ip protocol { tcp , udp } flow offload @fastnat;
        #}
}


table ip nat {
        chain post {
                type nat hook postrouting priority 100; policy accept;
                ip saddr 10.0.0.0/8 oif "vlan5" snat to 105.46.1.1-105.46.1.125 persistent
        }

        chain pre {
                type nat hook prerouting priority -100; policy accept;
        }
}

Плюс подкручены стандартные опции для самого нат сервера через sysctl.

 

Обратите внимание на закомменченную порцию с flow offload, с ней при 12G нат трафика неаблюдаются довольно сушественные потери на входе интерфейса:

image.png.efdbc75870e47593490f809f3e4b475e.png

 

Если закомментить часть отвечающую за flow offload, то нагрузка на процессот немного вырастает но потери исчезают аж пока трафика не станет 19G при загрузке CPU 85%. Да и то при такой нагрузке потери менее значительные:

image.png.fc65a7b36d39e25faf1f4f9d311a40bc.png

 

Функция flow offload хороша и позволяет сэкономить на нагрузке CPU, но почему оно так сильно влияет на потери трафика или нужно настроить что либо еще?

 

Link to post
Share on other sites
  • 3 months later...

при великому трафіку такі проблеми бачили на картах intel 710, напевне через відносно малий буфер, в нас проблема вирішилася після заміни мережевої карти.

Крім цього ще існують проблеми з timeout встановлених зєднаннь, тобто після попадання в контракт і маркування зєдання як offload збивається timeout сесії на дефолтний, в якомусь з останніх ядер він ставився в коді в 86400. Тобто після будь-яких сканувань (вірусами чи абонентами) дуже швидко росте таблиця conntrack. Коротше кажучи, трохи сирувата реалізація offload

Link to post
Share on other sites
2 часа назад, karyon сказал:

при великому трафіку такі проблеми бачили на картах intel 710, напевне через відносно малий буфер, в нас проблема вирішилася після заміни мережевої карти.

40G? На что поменяли если не секрет?

Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
  • Recently Browsing   0 members

    No registered users viewing this page.

  • Similar Content

    • By nicknamer
      Доброго времени суток!
      Когда-то поднимал эту же тему по поводу NAT + шейп на freebsd 10g
      Все советы принял и использовал, получилось пройти полку 4G, но после этого некоторые абоненты жалуются на скорость, хотя потерь нет. Но есть одно отличие это было не массово всего пару абонентов, тестил пару дней, возможно просто совпадение и проблема где-то локально у абонента.
       
      Использую в качестве шейпа dummynet, в качестве ната pf
      Не какого pppoe или dhcp на сервере нет
       
      Сетевая карта intel x520-da2
       
      # uname -a
      FreeBSD R16 11.4-RELEASE-p9 FreeBSD 11.4-RELEASE-p9 #3: Tue May  4 21:21:11 EEST 2021     root@R16:/usr/obj/usr/src/sys/GATE  amd64
       
      hw.model: Intel(R) Xeon(R) CPU E5-2680 v2 @ 2.80GHz
      hw.ncpu: 20
       
      # vmstat -i
      interrupt                          total       rate
      irq1: atkbd0                           6          0
      irq20: ehci1                        7786          3
      irq21: ehci0                        4667          2
      cpu0:timer                       3128716       1012
      cpu1:timer                       3428076       1109
      cpu2:timer                       3412147       1104
      cpu3:timer                       3430284       1110
      cpu4:timer                       3417359       1106
      cpu5:timer                       3396721       1099
      cpu6:timer                       3416714       1106
      cpu7:timer                       3428465       1109
      cpu8:timer                       3347696       1083
      cpu9:timer                       3363427       1088
      cpu10:timer                      3344093       1082
      cpu11:timer                      3360024       1087
      cpu12:timer                      3350830       1084
      cpu13:timer                      3324734       1076
      cpu14:timer                      3357825       1087
      cpu15:timer                      3362823       1088
      cpu16:timer                      3350687       1084
      cpu17:timer                        63572         21
      cpu18:timer                        66008         21
      cpu19:timer                        67536         22
      irq264: ix0:q0                  18975268       6141
      irq265: ix0:q1                  16632201       5382
      irq266: ix0:q2                  18659926       6038
      irq267: ix0:q3                  17284044       5593
      irq268: ix0:q4                  16380946       5301
      irq269: ix0:q5                  18725708       6060
      irq270: ix0:q6                  18228845       5899
      irq271: ix0:q7                  17149241       5550
      irq272: ix0:link                       1          0
      irq273: ix1:q0                  28765702       9309
      irq274: ix1:q1                  22434914       7260
      irq275: ix1:q2                  23281556       7534
      irq276: ix1:q3                  23077926       7468
      irq277: ix1:q4                  22338383       7229
      irq278: ix1:q5                  27636996       8944
      irq279: ix1:q6                  26828088       8682
      irq280: ix1:q7                  26300314       8511
      irq281: ix1:link                       1          0
      irq286: ciss0                      22089          7
      Total                          400152345     129492
       
      # cat /boot/loader.conf
      hint.p4tcc.0.disabled=1
      hint.acpi_throttle.0.disabled=1
      zfs_load="YES"
      dev.igb.0.rx_processing_limit="4096"  # (default 100)
      dev.igb.1.rx_processing_limit="4096"  # (default 100)
      hw.ix.tx_process_limit=512
      hw.ix.rx_process_limit=512
      hw.ix.rxd=4096
      hw.ix.txd=4096
      cc_htcp_load="YES"
      net.link.ifqmaxlen="8192"
      net.isr.defaultqlimit="4096"
      hw.igb.max_interrupt_rate="32000"
      hw.igb.rx_process_limit="-1"
      hw.igb.rxd="4096"  # (default 1024)
      hw.igb.txd="4096"  # (default 1024)
      kern.ipc.nmbclusters="5242880"
      kern.ipc.nmbjumbop="2621440"
      hw.intr_storm_threshold="9000"
      net.inet.tcp.syncache.hashsize="1024"
      net.inet.tcp.syncache.bucketlimit="100"
       
       cat /etc/sysctl.conf
      # $FreeBSD: releng/11.4/etc/sysctl.conf 112200 2003-03-13 18:43:50Z mux $
      #
      #  This file is read when going to multi-user and its contents piped thru
      #  ``sysctl'' to adjust kernel values.  ``man 5 sysctl.conf'' for details.
      #
      # Uncomment this to prevent users from seeing information about processes that
      # are being run under another UID.
      #security.bsd.see_other_uids=0
      vfs.zfs.min_auto_ashift=12
      kern.random.sys.harvest.ethernet=0
      kern.random.sys.harvest.point_to_point=0
      kern.random.sys.harvest.interrupt=0
      kern.ipc.maxsockbuf=33554432
      net.inet.tcp.sendbuf_max=33554432
      net.inet.tcp.recvbuf_max=33554432
      net.inet.tcp.mssdflt=1460
      net.inet.tcp.minmss=1300
      net.inet.tcp.cc.htcp.adaptive_backoff=1
      net.inet.tcp.cc.htcp.rtt_scaling=1
      net.inet.tcp.syncache.rexmtlimit=0
      net.inet.ip.rtexpire=10
      net.inet.tcp.syncookies=0
      net.inet.tcp.tso=0
      net.inet.ip.check_interface=1
      net.inet.ip.dummynet.io_fast=1
      net.inet.ip.dummynet.hash_size=65536
      net.inet.ip.dummynet.pipe_slot_limit=65536
      net.inet.ip.fw.dyn_buckets=4096
      net.inet.ip.process_options=0
      net.inet.ip.random_id=1
      net.inet.ip.redirect=0
      net.inet.icmp.drop_redirect=1
      net.inet.tcp.always_keepalive=0
      net.inet.tcp.drop_synfin=1
      net.inet.tcp.ecn.enable=1
      net.inet.tcp.fast_finwait2_recycle=1
      net.inet.tcp.icmp_may_rst=0
      net.inet.tcp.msl=5000
      net.inet.tcp.path_mtu_discovery=0
      net.inet.udp.blackhole=1
      net.inet.tcp.blackhole=2
       
      Так же был вопрос почему использую скрипт на бинд процессора к прерываниям и то что freebsd нормально распределяет нагрузку. - Если не распределяю прерывание то начинается хаос, ядра простаивают а некоторые нагружены на 100% - примерно 50 на 50
      А так же делаю для того что бы убрать прерывание с 0 ядра так как даминет работает с него
       
      Так же был совет отключить Hyper Threading, отключен для этого и взяли новый сервер с 10 физическими ядрами 2x
       
      Тем не менее нагрузка трафика плавает между 3.99 и 4.6 G - 600 разрыв трафика и в основном держится на 3.99 G
       
      Пока нужно еще наблюдать, смотреть как работает, но тут появилась проблема когда включил шейп, 0 ядро просто унесло в потолок при трафике 4.6, нормально себя чувствует при 3G, хотя есть другие роутера на Freebsd на 11.0, там слабее процы и используется Hyper Threading, которые не могут преодолеть полку 4G но при нагрузке 3.5G, процы нагружены примерно в 70 % те процессоры что немного по лучше в 50-60 % и тюнинг у них не отличается.
       
      Все актуальные форумы я уже просмотрел и использовал к конфигурации разные тюнинги.
      Да и если будет вопрос почему не использую freebsd выше 11, то в freebsd 12 уже используется iflib и как бы я не старался убрать прерывания с 0 ядра, эфекта не дало, может у вас буду замечания по этому поводу, а так оно паралелится.
       
      И в заключение вопрос, это дело в железе текущем или конфигурации ? Так как я перепробовал уже массу вариаций то может вы вновь поможете куда стоит посмотреть, может где-то была допущена ошибка.
       
       
       
       
    • By kid79
      Добрый день. Подскажите каким образом лучше настроить прерывания для сервера  на котором планируется nat , полисинг. есть 2х процессорный сервер с процами  Intel(R) Xeon(R) CPU E5-2650 v2 @ 2.60GHz итого 16 очередей, так же установлены 2 10g сетевки intel 520-da2,  
      cat /proc/interrupts
      egrep "CPU0|enp" /proc/interrupts CPU0 CPU1 CPU2 CPU3 CPU4 CPU5 CPU6 CPU7 CPU8 CPU9 CPU10 CPU11 CPU12 CPU13 CPU14 CPU15 96: 2588535 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 PCI-MSI 34603008-edge enp66s0f0-TxRx-0 97: 0 2562102 0 0 0 0 0 0 0 0 0 0 0 0 0 0 PCI-MSI 34603009-edge enp66s0f0-TxRx-1 98: 0 1 2664329 0 0 0 0 0 0 0 0 0 0 0 0 0 PCI-MSI 34603010-edge enp66s0f0-TxRx-2 99: 0 1 0 2645562 0 0 0 0 0 0 0 0 0 0 0 0 PCI-MSI 34603011-edge enp66s0f0-TxRx-3 100: 0 1 0 0 2605085 0 0 0 0 0 0 0 0 0 0 0 PCI-MSI 34603012-edge enp66s0f0-TxRx-4 101: 0 1 0 0 0 2841460 0 0 0 0 0 0 0 0 0 0 PCI-MSI 34603013-edge enp66s0f0-TxRx-5 102: 0 1 0 0 0 0 2626271 0 0 0 0 0 0 0 0 0 PCI-MSI 34603014-edge enp66s0f0-TxRx-6 103: 0 1 0 0 0 0 0 2647586 0 0 0 0 0 0 0 0 PCI-MSI 34603015-edge enp66s0f0-TxRx-7 104: 0 1 0 0 0 0 0 0 2634018 0 0 0 0 0 0 0 PCI-MSI 34603016-edge enp66s0f0-TxRx-8 105: 0 1 0 0 0 0 0 0 0 2654337 0 0 0 0 0 0 PCI-MSI 34603017-edge enp66s0f0-TxRx-9 106: 0 1 0 0 0 0 0 0 0 0 2617576 0 0 0 0 0 PCI-MSI 34603018-edge enp66s0f0-TxRx-10 107: 0 1 0 0 0 0 0 0 0 0 0 2686481 0 0 0 0 PCI-MSI 34603019-edge enp66s0f0-TxRx-11 108: 0 1 0 0 0 0 0 0 0 0 0 0 2618590 0 0 0 PCI-MSI 34603020-edge enp66s0f0-TxRx-12 109: 0 1 0 0 0 0 0 0 0 0 0 0 0 2827394 0 0 PCI-MSI 34603021-edge enp66s0f0-TxRx-13 110: 0 1 0 0 0 0 0 0 0 0 0 0 0 0 2584115 0 PCI-MSI 34603022-edge enp66s0f0-TxRx-14 111: 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 2821120 PCI-MSI 34603023-edge enp66s0f0-TxRx-15 112: 0 21 0 0 0 0 0 0 0 0 0 0 0 0 0 0 PCI-MSI 34603024-edge enp66s0f0 132: 2597103 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 PCI-MSI 35127296-edge enp67s0f0-TxRx-0 133: 0 74771 0 0 0 0 0 0 0 0 0 0 0 0 0 0 PCI-MSI 35127297-edge enp67s0f0-TxRx-1 134: 0 1 74768 0 0 0 0 0 0 0 0 0 0 0 0 0 PCI-MSI 35127298-edge enp67s0f0-TxRx-2 135: 0 1 0 74714 0 0 0 0 0 0 0 0 0 0 0 0 PCI-MSI 35127299-edge enp67s0f0-TxRx-3 136: 0 1 0 0 76442 0 0 0 0 0 0 0 0 0 0 0 PCI-MSI 35127300-edge enp67s0f0-TxRx-4 137: 0 1 0 0 0 74852 0 0 0 0 0 0 0 0 0 0 PCI-MSI 35127301-edge enp67s0f0-TxRx-5 138: 0 1 0 0 0 0 157901 0 0 0 0 0 0 0 0 0 PCI-MSI 35127302-edge enp67s0f0-TxRx-6 139: 0 1 0 0 0 0 0 74675 0 0 0 0 0 0 0 0 PCI-MSI 35127303-edge enp67s0f0-TxRx-7 140: 0 1 0 0 0 0 0 0 75170 0 0 0 0 0 0 0 PCI-MSI 35127304-edge enp67s0f0-TxRx-8 141: 0 1 0 0 0 0 0 0 0 74714 0 0 0 0 0 0 PCI-MSI 35127305-edge enp67s0f0-TxRx-9 142: 0 1 0 0 0 0 0 0 0 0 74873 0 0 0 0 0 PCI-MSI 35127306-edge enp67s0f0-TxRx-10 143: 0 1 0 0 0 0 0 0 0 0 0 75397 0 0 0 0 PCI-MSI 35127307-edge enp67s0f0-TxRx-11 144: 0 1 0 0 0 0 0 0 0 0 0 0 76769 0 0 0 PCI-MSI 35127308-edge enp67s0f0-TxRx-12 145: 0 1 0 0 0 0 0 0 0 0 0 0 0 74660 0 0 PCI-MSI 35127309-edge enp67s0f0-TxRx-13 146: 0 1 0 0 0 0 0 0 0 0 0 0 0 0 83082 0 PCI-MSI 35127310-edge enp67s0f0-TxRx-14 147: 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 78107 PCI-MSI 35127311-edge enp67s0f0-TxRx-15 148: 0 6 0 0 0 0 0 0 0 0 0 0 0 0 0 0 PCI-MSI 35127312-edge enp67s0f0  
      как идиологически правильно 
      1) повесить прерывания через set_irq_affinity.sh на 1 или 2 процессора? или
      2) прибить руками прерывания ?
      и что еще можно покрутить для улучшения производительности?
      на данный момент сделано выкручен процессор в performance
      при загрузке в груб добавлены параметры GRUB_CMDLINE_LINUX="processor.max_cstate=1 intel_idle.max_cstate=1" (idle=0 почему то на 0 ругался в dmesg)
      по сетевкам ринги выкручены на 4096
      ethtool -G enp67s0f0 rx 4096 tx 4096
       ethtool -G enp66s0f0 rx 4096 tx 4096
      так же отключен gro gso off

       
    • By nicknamer
      Доброго времени суток!

      Имеется роутер, нат и шейп на Freebsd 11
      hw.machine: amd64
      hw.model: Intel(R) Xeon(R) CPU           X5690  @ 3.47GHz
      hw.ncpu: 24
      Сетевая карта: Intel X520 10g sfp
      Недавно он уперся в полку 4G, дальше трафик не поднимался выше и начал деградировать
      Почитав на эту тему нужно было тюнить конфиг, но все попытки были четны
      Подскажите может кто сталкивался с этим или может что-то посоветовать, буду очень благодарен так как у самого варианты закончились
      Вот мой конфиг на данном этапе:
      sysctl.conf
      net.inet.tcp.blackhole=2
      net.inet.udp.blackhole=1
      net.inet.ip.intr_queue_maxlen=4096
      net.graph.recvspace=8388608
      net.graph.maxdgram=8388608
      net.route.netisr_maxqlen=4096
      kern.ipc.nmbclusters=400000
      kern.ipc.maxsockbuf=83886080
      kern.maxfiles=204800
      kern.maxfilesperproc=200000
      kern.ipc.maxsockets=204800
      net.inet.ip.intr_queue_maxlen=10240
      net.inet.tcp.sendbuf_max=4194304
      net.inet.tcp.recvbuf_max=4194304
      dev.ix.0.rx_processing_limit=4096
      dev.ix.1.rx_processing_limit=4096
      net.inet.ip.dummynet.io_fast=1
       
      loader.conf
      hw.ix.rxd=4096
      hw.ix.txd=4096
      hw.ix.max_interrupt_rate=32000
    • By Amourmort
      Доброго времени суток!
      Был шлюз, настроенный неизвестно когда неизвестным админом. Всё прекрасно работало, интернет людям раздавался, пока не возникла необходимость перейти на другого провайдера.

      У предыдущего провайдера IP шлюзу не выдавался, адрес и шлюз был настроен прямо в rc.conf.
      У нового провайдера PPPoE
      Штатными средствами фряхи у меня поднять соединение не получилось... Вернее, соединение поднималось только вручную, командой /etc/rc.d/ppp start - при перезагрузке соединение автоматически не стартовало.
      Решил использовать утилиту mpd5 для PPPoE. Вот содержимое mpd.conf:
      default: load pppoe_client pppoe_client: # # PPPoE client: only outgoing calls, auto reconnect, # ipcp-negotiated address, one-sided authentication, # default route points on ISP's end # create bundle static B1 # set iface enable nat ##NAT is configured elsewhere set iface route default set ipcp ranges 0.0.0.0/0 0.0.0.0/0 create link static L1 pppoe set link action bundle B1 set auth authname ******** set auth password ******** set link max-redial 0 set link mtu 1492 set link keep-alive 10 60 set pppoe iface igb0 set pppoe service "" open Внёс правки в rc.conf, добавив туда запуск mpd5 и убрав интерфейс igb0. Так же, убрал строку defaultrouter - она была нужна для работы с предыдущим провайдером, с новым резолвер получает данные автоматически.
      Далее, в качестве фаервола используется PF.
      В /etc/pf.conf, к счастью, использованы переменные для конфигурации. Меняю одну переменную ext_if = "igb0" на ext_if = "ng0" и думаю, что дело сделано. Соединение при перезагрузке поднимается, доступ в интернет есть... Довольный собой уехал с объекта домой.
      Вроде бы всё хорошо.
      Но вдруг оказывается, что доступ есть далеко не к каждому сайту. Например, к укр.нет доступ есть. А к bitrix24.ua - нет.
      Пингую с сервака:
       
      ping bitrix24.ua PING bitrix24.ua (18.232.195.40): 56 data bytes ^C --- bitrix24.ua ping statistics --- 26 packets transmitted, 0 packets received, 100.0% packet loss ЧЗН? Спидтест:
       
      speedtest-cli Retrieving speedtest.net configuration... Testing from LIMANET Ltd. (141.105.132.238)... Retrieving speedtest.net server list... Selecting best server based on ping... Hosted by ISP Black Sea (Одесса) [0.43 km]: 5034.671 ms Testing download speed................................................................................ Download: 0.00 Mbit/s Testing upload speed................................................................................................ Upload: 0.00 Mbit/s АААААААААААААААААААА!!!! Что это???
       
      ping korinf-group.com PING korinf-group.com (91.234.33.240): 56 data bytes 64 bytes from 91.234.33.240: icmp_seq=0 ttl=58 time=13.654 ms 64 bytes from 91.234.33.240: icmp_seq=1 ttl=58 time=13.475 ms 64 bytes from 91.234.33.240: icmp_seq=2 ttl=58 time=13.332 ms 64 bytes from 91.234.33.240: icmp_seq=3 ttl=58 time=13.913 ms 64 bytes from 91.234.33.240: icmp_seq=4 ttl=58 time=14.873 ms 64 bytes from 91.234.33.240: icmp_seq=5 ttl=58 time=14.033 ms 64 bytes from 91.234.33.240: icmp_seq=6 ttl=58 time=13.743 ms ^C --- korinf-group.com ping statistics --- 7 packets transmitted, 7 packets received, 0.0% packet loss round-trip min/avg/max/stddev = 13.332/13.860/14.873/0.469 ms ping google.com.ua PING google.com.ua (216.58.215.67): 56 data bytes 64 bytes from 216.58.215.67: icmp_seq=0 ttl=120 time=27.686 ms 64 bytes from 216.58.215.67: icmp_seq=1 ttl=120 time=27.766 ms 64 bytes from 216.58.215.67: icmp_seq=2 ttl=120 time=27.738 ms 64 bytes from 216.58.215.67: icmp_seq=3 ttl=120 time=27.651 ms 64 bytes from 216.58.215.67: icmp_seq=4 ttl=120 time=27.603 ms 64 bytes from 216.58.215.67: icmp_seq=5 ttl=120 time=27.781 ms 64 bytes from 216.58.215.67: icmp_seq=6 ttl=120 time=27.562 ms ^C --- google.com.ua ping statistics --- 7 packets transmitted, 7 packets received, 0.0% packet loss round-trip min/avg/max/stddev = 27.562/27.684/27.781/0.077 ms Как такое может быть? Куда копать?
      При этом, если на компе юзера включить какой-нибудь "впн", с туннелем через Киев или Берлин, доступ к любым сайтам есть, как положено...
    • By fox_fan
      Добрый день.
       
      Имеем коммутатор BDCOM(tm) S5612 Software, Version 2.2.0B Build 37303

      пытались подключить по лагу с линукс машиной, на которой настроен бондинг.
      До этого машина работала на стенде по двум 10Г портам с коммутатором FORCE10 и дилинк. Было все ок.
      Нужно было переключить машину в этот бдком.
      Настройки на бдкоме:

      enable
      config
      interface Port-aggregator6
      description 20G_LACP
      no spanning-tree
      switchport trunk vlan-allowed 2,1000-1999
      switchport mode trunk
      exit
      interface tgigaEthernet 1/11
      no spanning-tree
      aggregator-group 6 mode lacp
      switchport trunk vlan-allowed 2,1000-1999
      switchport mode trunk
      exit
      interface tgigaEthernet 1/10
      no spanning-tree
      aggregator-group 6 mode lacp
      switchport trunk vlan-allowed 2,1000-1999
      switchport mode trunk
      exit

      !
      aggregator-group load-balance both-ip
      !
       
      Переключили физически в порты бдкома - порты поднимаются, а lacp down - не поднимается.
      tg1/10  with_eth1           up        Trunk(1)    full     10000Mb  10Giga-FX        
      tg1/11  with_eth2           up        Trunk(1)    full     10000Mb  10Giga-FX        
      p6     20G_LACP        down        Trunk(1)    
       
      Прошивка была 2.2.0B 37303
      обновляли -> 2.2.0C 42666 -> 2.2.0C 50891 -> и на последнюю 2.2.0C 69953

       
      Добавление вилана 1 помогло - заработало:
      interface Port-aggregator6
      switchport trunk vlan-allowed add 1

       
      Хотя между коммутаторов работает без 1 (дефаулт) влана.
      Может кому пригодиться, намучались немного
       
      # cat interfaces
      auto lo
      iface lo inet loopback
      auto eth1
      iface eth1 inet manual
          bond-master bond0
          up ifconfig $IFACE mtu 9000
          post-down ifconfig $IFACE down
      auto eth2
      iface eth2 inet manual
          bond-master bond0
          up ifconfig $IFACE mtu 9000
          post-down ifconfig $IFACE down
      auto bond0
      iface bond0 inet manual
          bond-mode 802.3ad
          bond-miimon 100
          bond-downdelay 200
          bond-updelay 200
          bond-lacp-rate 1
          bond-xmit-hash-policy 1
          bond-slaves eth1 eth2
          up ifconfig $IFACE mtu 9000
      auto bond0.2
      iface bond0.2 inet static
          address 192.168.200.200
          netmask 255.255.0.0
          gateway 192.168.200.120
          dns-nameservers 8.8.8.8
          vlan_raw_device bond0



      cat /proc/net/bonding/bond0
      Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)

      Bonding Mode: IEEE 802.3ad Dynamic link aggregation
      Transmit Hash Policy: layer3+4 (1)
×
×
  • Create New...