Перейти до

Вопрос по бондингу в Debian


Рекомендованные сообщения

(Debian)

Объединил две сетевых в одну логическую путем правки /etc/network/interfaces

 

 

iface bond0 inet static
       address ZZZ.YYY.CCC.VVV
       netmask 255.255.255.248
       network ZZZ.YYY.CCC.VVV
       broadcast ZZZ.YYY.CCC.VVV
       gateway ZZZ.YYY.CCC.VVV
       dns-nameservers ZZZ.YYY.CCC.VVV
       bond_mode 802.3ad
       bond_miimon 100
       bond_downdelay 200
       bond_updelay 200
       slaves eth2 eth3
 

 

eth2, eth3 смотрят в коммутатор провайдера, но проблема в том что исходящий трафик и идет только по одной сетевухе:

 

4551794.png

 

В чем может быть причина и правильно ли настроен бондинг?

Відредаговано bondarchuk
Ссылка на сообщение
Поделиться на других сайтах

Ну как бы при L2 (dst-mac) балансировке так и должно быть.

У вас же, судя по netmask, dst-mac всего один...

Відредаговано Ромка
Ссылка на сообщение
Поделиться на других сайтах

Поставь режим бондинга в round-robin, будет равномерное распределение трафика.

По нормальному options bond0 mode=0

У вас наверное нужно убрать bond_mode 802.3ad или сделать bond_mode=balance-rr или как там оно в дебианах.

Ссылка на сообщение
Поделиться на других сайтах
Опубліковано: (відредаговано)

802.3ad со стороны провайдера в обще держитсго

 

говорят, что включили поддержку на коммутаторе

Відредаговано bondarchuk
Ссылка на сообщение
Поделиться на других сайтах

Создайте аккаунт или войдите в него для комментирования

Вы должны быть пользователем, чтобы оставить комментарий

Создать аккаунт

Зарегистрируйтесь для получения аккаунта. Это просто!

Зарегистрировать аккаунт

Вхід

Уже зарегистрированы? Войдите здесь.

Войти сейчас
  • Зараз на сторінці   0 користувачів

    Немає користувачів, що переглядають цю сторінку.

  • Схожий контент

    • Від valexa
      Добрый вечер, кто сталкивался, возможно ли объединить два радио моста в один канал или даже не стоит копать в этом направлении?? 
      Есть два моста на ubiquiti.  
    • Від fox_fan
      Добрый день.
       
      Имеем коммутатор BDCOM(tm) S5612 Software, Version 2.2.0B Build 37303

      пытались подключить по лагу с линукс машиной, на которой настроен бондинг.
      До этого машина работала на стенде по двум 10Г портам с коммутатором FORCE10 и дилинк. Было все ок.
      Нужно было переключить машину в этот бдком.
      Настройки на бдкоме:

      enable
      config
      interface Port-aggregator6
      description 20G_LACP
      no spanning-tree
      switchport trunk vlan-allowed 2,1000-1999
      switchport mode trunk
      exit
      interface tgigaEthernet 1/11
      no spanning-tree
      aggregator-group 6 mode lacp
      switchport trunk vlan-allowed 2,1000-1999
      switchport mode trunk
      exit
      interface tgigaEthernet 1/10
      no spanning-tree
      aggregator-group 6 mode lacp
      switchport trunk vlan-allowed 2,1000-1999
      switchport mode trunk
      exit

      !
      aggregator-group load-balance both-ip
      !
       
      Переключили физически в порты бдкома - порты поднимаются, а lacp down - не поднимается.
      tg1/10  with_eth1           up        Trunk(1)    full     10000Mb  10Giga-FX        
      tg1/11  with_eth2           up        Trunk(1)    full     10000Mb  10Giga-FX        
      p6     20G_LACP        down        Trunk(1)    
       
      Прошивка была 2.2.0B 37303
      обновляли -> 2.2.0C 42666 -> 2.2.0C 50891 -> и на последнюю 2.2.0C 69953

       
      Добавление вилана 1 помогло - заработало:
      interface Port-aggregator6
      switchport trunk vlan-allowed add 1

       
      Хотя между коммутаторов работает без 1 (дефаулт) влана.
      Может кому пригодиться, намучались немного
       
      # cat interfaces
      auto lo
      iface lo inet loopback
      auto eth1
      iface eth1 inet manual
          bond-master bond0
          up ifconfig $IFACE mtu 9000
          post-down ifconfig $IFACE down
      auto eth2
      iface eth2 inet manual
          bond-master bond0
          up ifconfig $IFACE mtu 9000
          post-down ifconfig $IFACE down
      auto bond0
      iface bond0 inet manual
          bond-mode 802.3ad
          bond-miimon 100
          bond-downdelay 200
          bond-updelay 200
          bond-lacp-rate 1
          bond-xmit-hash-policy 1
          bond-slaves eth1 eth2
          up ifconfig $IFACE mtu 9000
      auto bond0.2
      iface bond0.2 inet static
          address 192.168.200.200
          netmask 255.255.0.0
          gateway 192.168.200.120
          dns-nameservers 8.8.8.8
          vlan_raw_device bond0



      cat /proc/net/bonding/bond0
      Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)

      Bonding Mode: IEEE 802.3ad Dynamic link aggregation
      Transmit Hash Policy: layer3+4 (1)
    • Від fet4
      Привет всем.
      Кто-то использовал бондинг в режиме balance-alb?
      Если да, расскажите конфигурацию? На свитче нужно настраивать агрегацию? 
    • Від holubets
      Є 2 мікротіка між якими є 2 лінки на 4-ох бріджах.
      Вирішив попробувати бондінг і обєднати ці 2 лінки для збільшення сумарної пропускної здатності.
       
      Так от пропускна здатність дійсно збільшилася при закачці, але по сайтах "лазити" стало неможливо(збільшився час загрузки сторінки), скайп теж став гірше працювати і при пінгуванні роутера почали пропадати пакети.
      Використовував режими роботи balance rr, balance tlb.
       
      Чи дійсно бондінг так паршиво працює, чи то я його не вмію готувати?
       
    • Від ihor75
      Здравствуйте! Хотелось бы узнать кто осуществлял агрегацию 2 и более портов в связке MikroTik <---> Dell 6024F.
      Существует рабочий вариант  MikroTik <---> DGS-3120-24TC по двум портам - работает на ура.
      Не понятно как DELL 6024 распределяет нагрузку по: IP source ,IP destination, MAC source, MAC destination .....? или по порту ?
      Информации в оф. документации нет. Кто делал - скажите как работает и как распределяет нагрузку ?
×
×
  • Створити нове...