Перейти до

DGS-3120 LACP + Debian, балансировка


Рекомендованные сообщения

Есть сервер с дебианом bonding 802.3ad. Двумя портами смотрит в микротик, и еще двумя в DGS-3120. К 3120 подключены клиентские свичи доступа.
Но никаким алгоритмом балансировки на 3120 не могу повлиять на входящий траффик. И в итоге получается, что на одной карте полка и начинаются потери, а другая даже на 50% не загружена.

 

На линуксе пробовал  разные Transmit Hash Policy. Не помогло.

Стык с микротиком работает ровно.

Настройка DGS-3120

#show link_aggregation           
Command: show link_aggregation

Link Aggregation Algorithm = IP-Source-Dest

Group ID      : 1
Type          : LACP
Master Port   : 1:1
Member Port   : 1:1-1:2
Active Port   : 1:1-1:2
Status        : Enabled
Flooding Port : 1:1
Trap          : Disabled
#show lacp_port   1,2            
Command: show lacp_port 1:1-1:2


 Port     Activity

 -----    --------
 1:1      Active  
 1:2      Active  
# cat /proc/net/bonding/bond0
Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)

Bonding Mode: IEEE 802.3ad Dynamic link aggregation
Transmit Hash Policy: layer3+4 (1)
MII Status: up
MII Polling Interval (ms): 0
Up Delay (ms): 0
Down Delay (ms): 0

802.3ad info
LACP rate: slow
Min links: 0
Aggregator selection policy (ad_select): stable
Active Aggregator Info:
	Aggregator ID: 1
	Number of ports: 2
	Actor Key: 17
	Partner Key: 1
	Partner Mac Address: ec:22:80:3c:31:e0

Slave Interface: eth0
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: 00:26:55:51:15:9a
Aggregator ID: 1
Slave queue ID: 0

Slave Interface: eth1
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: 00:26:55:51:15:9c
Aggregator ID: 1
Slave queue ID: 0

post-4773-0-08448900-1435569284_thumb.png

Ссылка на сообщение
Поделиться на других сайтах

Зеленый - это inbound у кактуса же? Т.е. то, что влетает в порт? Так на него влияют не на длинке, а на том, что отправляет пакеты.

 

И да, что за клиенты? PPPoE, или IP?

Відредаговано NiTr0
Ссылка на сообщение
Поделиться на других сайтах
Опубліковано: (відредаговано)

Да, зеленый - received. IP

 

Ок, как повлиять на дебиане?)

 

xmit_hash_policy пробовал layer3+4 и layer2+3

bond-slaves eth0 eth1
bond-mode 802.3ad
bond-miimon 100
bond-updelay 200
bond-downdelay 200
bond-xmit_hash_policy layer3+4
Відредаговано morfey
Ссылка на сообщение
Поделиться на других сайтах

На линуксе нужно ставить round-robin(дефолтный алгоритм) да и все.

А на длинке оставить как сейчас?

Ссылка на сообщение
Поделиться на других сайтах

Уточню. При balance-rr xmit_hash_policy лучше layer2+3 ? Т.к. по дефолту layer2.
И на длинке при статической агрегации, Aggregation Algorithm віставить в mac_source_dest ?

Ссылка на сообщение
Поделиться на других сайтах

Уточню. При balance-rr xmit_hash_policy лучше layer2+3 ? Т.к. по дефолту layer2.

И на длинке при статической агрегации, Aggregation Algorithm віставить в mac_source_dest ?

Прелесть RR - пофигу на трафик. Пакеты поочередно кидаются в разные шнурки, балансировка всегда идеальная. Так что выбор L2/L3 этом случае не имеют смысла и вероятно просто игнорируется.
Ссылка на сообщение
Поделиться на других сайтах

 

Уточню. При balance-rr xmit_hash_policy лучше layer2+3 ? Т.к. по дефолту layer2.

И на длинке при статической агрегации, Aggregation Algorithm віставить в mac_source_dest ?

Прелесть RR - пофигу на трафик. Пакеты поочередно кидаются в разные шнурки, балансировка всегда идеальная. Так что выбор L2/L3 этом случае не имеют смысла и вероятно просто игнорируется.

 

Понял, сегодня опробую. Спасибо.

Ссылка на сообщение
Поделиться на других сайтах

Уточню. При balance-rr xmit_hash_policy лучше layer2+3 ? Т.к. по дефолту layer2.

И на длинке при статической агрегации, Aggregation Algorithm віставить в mac_source_dest ?

L2+3 - это mac+ip. Балансируется вполне нормально.

На длинке - тоже аналогично.

L3+4 - ip+port, тут могут быть грабли (хоть и есть fallback на L2).

Ссылка на сообщение
Поделиться на других сайтах

сервер debian смотрит в два коммутатора (3120 и в 3420) в 3120 поднят бондинг (L2 src-mac+dst-mac), в 3420 (L3 src-ip+dst-ip), авторизация pppoe. Балансировка практически 50-50. Вот что у меня на сервере - 
 


alias bond0 bonding
options bonding mode=4 miimon=100 max_bonds=2 xmit_hash_policy=0

alias bond1 bonding
options bonding mode=4 miimon=100 max_bonds=2 xmit_hash_policy=1

Відредаговано Tux
Ссылка на сообщение
Поделиться на других сайтах
  • 4 weeks later...

Отак надо, обязательно 802.3ad, иначе входящий трафик не будет делиться

        slaves eth0 eth1
        bond_mode 4
        bond_miimon 100
        bond_updelay 200
        bond_downdelay 200
        bond_xmit_hash_policy  layer3+4
        bond_lacp_rate 1

Ссылка на сообщение
Поделиться на других сайтах

Создайте аккаунт или войдите в него для комментирования

Вы должны быть пользователем, чтобы оставить комментарий

Создать аккаунт

Зарегистрируйтесь для получения аккаунта. Это просто!

Зарегистрировать аккаунт

Вхід

Уже зарегистрированы? Войдите здесь.

Войти сейчас
  • Зараз на сторінці   0 користувачів

    Немає користувачів, що переглядають цю сторінку.

  • Схожий контент

    • Від axl72
      Після апгрейду сервера виявилось, що пакет flow-tools, що був у Дебіан 10, зник , починаючи з версії 11. Пошук по офсайту не дав ніяких пояснень. Може шановне панство підкаже, який пакет передбачений на заміну flow-tools для реалізації netflow-коллектора? Чи не гаяти часу і збирати самостійно?..
    • Від Tormato
      Всем привет,
      Скорее не вопрос как починить а узнать сталкивались ли с подобным.
      Модель особенного значения не имеет но ряд из 4100.
      Периодически, но конечно редко, виска просто перестаёт видеть lacp и линка переходят в режим suspended.
      Лечится ребутом edge core.
      Кто нибудь имел возможность оттебажить данную проблему?
    • Від ISK
      Добрый день, уважаемые форумчане.
      Возник нетривиальный вопрос. Имеется 2 10G линка к сети одного клиента. Предложил объединить их в LACP чтобы получить 20, но админ клиента утверждает, что LACP на их микроте CCR1036 до путя работать не будет. Правда это, или ...деж? Сам с таким не работал, поэтому спрашиваю мнение окружающих.
    • Від Jumpjet
      Посоветуйте РоЕ свич для домашнего использования, цена/качество, из требований - гигабитные порты (16-24, если не все, то большинство), РоЕ af/at и поддержка LACP
      Что можно посмотреть из такого?
    • Від FOP_Osypenko
      Маємо VPS сервер на Debian 10 і модем MikroTik LHG LTE6. Задача наступна: налаштувати інтернет через VPN тунель.
       
      На сервер Debian 10 встановив і налаштував WireGuard скриптом: https://github.com/angristan/wireguard-install
      Цим же скриптом згенерував файл налаштувань для клієнта wg0-client-mikrotik.conf:
      [Interface] PrivateKey = yBen7Arcy/jRqB3zqJiPn88IHPCoHYRmRW3wT97D2F0= Address = 10.66.66.2/32,fd42:42:42::2/128 DNS = 94.140.14.14,94.140.15.15 [Peer] PublicKey = 004DOgL44aNB5tWmyoifjiGmi0qBIHdp3Og21EdjUV0= PresharedKey = P8nLh48thuDSvNMJ7XPqMknWp4hpfxE4RUIuf5UBGqQ= Endpoint = 145.239.95.214:53849 AllowedIPs = 0.0.0.0/0,::/0  
      Прошивку на Mikrotik оновив до версії 7.1beta5. В цій версії вже вбудована підтримка WireGuarg.
      В головному меню WinBox обираю пункт WireGuard і відкривається таке вікно:

       
      Створюю новий інтерфейс wiregoard1 з типовими параметрами. Змін ніяких не вношу.

       
      Далі переходжу на вкладку Peers і там створюю новий тунель. Вписую параметри з клієнтського файлу конфігурації.

       
      Далі відкриваю вікно Address List і додаю адресу. Параметри знову беру з клієнтського файлу конфігурації.

       
      Після цих налаштувань нічого не змінюється й інтернет через VPN тунель не йде. Можливо щось не так налаштовую чи не повністю?
×
×
  • Створити нове...