Тип контенту
Профили
Форум
Календарь
Все, що було написано Tux
-
задействованы все 4 ядра. У меня есть подозрение что это связано с увеличением кол-ва клиентов в онлайне. Раньше когда в онлайне было порядка 500 абонов прокачивало и выше, никто не жаловался. Сейчас когда в онлайне 750-800 трафик выше 650Мбит не поднимался (хотя по логике должен подняться и трафик)
-
подозреваю конечно. Сервер под биллинг,радиус и прочее готовится уже. Думаете после этого легче станет?
-
cpu не в пике порядка 20-30%. в пике только по графикам смотрел 30-40%. Трафик 640-670Мбит. правда в пиковые загрузки поднимается la до 3-4 и соответственно прокачка выше не поднимается
-
Всем привет. Интересует данный вопрос. Имеется сервер следующей конфигурации: intel core 2 quad 2.6, 2Gb ram, intel 82576. на нем крутится биллинг, терминируются pppoe сессии, bgp, shaper. нат отсутствует. Сможет ли такая железка прокачать 1Гбит в обе стороны?
-
используем sgsw-24240 и sgsw-24040 в стеке, воткнуто порядка 20sfp и 16 меди, 4 влана, трафик в пару гигабит (суммарный). cpu load порядка 8-12%. настройте acl и отрубите все ненужное. посмотрите кол-во pps на портах.
-
А почему вообще?
-
у нас была такая же проблема. через месяц maxmind привязал наш блок к нужному местоположению сами. Там кажется обновление баз производится раз в месяц.
-
pci-e в pci-x вряд ли влезет
-
ок, тогда на свиче включаю lacp на два порта которые включены в сервер, кстати на role для lacp должен быть active или passive? при active не связь не поднимается, при passive поднимается но только для одной сетевой. Со стороны linux включаю bonding с параметрами mode=4 xmit_hash_policy=0 (layer 2).
-
буквально недавно пробовали подобные действия. в наличии гигабитные сфп, порт коммутатора переводим в 100mb/full duplex и работает отлично с обычным 100мб конвертером
-
показывает что lacp включен, key показывается и все.
-
меня еще вот что смущает: cat /proc/net/bonding/bond0 Ethernet Channel Bonding Driver: v3.5.0 (November 4, 2008) Bonding Mode: IEEE 802.3ad Dynamic link aggregation Transmit Hash Policy: layer3+4 (1) MII Status: up MII Polling Interval (ms): 100 Up Delay (ms): 0 Down Delay (ms): 0 802.3ad info LACP rate: slow Aggregator selection policy (ad_select): stable Active Aggregator Info: Aggregator ID: 2 Number of ports: 1 Actor Key: 17 Partner Key: 3 Partner Mac Address: 00:30:4f:85:c3:e5 Slave Interface: eth0 MII Status: up Link Failure Count: 0 Permanent HW addr: 00:15:17:19:70:d4 Aggregator ID
-
есть варианты балансировки src mac, dst mac, ip, tcp/udp port. сейчас стоит ip+tcp/udp port. bonding с параметрами mode=4 miimon=100 xmit_hash_policy=1
-
значит lacp не получится? нужно делать static lag?
-
Имеется необходимость влить в сеть более 1Гбит/сек. самый нормальный способ (с моей точки зрения) сделать агрегацию. Что имеется: planet sgsw-24040 + linux (debian). В linux делаю ifenslave bond0 eth0 eth1, bonding с параметрами mode=4 miimon=100 xmit_hash_policy=1. На свиче в lacp configuration ставлю на двух портах lacp enable. Через пару минут все поднимается, но работает только одна сетевая карта eth0
-
когда то пользовался ipsentinel
-
старые грабли - уаикс - в одну дыру мир в другую
тема ответил в lex.lviv пользователя Tux в Цілісність системи
выгода есть, но чтобы не было проблем с маршрутизацией и прочим, должен быть as+pi -
а у нас вот так
-
блин повелся на картинку
-
класс )) себя нашел
-
может просто сумку перепутал и чужую забрал?
-
А wifi местами и временами появлялся и это радует. мне лично хватило на все нужды.