WideAreaNetwork 222 Posted 2019-06-10 17:09:45 Share Posted 2019-06-10 17:09:45 всем привет! попрошу помочь разобраться в проблеме, стоит тазик с ROS 6.44.3 stable, в тазик вставлена карточка HP NC365T слот PCIex16 там где видюха ставится, на нем крутиться DHCP server у нас при попытке пропинговать кого-то с большими размером пакета 50к байт пинги не идут вообще, при старой ROS 5.26 и с другим железом таких проблем не было вообще, настройки те же что и были на ROS 5.26, при размере пакета 10к байт жуткие потери, при стандартных 50 байт все хорошо, при потерях связь не теряется возможно нужны какие-то настройки указать, если да то какие? в логах ничего интересного , кроме кому и какой адрес выдан и т.д. Link to post Share on other sites
WideAreaNetwork 222 Posted 2019-06-10 17:48:40 Author Share Posted 2019-06-10 17:48:40 не знаю чем поможет но добавлю привала фаервола, их там практически нет > ip firewall filter print Flags: X - disabled, I - invalid, D - dynamic 0 X ;;; pptp chain=input action=drop protocol=tcp in-interface=1009_WAN dst-port=1723 log=no log-prefix="" 1 chain=input action=drop protocol=udp src-address=!x.x.x.x in-interface=1009_WAN dst-port=53 2 ;;; Closed VPN chain=forward action=drop protocol=tcp in-interface=1009_WAN dst-port=1723 3 chain=forward action=drop protocol=udp in-interface=1009_WAN dst-port=1723 4 chain=forward action=drop protocol=tcp in-interface=1009_WAN dst-port=1701 5 chain=forward action=drop protocol=udp in-interface=1009_WAN dst-port=1701 6 ;;; Block chain=forward action=drop src-address-list=block 7 ;;; WHITE chain=forward action=accept src-address-list=WHITE 8 chain=forward action=drop dst-address-list=!WHITE Link to post Share on other sites
openbox 16 Posted 2019-06-10 18:31:56 Share Posted 2019-06-10 18:31:56 queue на ethernet интерфейсах настроить. pfifo , queue size подберете под себя Link to post Share on other sites
Туйон 1,288 Posted 2019-06-10 19:39:33 Share Posted 2019-06-10 19:39:33 Старая добрая проблема с L2MTU. У вас же на интерфейсе L2MTU не отображается либо ноль? А ещё небось винбокс тормозит или другие веселухи есть? Link to post Share on other sites
WideAreaNetwork 222 Posted 2019-06-11 06:36:58 Author Share Posted 2019-06-11 06:36:58 On 6/10/2019 at 7:39 PM, Туйон said: Старая добрая проблема с L2MTU. У вас же на интерфейсе L2MTU не отображается либо ноль? Expand не отображается Link to post Share on other sites
Туйон 1,288 Posted 2019-06-11 06:51:18 Share Posted 2019-06-11 06:51:18 Я боролся с этим дохера и очень дохера. Да, ещё из чудес - поднятие/падение линка ROS тоже не видит? В логи не пишет? В итоге пришел к выводу, что большинство чипов Интел поддерживаются криво. Более опытные комрады со мной в основном не согласны, но всё же. Кстати, имейте в виду, что тут ещё и проблема с vlan может быть, общий размер vlan будет не более mtu, т.е. 1500, а внутри vlan, соответственно, mtu будет ещё меньше. Если у Вас на этом сервере только DHCP и не более, я думаю можно просто поставить обычный реалтек туда, желательно на свежем чипе, например 8111F или H. Реалтеки чудесным образом поддерживаются нормально. Так же краем глаза читал, что можно попробовать 2 вещи: 1. У тех, кто испытывал проблемы с vlan - они увеличивали просто mtu на интерфейсе. 2. Кто-то на москальском форуме предлагал в queues / interface queues на интерфейс сетевухи поставить вручную pfifo размером от 1000 пакетов и выше. Но это всё изващения, как по мне. Попробуйте - если что-то получится, сообщите мне, тоже очень интересно. 1 Link to post Share on other sites
nedoinet 441 Posted 2019-06-11 08:22:03 Share Posted 2019-06-11 08:22:03 On 6/11/2019 at 6:51 AM, Туйон said: обычный реалтек туда Expand Если только дхцп там. Если там трафик, особенно много, то не стоит. Link to post Share on other sites
WideAreaNetwork 222 Posted 2019-06-11 08:27:33 Author Share Posted 2019-06-11 08:27:33 очень редко бывает трафик, но бывает, порядка 700-800мбит, то-есть реалтек никак Link to post Share on other sites
CoUL 30 Posted 2019-06-11 09:26:56 Share Posted 2019-06-11 09:26:56 (edited) Я думаю проблему, можа легко вирішити цією картою: https://mikrotik.com/product/RB44Ge Перевірено, 900 Мбіт/с тримає легко. Плюс повна сумісність і 4 порти. Edited 2019-06-11 09:27:13 by CoUL 1 Link to post Share on other sites
Туйон 1,288 Posted 2019-06-11 09:40:18 Share Posted 2019-06-11 09:40:18 On 6/11/2019 at 9:26 AM, CoUL said: Я думаю проблему, можа легко вирішити цією картою: https://mikrotik.com/product/RB44Ge Перевірено, 900 Мбіт/с тримає легко. Плюс повна сумісність і 4 порти. Expand Да, эта карточка полностью поддерживается. Я когда-то писал про неё, меня тут на смех поднимали. Собственно, я даже такую когда-то продавал (уже продал). Насчёт реалтека. Имеется в админстве сервер, около 700 мбит трафика в пиках на вход и выход (1 сетевуха, 9 вланов) держит. Внешняя на PCI-E, чип 8111G вроде. 1 Link to post Share on other sites
CoUL 30 Posted 2019-06-11 09:55:49 Share Posted 2019-06-11 09:55:49 (edited) On 6/11/2019 at 9:40 AM, Туйон said: Да, эта карточка полностью поддерживается. Я когда-то писал про неё, меня тут на смех поднимали. Собственно, я даже такую когда-то продавал (уже продал). Насчёт реалтека. Имеется в админстве сервер, около 700 мбит трафика в пиках на вход и выход (1 сетевуха, 9 вланов) держит. Внешняя на PCI-E, чип 8111G вроде. Expand Нехай сміються, але після двох неділь танців з бубенами різних розмірів біля якихось Itel карт, коли я перейшов на неї то забув про всі проблеми. P.S. Лежить в столі на всякий випадок Edited 2019-06-11 09:57:13 by CoUL 1 1 Link to post Share on other sites
WideAreaNetwork 222 Posted 2019-06-11 10:16:56 Author Share Posted 2019-06-11 10:16:56 я так понимаю вместо того чтобы изгаляться над собой попроще будет поискать карточку с чипсетом реалтек либо атерос которые выше указаны, спасибо за помощь Link to post Share on other sites
KaYot 3,730 Posted 2019-06-11 10:46:59 Share Posted 2019-06-11 10:46:59 Повторю мысль которую в ЛС озвучивал. Трафик в интернете бегает пакетами 1500 байт. Трафик в локалке теоретически может(но реально никогда не бегает, это не нужно) пакетами в 9000 байт, т.н. jumbo frame. Вы хотите использовать пакеты размером >10k. Это ваше право, но никакими стандартами ЭТО не оговаривается и не поддерживается, ни в драйверах ни в самих ОС. Может проще поменять привычки попинговки чем мучать железо? Ну а если искать - смотрите в РОС в сторону MTU/MRU/fragmentation. Link to post Share on other sites
WideAreaNetwork 222 Posted 2019-06-11 13:30:08 Author Share Posted 2019-06-11 13:30:08 On 6/11/2019 at 10:46 AM, KaYot said: Может проще поменять привычки попинговки чем мучать железо? Expand наверное так и есть, привыкли пингами большими пакетами измерять качество линии, все очень банально, пинг от сервака к коммутатору большими пакетами по менеджмент влану, если все хорошо значит проблему уже ищем от свича к абоненту, возможен частичный обрыв кабеля, возможен надлом какой-то жилы возле коннектора особенно часто этим страдают абоненты у которых есть ноут но нету роутера, и кабель подключают напрямую к нему, так вот при таких состояниях пинги 1500байт идут отлично, без провалов, а вот большие с жуткими потерями, когда все гуд то даже 50к пакеты вообще без потерь идут Link to post Share on other sites
KaYot 3,730 Posted 2019-06-11 14:52:08 Share Posted 2019-06-11 14:52:08 On 6/11/2019 at 1:30 PM, WideAreaNetwork said: 1500байт идут отлично, без провалов, а вот большие с жуткими потерями, когда все гуд то даже 50к пакеты вообще без потерь идут Expand Принцип работы "большого пинга" - пакет 50к разбивается на отдельные пакеты согласно размеру MTU в системе(1470). Фактически имеем 35 пингов в секунду вместо одного, и чтоб найти 3% потерь нужно ждать не 30-40с, а 1-2. Пинг в 1400 покажет потери точно так же, но надо потерпеть минуту.. Link to post Share on other sites
Туйон 1,288 Posted 2019-06-11 15:14:34 Share Posted 2019-06-11 15:14:34 On 6/11/2019 at 2:52 PM, KaYot said: Пинг в 1400 покажет потери точно так же, но надо потерпеть минуту.. Expand Уж простите нас, древних пионеров, но нифига пинг 1400 не покажет. Как правило, при "дырявой" линии, пинги по 6500 ходят с потерями, увеличиваем до 65000 - еле еле ходят -> есть проблема. При этом 1400 может ходить с 1% потерь или вообще 0% даже за час замера. Link to post Share on other sites
WideAreaNetwork 222 Posted 2019-06-11 16:15:59 Author Share Posted 2019-06-11 16:15:59 On 6/11/2019 at 3:14 PM, Туйон said: При этом 1400 может ходить с 1% потерь или вообще 0% даже за час замера. Expand Именно так и замеряем, при 1500 как правило потерь до 0% а при 10-20-50к будут провалы, на 10к может показать пару процентов потерь, а при 50к уже 100% потерь Дело в том что на старом железе работало dl360 g5, с роутера мтик на роутер мтик идёт 50к без проблем даже сейчас, потери менее 1% , проблема только сейчас такая возникла на новой конфигурации железа 1 Link to post Share on other sites
KaYot 3,730 Posted 2019-06-11 16:42:07 Share Posted 2019-06-11 16:42:07 On 6/11/2019 at 3:14 PM, Туйон said: Уж простите нас, древних пионеров, но нифига пинг 1400 не покажет. Как правило, при "дырявой" линии, пинги по 6500 ходят с потерями, увеличиваем до 65000 - еле еле ходят -> есть проблема. При этом 1400 может ходить с 1% потерь или вообще 0% даже за час замера. Expand Да я ж вроде на русском написал, без страшных терминов. Пинга размером 65000 не существует приниципиально. Как и вообще таких пакетов в вашей сети нет и бегать не может. Каждый такой "пинг" разбивается ОС на отдельные пакеты и борбардирует цель, при потере любого весь пакет считается непрошедшим. Считай ты смотришь на ускоренный в 40 раз процесс пингования. Соответственно, такая проверка значительно жестче, и выявляет потери в сети с потериями быстрее. Но при этом могут быть ложно-положительные диагнозы - если нормальный пинг за полчаса потерь не показал, а большой пинг сыпется - значит потерь в сети нет, но большой пинг не ходит. Link to post Share on other sites
WideAreaNetwork 222 Posted 2019-06-11 17:04:50 Author Share Posted 2019-06-11 17:04:50 On 6/11/2019 at 4:42 PM, KaYot said: Но при этом могут быть ложно-положительные диагнозы - если нормальный пинг за полчаса потерь не показал, а большой пинг сыпется - значит потерь в сети нет, но большой пинг не ходит. Expand Есть такое, как правило на роутерах стоит ограничение 1500 байт и пинги выше отбрасывает, либо все 50к принимает, но здесь сразу понятно что стоит ограничение если выше 1500 не принимает Понятное дело что на коммутаторе также логи смотрим что творится на клиентском порту, проверяем также держит ли линия 100мбит фулдуплекса, если есть проблемы то просим отключить кабель от роутера и делаем тест кабеля, но если все хорошо и большие пинги "ходят" то с вероятностью в 99.99% проблема в роутере, и сейчас летом чаще помогает даже не его перезагрузка, а выключение на 5-10мин, наверное жарко им Link to post Share on other sites
sv-lex 38 Posted 2019-06-11 18:09:47 Share Posted 2019-06-11 18:09:47 ping -s 1000 -i 0.01 -c 100 ip с nix сервера будет более показательным. 1 Link to post Share on other sites
Туйон 1,288 Posted 2019-06-12 07:29:06 Share Posted 2019-06-12 07:29:06 On 6/11/2019 at 4:42 PM, KaYot said: Да я ж вроде на русском написал, без страшных терминов. Expand Тем не менее - теория от практики в данном случае значительно отличается. Я же писал изначально - это тупой способ. Но он работает. Link to post Share on other sites
WideAreaNetwork 222 Posted 2019-06-14 11:46:42 Author Share Posted 2019-06-14 11:46:42 (edited) думаю таки получилось сделал как здесь - https://local.com.ua/forum/topic/99970-mikotikccr-vs-routeros-vs-linux/?do=findComment&comment=1079993 Edited 2019-06-14 11:48:21 by WideAreaNetwork 1 Link to post Share on other sites
WideAreaNetwork 222 Posted 2019-06-17 15:53:11 Author Share Posted 2019-06-17 15:53:11 дополню, с этими настройками как выше, просто 0 дропов на влан интерфейсах, а до этого за сутки под 100к на самый загруженный влан-интерфейс Link to post Share on other sites
bratan 0 Posted 2019-07-09 13:48:38 Share Posted 2019-07-09 13:48:38 так а потеря трафика есть на роутере, кроме как потери пингов? может просто дело в плохой фрагментации icmp echo на/от своего адреса (баг софта)? обновляться не пробовали? Link to post Share on other sites
Recommended Posts
Create an account or sign in to comment
You need to be a member in order to leave a comment
Create an account
Sign up for a new account in our community. It's easy!
Register a new accountSign in
Already have an account? Sign in here.
Sign In Now