ApmeM
МаглыТип контенту
Профили
Форум
Календарь
Все, що було написано ApmeM
-
что он контролирует я знаю. просто не мог подумать что он будет так валить систему. Каюсь - мать десктопная.
-
Небольшое дополнение к данной теме.... Год назад я так и не смог запустить софтроутер с 10 гиговыми карточками в стабильную работу. банально отобрали сервер для других нужд. В этом году пришлось вводить второй сервер, и опять наткнулся на проблему приведенную в цитате. И так хронология решения данной проблемы: 1. перепробовал все стабильные ядра на данный момент 2. перепробовал старые ядра. 3. поотключал все что только можно, + тюнинг системы 4 менял сетевые, драйвера на сетевые Никакого результата это не принесло. Система под нагрузкой в 2,5 гига работала стабильно 42 минуты (данный м
-
продам управляемый коммутатор L3 Edge-Core ES4626
тема ответил в steephost пользователя ApmeM в Обладнання
EM4626H-XG-XFP случайно не продаете? -
тогда в резерв его пожалуйста.
-
у него управление через telnet имеется?
-
с учетом отсутствия пыли, интересует количество коммутаторов для продажи.
-
Сколько коммутаторов готово к продаже ? Уточните состояние и количество рабочих портов.
-
в данный момент имеем такую картину. На какой параметр обратить самое пристальное внимание? last pid: 59963; load averages: 3.03, 3.03, 2.86 up 1+21:57:59 17:01:07 113 processes: 10 running, 74 sleeping, 29 waiting CPU 0: 0.4% user, 0.0% nice, 3.5% system, 61.8% interrupt, 34.3% idle CPU 1: 1.2% user, 0.0% nice, 3.1% system, 57.9% interrupt, 37.8% idle CPU 2: 1.2% user, 0.0% nice, 3.5% system, 33.1% interrupt, 62.2% idle CPU 3: 2.0% user, 0.0% nice, 6.7% system, 24.8% interrupt, 66.5% idle Mem: 42M Active, 2159M Inact, 1478M Wired, 413M Buf, 216M Free Swap: 409
-
День добрый. В данный момент имеются два сервера доступа под управлении freebsd9. [root@nas-1 /]# uname -a FreeBSD nas-1.sunline.com.ua 9.0-RELEASE FreeBSD 9.0-RELEASE #5: Wed Dec 26 04:26:09 EET 2012 root@nas-4:/usr/obj/usr/src/sys/NAS amd64 и [root@nas-4 /]# uname -a FreeBSD nas-4.sunline.com.ua 9.0-RELEASE FreeBSD 9.0-RELEASE #5: Wed Dec 26 04:26:09 EET 2012 root@nas-4:/usr/obj/usr/src/sys/NAS amd64 на обоих серверах установлены сетевые интел, на сетевых два порта связаны через lacp и включены в агрегацию. еще два порта, также связаны в lacp, и включены в корень сети. Две
-
есть вопрос, а сколько у вас кушает mpd. у себя вижу загрузку по CPU порядка 20-40%.
-
аналогичная картина наблюдается и на freebsd9 + mpd5.6
-
сейчас поднимаю на тестовой машине 9-ку. на 8-ке пытался работать, но ее работа с igb картами оставляла желать лучшего. а вот за http://dadv.livejour...com/138951.html - спасибо. как-то упустил я эту статью. попробую поиграться с # netgraph queue sizes tuning, see vmstat -z|egrep 'ITEM|NetGraph' net.graph.maxdata=65536 net.graph.maxalloc=65536 так как на данный момент имею net.graph.maxdata: 512 net.graph.maxalloc: 64000
-
День добрый. Прошу помощи в поиске и устранении причин перезагрузки NAS-сервера. Исходный данные таковы проц Intel® Core™ i5-3570 CPU @ 3.40GHz RAM 4G мать Z68A-D3H-B3 сетевые 4х портовая интел Схема включения такова - igb1 смотрит в dgs3610-26G. на этом интерфейсе подняты vlan в количестве 600. igb0 смотрит в корень сети. История болезни Сервер работал как NAS для pppoe соединений(mpd5). количество сессий, которое принимал сервер составляло 1000. присутствует NAT. В час пик нагрузка на сетевом интерфейсе порядка 800-900 мегабит. пекетов 80Кpps. CPU ifle time 75% в час пик.
-
мать Dec 3 14:20:50 gw_neo kernel: [31352.219339] Hardware name: Z68A-D3H-B3
-
так и не смог заставить работать 10G на i5. Собственно что было сделано - откатил ядро на версию < 3.3. Т.е. с 3,6,6 перешел на 3,0,53. дополнительно выполнил команды ethtool -K ethX tso off tx on sg on gro off lro off ifconfig ethX txqueuelen 10000 драйвера сетевых откатил на "проверенную" версию, т.е. на другой машине аналогичная карточка с такими драйверами работает отлично. Попытался нагрузить сервер iperf-ом. получил показания прием/отдача 5/3 G одновременно. Или 8G в одну сторону. Можно было бы получить и больше, но не хватило мощностей для создания нагрузки. И что полу
-
Даже для постгреса нужно делать сегментацию.
-
продолжил експеримент. выставил рекомендованные размеры буферов, отключил flow control по рекомендации. все равно под нагрузкой перестает работать сетевая. в логах появляется ошибка Nov 27 21:29:41 gw_neo kernel: [56984.810590] ------------[ cut here ]------------ Nov 27 21:29:41 gw_neo kernel: [56984.810596] WARNING: at net/sched/sch_generic.c:255 dev_watchdog+0xf4/0x154() Nov 27 21:29:41 gw_neo kernel: [56984.810597] Hardware name: Z68A-D3H-B3 Nov 27 21:29:41 gw_neo kernel: [56984.810598] NETDEV WATCHDOG: eth2 (ixgbe): transmit queue 0 timed out Nov 27 21:29:41 gw_neo kernel: [56984.810
-
Исторически так сложилось, что используем Zabbix. Система всем хороша, но без тюнинга базы проживет не долго. После настройки mysql на работу с партициями жить становится легче.
-
размер буфера 1024 остальные параметры буду пробовать завтра при реальной работе. так как падение происходит при нагрузке более 3-3,5 гиг, то время на установку параметров будет.
-
gw root # dmesg | grep detected [ 774.569272] ixgbe 0000:01:00.1: eth3: detected SFP+: 6 gw root # ethtool -i eth3 driver: ixgbe version: 3.11.33 firmware-version: 0x1bab0001 bus-info: 0000:01:00.1 supports-statistics: yes supports-test: yes supports-eeprom-access: yes supports-register-dump: yes gw root # ethtool -i eth2 driver: ixgbe version: 3.11.33 firmware-version: 0x1bab0001 bus-info: 0000:01:00.0 supports-statistics: yes supports-test: yes supports-eeprom-access: yes supports-register-dump: yes gw_neo skripnik # линия в порядке. на соседнем сервере работает без нареканий
-
таких ошибок у себя не видел? xgbe 0000:01:00.0: eth2: Fake Tx hang detected with timeout of 5 seconds
-
korvin2000, в можно увидеть вывод ethtool -a eth ethtool -k eth для 10G интерфейса?
-
Да я бы с радостью пересел бы на железячное решение, но у меня все упирается в порты 10G. мне их нужно как минимум 2 штуки. с учетом этого цена получается заоблочной, как для нас.
-
Фаервол уже по максимуму вынесен на брас-ы. по факту остались только правила для нат-а, плюс перекрыты ряд портов. Касательно данных, я их описал выше. если нужны дополнительные данные готов их озвучить.
-
это обязательно будет сделано. уже идет подготовка к переходу. Нат-ом будет заниматься каждый из pppoe-серверов. у них мощности должно хватить. Но на данном этапе я упираюсь в CPU SI. вот по этому и планирую заменить проц на более производительный.