Перейти до

kvirtu

Сitizens
  • Всього повідомлень

    5 217
  • Приєднався

  • Останній візит

  • Дней в лидерах

    25

Все, що було написано kvirtu

  1. 9.3. настраивается
  2. Так и фря у меня работала , горе на знал, как поставил 7.2 в 2012 - работала, без проблем .
  3. 9.3. c ZyXel сейчас конфигурим давно пора, в мене правда тьфу-тьфу-тьфу 9.2 працює нормально. ну я 10.1, пробовал, 9.2 пробовал - не идет и пипец у меня.
  4. 9.3. c ZyXel сейчас конфигурим
  5. до 80 мбит, Intel 82575EB dual-port Gigabit Ethernet controller, 9.3 настраиваеться, 9.2. и 10.1 - висли без объяснений
  6. не не факт, сморят видео всякое с социалок
  7. тут фейли по нетграфу, цього не повинно бути уху, но они пока больше не растут vmstat -z | grep Graph NetGraph items: 36, 4134, 0, 390, 194970, 0 NetGraph data items: 36, 1092, 0, 1092, 89792636, 61094
  8. ну сейчас проблем с буферами нет ?
  9. розривало з'єднання? /boot/loader.conf =65535 net.graph.maxalloc=65535 /etc/sysctl.conf net.inet.udp.maxdgram=57344 net.graph.recvspace=128000 net.graph.maxdgram=128000 більше вродє нічого до діла не відноситься vmstat -z в момент проблеми ще б це все й досі на 7.2? в моменты глюков с буферами - MPD - онлайн 0 vmstat -z | grep Graph NetGraph items: 36, 4134, 0, 390, 89605, 0 NetGraph data items: 36, 1092, 0, 1092, 35366929, 61094 сейчас net.graph.maxdata=1024(сделал было 4028) , думал из-за него траблы
  10. HP G5, Xeon x3075, 2 гига озу, сетевая 2-х портовая igb
  11. Тут дело в другом: мешают мне, подлянки делают: свет рубят на оборудовании, вот с серваком ...... такого не было: top -SH last pid: 4749; load averages: 5.02, 2.69, 1.58 up 0+00:18:03 14:55:40 131 processes: 13 running, 98 sleeping, 1 zombie, 19 waiting CPU: 0.0% user, 0.0% nice, 23.4% system, 50.5% interrupt, 26.2% idle Mem: 768M Active, 26M Inact, 95M Wired, 932K Cache, 36M Buf, 1111M Free Swap: 4096M Total, 4096M Free PID USERNAME PRI NICE SIZE RES STATE C TIME WCPU COMMAND 24 root -68 - 0K 8K CPU1 1 16:30 100.00% irq257: igb0
  12. так это и было когда : no space ..... и юзверов повыкидывало из инета (мпд) Лечиться (временно передергиванием igb1 - локалка )
  13. netstat -m 1657/1553/3210 mbufs in use (current/cache/total) 1444/784/2228/131072 mbuf clusters in use (current/cache/total/max) 1444/732 mbuf+clusters out of packet secondary zone in use (current/cache) 1/44/45/66048 4k (page size) jumbo clusters in use (current/cache/total/max) 2/42/44/33024 9k jumbo clusters in use (current/cache/total/max) 1/34/35/16512 16k jumbo clusters in use (current/cache/total/max) 3357K/3054K/6411K bytes allocated to network (current/cache/total) 0/0/0 requests for mbufs denied (mbufs/clusters/mbuf+clusters) 0/0/0 requests for jumbo clusters denied (4k/9k/1
  14. я тоже из той темы ) закрытие портов помогало но до определенного кол-во трафика а дальше только deny-in , и все проблем ни каких забываешь что у тебя вообще стоят насы. но все равно интересно почему это не у всех поголовно происходит а как лучше:net.isr.direct ? А можно правило с deny-in ?пакеты, приходящие через драйвер сетевой карты, могут обрабатываться сразу при sysctl net.isr.direct=1, либо сначала укладываться в очередь при нулевом значении этого параметра; спасибо у меня стоит net.isr.direct=0 на щет как лутше не скажу итог, у меня: no space bufer
  15. нашел: ABillS NAT start NAT start ipfw nat 21 config ip х.х.х.х log 60010 nat tablearg ip from table(34) to any via igb0 01020 nat tablearg ip from any to table(33) via igb0 in
  16. Мой НАТ , может чтов нем ? # NAT ${fwcmd} nat 1 config if igb0 log same_ports deny_in unreg_only ${fwcmd} add 65060 nat 1 ip from any to any via igb0 ${fwcmd} add 65061 allow ip from 172.16.20.0/23 to any ${fwcmd} add 65062 allow ip from any to 172.16.20.0/23 ipfw nat show nat 21: icmp=5, udp=13225, tcp=13871, pptp=0, proto=0, frag_id=4 frag_ptr=0 / tot=27105 nat 1: icmp=0, udp=0, tcp=449, pptp=0, proto=0, frag_id=0 frag_ptr=0 / tot=449 Что за НАТ 21 ???
  17. я тоже из той темы ) закрытие портов помогало но до определенного кол-во трафика а дальше только deny-in , и все проблем ни каких забываешь что у тебя вообще стоят насы. но все равно интересно почему это не у всех поголовно происходит а как лучше:net.isr.direct ? пакеты, приходящие через драйвер сетевой карты, могут обрабатываться сразу при sysctl net.isr.direct=1, либо сначала укладываться в очередь при нулевом значении этого параметра; А можно правило с deny-in ? спасибо ну из защитных правил у меня вот ipfw add 2 deny ip from any to any dst-port 6881-6889,49001 via igb1 in ну
  18. Полисер. шейпер ? так юзаю абилс, а там шейпер shaper_start.sh ?
  19. а, спасибо, у меня такой НАТ # NAT ${fwcmd} nat 1 config if igb0 log same_ports deny_in unreg_only ${fwcmd} add 65060 nat 1 ip from any to any via igb0 ${fwcmd} add 65061 allow ip from 172.16.20.0/23 to any ${fwcmd} add 65062 allow ip from any to 172.16.20.0/23
  20. я тоже из той темы ) закрытие портов помогало но до определенного кол-во трафика а дальше только deny-in , и все проблем ни каких забываешь что у тебя вообще стоят насы. но все равно интересно почему это не у всех поголовно происходит а как лучше:net.isr.direct ? пакеты, приходящие через драйвер сетевой карты, могут обрабатываться сразу при sysctl net.isr.direct=1, либо сначала укладываться в очередь при нулевом значении этого параметра; А можно правило с deny-in ? спасибо
  21. Если там реально шейпер и скорости выше 2Мбит - зло. Делайте лимитер - жрать ничего не будет практически. Документацию на ng_car надеюсь наизусть уже изучили? Скорости выше 2-х, Что такое лимитер ? Сессии резать ? Доки - изучаю. ПЫ.СЫ. В субботу - обнаружили, что какая-то сука периодически отключала-включала питание в щитке. Закрыли щиток.
  22. если скачки сильные, и меня нет рядом, что бы шейпера убрать - уходит в ребут . Сегодня ночью было avg - до 2, не ребутился. После переинициализации шейперов по крону - упала
  23. Рано я радовался , опять скачки продолжаются, при значении: sysctl net.isr.direct=1 растет загрузка irq257: igb0 sysctl net.isr.direct=0 растет swi1: net
  24. сегодня глянул: vmstat -z | grep Graph NetGraph items: 36, 4134, 0, 468, 1418402, 0 NetGraph data items: 36, 546, 0, 546, 1180001794, 55827 это мне надо увеличивать ? darnet# sysctl net.graph.maxdata net.graph.maxdata: 512 1024 хват или больше ?
×
×
  • Створити нове...