Jump to content
Local

Search the Community

Showing results for tags 'freebsd'.



More search options

  • Search By Tags

    Type tags separated by commas.
  • Search By Author

Content Type


Forums

  • Настройка
    • Железо
    • Кабель
    • IPTV КТВ Кабельное телевидение
    • Wi-Fi
    • Софт
    • Инструмент для оптоволокна
    • Игры
    • PON
  • Организация
    • Сеть - бизнес
    • Поиск сетей
    • Поиск провайдера
    • Обсуждение провайдеров
    • Датацентры. Хостинг. Colocation.
    • Для Администрации
    • Buy Sell Merge ISPs
    • Для людей
    • Вакансии. Работа. Курсы.
  • Stargazer
    • Разработка Stargazer
    • Вопросы по Stargazer
    • Stargazer Ubilling
    • Модули для Stargazer
  • Безопасность
    • Вирусы и Антивирусы
    • Целостность системы
    • Защита оборудования
    • DDoS protection
  • Коммуналка
    • Наш флейм
    • По сайту
    • Торговля
    • Для самых маленьких
  • Регионы
    • Харьков
    • Чернигов
    • Днепропетровск
    • Полтава
    • Крым
    • Запорожье
    • Тернополь
    • Донецк
    • Львов
    • Житомир
    • Сумы
    • Одесса
    • Черновцы
    • Закарпатье
    • Луганск

Calendars

  • Основной календарь

Find results in...

Find results that contain...


Date Created

  • Start

    End


Last Updated

  • Start

    End


Filter by number of...

Joined

  • Start

    End


Group


AIM


MSN


Сайт


ICQ


Yahoo


Jabber


Skype


Город


Интересы

Found 47 results

  1. День добрый! Есть Связка Ubilling+NAS на freebsd. Настроена на Виртуалке VMware. Без VLAN все работает идеально. Трафик бегает, IP раздается, Денюжка зачисляется и т.д. Появилась потребность поднять 3 VLAN на локальном интерфейсе для Абонов. Сделал: /etc/rc.conf Вывод /etc/firewall.conf Сети, шаблоны NAS, в биллинге прописал. Абоны IP получают через VLAN. Интернет есть.... НО: При отрицательном балансе на em1 все отключается мгновенно, и отправляет в кабинет. А на VLAN сетях Интернет есть. Кусок /var/stargazer/allconnect.log кусок /var/log/stargazer.log Подскажите, плиз, в какую сторону копать?
  2. Всем привет. Давно использую freebsd + ipfw + dummynet + kernel nat + ещё куча всякого разного и всё на одном серваке. Менять платформу не хочу - старый я уже для этого. Так вот. Нагрузка постепенно растёт, пора как-бы железо менять в очередной раз, но есть проблема. Всё в этой схеме прекрасно параллелится на мультиядерной системе. Всё, кроме старичка DUMMYNET. В очередной раз смотрю на процесс kernel{dummynet} и в очередной раз вижу конкретное узкое место во всй системе. Обойти невозможно, работает только в один поток и когда загрузка превышает 80-90% начинаются естественные проблемы. Все остальное работает с большим запасом по нагрузке. Вот и вопрос: как-то эту проблему удаётся решать? Чем шейпить юзеров, если не дамминетом? Или может появилась возможность как-то его параллелить? Или, возможно, какие-то новые методы позволяют как-то снизить нагрузку на дамминет? В документации появились некие новые варианты настроек CoDel, PIE, FQ-CoDel и FQ-PIE в дополнение к старым, может они помогут? Кто-то пробовал? Спасибо.
  3. Сегодня на появилось cam status uncorrectable parity/crc error Reatrying command Write fpdma queued Подскажите что это ? Спасибо
  4. Доброго всем дня. А остались ли тут специалисты по FreeBSD? Или все уже перешли на сторону Темнейшего? Вопрос вот возник. Изучаю возможность внедрения технологии vlan-per-user и понадобилось вот создать на машинке под FreeBSD несколько тысяч пользовательских виланов. Как кошернее это делать? Сгенерировать конфиг скриптом и просто добавить в rc.conf ? Не трогать rc.conf и генерить всю эту байду стартовым скриптом? Сколько времени займёт тогда процесс генерации например 4000 виланов? И вообще, как сама FreeBSD среагирует на такое издевательство, не вылезет ли какая нехватка буферов, дескрипторов и тому подобное. Возможно под такой случай требуется какой-то тюнинг фри? Поделитесь опытом, плиз. Спасибо.
  5. Если вдруг кому-то интересно: http://www.stg.dp.ua/download/freebsd10-patch.diff Т.к. с FreeBSD 10 по умолчанию не идет gcc то собирать так: CC=/usr/bin/clang CXX=/usr/bin/clang++ ./build
  6. Друзья, помогите пожалуйста разобраться с проблемой скорости Nodeny 50.32 Ядро и BRAS на разных серверах. BRAS сервер HP Proliant G8 360, 2CPU 2,6 Ghz, 8Gb RAM - сетевая Intel 82576 Вход и выход собраны в lagg - итого два гига вход и выход Абоненты терминируются через PPPoE на mpd. Nat на pf, детализация на ipcad Проблема: при включенном ipfw и именно правилах pipe со скоростью какая то дичь, исхода нет, вход 10-13 мегабит Как только выключаешь ipfw - все летает, больше гигабита пролетает без проблем. При этом очевидных проблем с перегрузом ядер нет - все равномерно. FreeBSD bras7 11.2-STABLE FreeBSD 11.2-STABLE #0: Sun Dec 23 20:44:08 EET 2018 root@bras7:/usr/obj/usr/src/sys/BRAS7 amd64 В ядро Generic добавил опции: # NAS KERNEL OPTIONS options IPFIREWALL options IPFIREWALL_NAT options LIBALIAS options IPDIVERT options DUMMYNET options IPFIREWALL_DEFAULT_TO_ACCEPT options PANIC_REBOOT_WAIT_TIME=3 options NETGRAPH options NETGRAPH_BPF options NETGRAPH_IPFW options NETGRAPH_ETHER options NETGRAPH_IFACE options NETGRAPH_PPP options NETGRAPH_PPTPGRE options NETGRAPH_PPPOE options NETGRAPH_SOCKET options NETGRAPH_KSOCKET options NETGRAPH_ONE2MANY options NETGRAPH_SPLIT options NETGRAPH_TEE options NETGRAPH_TCPMSS options NETGRAPH_VJC options NETGRAPH_RFC1490 options NETGRAPH_TTY options NETGRAPH_UI Sysctl.conf net.inet6.ip6.auto_linklocal=0 net.inet6.ip6.auto_linklocal=0 # net.isr.dispatch=deferred # dev.igb.0.rx_processing_limit=4096 dev.igb.1.rx_processing_limit=4096 dev.igb.2.rx_processing_limit=4096 dev.igb.3.rx_processing_limit=4096 dev.igb.4.rx_processing_limit=4096 dev.igb.5.rx_processing_limit=4096 dev.igb.6.rx_processing_limit=4096 dev.igb.7.rx_processing_limit=4096 # net.link.lagg.default_use_flowid=1 # net.inet.ip.dummynet.pipe_slot_limit=1000 net.inet.ip.dummynet.io_fast=1 net.inet.ip.intr_queue_maxlen=10240 # kern.ipc.nmbclusters=262144 kern.ipc.maxsockbuf=16777216 kern.ipc.somaxconn=32768 kern.randompid=348 net.inet.icmp.icmplim=50 net.inet.ip.process_options=0 net.inet.ip.redirect=0 net.inet.icmp.drop_redirect=1 net.inet.tcp.blackhole=2 net.inet.tcp.delayed_ack=0 net.inet.tcp.drop_synfin=1 net.inet.tcp.msl=7500 net.inet.tcp.nolocaltimewait=1 net.inet.tcp.path_mtu_discovery=0 net.inet.tcp.recvbuf_max=16777216 net.inet.tcp.recvspace=64395 net.inet.tcp.sendbuf_max=16777216 net.inet.tcp.sendspace=64395 net.inet.udp.blackhole=1 net.inet.tcp.tso=0 net.inet.tcp.syncookies=1 net.inet.ip.ttl=226 net.inet.tcp.drop_synfin=1 net.inet.ip.accept_sourceroute=0 net.inet.icmp.bmcastecho=0 net.route.netisr_maxqlen=4096 net.graph.maxdgram=8388608 net.graph.recvspace=8388608 loader.conf kern.geom.label.gptid.enable=0 kern.geom.label.disk_ident.enable=0 # hw.igb.rxd=4096 hw.igb.txd=4096 hw.igb.max_interrupt_rate=32000 # net.route.netisr_maxqlen=4096 net.isr.defaultqlimit=4096 net.link.ifqmaxlen=10240 rc.firewall ${f} -f flush ${f} add 50 allow tcp from any to me 22 via lagg1 ${f} add 51 allow tcp from me 22 to any via lagg1 #${f} add 65 allow tcp from any to me 1723 #${f} add 65 allow tcp from me 1723 to any #${f} add 65 allow gre from any to me #${f} add 65 allow gre from me to any # # # PRIVATBANK + LIQPAY FREE ACCESS ${f} add 66 allow tcp from not "table(0)" to "table(17)" dst-port 80,443 # # Blocked URL ${f} add 67 fwd 127.0.0.1,8082 tcp from "table(0)" to "table(18)" dst-port 80 in ${f} add 68 reject tcp from "table(0)" to "table(18)" ${f} add 69 deny ip from "table(0)" to "table(18)" # # DENY TRACEROUTE & PING ${f} add 70 allow ip from any to any via lo0 ${f} add 71 allow icmp from 10.10.1.1 to any ${f} add 72 allow icmp from any to 10.10.1.1 ${f} add 74 deny icmp from me to any ${f} add 75 deny icmp from 10.10.0.0/24 to 10.190.0.0/16 icmptype 0,11 ${f} add 76 deny icmp from any to me ${f} add 110 allow ip from any to any via lo0 ${f} add 120 skipto 1000 ip from me to any ${f} add 130 deny icmp from any to any in icmptype 5,9,13,14,15,16,17 ${f} add 160 skipto 2000 ip from any to me # ${f} add 170 allow tcp from any to ${main_server} 80,443 ${f} add 175 allow tcp from ${main_server} 80,443 to any ${f} add 180 allow tcp from any to ${main_server} 80,443 ${f} add 185 allow tcp from ${main_server} 80,443 to any ${f} add 187 allow tcp from any to ${site_server} 80 ${f} add 188 allow tcp from ${site_server} 80 to any ${f} add 190 allow udp from any to ${dns} 53 ${f} add 195 allow udp from ${dns} 53 to any ${f} add 200 skipto 500 ip from any to any via lagg1 # message module======== ${f} add 280 fwd 127.0.0.1,8081 tcp from "table(35)" to not me dst-port 80 in ${f} add 290 fwd 127.0.0.1,8080 tcp from not "table(0)" to not me dst-port 80 in #======================= ${f} add 300 skipto 4500 ip from any to any in ${f} add 400 skipto 450 ip from any to any recv lagg1 ${f} add 420 tee 1 ip from any to any ${f} add 450 tee 2 ip from any to "table(0)" ${f} add 490 allow ip from any to any ${f} add 500 skipto 32500 ip from any to any in ${f} add 510 tee 1 ip from any to any ${f} add 540 allow ip from any to any ${f} add 1000 allow udp from any 53,7723 to any ${f} add 1010 allow tcp from any to any setup keep-state ${f} add 1020 allow udp from any to any keep-state ${f} add 1100 allow ip from any to any ${f} add 2000 check-state ${f} add 2010 allow icmp from any to any ${f} add 2020 allow tcp from any to any 80,443 ${f} add 2030 allow ip from ${bras_server} to any ${f} add 2050 deny ip from any to any via lagg1 ${f} add 2060 allow udp from any to any 53,7723 ${f} add 2100 deny ip from any to any ${f} add 32490 deny ip from any to any nofire.pl добавляет еще правила: 05000 skipto 33010 ip from table(1) to table(37) 05001 skipto 33010 ip from table(37) to table(1) 05002 deny ip from not table(0) to any 05003 skipto 5010 ip from table(127) to table(126) 05004 skipto 5030 ip from any to not table(2) 05005 deny ip from any to not table(1) 05006 pipe tablearg ip from table(21) to any 05007 deny ip from any to any 05010 pipe tablearg ip from table(127) to any 05030 deny tcp from table(15) to any 25 05400 pipe tablearg ip from table(11) to any 32000 deny ip from any to any 32490 deny ip from any to any 33000 pipe tablearg ip from table(126) to table(127) 33001 skipto 33010 ip from not table(2) to any 33002 pipe tablearg ip from any to table(20) 33003 deny ip from any to any 33400 pipe tablearg ip from any to table(10) Вот эти два правила, удалив которые все работает без проблем (либо сделать ipfw -f): 33002 pipe tablearg ip from any to table(20) 33400 pipe tablearg ip from any to table(10) Подскажите, что может быть источником данной проблемы - при том, что на старой версии FreeBSD 7.4 все работает нормально. С меня бутылка хорошего горячительного средства или скажите сколько если устали пить
  7. Доброго всем дня. Стояла себе сетка з раздачей адресов по DHCP c FreeBSD сервака через isc-dhcp44-server и всё работало. Захотелось раздавать адреса не в соответствии с МАС адресами клиентов, а в соответствии с сетевым интерфейсом, через который клиент подключен независимо от его MAC адреса. Для этого понадобилось установить isc-dhcp44-relay, который умеет снимать имена интерфейсов с входных запросов и передавать их DHCP серверу. И тут вылезла проблема. Если isc-dhcp44-relay и isc-dhcp44-server находятся на физически разных компах, то всё работает без проблем. Однако, держать отдельно специальный комп только под isc-dhcp44-server как-то не хочется, хотелось бы всё это впихнуть на один комп и вот тут - никак. Эти два продукта одной фирмы садятся в сетевой стек очень глубоко, на уровне BPF и пытаются одновременно занять одни и те-же ресурсы. Попытка поместить isc-dhcp44-server в Jail и даже в виртуальную машину тоже успеха не принесла. Попытки заменить на продукты других разработчиков пока не дали работоспособной конфигурации тоже. Кто-то сталкивался с такой задачей? Есть хоть какая-то возможность совместить оба продукта ISC на одном FreeBSD компе? Или, возможно, есть другое рабочее решение для раздачи IP адресов клиентам не по MAC-ам, а по интерфейсам подключения с помощью одного FreeBSD компа? Спасибо.
  8. Припустимо що ви заблокувати фаєрволом щось маленьке, наприклад 154.47.36.16/32 або щось велике, наприклад 178.154.128.0/17. І вам цікаво куди пробують стукатись користувачі чи мобільні аплікації. HTTP зараз стає менш популярним, більшість коннектів відбувається по HTTPS (TLS). Переважна більшість серверів і клієнтів вміють і будуть використовувати SNI https://uk.wikipedia.org/wiki/Server_Name_Indication Цим фактом ми і скористаємось. Отже крок 1 - перезбираємо nginx cd /usr/ports/www/nginx make config опції які нам потрібні [x] STREAM Enable stream module [x] STREAM_SSL_PREREAD Enable stream_ssl_preread module ну і далі make install clean чи portmaster nginx 2 - конфігуруємо nginx stream { log_format main '[$time_local] $remote_addr $server_addr "$ssl_preread_server_name"'; access_log /var/log/ssl_preread.log main; server { listen 843; ssl_preread on; return ""; } } Коментарі: потрібно саме секція stream а не звична http рядок return ""; означає повернути 0 байт і закрити з'єднання, можна пробувати повертати щось інше, наприклад "Blocked!", але TLS стек клієнта ітак їх не зрозуміє і розірве конект. Не забуваємо перезапусти nginx і перевіряємо що він слухає порт netstat -na | grep 843 3 - перенаправляємо трафік ipfw add 05210 fwd 127.0.0.1,843 tcp from any to table\(40\) dst-port 443 В табличці 40 адреси які моніторимо (і блокуємо теж, бо коннекти на порт 443 будуть йти на наш nginx) Результат В файлі /var/log/ssl_preread.log маємо рядки типу [23/Dec/2018:19:13:28 +0200] 192.168.33.38 178.154.131.216 "yastatic.net" [23/Dec/2018:19:13:33 +0200] 192.168.25.47 87.240.129.133 "vk.com" Перша айпішка це клієнт, друга це (заблокований) ресурс. Раджу слідкувати за розміром логу, бо запитів від мобільних аплікацій дуууже багато. Користуємось поки не прийшов ESNI (Encrypted SNI), де хостів видно не буде.
  9. l1ght

    Freebsd 9.3x64 + quagga

    Ситуация вследующая. Приходит FV, принимает quagga. Как только поднимаешь пира router bgp 65000 neighbor 192.168.0.1 remote-as 65001 в логи сотнями прут сообщения 2016/07/06 16:50:44 BGP: 192.168.0.1 [Info] UPDATE with unsupported AFI/SAFI 0/0 2016/07/06 16:50:44 BGP: unknown afi/safi (0/0) собирает около 350 метров логов и у меня отваливается на нее телнет telnet localhost bgpd до перезапуска сервиса quagga, потом живет около 10-ти секунд и снова отваливается пока не потушишь пир quagga последняя из портов, че делать то с ней?)) гугл мучал, ничего внятного не нашел
  10. Прошу помощи в поднятии ВПН канала на сервере с FreeBSD Цель: доступ в локальную сеть для управления с других сетей
  11. Добрий вечір форумчанам, є питання яке час від часу мучить сервер і не дає клієнтам бути щасливими. Сервер на freebsd + ubilling на борту, NAS тут же, інколи (раз в пів року або декілька разів на тиждень) "вішається" ну в сенсі не з кінцями, а до того моменту поки з нього не відключити інтернет. Відповідно коли таке стається фаєрволом блокуємо діапазон портів, який звужуємо методом виключення, або при можливості ідентифікуємо порт через trafshow наприклад в цьому випадку заблокували 61855 сервер ожив, життя прекрасне. Так от питання хто і як з цим бореться? Настройка BSD чи вище стоячого маршрутизатора/комутатора ?
  12. Собственно нужен совет почему так. Сервер доступа nas1# uname -a FreeBSD nas1.freebit.net.ua 7.2-RELEASE FreeBSD 7.2-RELEASE #0: Mon Feb 28 16:44:20 EET 2011 root@:/usr/obj/usr/src/sys/GW1 amd64 top last pid: 37271; load averages: 4.50, 4.09, 4.04 up 8+22:04:20 20:49:07 93 processes: 10 running, 64 sleeping, 19 waiting CPU 0: 0.0% user, 0.0% nice, 86.9% system, 0.0% interrupt, 13.1% idle CPU 1: 1.1% user, 0.0% nice, 71.9% system, 2.2% interrupt, 24.7% idle CPU 2: 0.0% user, 0.0% nice, 88.0% system, 0.4% interrupt, 11.6% idle CPU 3: 0.0% user, 0.0% nice, 98.9% system, 0.0% interrupt, 1.1% idle Mem: 97M Active, 222M Inact, 387M Wired, 496K Cache, 213M Buf, 1269M Free Swap: 4096M Total, 4096M Free PID USERNAME PRI NICE SIZE RES STATE C TIME WCPU COMMAND 31 root 43 - 0K 16K CPU1 3 76.0H 100.00% em1_rx0_0 32 root 43 - 0K 16K CPU3 3 75.9H 100.00% em1_rx0_1 52 root -68 - 0K 16K CPU0 0 57.3H 79.20% dummynet 28 root 43 - 0K 16K RUN 2 28.8H 35.06% em0_rx0_1 27 root 43 - 0K 16K RUN 2 28.7H 34.08% em0_rx0_0 13 root 171 ki31 0K 16K RUN 1 141.8H 19.87% idle: cpu1 14 root 171 ki31 0K 16K RUN 0 137.2H 14.99% idle: cpu0 11 root 171 ki31 0K 16K RUN 3 148.7H 9.57% idle: cpu3 12 root 171 ki31 0K 16K RUN 2 148.2H 9.28% idle: cpu2 25 root 16 - 0K 16K WAIT 2 86:10 0.49% swi16: em0_tx 29 root 16 - 0K 16K WAIT 2 68:41 0.20% swi16: em1_tx 15 root -32 - 0K 16K WAIT 2 44:03 0.00% swi4: clock sio netstat nas1# netstat -w 1 -I em1 input (em1) output packets errs bytes packets errs bytes colls 40666 0 44254186 32107 0 14221668 0 49197 0 55682789 37641 0 16396562 0 44485 0 48322297 36170 0 16606659 0 45383 0 50147857 35391 0 15767698 0 45216 0 50519446 35909 0 16312963 0 40484 0 43262800 32715 0 15026413 0 48581 0 53982411 37243 0 16785994 0 45070 0 49937292 34785 0 14310229 0 44536 0 48234034 35932 0 15545967 0 39957 0 44142618 30854 0 14000010 0 47833 0 53703541 36880 0 16720709 0 40925 0 44266040 33159 0 15606619 0 40695 0 43765070 33473 0 16464586 0 Terminated не могу понять почему такая разница в загрузке между em0 и em1 Нагрузка может как резко возрасти и держаться 10-20 минут и так же резко упасть, а может держаться несколько часов. Зависимости от трафика - нет, от количества нат-сессий - нет.
  13. Доброй ночи. Подскажите пожалуйста как в freebsd 9.2 ограничить входящий канал к примеру в 300 мегабит, дабы он не кушал больше. Я бы ограничил на порту комутатора, но проблема в том что входщий на сервер и исходящий в сеть это один и тот же порт комутатора, соответственно em0 на сервере так же является входящим и исходящим одновременно. Какое правило прописать? Вот конфиг, заранее спасибо.
  14. Для небольшого провайдера в Киеве требуется удаленный сис. админ. Обязанности: Удаленное администрирование небольшого интернет провайдера Требования: Хорошее знание FreeBSD, умение настраивать коммутаторы Dlink, Cisco и подобные. Виртуализация. Условия: Быть постоянно на связи. Обычно требуется редко - но метко. Сбрасывайте свои контакты в личку, наберу вас по мере наличия свободного времени. При необходимости - указывайте время когда вам будет удобнее принять звонок. З.Ы. - Для тех форумчан с которыми общался Эта тема не означает что вы нам не подошли. Ищу еще варианты, чтобы рассмотреть широкий срез.
  15. tivi

    Нужна помощь !

    Обращаюсь ко всем за помощью. Идеи закончились... Имеем: Бордер, принимающий по bgp каналы от двух аплинков и отдающий все это дело на сервера доступа (под freebsd + mpd5). Отрубили питание. узел продержался на упсах порядка 12 часов, запустить генератор не успели. После подачи напряжения все понимается. сервера видят биллинг (через радиус). а вот дальше начинаются непонятности. более 50-55 клиентов не все три сервера доступа суммарно не садится. (всего порядка 4к абонентов) хоть на один сервер доступа (проверяли все), хоть на два... ваершарком слушали трафик - PADI запросы от клиентов прут, а вот ответы от серверов доступа - 1-2 в минуту. все чисто, ничего подозрительного нет. грешили на коммутатор, на котором все это "собрано" воедино. поменяли на новый из коробки - та же фигня. причем, если "откинуть" все сегменты "локалки" и подключиться просто ноутбуком - авторизаци проходит все время без задержек. как только возвращаем "все обратно" - начинаются проблемы. колец нет - loopdetect включен как на коммутаторе где все это "приземляется", так и на точках аггрегации районов. будем признательны (не только спасибо, а вполне готовы принять не безвозмездную помощь) за любую подсказку/помощь.
  16. Добрый день столкнулся с такой проблемой. Есть схема сети UpLink -> Server -> Cisco 3550 Server (FreeBSD) bge0 - UpLink bge1 - ifconfig_bge1="inet 10.0.0.2 netmask 255.255.255.0" Cisco Включен роутинг interface GigabitEthernet0/11 description To_NAS no switchport ip dhcp relay information trusted ip address 10.0.0.1 255.255.255.0 ! interface Vlan20 ip address 10.20.0.1 255.255.255.0 ip helper-address 10.0.0.2 ! interface Vlan100 description FTTB_40pobed ip address 172.16.1.1 255.255.255.0 ip helper-address 10.0.0.2 ! ip route 0.0.0.0 0.0.0.0 10.0.0.2 На сервере прописаны маршруты к сетям 10.20.0.0/24 и 172.16.1.0/24 С сервера пингуется 10,0,0,1, но 10,20,0,1 и 172,16,0,1 не пингуются. Точно такой же сервер с идентичной настройкой, но на Дебиане - все работает. В чем может быть проблема? Или такая схема на фре как то по-другому реализовуется?
  17. Заплутався в здається доволі простій задачі. В мене є два роутера, кожен з яких по eBGP приймає маршрути від свого провайдера. І є три сервера на які я хочу роздати default route з кожного роутера (перший - основний, другий - backup). Як це можна зробити з OSPF або iBGP?
  18. Доброго времени суток! Сеогодня ни с того ни с сего глюканула квага отвалился один канал, відало ошибку в логе Может кто подскажет куда копать? 2014/03/21 12:07:03 BGP: %ADJCHANGE: neighbor xxx.xxx.204.193 Down Neighbor deleted 2014/03/21 12:07:04 BGP: %ADJCHANGE: neighbor yyy.yyy.118.73 Down Neighbor deleted 2014/03/21 12:07:09 BGP: BGPd 0.99.22.3 starting: vty@2605, bgp@<all>:179 2014/03/21 12:07:12 BGP: %ADJCHANGE: neighbor yyy.yyy.118.73 Up 2014/03/21 12:07:15 BGP: stream_read_try: read failed on fd 14: Connection reset by peer 2014/03/21 12:07:15 BGP: xxx.xxx.204.193 [Error] bgp_read_packet error: Connection reset by peer 2014/03/21 12:07:23 BGP: %ADJCHANGE: neighbor xxx.xxx.204.193 Up
  19. cr0wn

    isc-dhcp i fixed adress

    Добрый день. Имеется проблема: Есть необходимость при обработки событий isc-dhcp(commit,release,expire) запускать некий скрипт. Если указывать диапазон адресов(динамику)-все отлично работает, когда для fixed(статических) адресов работает только - commit. Бага вроде как известная и исправленная(со слов разработчиков) но эффекта - 0. Кто-то сталкивался с данной проблемой, возможно есть другие решения? Нужно обрабатывать все события dhcp-сервера. P.S. FreeBSD www 7.3-RELEASE-p5 FreeBSD 7.3-RELEASE-p5 and isc-dhcp42-server-4.2.3
  20. Всем привет! Помогите разобраться с проблемой. Хаотично отваливается сетевуха em1 которая смотрит внутрь сети (это я так понимаю что она отваливается, или пропадает линк) вот лог /var/log/messages в этот момент: Jul 22 08:14:07 server_1 kernel: em1: Watchdog timeout Queue[0]-- resetting Jul 22 08:14:07 server_1 kernel: Interface is RUNNING and ACTIVE Jul 22 08:14:07 server_1 kernel: em1: TX Queue 0 ------ Jul 22 08:14:07 server_1 kernel: em1: hw tdh = 712, hw tdt = 672 Jul 22 08:14:07 server_1 kernel: em1: Tx Queue Status = -2147483648 Jul 22 08:14:07 server_1 kernel: em1: TX descriptors avail = 40 Jul 22 08:14:07 server_1 kernel: em1: Tx Descriptors avail failure = 298 Jul 22 08:14:07 server_1 kernel: em1: RX Queue 0 ------ Jul 22 08:14:07 server_1 kernel: em1: hw rdh = 693, hw rdt = 692 Jul 22 08:14:07 server_1 kernel: em1: RX discarded packets = 0 Jul 22 08:14:07 server_1 kernel: em1: RX Next to Check = 693 Jul 22 08:14:07 server_1 kernel: em1: RX Next to Refresh = 692 Jul 22 08:14:07 server_1 kernel: em1: link state changed to DOWN Jul 22 08:14:20 server_1 kernel: em1: link state changed to UP После этого в логе mpd5 начинает сыпать такие сообщения Jul 22 08:15:24 server_1 mpd: [em1-3] PPPoE: Cannot send original request: No buffer space available И у пользователей пропадает интернет. Помогает перезагрузка сервера. До этого проблема была примерно раз в неделю, но вчера 6 раз всплыла. Пользователи подключаются по РРРоЕ. uname -a FreeBSD server_1 11.0-RELEASE-p10 FreeBSD 11.0-RELEASE-p10 #0: Mon Jul 3 14:52:46 EEST 2017 xxx@server_1:/usr/obj/usr/src/sys/MYKERNEL amd64 Помогите пожалуйста.
  21. Роутер перезагружается каждые 8 минут. С телефоном в приват. С нулевым рейтингом не просьба не беспокоить.
  22. l1ght

    FreeBSD + mpd5

    Шановні підкажіть - є така проблемка. Є тачка з FreeBSD 9.3 x64 FreeBSD 9.3-RELEASE FreeBSD 9.3-RELEASE #0 r268512: Thu Jul 10 23:44:39 UTC 2014 root@snap.freebsd.org:/usr/obj/usr/src/sys/GENERIC amd64 На ній підняті фаєр,днс (бінд), дхцп сервер, апач, усе працює нормально, але для певної діагностики потрібно підняти пптп сервер - ну то не в перше для мене, конфіг доволі стандартний в мпд startup: set user admin admin # configure the console set console self 127.0.0.1 5005 set console open # configure the web server set web self 127.0.0.1 5006 set web open default: load pptp_server pptp_server: set ippool add pool1 10.10.10.5 10.10.10.250 create bundle template B1 set iface disable proxy-arp set iface idle 0 set iface enable tcpmssfix set ipcp yes vjcomp set ipcp ranges 172.16.1.1 ippool pool1 set ipcp dns 10.0.0.1 #Enable Microsoft Point-to-Point encryption (MPPE) set bundle enable compression set ccp yes mppc set mppc yes e40 set mppc yes e56 set mppc yes e128 set mppc yes stateless set mppc yes compress # Create clonable link template named L create link template L10 pptp # Set bundle template to use set link action bundle B1 # Multilink adds some overhead, but gives full 1500 MTU set link enable multilink set link yes acfcomp protocomp set link no pap chap eap set link enable pap set link enable chap set link enable chap-msv1 set link enable chap-msv2 # We reducing link mtu to avoid GRE packet fragmentation. set link mtu 1460 set link keep-alive 10 60 # Configure PPTP and open link set pptp self хх.хх.хх.хх # Allow to accept calls set link enable incoming Проблема в тому, що коли я з'єднуюсь із цим сервером - то вмирає нат, як би то дивно не було. Тобто усі сервіси працюють, маршрутизація працює, а от нат не хоче (ipfw nat). Лікується тільки ребутом системи. В логах чисто - ядро не перезбирав, усе модулями завантажується. Підкажіть, куди копати?
  23. загнал тюнинг кое что в лоадер кое что в сисцтл перегрузил, смотрю root@gw:/root# sysctl -a | grep hw.em hw.em.eee_setting: 1 hw.em.rx_process_limit: 100 hw.em.enable_msix: 1 hw.em.sbp: 0 hw.em.smart_pwr_down: 0 hw.em.txd: 4096 hw.em.rxd: 4096 hw.em.rx_abs_int_delay: 66 hw.em.tx_abs_int_delay: 66 hw.em.rx_int_delay: 0 hw.em.tx_int_delay: 66 root@gw:/root# sysctl -a | grep dev.em.1.rx_int_delay dev.em.1.rx_int_delay: 200 root@gw:/root# sysctl -a | grep dev.em.1.tx_int_delay dev.em.1.tx_int_delay: 200 root@gw:/root# sysctl -a | grep dev.em.1.tx_abs_int_delay dev.em.1.tx_abs_int_delay: 4000 root@gw:/root# sysctl -a | grep dev.em.1.rx_abs_int_delay dev.em.1.rx_abs_int_delay: 4000 root@gw:/root# sysctl -a | grep dev.em.0.rx_abs_int_delay dev.em.0.rx_abs_int_delay: 4000 root@gw:/root# sysctl -a | grep dev.em.0.tx_abs_int_delay dev.em.0.tx_abs_int_delay: 4000 root@gw:/root# sysctl -a | grep dev.em.0.tx_int_delay dev.em.0.tx_int_delay: 200 root@gw:/root# sysctl -a | grep dev.em.0.rx_int_delay dev.em.0.rx_int_delay: 200 root@gw:/root# смущен немного может правильнее было все загнать в лоадер ?
  24. camchatix

    zte c300 + ubilling

    Добрый день Имеется работающий ubilling 0.8.8 rev 6006 ponizator + бдком + opt82 - все работает Подключил zte c300, добавил в разделе свич оборудование с описание ОЛТ (снмп шаблон выбрал zte 320 ГПОН) айпишка пингуется с биллинга на ЗТЕ есть работающие 3 онушки но при опросе олт - в понизаторе, в списке неизвестных ону нету ону с ЗТЕ.. только с бдком с билинга запустил snmpwalk на zte - посыпались данные дальше поковырялся и в папке billing/exports вижу файлы с опросами ОЛТ так вот файлы от бдкома вижу 5 штук (distance, fdb, signals, onuindex, onuinterface) а вот от zte c300 только один IDOLT_OLTSIGNALS (посмотрел что внутри а там все верно - 3 онушки и ихние сигналы) но в понизаторе в таблице zte c300 пусто такое ощущение что в файле snmp не правильные MIBs указаны поделитесь инфо, или шаблоном snmp версия firmware zte c300 1.2.5
  25. Столкнулся недавно с такой проблемой, в ipfw в одной из таблиц появились айпи дважды # ipfw table 0 list|grep 10.10.50.17 10.10.50.17/32 0 10.10.50.17/32 0 если попробовать удалить, то один айпи как бы удаляется, а второй остается # ipfw table 0 delete 10.10.50.17 # ipfw table 0 list|grep 10.10.50.17 10.10.50.17/32 0 вторйо айпи удалить нельзя # ipfw table 0 delete 10.10.50.17 ipfw: setsockopt(IP_FW_TABLE_DEL): No such process но можно его еще раз добавить # ipfw table 0 add 10.10.50.17 # ipfw table 0 list|grep 10.10.50.17 10.10.50.17/32 0 10.10.50.17/32 0 Не помогает ни ipfw table 0 flush - айпи не удаляется, ни включение/отключение файрвола # ipfw table 0 flush # ipfw table 0 list|grep 10.10.50.17 10.10.50.17/32 0 Причем файрвол считает, что в table 0 добавлена вся сеть 10.10.50.0/24 # uname -r 8.3-RELEASE Сталкивались? Может кто знает, как побороть кроме ребута?
×