Jump to content
Local

Search the Community

Showing results for tags 'mpd5'.



More search options

  • Search By Tags

    Type tags separated by commas.
  • Search By Author

Content Type


Forums

  • Settings
    • Hardware
    • Cables
    • IPTV, cable TV, Satellite
    • Wi-Fi
    • Software
    • Optical fiber equipment
    • Games
    • PON
  • Organization
    • Network as business
    • Find networks
    • Find ISP
    • Comment providers
    • Datacenters. Hosting. Colocation.
    • Administrators purposes
    • Buy Sell Merge ISPs
    • For people
    • Jobs. Work. Training
  • Stargazer
    • Stargazer development
    • Stargazer questions
    • Stargazer Ubilling
    • Stargazer modules
  • Security
    • Viruses and Antiviruses
    • System integrity
    • Equipment protection
    • DDoS protection
  • Everything
    • Flame about networks
    • About local
    • Trade
    • For newbies
  • Regions
    • Харьков
    • Чернигов
    • Днепропетровск
    • Полтава
    • Крым
    • Запорожье
    • Тернополь
    • Донецк
    • Львов
    • Житомир
    • Сумы
    • Одесса
    • Черновцы
    • Закарпатье
    • Луганск

Calendars

  • Основной календарь

Find results in...

Find results that contain...


Date Created

  • Start

    End


Last Updated

  • Start

    End


Filter by number of...

Joined

  • Start

    End


Group


AIM


MSN


Сайт


ICQ


Yahoo


Jabber


Skype


Город


Интересы

Found 8 results

  1. veca16

    mpd5 рвет сессии

    Есть сервер под Freebsd 10.0 и Nodeny+ клиенты подключаются по pppoe через mpd5. Недавно начали жаловаться клиенты, что иногда обрываются сессии только как то хаотично, то могут через каждый час, то два раза в день. Проверил логи, только в mpd5 нашел странность но не могу разобраться почему. Вот часть лога как раз во время обрыва связи: Oct 7 20:00:04 server mpd: [em1-261] LCP: no reply to 7 echo request(s) Oct 7 20:00:04 server mpd: [em1-261] LCP: peer not responding to echo requests Oct 7 20:00:04 server mpd: [em1-261] LCP: state change Opened --> Stopping Oct 7 20:00:04 server mpd: [em1-261] Link: Leave bundle "B-72" Oct 7 20:00:04 server mpd: [em1-261] RADIUS: Accounting user 'login' (Type: 2) Oct 7 20:00:04 server mpd: [b-72] Bundle: Status update: up 0 links, total bandwidth 9600 bps Oct 7 20:00:04 server mpd: [b-72] IPCP: Close event Oct 7 20:00:04 server mpd: [b-72] IPCP: state change Opened --> Closing Oct 7 20:00:04 server mpd: [b-72] IPCP: SendTerminateReq #3 Oct 7 20:00:04 server mpd: [b-72] IPCP: LayerDown Oct 7 20:00:04 server mpd: [b-72] IFACE: Down event Oct 7 20:00:04 server mpd: [b-72] IPCP: Down event Oct 7 20:00:04 server mpd: [b-72] IPCP: LayerFinish Oct 7 20:00:04 server mpd: [b-72] Bundle: No NCPs left. Closing links... Oct 7 20:00:04 server mpd: [b-72] IPCP: state change Closing --> Initial Oct 7 20:00:04 server mpd: [b-72] Bundle: Shutdown Oct 7 20:00:04 server mpd: [em1-261] RADIUS: Rec'd RAD_ACCOUNTING_RESPONSE for user 'login' Oct 7 20:00:04 server mpd: [em1-261] LCP: SendTerminateReq #4 Oct 7 20:00:04 server mpd: [em1-261] LCP: LayerDown Oct 7 20:00:05 server mpd: Incoming PPPoE connection request via vlan0: for service "" from 04:18:d6:2c:f2:d3 Oct 7 20:00:05 server mpd: [vlan0-151] Accepting PPPoE connection Oct 7 20:00:05 server mpd: [vlan0-151] Link: OPEN event Oct 7 20:00:05 server mpd: [vlan0-151] LCP: Open event Oct 7 20:00:05 server mpd: [vlan0-151] LCP: state change Initial --> Starting Oct 7 20:00:05 server mpd: [vlan0-151] LCP: LayerStart Oct 7 20:00:05 server mpd: [vlan0-151] PPPoE: connection successful Oct 7 20:00:05 server mpd: [vlan0-151] Link: UP event Oct 7 20:00:05 server mpd: [vlan0-151] LCP: Up event Oct 7 20:00:05 server mpd: [vlan0-151] LCP: state change Starting --> Req-Sent Oct 7 20:00:05 server mpd: [vlan0-151] LCP: SendConfigReq #1 Oct 7 20:00:05 server mpd: [vlan0-151] PROTOCOMP Oct 7 20:00:05 server mpd: [vlan0-151] MRU 1492 Oct 7 20:00:05 server mpd: [vlan0-151] MAGICNUM ec170e67 Oct 7 20:00:05 server mpd: [vlan0-151] AUTHPROTO PAP Oct 7 20:00:05 server mpd: [vlan0-151] MP MRRU 2048 Oct 7 20:00:05 server mpd: [vlan0-151] MP SHORTSEQ Oct 7 20:00:05 server mpd: [vlan0-151] ENDPOINTDISC [802.1] 00 26 55 d0 d7 4c Oct 7 20:00:05 server mpd: [vlan0-151] LCP: rec'd Configure Request #134 (Req-Sent) Oct 7 20:00:05 server mpd: [vlan0-151] MRU 1492 Oct 7 20:00:05 server mpd: [vlan0-151] MAGICNUM 70a7dde2 Oct 7 20:00:05 server mpd: [vlan0-151] LCP: SendConfigAck #134 Oct 7 20:00:05 server mpd: [vlan0-151] MRU 1492 Oct 7 20:00:05 server mpd: [vlan0-151] MAGICNUM 70a7dde2 Oct 7 20:00:05 server mpd: [vlan0-151] LCP: state change Req-Sent --> Ack-Sent Может кто сталкивался? Подскажите что это может быть? Заранее спасибо!
  2. 0TshEL_n1ck

    mpd5

    Доброго времени суток, подскажите пожалуйста как побороть. Есть em0 - смотрит внутрь, раздаёт по DHCP есть em1 - смотрит наружу, получает всё по DHCP В такой связке всё хорошо работает и т д. Поднимаю mpd5 на em1 - с сервера всё пингуется отлично, но нету связки em0 c em1, тоисть пользователи интернет не видят. Подскажите пожалуйста куда копать... freebsd 9.2 + Ubilling: 0.5.8 rev 3790
  3. l1ght

    MPD5 + netflow

    Всем доброго времени суток, значит у меня следующий вопрос. Хотел собирать статистику с mpd5, но при встроенных настройках: set netflow peer localhost 42111 set netflow timeouts 15 1800 set netflow version 5 mpd создает (вроде бы) по две ноды на каждое соединение, что в последствии сказалось очень негативно на системе. А точнее зависания в ноль, даже на консоль не реагирует. Так вот, накопал я значит такой скрипт, что б сделать одну ноду для всего этого дела, только вот не очень всё это понимаю. #!/bin/sh . /etc/rc.subr name="ngnetflow" rcvar=`set_rcvar` load_rc_config $name : ${ngnetflow_enable="NO"} : ${ngnetflow_src="0.0.0.0:5525"} : ${ngnetflow_dst="x.x.x.x:5525"} start_cmd="ngnetflow_start" stop_cmd="ngnetflow_stop" ngnetflow_start() { /usr/sbin/ngctl -f- <<-SEQ mkpeer ipfw: netflow 65534 iface0 name ipfw:65534 netflow connect ipfw: netflow: 65533 out0 msg netflow: setdlt { iface=0 dlt=12 } msg netflow: settimeouts { inactive=30 active=600 } mkpeer netflow: ksocket export inet/dgram/udp name netflow:export flow-sensor msg flow-sensor: bind inet/${ngnetflow_src} msg flow-sensor: connect inet/${ngnetflow_dst} SEQ } ngnetflow_stop() { /usr/sbin/ngctl -f- <<-SEQ shutdown netflow: SEQ } run_rc_command "$1" Хотелось бы поправить его под взаимодействие с cap_nf.
  4. tivi

    Нужна помощь !

    Обращаюсь ко всем за помощью. Идеи закончились... Имеем: Бордер, принимающий по bgp каналы от двух аплинков и отдающий все это дело на сервера доступа (под freebsd + mpd5). Отрубили питание. узел продержался на упсах порядка 12 часов, запустить генератор не успели. После подачи напряжения все понимается. сервера видят биллинг (через радиус). а вот дальше начинаются непонятности. более 50-55 клиентов не все три сервера доступа суммарно не садится. (всего порядка 4к абонентов) хоть на один сервер доступа (проверяли все), хоть на два... ваершарком слушали трафик - PADI запросы от клиентов прут, а вот ответы от серверов доступа - 1-2 в минуту. все чисто, ничего подозрительного нет. грешили на коммутатор, на котором все это "собрано" воедино. поменяли на новый из коробки - та же фигня. причем, если "откинуть" все сегменты "локалки" и подключиться просто ноутбуком - авторизаци проходит все время без задержек. как только возвращаем "все обратно" - начинаются проблемы. колец нет - loopdetect включен как на коммутаторе где все это "приземляется", так и на точках аггрегации районов. будем признательны (не только спасибо, а вполне готовы принять не безвозмездную помощь) за любую подсказку/помощь.
  5. l1ght

    MPD5 + FreeRadius

    Значит опробовал связку mpd5 + freeradius. Нашел ошибку. В /usr/local/etc/raddb/sql/mysql/dialup.conf нужно поправить строку. Было (в /usr/local/www/apache22/data/billing/docs/freeradius/raddb/sql/mysql/dialup.conf) nas_query = "SELECT id, nasname, shortname, type, secret, server FROM ${nas_table}" Должно быть nas_query = "SELECT nasname, shortname, type, secret, server FROM ${nas_table}" То бишь нужно убрать id из запроса ибо в БД его нету и радиус из-за этого не хочет стартовать.
  6. l1ght

    FreeBSD + mpd5

    Шановні підкажіть - є така проблемка. Є тачка з FreeBSD 9.3 x64 FreeBSD 9.3-RELEASE FreeBSD 9.3-RELEASE #0 r268512: Thu Jul 10 23:44:39 UTC 2014 root@snap.freebsd.org:/usr/obj/usr/src/sys/GENERIC amd64 На ній підняті фаєр,днс (бінд), дхцп сервер, апач, усе працює нормально, але для певної діагностики потрібно підняти пптп сервер - ну то не в перше для мене, конфіг доволі стандартний в мпд startup: set user admin admin # configure the console set console self 127.0.0.1 5005 set console open # configure the web server set web self 127.0.0.1 5006 set web open default: load pptp_server pptp_server: set ippool add pool1 10.10.10.5 10.10.10.250 create bundle template B1 set iface disable proxy-arp set iface idle 0 set iface enable tcpmssfix set ipcp yes vjcomp set ipcp ranges 172.16.1.1 ippool pool1 set ipcp dns 10.0.0.1 #Enable Microsoft Point-to-Point encryption (MPPE) set bundle enable compression set ccp yes mppc set mppc yes e40 set mppc yes e56 set mppc yes e128 set mppc yes stateless set mppc yes compress # Create clonable link template named L create link template L10 pptp # Set bundle template to use set link action bundle B1 # Multilink adds some overhead, but gives full 1500 MTU set link enable multilink set link yes acfcomp protocomp set link no pap chap eap set link enable pap set link enable chap set link enable chap-msv1 set link enable chap-msv2 # We reducing link mtu to avoid GRE packet fragmentation. set link mtu 1460 set link keep-alive 10 60 # Configure PPTP and open link set pptp self хх.хх.хх.хх # Allow to accept calls set link enable incoming Проблема в тому, що коли я з'єднуюсь із цим сервером - то вмирає нат, як би то дивно не було. Тобто усі сервіси працюють, маршрутизація працює, а от нат не хоче (ipfw nat). Лікується тільки ребутом системи. В логах чисто - ядро не перезбирав, усе модулями завантажується. Підкажіть, куди копати?
  7. Приветствую! Иногда бывает падает внешний канал, после того как появляется не всегда подымается PPPoE соединение. Подскажите скриптик который бы ребутал сервис каждые несколько минут, пока не появится интернет и вел лог. Спасибо. FreeBSD base.server 11.1-RELEASE FreeBSD 11.1-RELEASE #0 r321309: Fri Jul 21 02:08:28 UTC 2017 root@releng2.nyi.freebsd.org:/usr/obj/usr/src/sys/GENERIC amd64 startup: set user userfkjrhgwr 4598347tgh5r98 admin set console self 127.0.0.1 5005 default: load pppoe_client load pptp_server pppoe_client: create bundle static B1 set iface route default set iface enable tcpmssfix set ipcp ranges 0.0.0.0/0 0.0.0.0/0 set ipcp enable req-pri-dns set ipcp enable req-sec-dns create link static L1 pppoe set link action bundle B1 set auth authname dniprodrsz set auth password 1597538246 set link max-redial 0 set link mtu 1480 set link keep-alive 10 60 set pppoe iface em0 set pppoe service "" open pptp_server: set ippool add PPTPSRV 172.16.1.201 172.16.1.205 create bundle template B set iface enable proxy-arp set iface idle 1800 set iface enable tcpmssfix set ipcp yes vjcomp set ipcp ranges 172.16.1.1/24 ippool PPTPSRV set ipcp dns 172.16.254.1 set ipcp nbns 172.16.1.1 set bundle enable compression set ccp yes mppc set mppc yes e40 set mppc yes e128 set mppc yes stateless create link template L pptp set link action bundle B set link enable multilink set link yes acfcomp protocomp set link no pap chap eap set link enable chap set link keep-alive 10 60 set link mtu 1460 set pptp self 5.161.8.3 set link enable incoming
  8. Уважаемые Гуру, помогите с проблемой! Имеется сервер с mpd5 и абоненты с роутерами TP-Link. До определенного момента все работало без нареканий, но в один прекрасный день посыпались хаотические постоянные обрывы сессий. В логах по биллингу пишет: ACCT_TERMINATE_CAUSE 1 : User-Request. В логах роутера в момент разрыва: 49 Oct 23 06:26:04 PPP ПРИМЕЧАНИЕ Standard authentication... и далее успешное подключение. 48 Oct 23 06:25:45 PPP ИНФО rcvd [LCP TermAck] 47 Oct 23 06:25:45 PPP ИНФО sent [LCP TermReq] 46 Oct 23 06:25:45 PPP ПРЕДУПРЕЖДЕНИЕ LCP down 45 Oct 23 06:25:45 PPP ОШИБКА LCP down 44 Oct 23 06:25:45 PPP ОШИБКА User request 43 Oct 23 06:25:45 PPP ПРЕДУПРЕЖДЕНИЕ PPPoE link down 42 Oct 23 05:53:20 PPP ПРИМЕЧАНИЕ PPPoE connected Такая ситуация продолжается около 3-х недель, "Танкисты" разрывают уже... Что делать, куда копать??? P.S. Я сам немного далек от этого, так что просьба сильно не пинать, ну или хотя бы не по голове)))
×