Перейти до

mpd5


Рекомендованные сообщения

  • Відповіді 96
  • Створено
  • Остання відповідь

Top Posters In This Topic

Top Posters In This Topic

Popular Posts

Периодическим вызовом fullhostscan + param [traffdiff] из RemoteAPI.   Для полноты радости еще клево бы врубить DN_FULLHOSTSCAN + DN_ONLINE_DETECT предварительно убедившись в существовании content/d

Вы из принципа игнорируете, то что я пишу?   1. Пожалуйста. Включите мозг. 2. Перечитайте мой первый пост. 3. Если возникают проблемы возвращайтесь к п.1.

Ніякий, графічки малюються тіки по 1 інтерфейсу.

Спрошу иначе, у меня есть em0 мир и em1 mpd5 какой интерфейс указать для графиков ?

em1 его и указал, не рисуются графики.

Ссылка на сообщение
Поделиться на других сайтах

 

Ніякий, графічки малюються тіки по 1 інтерфейсу.

Спрошу иначе, у меня есть em0 мир и em1 mpd5 какой интерфейс указать для графиков ?

em1 его и указал, не рисуются графики.

 

Указыавай тот интерфейс который смотрит туда откуда нужно рисовать графики. Если ем0 у тебя мир, как он оттуда будет рисовать графики то ???? Соответственно графики у тебя должны рисоваться с ем1 ((тоисть сетевой окторая смотрит внутрь). Если не рисуется, смотри другие причины.

Ссылка на сообщение
Поделиться на других сайтах

Например какие другие ? Как и где смотреть/искать ? 

С локальным насом и раздачей адресов статикой, графики прекрасно себе рисуются, вот и хотелось бы понять почему с mpd5 локальным насом не рисуются.

Ссылка на сообщение
Поделиться на других сайтах

Например какие другие ? Как и где смотреть/искать ? 

С локальным насом и раздачей адресов статикой, графики прекрасно себе рисуются, вот и хотелось бы понять почему с mpd5 локальным насом не рисуются.

І не будуть малюватися.

Ваш мпд та що в вас там пппое чи впн не так важливо.

Клієт по логіну паролю авторизується, при авторизації на вашому сервері створюються віртуальний інтерфейс, на кожного хто пройшов авторизацію.

На мережевій карті ви не побачите абонентьского трафіку, бо він ходить через ng* інтерфейси, тому графіки bandwidth-ом малювати не зможете.

В вас інтерфейсів багато, а він може тіки 1 слухати.

Ссылка на сообщение
Поделиться на других сайтах

І не будуть малюватися.

Возможно. В описании биллинга, на отсутствие графиков, при использовании локального NAS+mpd5  не указано, возможно nightfly прояснит этот момент ?

 

 

 

На мережевій карті ви не побачите абонентьского трафіку, бо він ходить через ng* інтерфейси, тому графіки bandwidth-ом малювати не зможете. В вас інтерфейсів багато, а він може тіки 1 слухати.

Отлично, почему в таком случае не рисуется график всего трафа проходящего через 127.0.0.1 NAS ? Не рисует даже пустых графиков, вместо графиков, пишет слово (изображение).

Ссылка на сообщение
Поделиться на других сайтах

По перше - найтфлай притримуэться думки, що ппп - це погано :)

По друге все по дефолту розраховано на ип+мак (статік дхцп), і тоді графічки малюються, трафік рахується і т.д і т.п.

Ссылка на сообщение
Поделиться на других сайтах

 

Возможно. В описании биллинга, на отсутствие графиков,

А биллинг тут при чем? Это вопросы к сторонней утилите и разработчикам bandwidthd.

 

 

при использовании локального NAS+mpd5  не указано, возможно nightfly прояснит этот момент ?

Проясняю. bandwidhtd умеет слушать только один интерфейс (как он это делает, это вообще отдельный разговор) так что да, вагон, тем более динамически создаваемых ppp интерфейсом ему не светит.

По перше - найтфлай притримуэться думки, що ппп - це погано :)

Ади, вивчили вже всі :)

Ссылка на сообщение
Поделиться на других сайтах

По перше - найтфлай притримуэться думки, що ппп - це погано :)

Хорошо, плохо, а кот васька слушает да ест :)

 

А биллинг тут при чем? Это вопросы к сторонней утилите и разработчикам bandwidthd.

Эмм, у биллинга убиллинга есть отличная фича графики, при использовании mpd5 она перестает работать из коробки, это не есть хорошо, про выстрел в ногу не стоит напоминать  :rolleyes:

Возможно кто-то предложит варианты исправить ситуацию, и вернуть графики в семью ?

 

PS:Предлагаю пару строчек чиркнуть в faq о отсутствии графиков при использовании mpd.

Відредаговано dnet
Ссылка на сообщение
Поделиться на других сайтах
Эмм, у биллинга убиллинга есть отличная фича графики

Нету там такой фичи, и небыло никогда. Есть возможность показывать ссылки на какие-то картинки.

 

 

Возможно кто-то предложит варианты исправить ситуацию, и вернуть графики в семью ?

Ага. Либо гонять трафик юзеров через что-то где он будет сходиться на одном интерфейсе, который будет слушать bandwidhtd, либо писать Девиду Хинклю, "ну паззязззя".

 

Я уже предпринимал попытку починить bandwidhtd, с mysql, клиент-серверной архитектурой и избавлением от bpf. Нет, на это здоровья не хватило. Его проще с нуля переписать.

Відредаговано nightfly
Ссылка на сообщение
Поделиться на других сайтах

Так, перейти на варіант з дшцп ;)

Это не вариант, равнозначно выстрелить себе в ногу, необходимо работать с тем что есть, исходя из реальных условий, и не ронять рабочую сеть.

 

Есть возможность показывать ссылки на какие-то картинки.

Этого было вполне достаточно, для общего понимания. Шо поделаеш, без графиков, так без графиков.

Ссылка на сообщение
Поделиться на других сайтах

 

Так, перейти на варіант з дшцп ;)

Это не вариант, равнозначно выстрелить себе в ногу, необходимо работать с тем что есть, исходя из реальных условий, и не ронять рабочую сеть.

 

Есть возможность показывать ссылки на какие-то картинки.

Этого было вполне достаточно, для общего понимания. Шо поделаеш, без графиков, так без графиков.

 

А що заважає плавно перейти на таку схему?

Ссылка на сообщение
Поделиться на других сайтах

Религия  :P

Как это обычно бывает, топология сети, оборудование используемое в сети, момент когда планы начнут становится реальностью, может и не случится ;)

PPPoE вполне устраивает. 

Ссылка на сообщение
Поделиться на других сайтах

Религия  :P

Как это обычно бывает, топология сети, оборудование используемое в сети, момент когда планы начнут становится реальностью, может и не случится ;)

PPPoE вполне устраивает. 

Це поки що влаштовує ;)

Якщо не секрет, багато абонентів на пппое вже?

Ссылка на сообщение
Поделиться на других сайтах

Пока, понятие очень относительное, вполне адекватно живет сеть на PPPoE, пока не вижу смысла что-то менять, и уж темболее, вваливать туеву кучу бабла, в железо доступа, чтоб юзать ДХЦП.

Знаком с разными методами авторизации абонентов, в каждом конкретном случае, приходится выкручиваться по разному. 

По разному, есть немного, есть >1Кабонов.

Ссылка на сообщение
Поделиться на других сайтах

Подскажите пожалуйста, по умолчанию, биллинг позволяет поднять две одинаковые PPPoE сесии, каким образом можно эту ситуацию правильно исправить, чтоб поднималась только одна сесия ?

Ссылка на сообщение
Поделиться на других сайтах

set auth max-logins 1   в mpd.conf

За змовчуванням там стоїть 0 - тобто бескінечно.

 

Я вам замість гугла тут :)

Відредаговано L1ght
Ссылка на сообщение
Поделиться на других сайтах

Создайте аккаунт или войдите в него для комментирования

Вы должны быть пользователем, чтобы оставить комментарий

Создать аккаунт

Зарегистрируйтесь для получения аккаунта. Это просто!

Зарегистрировать аккаунт

Вхід

Уже зарегистрированы? Войдите здесь.

Войти сейчас
  • Зараз на сторінці   0 користувачів

    Немає користувачів, що переглядають цю сторінку.

  • Схожий контент

    • Від NETOS
      Приветствую!
      Иногда бывает падает внешний канал, после того как появляется не всегда подымается PPPoE соединение. Подскажите скриптик который бы ребутал сервис каждые несколько минут, пока не появится интернет и вел лог. Спасибо. 
       
      FreeBSD base.server 11.1-RELEASE FreeBSD 11.1-RELEASE #0 r321309: Fri Jul 21 02:08:28 UTC 2017 root@releng2.nyi.freebsd.org:/usr/obj/usr/src/sys/GENERIC amd64  
      startup: set user userfkjrhgwr 4598347tgh5r98 admin set console self 127.0.0.1 5005 default: load pppoe_client load pptp_server pppoe_client: create bundle static B1 set iface route default set iface enable tcpmssfix set ipcp ranges 0.0.0.0/0 0.0.0.0/0 set ipcp enable req-pri-dns set ipcp enable req-sec-dns create link static L1 pppoe set link action bundle B1 set auth authname dniprodrsz set auth password 1597538246 set link max-redial 0 set link mtu 1480 set link keep-alive 10 60 set pppoe iface em0 set pppoe service "" open pptp_server: set ippool add PPTPSRV 172.16.1.201 172.16.1.205 create bundle template B set iface enable proxy-arp set iface idle 1800 set iface enable tcpmssfix set ipcp yes vjcomp set ipcp ranges 172.16.1.1/24 ippool PPTPSRV set ipcp dns 172.16.254.1 set ipcp nbns 172.16.1.1 set bundle enable compression set ccp yes mppc set mppc yes e40 set mppc yes e128 set mppc yes stateless create link template L pptp set link action bundle B set link enable multilink set link yes acfcomp protocomp set link no pap chap eap set link enable chap set link keep-alive 10 60 set link mtu 1460 set pptp self 5.161.8.3 set link enable incoming  
    • Від veca16
      Есть сервер под Freebsd 10.0 и  Nodeny+  клиенты подключаются по pppoe через mpd5. Недавно начали жаловаться клиенты, что иногда обрываются сессии только как то хаотично, то могут через каждый час, то два раза в день. Проверил логи, только в mpd5 нашел странность но не могу разобраться почему. Вот часть лога как раз во время обрыва связи:
      Oct  7 20:00:04 server mpd: [em1-261] LCP: no reply to 7 echo request(s)
      Oct  7 20:00:04 server mpd: [em1-261] LCP: peer not responding to echo requests
      Oct  7 20:00:04 server mpd: [em1-261] LCP: state change Opened --> Stopping
      Oct  7 20:00:04 server mpd: [em1-261] Link: Leave bundle "B-72"
      Oct  7 20:00:04 server mpd: [em1-261] RADIUS: Accounting user 'login' (Type: 2)
      Oct  7 20:00:04 server mpd: [b-72] Bundle: Status update: up 0 links, total bandwidth 9600 bps
      Oct  7 20:00:04 server mpd: [b-72] IPCP: Close event
      Oct  7 20:00:04 server mpd: [b-72] IPCP: state change Opened --> Closing
      Oct  7 20:00:04 server mpd: [b-72] IPCP: SendTerminateReq #3
      Oct  7 20:00:04 server mpd: [b-72] IPCP: LayerDown
      Oct  7 20:00:04 server mpd: [b-72] IFACE: Down event
      Oct  7 20:00:04 server mpd: [b-72] IPCP: Down event
      Oct  7 20:00:04 server mpd: [b-72] IPCP: LayerFinish
      Oct  7 20:00:04 server mpd: [b-72] Bundle: No NCPs left. Closing links...
      Oct  7 20:00:04 server mpd: [b-72] IPCP: state change Closing --> Initial
      Oct  7 20:00:04 server mpd: [b-72] Bundle: Shutdown
      Oct  7 20:00:04 server mpd: [em1-261] RADIUS: Rec'd RAD_ACCOUNTING_RESPONSE for user 'login'
      Oct  7 20:00:04 server mpd: [em1-261] LCP: SendTerminateReq #4
      Oct  7 20:00:04 server mpd: [em1-261] LCP: LayerDown
      Oct  7 20:00:05 server mpd: Incoming PPPoE connection request via vlan0: for service "" from 04:18:d6:2c:f2:d3
      Oct  7 20:00:05 server mpd: [vlan0-151] Accepting PPPoE connection
      Oct  7 20:00:05 server mpd: [vlan0-151] Link: OPEN event
      Oct  7 20:00:05 server mpd: [vlan0-151] LCP: Open event
      Oct  7 20:00:05 server mpd: [vlan0-151] LCP: state change Initial --> Starting
      Oct  7 20:00:05 server mpd: [vlan0-151] LCP: LayerStart
      Oct  7 20:00:05 server mpd: [vlan0-151] PPPoE: connection successful
      Oct  7 20:00:05 server mpd: [vlan0-151] Link: UP event
      Oct  7 20:00:05 server mpd: [vlan0-151] LCP: Up event
      Oct  7 20:00:05 server mpd: [vlan0-151] LCP: state change Starting --> Req-Sent
      Oct  7 20:00:05 server mpd: [vlan0-151] LCP: SendConfigReq #1
      Oct  7 20:00:05 server mpd: [vlan0-151]   PROTOCOMP
      Oct  7 20:00:05 server mpd: [vlan0-151]   MRU 1492
      Oct  7 20:00:05 server mpd: [vlan0-151]   MAGICNUM ec170e67
      Oct  7 20:00:05 server mpd: [vlan0-151]   AUTHPROTO PAP
      Oct  7 20:00:05 server mpd: [vlan0-151]   MP MRRU 2048
      Oct  7 20:00:05 server mpd: [vlan0-151]   MP SHORTSEQ
      Oct  7 20:00:05 server mpd: [vlan0-151]   ENDPOINTDISC [802.1] 00 26 55 d0 d7 4c
      Oct  7 20:00:05 server mpd: [vlan0-151] LCP: rec'd Configure Request #134 (Req-Sent)
      Oct  7 20:00:05 server mpd: [vlan0-151]   MRU 1492
      Oct  7 20:00:05 server mpd: [vlan0-151]   MAGICNUM 70a7dde2
      Oct  7 20:00:05 server mpd: [vlan0-151] LCP: SendConfigAck #134
      Oct  7 20:00:05 server mpd: [vlan0-151]   MRU 1492
      Oct  7 20:00:05 server mpd: [vlan0-151]   MAGICNUM 70a7dde2
      Oct  7 20:00:05 server mpd: [vlan0-151] LCP: state change Req-Sent --> Ack-Sent
       
      Может кто сталкивался? Подскажите что это может быть? Заранее спасибо!
    • Від North76Storm
      Уважаемые Гуру, помогите с проблемой!
      Имеется сервер с mpd5 и абоненты с роутерами TP-Link. До определенного момента все работало без нареканий, но в один прекрасный день посыпались хаотические постоянные обрывы сессий.
      В логах по биллингу пишет: ACCT_TERMINATE_CAUSE 1 : User-Request.
      В логах роутера в момент разрыва: 
      49 Oct 23 06:26:04 PPP ПРИМЕЧАНИЕ Standard authentication... и далее успешное подключение.
      48 Oct 23 06:25:45 PPP ИНФО rcvd [LCP TermAck] 47 Oct 23 06:25:45 PPP ИНФО sent [LCP TermReq] 46 Oct 23 06:25:45 PPP ПРЕДУПРЕЖДЕНИЕ LCP down 45 Oct 23 06:25:45 PPP ОШИБКА LCP down 44 Oct 23 06:25:45 PPP ОШИБКА User request 43 Oct 23 06:25:45 PPP ПРЕДУПРЕЖДЕНИЕ PPPoE link down 42 Oct 23 05:53:20 PPP ПРИМЕЧАНИЕ PPPoE connected
      Такая ситуация продолжается около 3-х недель, "Танкисты" разрывают уже...
      Что делать, куда копать???
      P.S. Я сам немного далек от этого, так что просьба сильно не пинать, ну или хотя бы не по голове)))
    • Від l1ght
      Шановні підкажіть - є така проблемка.
      Є тачка з FreeBSD 9.3 x64 
      FreeBSD 9.3-RELEASE FreeBSD 9.3-RELEASE #0 r268512: Thu Jul 10 23:44:39 UTC 2014 root@snap.freebsd.org:/usr/obj/usr/src/sys/GENERIC amd64 На ній підняті фаєр,днс (бінд), дхцп сервер, апач, усе працює нормально, але для певної діагностики потрібно підняти пптп сервер - ну то не в перше для мене, конфіг доволі стандартний в мпд
      startup: set user admin admin # configure the console set console self 127.0.0.1 5005 set console open # configure the web server set web self 127.0.0.1 5006 set web open default: load pptp_server pptp_server: set ippool add pool1 10.10.10.5 10.10.10.250 create bundle template B1 set iface disable proxy-arp set iface idle 0 set iface enable tcpmssfix set ipcp yes vjcomp set ipcp ranges 172.16.1.1 ippool pool1 set ipcp dns 10.0.0.1 #Enable Microsoft Point-to-Point encryption (MPPE) set bundle enable compression set ccp yes mppc set mppc yes e40 set mppc yes e56 set mppc yes e128 set mppc yes stateless set mppc yes compress # Create clonable link template named L create link template L10 pptp # Set bundle template to use set link action bundle B1 # Multilink adds some overhead, but gives full 1500 MTU set link enable multilink set link yes acfcomp protocomp set link no pap chap eap set link enable pap set link enable chap set link enable chap-msv1 set link enable chap-msv2 # We reducing link mtu to avoid GRE packet fragmentation. set link mtu 1460 set link keep-alive 10 60 # Configure PPTP and open link set pptp self хх.хх.хх.хх # Allow to accept calls set link enable incoming Проблема в тому, що коли я з'єднуюсь із цим сервером - то вмирає нат, як би то дивно не було. Тобто усі сервіси працюють, маршрутизація працює, а от нат не хоче (ipfw nat). Лікується тільки ребутом системи.
      В логах чисто - ядро не перезбирав, усе модулями завантажується.
      Підкажіть, куди копати?
    • Від tivi
      Обращаюсь ко всем за помощью. Идеи закончились...
       
      Имеем:
      Бордер, принимающий по bgp каналы от двух аплинков и отдающий все это дело на сервера доступа (под freebsd + mpd5).
      Отрубили питание. узел продержался на упсах порядка 12 часов, запустить генератор не успели.
      После подачи напряжения все понимается. сервера видят биллинг (через радиус).
      а вот дальше начинаются непонятности.
      более 50-55 клиентов не все три сервера доступа суммарно не садится.
      (всего порядка 4к абонентов)
      хоть на один сервер доступа (проверяли все), хоть на два...
      ваершарком слушали трафик - PADI запросы от клиентов прут, а вот ответы от серверов доступа - 1-2 в минуту.
      все чисто, ничего подозрительного нет.
       
      грешили на коммутатор, на котором все это "собрано" воедино.
      поменяли на новый из коробки - та же фигня.
      причем, если "откинуть" все сегменты "локалки" и подключиться просто ноутбуком - авторизаци проходит все время без задержек.
      как только возвращаем "все обратно" - начинаются проблемы.
      колец нет - loopdetect включен как на коммутаторе где все это "приземляется", так и на точках аггрегации районов.
       
      будем признательны (не только спасибо, а вполне готовы принять не безвозмездную помощь) за любую подсказку/помощь.

×
×
  • Створити нове...