Jump to content
Local

Sоrk

Сitizens
  • Content Count

    137
  • Joined

  • Last visited

  • Days Won

    4

Everything posted by Sоrk

  1. мы тоже столкнулись - 40G не все, даже с включенным unsupported-transceiver
  2. возможно мы не умеем продавать OTT/IPTV, но абонентов Кабельного ТВ (аналог+DVB-C) в 10 раз больше чем OTT ... особенно в новостройках да, внутреннее ощущение говорит "это же новая квартира, там должен быть Smart" ... но нет, есть любимая плазма Sony 60" и на ней смотрят аналог (не ставят даже приставку DVB-C) иногда людей сложно понять
  3. Sоrk

    KR-IX

    добавил 15169:13300 на PNI с Google убрал 59613:100 с Giganet убрал 0:15169 и 0:36040 с DTEL в результате трафик остался на PNI с Google, раньше всегда убегал в одну из IX так что для меня 15169:13300 на стыке с Google - работает. но ... нужно ещё подождать
  4. Sоrk

    KR-IX

    это включение в DTEL, на котором я в среду запретил анонсировать свои сети в сторону Google и GGC через DTEL.
  5. Sоrk

    KR-IX

    + 1 как раз на днях отключал анонсы в сторону Google через DTEL и картина такая:
  6. Техническая поддержка по OLT BDCOM говорит следующее: в всех дальнейших версиях опрос будет происходить только так, как описано в файле "check mac address of onu by mib .docx" ,причем как на епон ,так и на жпон стандарте .. сделано это для оптимизации использования CPU необходимо в 1.3.6.1.4.1.3320.101.9.2.1.0 установить индекс ONU и после этого прочитать с 1.3.6.1.4.1.3320.101.9.2.3 записи FDB # snmpset -v2c -c private 10.1.1.1 1.3.6.1.4.1.3320.101.9.2.1.0 i 98 BDCOM-EPON-LLID::bdEponLlid.2.1.0 = INTEGER: 98 # snmpwalk -v2c -c private 10.1.1.1 1.3.6.1.4.1.3320.101.9.2.3 BDCOM-EPON-LLID::bdEponLlid.2.3.1.1.1 = INTEGER: 1 BDCOM-EPON-LLID::bdEponLlid.2.3.1.1.2 = INTEGER: 2 BDCOM-EPON-LLID::bdEponLlid.2.3.1.1.3 = INTEGER: 3 BDCOM-EPON-LLID::bdEponLlid.2.3.1.1.4 = INTEGER: 4 BDCOM-EPON-LLID::bdEponLlid.2.3.1.1.5 = INTEGER: 5 BDCOM-EPON-LLID::bdEponLlid.2.3.1.1.6 = INTEGER: 6 BDCOM-EPON-LLID::bdEponLlid.2.3.1.1.7 = INTEGER: 7 BDCOM-EPON-LLID::bdEponLlid.2.3.1.1.8 = INTEGER: 8 BDCOM-EPON-LLID::bdEponLlid.2.3.1.1.9 = INTEGER: 9 BDCOM-EPON-LLID::bdEponLlid.2.3.1.2.1 = INTEGER: 219 BDCOM-EPON-LLID::bdEponLlid.2.3.1.2.2 = INTEGER: 219 BDCOM-EPON-LLID::bdEponLlid.2.3.1.2.3 = INTEGER: 219 BDCOM-EPON-LLID::bdEponLlid.2.3.1.2.4 = INTEGER: 1 BDCOM-EPON-LLID::bdEponLlid.2.3.1.2.5 = INTEGER: 22 BDCOM-EPON-LLID::bdEponLlid.2.3.1.2.6 = INTEGER: 219 BDCOM-EPON-LLID::bdEponLlid.2.3.1.2.7 = INTEGER: 22 BDCOM-EPON-LLID::bdEponLlid.2.3.1.2.8 = INTEGER: 219 BDCOM-EPON-LLID::bdEponLlid.2.3.1.2.9 = INTEGER: 219 BDCOM-EPON-LLID::bdEponLlid.2.3.1.3.1 = Hex-STRING: E8 94 F6 03 B1 6B BDCOM-EPON-LLID::bdEponLlid.2.3.1.3.2 = Hex-STRING: 64 09 80 68 A6 74 BDCOM-EPON-LLID::bdEponLlid.2.3.1.3.3 = Hex-STRING: C4 E9 84 68 37 7D BDCOM-EPON-LLID::bdEponLlid.2.3.1.3.4 = Hex-STRING: 44 6A 2E 57 43 CD BDCOM-EPON-LLID::bdEponLlid.2.3.1.3.5 = Hex-STRING: 64 3E 8C 9C AA 99 BDCOM-EPON-LLID::bdEponLlid.2.3.1.3.6 = Hex-STRING: F4 F2 6D D8 9F A9 BDCOM-EPON-LLID::bdEponLlid.2.3.1.3.7 = Hex-STRING: 44 6A 2E 57 43 CD BDCOM-EPON-LLID::bdEponLlid.2.3.1.3.8 = Hex-STRING: 84 16 F9 D1 6D BF BDCOM-EPON-LLID::bdEponLlid.2.3.1.3.9 = Hex-STRING: 84 C9 B2 5F 47 BB check mac address of onu by mib .docx
  7. Sоrk

    Nexus N3K BGP UA-IX

    Роутинг абонентов на на 3064 не очень хорошая идея, сети управления ещё куда ни шло. Причины: - при каждом topology change очищается arp и mac-таблица (1-2 секунды пропадают пинги) - дефолтное значение copp-s-arp очень низкие и даже если выкрутить по максимуму - будут моменты дропов ARP даже для влана на 250 хостов (рандомное "пропадание интернета" у абонентов), можно вообще отключить copp, но быть готовым ко всему ...
  8. Куплю карту расширения LS3928-2TE-XFP для BDCOM S3928GX по разумной цене, можно б/у. предложения здесь или личным сообщеним.
  9. Sоrk

    freebsd создание vlan

    Есть ещё 3й вариант, если нужно сделать vlan поверх lagg: create_args_lagg1="laggproto lacp laggport em0 laggport em1" ifconfig_lagg1="up" ifconfig_vlan123="vlan 123 vlandev lagg1 192.168.1.1/24" возможно после 8.0 что-то поменялось, но раньше - если делать vlan верх lagg то у интерфейса уменьшался MTU (vlan-интерфейс стартовал раньше чем поднимался LACP). В такой же конфигурации - сначала стартует LACP и только потом поверх него настраивается VLAN.
  10. Есть, но те что дали в TP-link на всю первую страницу пишут что они BETA. так же, они не дали механизма как обновить уже установленные роутеры. и проблема не только в TP-Link, а такие МАК-адреса попадаются на оборудовании UBNT, прошивках OpenWRT, мобильных устройствах с функцией "случайный МАК при каждом подключении", на виртуальных машинах, Dual-WAN роутерах. И достаточно было одного такого "качальщика" на vlan, чтобы были проблемы по вечерам у всего EPON-порта. Конечно plan-per-user спасает, но не у всех он и не везде.
  11. С помощью DEPS показали Китайцам проблему с зеркалированием (по сути происходило "unknown unicast flood") Выпущена тестовая прошивка 10.1.0F Build 71984 Получен новый tiger.blob (размер файла 2114772, строка из файла - iROS Tiger3 4.2.7.67 Apr 16 2019 17:48:38). Из изменений: - OLT больше не отдаёт полную FDB по SNMP (только опрос отдельных ONU) - все "locally administered MAC address" по "show mac address-table" теперь видны в таблице (раньше их не было) и они помечены как STATIC а не DYNAMIC (хотя работают как DYNAMIC) BDCOM(tm) P3616-2TE Software, Version 10.1.0F Build 71984 Copyright by Shanghai Baud Data Communication CO. LTD. Compiled: 2020-3-26 14:44:28 by SYS, Image text-base: 0x10000 ROM: System Bootstrap, Version 0.4.1, Serial num:S15070268 System image file is "Switch.bin" hardware version:V1.0 (RISC) processor with 262144K bytes of memory, 16384K bytes of flash Файлы не выкладываю, поскольку у них ещё статус тестовых.
  12. Sоrk

    BDCOM S2528GX ищу прошивки

    попробуйте тут - http://bdcom.mega.dp.ua/
  13. Nexus 3064 - 48 портов 10g + 4 порта 40G все 48 портов могут работать на скорости 1G
  14. Sоrk

    Клиент всегда неправ?

    Это блок "приватных" МАК-адресов, по аналогии с приватными блоками IP, которые могут повторяться и разных вендоров. И заблокировали BDCOM их судя по всему неспроста, их OLT некорректно обрабатывает, после включения "epon local-mac forward" весь трафик для данных МАКов отправляется на все ОНУшки ветки.
  15. столкнулся с аналогичной проблемой - в некоторых ветках абоненты получают копию трафика других абонентов. После эксперементов выяснилось следующее: проблема связана с "locally administered MAC address" (пул "приватных МАК-адресов") (те самые x2:xx:xx:xx:xx:xx, x6:xx:xx:xx:xx:xx, xA:xx:xx:xx:xx:xx, xE:xx:xx:xx:xx:xx) и их обработкой на BDCOM после введения команды epon local-mac forward По факту получается такое: - весь трафик к МАК-адресам из этого пула отправляется всем абонентом EPON-порта - такие МАК-адреса не видны на EPON-порту и на самой OLT в таблице МАК-адресов - основным источником видится роутер TP-link TL-WR850N, он, по какой-то неведомой причине начинает использовать locally administered МАК-адреса на WAN-порту при автоматической настройке. При этом, если потом удалить WAN-порт и создать по новой, то МАК-адрес WAN-порта становиться "нормальным". Подтверждается экспериментом на пустом EPON-порту: ONU1 - 10.8.93.254 (TP-link TL-WR850N), мак адрес из приватного пула 72:FF:7B:D7:57:F5 (назначен при автоматической настройке), Здесь запускаем speedtest. ONU2 - 10.8.93.4 (Mikrotik) - "обычный" абонент, на нём ничего не запускам, просто включаем сниффер (Touch на Uplink-порту), в результате получаем копию трафика 10.8.93.254. Если мак-адрес у роутера TP-link TL-WR850N будет из "нормального пула" 68:ff:7b:d7:57:f5 (удалил и снова добавил WAN-порт), то никакого лишнего трафика на Mikrotik нет, и он будет виден в таблице мак-адресов OLT. отправил вопрос в представительство TP-Link, пусть пояснят суть манипуляций с МАК-адресами на WAN-порту, но большой вопрос к BDCOM - почему? и куда сдать проблему чтобы не пустили по кругу?
  16. Sоrk

    NAT на freebsd

    ipt_ratelimit - практически не влияет на CPU, на скорости 8 гбит/с включение-выключение шейпера показывает около 5% разницы
  17. Sоrk

    NAT?

    про опцию есть тут: http://www.major12.net/2014/05/high-cpu-load-with-freebsd-ipfw-nat.html сам столкнулся, при нагрузке в 2-3 gbit, если появлялся абонент, который начинал очень активно сканировать сеть (регистратор с вирусом) - нагрузка резко выростала до 100% Актуально было для freebsd 11, менялось ли что-то в 12й версии не знаю. Отключение опции решало проблему и не вызывало жалоб у абонентов. без same_ports при 128 внешних IP сервер с 4 Гб оперативной памяти легко держит 1 млн сессий.
  18. Общался на одном из мероприятий с представителями Cloudflare - они не против того чтобы провайдеры выдавали 1.1.1.1 своим абонентам. Говорят что не устанавливают лимиты на количество запросов и нормально воспринимают NAT-адреса, за которыми сидят много абонентов.
  19. на старой прошивке проявлялась аналогичная проблема, после обновления до 54184 больше не замечал (или небыло массовых пропаданий ...)
  20. https://uablacklist.net/ такой?
  21. Sоrk

    NAT на freebsd

    уточнение, данный конфиг и графики с сервера на E5-1620 v2 (4 ядра), для Xeon E5-1650 v4 (6 ядер) производительность выше ровно пропорционально ядрам. сложно сказать благодаря этому или нет, но 1 млн NAT сессий на сервере живёт так вот же у меня отключен ipv6 и 4-5 гбит без проблем. Или имеется в виду для одной TCP-сессии? но ради эксперимента как-то попробую включить назад. Идея ровно в противоположном - помочь пользователям на нестабильном домашнем WiFi развивать большую скорость в один TCP-поток. Ради этого даже syncookies отключены. Но действительно, на транзитный трафик это не влияет, параметры TCP-окна это это всё же индивидуальная договорённость клиента и сервера.
  22. Sоrk

    NAT на freebsd

    и да, сервер занимается исключительно задачей NAT - никаких dummynet, dns, webserver, netflow/ipcad, dhcp rc.conf ifconfig_ix0="-tso4 -tso6 -lro -vlanhwtso" ifconfig_ix1="-tso4 -tso6 -lro -vlanhwtso" powerd_enable="YES" powerd_flags="-a maximum" tcp_restrict_rst="YES" tcp_drop_synfin="YES" icmp_drop_redirect="YES" icmp_log_redirect="YES" icmp_bmcastecho="NO" tcp_extensions="YES" все сети для статик-нат отправлены в blackhole (если такого не сделать и этот IP почему-то не попал в трансляцию/не занят весь входящих трафик на него будет попадать в L3 петлю BORDER<->NAT SERVER до истечения TTL) route add -net 99.88.77.0/25 127.0.0.1 -blackhole
  23. Sоrk

    NAT на freebsd

    Настройки ядра: /usr/src/sys/amd64/conf/GENERIC - ничего особенного #options INET6 #disable IPv6 options IPFIREWALL options IPFIREWALL_NAT options IPFIREWALL_DEFAULT_TO_ACCEPT options HZ=1000 options NETGRAPH options NETGRAPH_IPFW options NETGRAPH_NAT options NETGRAPH_NETFLOW options NETGRAPH_SPLIT options NETGRAPH_ETHER options NETGRAPH_KSOCKET options NETGRAPH_SOCKET options NETGRAPH_BPF options NETGRAPH_IFACE options NETGRAPH_PPTPGRE options NETGRAPH_TCPMSS options NETGRAPH_VJC device lagg /boot/loader.conf alias_ftp_load="YES" alias_pptp_load="YES" net.inet.tcp.tcbhashsize=4096 net.isr.maxthreads=2 net.isr.defaultqlimit=4096 net.isr.bindthreads=1 cc_htcp_load="YES" cc_chd_load="YES" net.inet.tcp.hostcache.cachelimit="0" net.inet.tcp.tso=0 net.link.ifqmaxlen="2048" hw.ix.tx_process_limit=-1 hw.ix.rx_process_limit=-1 /etc/sysctl.conf net.inet.ip.fw.dyn_max=5000000 net.inet.ip.fw.dyn_buckets=65535 net.inet.tcp.blackhole=2 net.inet.udp.blackhole=1 net.inet.ip.ttl=128 kern.ipc.somaxconn=4096 net.link.ether.inet.log_arp_movements=0 net.inet.icmp.drop_redirect=1 net.inet.icmp.log_redirect=1 net.inet.icmp.bmcastecho=0 net.inet.icmp.maskrepl=0 net.inet.ip.sourceroute=0 net.inet.ip.accept_sourceroute=0 net.inet.tcp.rfc1323=1 net.inet.tcp.hostcache.expire=1 net.inet.ip.redirect=0 net.inet.ip.forwarding=1 net.isr.dispatch=direct net.inet.raw.maxdgram=16384 net.inet.raw.recvspace=16384 net.link.ether.inet.max_age=300 kern.ipc.maxsockbuf=2097152 net.inet.tcp.sendbuf_max=2097152 net.inet.tcp.recvbuf_max=2097152 net.inet.tcp.cc.algorithm=htcp net.inet.tcp.cc.htcp.adaptive_backoff=1 net.inet.tcp.cc.htcp.rtt_scaling=1 kern.ipc.soacceptqueue=1024 net.inet.tcp.mssdflt=1460 net.inet.tcp.nolocaltimewait=1 net.inet.tcp.syncache.rexmtlimit=0 net.inet.tcp.maxtcptw=40960 net.inet.tcp.tso=0 net.inet.tcp.abc_l_var=44 kern.sync_on_panic=1 net.inet.tcp.syncookies=0 net.inet.ip.portrange.first=1024 net.inet.ip.portrange.hifirst=1024 kern.random.harvest.mask=351 net.route.netisr_maxqlen=2048 hw.intr_storm_threshold=9000 net.inet.tcp.rfc6675_pipe=1 ipfw show 00010 allow ip from me to any 00030 allow icmp from any to me 00040 reject tcp from any to table(63) in via vlan10 00050 reject udp from any to table(63) in via vlan10 00110 nat 123 ip from table(5) to any out via vlan21 00120 nat 124 ip from table(6) to any out via vlan21 00130 nat 125 ip from table(16) to any out via vlan21 00140 nat tablearg ip from table(3) to any out via vlan21 00210 nat 123 ip from any to table(7) in via vlan21 00220 nat 124 ip from any to table(8) in via vlan21 00230 nat 125 ip from any to table(17) in via vlan21 00240 nat tablearg ip from any to table(4) in via vlan21 65535 allow ip from any to any vlan10 - внутрнний vlan21 - внешний table 3 #внутренние сети dynamic nat tablearg (ipfw table 3 add 172.17.0.0/16 5) table 5 #внутренние адреса static nat 123 table 6 #внутренние адреса static nat 124 table 16 #внутренние адреса static nat 125 table 4 #внешние адреса dynamic nat tablearg (ipfw table 4 add 99.88.77.66/32 5) table 7 #внешние адреса static nat 123 table 8 #внешние адреса static nat 124 table 17 #внешние адреса static nat 125 пример настройки статик-нат (таких трансляций более 500) ipfw nat 123 config log unreg_only redirect_addr 172.18.1.1 99.88.77.11 redirect_addr 172.18.1.2 99.88.77.12 redirect_addr ... ipfw nat 124 config log unreg_only redirect_addr 172.18.2.2 99.88.77.13 redirect_addr 172.18.2.3 99.88.77.14 redirect_addr ... ipfw nat 125 config log unreg_only redirect_addr 172.18.3.4 99.88.77.15 redirect_addr 172.18.3.5 99.88.77.16 redirect_addr ... Пример настройки динамик-ната (таких трансляций более 100) ipfw table 3 add 172.17.0.0/16 5 ipfw table 4 add 99.88.77.66/32 5 ipfw nat 5 config ip 99.88.77.66 log deny_in unreg_only reset ipfw nat show log nat 5: icmp=0, udp=16, tcp=278, sctp=0, pptp=0, proto=0, frag_id=0 frag_ptr=0 / tot=294 nat 7: icmp=6, udp=306, tcp=7075, sctp=0, pptp=0, proto=0, frag_id=0 frag_ptr=0 / tot=7387 nat 8: icmp=34, udp=658, tcp=8342, sctp=0, pptp=0, proto=0, frag_id=0 frag_ptr=0 / tot=9034 nat 10: icmp=30, udp=1539, tcp=11562, sctp=0, pptp=0, proto=0, frag_id=0 frag_ptr=0 / tot=13131 nat 11: icmp=23, udp=548, tcp=11726, sctp=0, pptp=0, proto=0, frag_id=0 frag_ptr=0 / tot=12297 nat 12: icmp=53, udp=1650, tcp=42239, sctp=0, pptp=0, proto=0, frag_id=0 frag_ptr=0 / tot=43942 nat 13: icmp=31, udp=2079, tcp=29572, sctp=0, pptp=0, proto=0, frag_id=0 frag_ptr=0 / tot=31682 nat 14: icmp=22, udp=1399, tcp=34059, sctp=0, pptp=0, proto=0, frag_id=0 frag_ptr=0 / tot=35480 nat 16: icmp=41, udp=1350, tcp=31768, sctp=0, pptp=0, proto=0, frag_id=0 frag_ptr=0 / tot=33159 nat 17: icmp=8, udp=1592, tcp=14672, sctp=0, pptp=0, proto=0, frag_id=0 frag_ptr=0 / tot=16272 nat 18: icmp=57, udp=1170, tcp=28944, sctp=0, pptp=0, proto=1, frag_id=0 frag_ptr=0 / tot=30172 nat 19: icmp=19, udp=566, tcp=13708, sctp=0, pptp=0, proto=0, frag_id=0 frag_ptr=0 / tot=14293 nat 20: icmp=12, udp=854, tcp=10584, sctp=0, pptp=0, proto=0, frag_id=0 frag_ptr=0 / tot=11450 nat 21: icmp=18, udp=400, tcp=4506, sctp=0, pptp=0, proto=0, frag_id=0 frag_ptr=0 / tot=4924 nat 22: icmp=43, udp=1546, tcp=20871, sctp=0, pptp=0, proto=0, frag_id=0 frag_ptr=0 / tot=22460 nat 23: icmp=49, udp=1829, tcp=25230, sctp=0, pptp=0, proto=0, frag_id=0 frag_ptr=0 / tot=27108 nat 24: icmp=26, udp=62, tcp=2269, sctp=0, pptp=0, proto=0, frag_id=0 frag_ptr=0 / tot=2357 nat 25: icmp=35, udp=611, tcp=16542, sctp=0, pptp=0, proto=0, frag_id=0 frag_ptr=0 / tot=17188 nat 26: icmp=14, udp=193, tcp=1122, sctp=0, pptp=0, proto=0, frag_id=0 frag_ptr=0 / tot=1329 nat 27: icmp=1, udp=80, tcp=2590, sctp=0, pptp=0, proto=0, frag_id=0 frag_ptr=0 / tot=2671 nat 28: icmp=48, udp=2055, tcp=26846, sctp=0, pptp=0, proto=0, frag_id=0 frag_ptr=0 / tot=28949 nat 29: icmp=12, udp=397, tcp=9285, sctp=0, pptp=0, proto=0, frag_id=0 frag_ptr=0 / tot=9694 nat 30: icmp=33, udp=1770, tcp=27310, sctp=0, pptp=0, proto=0, frag_id=0 frag_ptr=0 / tot=29113 nat 31: icmp=78, udp=836, tcp=19699, sctp=0, pptp=0, proto=0, frag_id=0 frag_ptr=0 / tot=20613 nat 32: icmp=69, udp=1807, tcp=32956, sctp=0, pptp=0, proto=0, frag_id=0 frag_ptr=0 / tot=34832 nat 33: icmp=1, udp=29, tcp=2796, sctp=0, pptp=0, proto=0, frag_id=0 frag_ptr=0 / tot=2826 nat 34: icmp=69, udp=479, tcp=24091, sctp=0, pptp=0, proto=0, frag_id=0 frag_ptr=0 / tot=24639 nat 35: icmp=3, udp=140, tcp=4799, sctp=0, pptp=0, proto=0, frag_id=0 frag_ptr=0 / tot=4942 nat 37: icmp=17, udp=251, tcp=4281, sctp=0, pptp=0, proto=0, frag_id=0 frag_ptr=0 / tot=4549 nat 38: icmp=63, udp=2679, tcp=43268, sctp=0, pptp=0, proto=0, frag_id=0 frag_ptr=0 / tot=46010 nat 64: icmp=0, udp=199, tcp=2941, sctp=0, pptp=0, proto=0, frag_id=0 frag_ptr=0 / tot=3140 nat 65: icmp=0, udp=610, tcp=2999, sctp=0, pptp=0, proto=0, frag_id=0 frag_ptr=0 / tot=3609 nat 66: icmp=1, udp=1690, tcp=7648, sctp=0, pptp=2, proto=0, frag_id=2 frag_ptr=0 / tot=9343 nat 67: icmp=4, udp=1061, tcp=6268, sctp=0, pptp=0, proto=0, frag_id=0 frag_ptr=0 / tot=7333 nat 68: icmp=0, udp=1567, tcp=3770, sctp=0, pptp=0, proto=0, frag_id=0 frag_ptr=0 / tot=5337 nat 69: icmp=65, udp=652, tcp=5133, sctp=0, pptp=0, proto=0, frag_id=86 frag_ptr=0 / tot=5936 nat 70: icmp=4, udp=2047, tcp=6630, sctp=0, pptp=2, proto=0, frag_id=0 frag_ptr=0 / tot=8683 nat 71: icmp=4, udp=315, tcp=5447, sctp=0, pptp=4, proto=0, frag_id=0 frag_ptr=0 / tot=5770 nat 72: icmp=3, udp=338, tcp=3401, sctp=0, pptp=0, proto=0, frag_id=0 frag_ptr=0 / tot=3742 nat 73: icmp=3, udp=1012, tcp=6264, sctp=0, pptp=1, proto=0, frag_id=0 frag_ptr=0 / tot=7280 nat 74: icmp=5, udp=1799, tcp=11373, sctp=0, pptp=3, proto=0, frag_id=0 frag_ptr=0 / tot=13180 nat 75: icmp=9, udp=2026, tcp=12259, sctp=0, pptp=8, proto=0, frag_id=0 frag_ptr=0 / tot=14302 nat 76: icmp=1, udp=597, tcp=4629, sctp=0, pptp=0, proto=0, frag_id=0 frag_ptr=0 / tot=5227 nat 77: icmp=2, udp=328, tcp=2967, sctp=0, pptp=3, proto=0, frag_id=0 frag_ptr=0 / tot=3300 nat 78: icmp=6, udp=3333, tcp=16732, sctp=0, pptp=58, proto=0, frag_id=97 frag_ptr=0 / tot=20226 nat 79: icmp=2, udp=647, tcp=3746, sctp=0, pptp=1, proto=0, frag_id=0 frag_ptr=0 / tot=4396 nat 80: icmp=1, udp=2256, tcp=13327, sctp=0, pptp=20, proto=0, frag_id=0 frag_ptr=0 / tot=15604 nat 81: icmp=7, udp=1887, tcp=10885, sctp=0, pptp=9, proto=0, frag_id=0 frag_ptr=0 / tot=12788 nat 82: icmp=29, udp=1353, tcp=8849, sctp=0, pptp=5, proto=0, frag_id=0 frag_ptr=0 / tot=10236 nat 83: icmp=2, udp=495, tcp=4295, sctp=0, pptp=28, proto=0, frag_id=0 frag_ptr=0 / tot=4820 nat 84: icmp=8, udp=821, tcp=6017, sctp=0, pptp=0, proto=0, frag_id=1 frag_ptr=0 / tot=6847 nat 85: icmp=0, udp=42, tcp=610, sctp=0, pptp=0, proto=0, frag_id=0 frag_ptr=0 / tot=652 nat 87: icmp=6, udp=637, tcp=5908, sctp=0, pptp=2, proto=0, frag_id=0 frag_ptr=0 / tot=6553 nat 88: icmp=6, udp=3040, tcp=5745, sctp=0, pptp=0, proto=0, frag_id=4 frag_ptr=0 / tot=8795 nat 90: icmp=4, udp=576, tcp=5988, sctp=0, pptp=0, proto=0, frag_id=0 frag_ptr=0 / tot=6568 nat 91: icmp=0, udp=1237, tcp=2647, sctp=0, pptp=0, proto=0, frag_id=0 frag_ptr=0 / tot=3884 nat 92: icmp=4, udp=1155, tcp=5125, sctp=0, pptp=2022, proto=0, frag_id=0 frag_ptr=0 / tot=8306 nat 93: icmp=6, udp=1085, tcp=10667, sctp=0, pptp=2, proto=0, frag_id=0 frag_ptr=0 / tot=11760 nat 94: icmp=13, udp=277, tcp=1646, sctp=0, pptp=0, proto=0, frag_id=0 frag_ptr=0 / tot=1936 nat 95: icmp=2, udp=583, tcp=3391, sctp=0, pptp=2, proto=0, frag_id=0 frag_ptr=0 / tot=3978 nat 96: icmp=1, udp=136, tcp=2157, sctp=0, pptp=0, proto=0, frag_id=0 frag_ptr=0 / tot=2294 nat 97: icmp=3, udp=26, tcp=573, sctp=0, pptp=0, proto=0, frag_id=0 frag_ptr=0 / tot=602 nat 98: icmp=1, udp=1006, tcp=4728, sctp=0, pptp=1, proto=0, frag_id=0 frag_ptr=0 / tot=5736 nat 99: icmp=8, udp=903, tcp=6259, sctp=0, pptp=1, proto=0, frag_id=0 frag_ptr=0 / tot=7171 nat 100: icmp=3, udp=216, tcp=4377, sctp=0, pptp=3, proto=0, frag_id=0 frag_ptr=0 / tot=4599 nat 101: icmp=0, udp=20, tcp=165, sctp=0, pptp=0, proto=0, frag_id=0 frag_ptr=0 / tot=185 nat 102: icmp=16, udp=7776, tcp=10331, sctp=0, pptp=13, proto=0, frag_id=3 frag_ptr=0 / tot=18139 nat 103: icmp=0, udp=14, tcp=121, sctp=0, pptp=0, proto=0, frag_id=0 frag_ptr=0 / tot=135 nat 104: icmp=0, udp=13, tcp=298, sctp=0, pptp=0, proto=0, frag_id=0 frag_ptr=0 / tot=311 nat 105: icmp=0, udp=2, tcp=91, sctp=0, pptp=0, proto=0, frag_id=0 frag_ptr=0 / tot=93 nat 109: icmp=3, udp=1335, tcp=8232, sctp=0, pptp=15, proto=0, frag_id=0 frag_ptr=0 / tot=9585 nat 111: icmp=5, udp=384, tcp=1994, sctp=0, pptp=0, proto=0, frag_id=0 frag_ptr=0 / tot=2383 nat 112: icmp=0, udp=11, tcp=140, sctp=0, pptp=0, proto=0, frag_id=0 frag_ptr=0 / tot=151 nat 116: icmp=0, udp=49, tcp=472, sctp=0, pptp=0, proto=0, frag_id=0 frag_ptr=0 / tot=521 nat 118: icmp=0, udp=42, tcp=236, sctp=0, pptp=0, proto=0, frag_id=0 frag_ptr=0 / tot=278 nat 119: icmp=5, udp=32, tcp=782, sctp=0, pptp=11, proto=0, frag_id=0 frag_ptr=0 / tot=830 nat 123: icmp=0, udp=0, tcp=15, sctp=0, pptp=0, proto=0, frag_id=0 frag_ptr=0 / tot=15 nat 124: icmp=0, udp=1, tcp=16, sctp=0, pptp=2, proto=0, frag_id=0 frag_ptr=0 / tot=19 nat 125: icmp=140, udp=3929, tcp=24986, sctp=0, pptp=380, proto=5, frag_id=0 frag_ptr=0 / tot=29440 nat 128: icmp=0, udp=20, tcp=1858, sctp=0, pptp=0, proto=0, frag_id=0 frag_ptr=0 / tot=1878 привязка прерываний к ядру (HT отключен): cpuset -l 0 -x 264 cpuset -l 1 -x 265 cpuset -l 2 -x 266 cpuset -l 3 -x 267 cpuset -l 0 -x 269 cpuset -l 1 -x 270 cpuset -l 2 -x 271 cpuset -l 3 -x 272 пропатчен размер таблицы: /sys/netinet/libalias/alias_local.h #define LINK_TABLE_OUT_SIZE 63997 #define LINK_TABLE_IN_SIZE 63997
  24. если кому-то интересно, то есть результаты попытки запустить NAT на VPP 18.10. пробовал режим nat44 - неудачно: - из-за невозможности привязать пул к внешнему IP пользователи постоянно получают разный IP (по мере использования портов). - PPTP VPN, FTP так и не работает через nat44 - и самое главное - постоянно падает под нагрузкой ~ 5-6 Gbit/s
  25. Sоrk

    NAT на freebsd

    ipfw kernel nat на Xeon E5-1650 v4 + Intel X520 + FreeBSD 12.0-RELEASE-p1 результат такой. Реально ли на PF NAT получить меньшую нагрузку?
×