Перейти до

Sashok1985

Маглы
  • Всього повідомлень

    15
  • Приєднався

  • Останній візит

Репутація

0 Обычный

О Sashok1985

  • Звание
    Пролетал Мимо

Информация

  • Пол
    Мужчина

Посетители профиля

623 просмотра профиля
  1. Вопрос по теме, может кто-то сталкивался. В даташитах коммутаторов IGMP snooping указывается как некое число мультикаст групп, но не разьясняется, это число ограничено на весь коммутатор, или только на конкретный влан, который используется? То-есть, 1024 это всего или 1024 на влан?
  2. Ищу управляемый (L2) коммутатор для multicast траффика. Конфигурация: - не менее 24 портов 10/100/1000Base-T (RG-45) - 4 SFP+ - не менее 1024 групп IGMP snooping. Нашол несколько моделей, удовлетворяющих критериям отбора. Дайте пожалуста дельные советы по качеству и может есть ещё у кого модели на примете. D-Link DGS-1210-28X/ME D-Link DGS-1510-28X/ME D-Link DGS-3000-28X Edge-Core ECS4120-28T Juniper EX3400-24T FS S3800-24T4S Tp-Link T2700G-28TQ
  3. Добрый день. Помогите решить проблему. Есть oscam и картридер. Купил карточку провайдера X, для ша___а в свою сеть одного телеканала. На потоке провайдера постоянно сыпятся emm в большом количестве, что подвешивает процесс ocscama и после 2-3 ключей таймаут ecm и ключик 00000000000000, если фильтрую emm shared (оставляя тем самым только уникальные, которые прилетают примерно раз в 20 минут), таймаут пропадает, ключи ша___ся, но, через 30-40 минут ключики снова 00000000000. И тут самое интересное, уникальные emm в логе за это время проходят, но карточка не очухивается. Такое впечатление, что п
  4. Туговато в плане того, что как есть так и нужно оставить)))) (Есть другие нюансы, в кратце, просто линк с одного волокна используется ещё для других целей, там уже есть BGP). Серая адресация также не вариант, сервер доступен извне, прокидывать порты не хочется.
  5. Увы, но с этим провайдером в этом плане туговато. Насчёт спецов и насчёт второй подсети. Желательно решить при существующей конфигурации.
  6. В том то и проблема, что шлюз один, и обе мои сетевухи на сервере получаются в одной подсети. У меня маска подсети 255.255.255.248, в ней один шлюз и оба IP.
  7. Добрый день. Прошу помощи в теоретических познаниях. Есть у меня аплинк провайдер, с которого не допроситься 10G (нет у него свободного для меня порта). Но есть от него 2 штуки 1G линка в разных местах моей сети. Агрегацию (транк) сразу не рассматриваю, так как точки включения физически в разных железках и кроме этого, по одному волокну приходит натив, по второму тагет влан, оба этих канала (натив и тагет у провайдера в одном влане, 1220). Натив провайдера я превращаю в свой тагет 997 и шлю эти оба тегированых влана (1220 и 997) на свой сервер. То-есть в мой сервер они входят в разные сетев
  8. Всем спасибо за консультации. RPS не был лишним, тем более, что ранее, за непониманием его работы, я назначал маску по ядрам, по типу афинити. Маска на все ядра дала не плохой общий результат по ядрам. А вот проблема с полкой оказалась совсем не в этом. Один из абонентов супер заядлый торрентщик. В пики, порождал около 3-4 тыс. запросов в секунду на своём pppoe коннекте. А так как каждый pppoe коннект может обрабатываться только одной очередью, вот он и кладёт одно ядро в полку.
  9. А почему Вы указываете маску процессора (ff) на все ядра? Какой тогда смысл от такого разброса?
  10. Оптимизации по типу smp_afinity, ethtool -K -G и так далее выполнены, но эффекта особого не дают. В том числе "/sys/class/net/eth0/queues/rx-0/rps_cpus" также не дают ничего толкового. Как бы не распределял, одно ядро всегда почти в полку. Уточните пожалуйста, что вы имеете в виду? Раскидать по очередям. smp_afinity и rps_cpus или что-то ещё?
  11. ))) опечатался. pppoe Centos 7. Irqbalance в пики не справляется. Одно ядро всеравно сваливается в полку.
  12. Помогите решить проблему. Есть сервер: Intel(R) Core(TM) i7-3770 CPU @ 3.40GHz, Intel Corporation 82599ES 10-Gigabit SFI/SFP+ Network Connection (rev 01). На нём вращается биллинг, шейпер. За ним около 1к клиентов (pptp). В моменты пик (а то и ранее), очень высокий уровень system interrupts и не равномерно по ядрам. Оптимизации по типу smp_afinity, ethtool -K -G и так далее выполнены, но эффекта особого не дают. На сетевой карте, наблюдаются RX mcast потери. Сетевуха одна, на ней вращается порядка 20 вланов.
  13. Подскажите. Есть два разноцветных медика SFP+ WDM по 20 км каждый. Можно ли в качестве теста, соединить их обычным патчем (так сказать в пределах стойки)? Есть риск подпалить приёмники?
  14. Также сперва думал про такой вариант, но тогда нужно брать другую сетевую карту, не DA серии, а SR (многомодовая), а она стоит примерно в 2 раза дороже. Оптика то конечно лучше чем медь, но расстояние у меня в пределах одной стойки. Поэтому хочется всё же DAC
  15. Всем привет. Прошу поделиться опытом, кто сталкивался. Планирую модернизацию серверной. В качестве корневой будет куплен Edge Core ESC4620-28f. В нём есть 2-е SFP+ шахты 10G. Одну из шахт задействую на подключение сервера. В сервер будет установлена Intel X520DA1. Для связки Edge Core и сервера будет заводской Direct Attach кабель от Intela. Так вот собственно сам вопрос. Не возникнет ли у Edge Core конфликта с данным кабелем? Может кому-то приходилось собирать подобную схему?
×
×
  • Створити нове...