Перейти до

Железо под NAS сервер.


Рекомендованные сообщения

Пришло время апгрейда железа. Подбираю для будущего NAS сервера с учетом двукратного роста в будущем, как по трафику, так и по количеству pppoe-подключений.

 

Текущие исходные данные:

Трафик IN/OUT: 400M/300M

PPPoE-соединений: 350

VLAN сегментов: 10

+ шейпер, + SNMP.

NAT есть, 30% за NAT, остальные на реальных адресах.

 

Конфигурация NAS:

Процессор: Intel Core i5-3330

Материнская плата: Intel DQ77MK

Память: DDR3-1600 2x2Gb

USB Flash: 8Gb

ОС: Linux

 

Система будет грузиться с USB (с последующим отмантированием) и висеть в памяти. Все нужные логи пишутся на отдельный сервер.

 

По идеи должно хватить под мои нужды "с головой". Вопросы больше по сетевым картам на материнской плате.

 

На плате встроено две сетевых, на чипах:

Intel 82579LM и Intel 82574L

 

Какую из них лучше включить в ядро, а какую на ppp-соединения?

 

В крайнем случае можно задействовать PCI-E 4x или PCI-E 16x, благо есть. Но хочется без дополнительных затрат.

 

ЗЫ: В настоящий момент трудятся несколько NAS: Q6600, 2Гб DDR2-800, Intel 82571EB (2xLAN). С данной нагрузкой они справляются на ура. Вот на замену и в дополнение к ним и будет данный сервер.

 

ЗЫ2:

Характеристика Intel DQ77MK

  • чипсет Intel Q77
  • до 4 планок памяти DDR3 DIMM частотой 1333 - 1600 МГц
  • слоты расширения: 1xPCI-E x16, 1xPCI-E x4, 1xPCI-E x1, 1xPCI
  • разъемов SATA 3Gb/s: 3, разъемов SATA 6Gb/s: 2
  • на задней панели: 6xUSB, из них 2xUSB 3.0, FireWire (IEEE1394a), COM, DVI, DisplayPort, eSATA, 2xEthernet

Ссылка на сообщение
Поделиться на других сайтах

Чего-то я в этой жизни не понимаю. У вас сейчас несколько NASов на Q6600 трудится над 350 PPPoE сессиями? И вы к ним хотите добавить еще один? Собственно, подобный описанному вами тазик(правда на i5-3750) у нас сейчас работает как PPPoE BRAS, в час пик держит ~1600 сессий и 1.2Гбит трафика(большее направление), загрузка до 20%. Правда без NATa, но и у вас его немного.

Ссылка на сообщение
Поделиться на других сайтах

на каждом 350 +- 50

 

в данный момент на самом загруженном:

416 pppoe соединений

 

top - 20:48:15 up 47 days, 12:13, 1 user, load average: 0.00, 0.02, 0.05

Tasks: 483 total, 1 running, 482 sleeping, 0 stopped, 0 zombie

Cpu(s): 0.1%us, 0.1%sy, 0.0%ni, 68.7%id, 0.0%wa, 0.0%hi, 31.1%si, 0.0%st

Mem: 2849184k total, 1819340k used, 1029844k free, 20288k buffers

Swap: 0k total, 0k used, 0k free, 1488704k cached

 

трафик: 380M (к абонентам) + 320M (от абонентов)

 

Вопрос в том, что материнским платам уже больше 4 лет. Пора менять.

 

ЗЫ. На этом НАСе 3Гб ОЗУ.

Ссылка на сообщение
Поделиться на других сайтах

Ну тогда сценарий будет такой - новый сервер заберет 600-700 сессий и 500+мбит, бортовые сетевки при этом сдуются и полетят потери пакетов. Старые сервера останутся с 100 сессий на каждом и нулевой загрузкой :)

Ссылка на сообщение
Поделиться на других сайтах

Значит до 500М бортовые будут тянуть. Не фонтан конечно, но тоже ничего. В крайнем случае доставлю в PCI-E x4 двухголовую карту.

 

Хотя вопрос остается открытым

На плате встроено две сетевых, на чипах:

Intel 82579LM и Intel 82574L

 

Какую из них лучше включить в ядро, а какую на ppp-соединения?

 

По даташитам на интел.ру я особой разницы не увидел.

Ссылка на сообщение
Поделиться на других сайтах

может пора задуматся о переводе сети на vlan на аобонета, и избавится от этого pppoe ?

А толку? Нагрузки pppoe не дает абсолютно, а вот удобство в тупых/полууправляемых сетях существенное.

Ссылка на сообщение
Поделиться на других сайтах

может пора задуматся о переводе сети на vlan на аобонета, и избавится от этого pppoe ?

раз уж предложили, не подскажите чем (какими протоколами) и на чем (на каком железе: свитч, конфигурация шлюза) шейпите абонентов?

Ссылка на сообщение
Поделиться на других сайтах
На плате встроено две сетевых, на чипах:

Intel 82579LM и Intel 82574L

 

Какую из них лучше включить в ядро, а какую на ppp-соединения?

Без разницы. У меня такие сетевки ворочают до 800М в пиках, в среднем 500-600М, правда без pppoe.
Ссылка на сообщение
Поделиться на других сайтах

А можете показать на каких прерываниях они сидят:

 

# cat /proc/interrupts | grep eth

 

И как их видит система:

 

# lspci | grep 825

 

 

Можно ли их "размазать" по процессорам?

Ссылка на сообщение
Поделиться на других сайтах

eth0 = 82579

$ cat /proc/interrupts | grep eth
44: 1364365442 0 0 0 PCI-MSI-edge eth0
45: 5008 0 4287984276 0 PCI-MSI-edge eth1-rx-0
46: 234 0 0 1015030733 PCI-MSI-edge eth1-tx-0
47: 3 0 0 0 PCI-MSI-edge eth1

Дополнительно задейстован RPS.

 

$ /usr/sbin/lspci | grep 825
00:19.0 Ethernet controller: Intel Corporation 82579LM Gigabit Network Connection (rev 05)
02:00.0 Ethernet controller: Intel Corporation 82574L Gigabit Network Connection

Ссылка на сообщение
Поделиться на других сайтах

Право не понимаю зачем размазывать. По-моему, лучше поприбивать прерывания к ядрам и при необходимости включить RPS.

Ссылка на сообщение
Поделиться на других сайтах

Создайте аккаунт или войдите в него для комментирования

Вы должны быть пользователем, чтобы оставить комментарий

Создать аккаунт

Зарегистрируйтесь для получения аккаунта. Это просто!

Зарегистрировать аккаунт

Вхід

Уже зарегистрированы? Войдите здесь.

Войти сейчас
  • Зараз на сторінці   0 користувачів

    Немає користувачів, що переглядають цю сторінку.

×
×
  • Створити нове...