stunt 19 Posted 2020-03-06 11:52:32 Share Posted 2020-03-06 11:52:32 11 часов назад, Nubs сказал: Я бы брал самые дешевые хуананы вообще. 2011-3 под 10 гбит не нужно, хватит даже 1366 Памяти 32 гб с запасом, рейд тут ни к чему, ссд любые самые дешевые Данную задачу можно решить десятком способов, выбирать как только вам) Можно и на 775 сокете кор2квад, чего уж. Только если мы говорим о сервере то это энергопотребление, быстрые шины, iops контроллера, IPMI (который на 1366 уже не выдерживает критики). 2 часа назад, Bogdan.Lukashov сказал: Зачем памяти действительно много ставит? 32Gb посчитал стандарт. HP ProLiant DL380e Gen8 25x SFF Hot-Swap просто есть цена хорошая на эту платформу выходит порядка 200$ старт конфигурации. Темболее что полка на 25 винтов. RAID-0 чисто для скорости думаю собрать из 4х винтов и в будущем так делать остальные 20 винтов. Два порта по 10G хватит на раздачу. В процц нагрузка не будет упиратся LA? Вы правда думаете что изначальное "удобство" создания пула в виде рейд0 компенсирует его бесполезность при значительной нагрузке и огромный риск его разваливания в первый же год? На раздачу чего? mp4, hls? Если такая позиция по железу, то я представляю что там может быть по софту и конфигурации nginx, тогда никакое железо не спасет) 1 Link to post Share on other sites
Bogdan.Lukashov 2 Posted 2020-03-06 14:42:34 Author Share Posted 2020-03-06 14:42:34 С железом вопросов больше нет, рейд-0 для раздачи 100-300мб скодированных видео достаточно думаю. Массив добавлять по мере необходимости по 4Тб и скидывать бекап раз в сутки на сата винты 4Тб. Диски не должны умирать только от чтения, запись будет ничтожна малая. У кого то был печальны опыт с SSD этой серии на чтение? Во сколько оцениваете риск RAID-0 на 4х SSD. ? Link to post Share on other sites
smartlid 2 Posted 2020-03-06 18:43:31 Share Posted 2020-03-06 18:43:31 4 часа назад, Bogdan.Lukashov сказал: С железом вопросов больше нет, рейд-0 для раздачи 100-300мб скодированных видео достаточно думаю. Массив добавлять по мере необходимости по 4Тб и скидывать бекап раз в сутки на сата винты 4Тб. Диски не должны умирать только от чтения, запись будет ничтожна малая. У кого то был печальны опыт с SSD этой серии на чтение? Во сколько оцениваете риск RAID-0 на 4х SSD. ? Рейд не нужен Link to post Share on other sites
tkapluk 925 Posted 2020-03-07 14:20:39 Share Posted 2020-03-07 14:20:39 В 04.03.2020 в 19:10, Bogdan.Lukashov сказал: Но тут вопрос в другом сможем ли выжать скорость по SSD Зачем вам то сата? Это замерял на виртуалке. Пара SAMSUNG PM981 512GB в софтовом рейте, сервак рабочий - прямо в момент замеров крутится база, сайты, винда на виртуалке с 1с. Но не совсем понятны условия, вы хотите с 4ТБ выжать 10Г трафика... а потом расшириться до 20ТБ... 50Г трафика? Link to post Share on other sites
ger123 3 Posted 2020-04-16 19:25:33 Share Posted 2020-04-16 19:25:33 (edited) Для вашей задачи HP платформа имеет ряд нюансов. Самый главный из которых- это плохая совместимость со сторонними RAID контролерами. Контролер HP P822 (по производительности не отличается от P420) выдает +- 180 тыс. операций в секунду обращений к дискам. Таким образом он упрется уже в 4 средних SSD при случайных операциях. (Rndom read/write). У вас 25 карманов, расширение более 4 SSD даст прирост объема хранения, но не скорости случайных операция. Если же патерн доступа к дискам не предусматривает большого количества случайных обращений, то в разы дешевле поставить SAS шпинделя. На большом количестве шпинделей линейная скорость чтения/ записи будет на высоком уровне. Кроме того ваш P822 поддерживает SSD кеширование и можно закешировать горячие данные, если такие есть. Я собирал системы под БД на 8 SAS SSD RAID 10 с показателями случайное чтение 700 тыс. операций, запись 300 тыс. Edited 2020-04-16 19:27:07 by ger123 Link to post Share on other sites
Recommended Posts
Create an account or sign in to comment
You need to be a member in order to leave a comment
Create an account
Sign up for a new account in our community. It's easy!
Register a new accountSign in
Already have an account? Sign in here.
Sign In Now