Oleg Doneck 94 Posted 2011-11-02 12:12:08 Author Share Posted 2011-11-02 12:12:08 Если сравнивать Бордер, NAS-IPoE, NAS-PPPoЕ, то какие сервисы на них в основном грузяц проц? Поправьте если ошибаюсь: Бордер - трафик + ппс + бгп немного NAS-IPoE - шейпера + трафик + ппс (нагрузка прекрасно балансируется между ядрами) NAS-PPPoЕ - тунели + шейпера + трафик + ппс (тунели перегружают одно ядро) поправьте в чём я заблуждаюсь или чего не учёл? Link to post Share on other sites
KaYot 3,732 Posted 2011-11-02 12:19:32 Share Posted 2011-11-02 12:19:32 На бордюре нагрузку давать будет только маршрутизация трафика, требования к железу минимальны. BGP ничего не ест. На NASах основную нагрузку дадут шейперы и NAT, если он используется. Тоннели для pppoe 'бесплатны' и нагрузки не создают. В принципе PPPoE НАСы тоже можно заставить использовать все ядра, у меня сейчас сервера используют по 3 ядра из 4 - на сетевке смотрящей во внешний мир поднято 2 очереди, на сетевке смотрящей в сеть и принимающей ppp - 1. Ни кто не мешает добавить еще одну физическую сетевку и раскидать виланы на оба интерфейса, будет равномерная загрузка 4ех ядер. Link to post Share on other sites
NiTr0 585 Posted 2011-11-02 12:20:41 Share Posted 2011-11-02 12:20:41 NAS-PPPoЕ - тунели + шейпера + трафик + ппс (тунели перегружают одно ядро) В общем-то все не так печально, с приходом RPS в ядра. Но равномерной балансировки все равно не получится - хотя может в свежих ядрах RPS более адекватно работает по сравнению с .35 Link to post Share on other sites
Oleg Doneck 94 Posted 2011-11-06 16:36:43 Author Share Posted 2011-11-06 16:36:43 Raid5 оставьте для домашних извращений, если нужна надежность raid1, надежность и скорость - 1+0. Бред. Все зависит от контроллера. Raid6. Areca ARC-1680ix-8 + 12HDDх2Тб (Seagate Constellation ) в результате отказоустойчивый массив на 20Тбайт в 2U корпусе: dd if=/dev/zero of=/data.test bs=102400 count=102400 102400+0 records in 102400+0 records out 10485760000 bytes (10 GB) copied, 14.8721 s, 705 MB/s При этом 1+0 даст всего 12Тбайт, а по производительности не выиграет чуть менее чем никак. ЭТО конечно не авторитет, но что скажете на счёт падения производительности 5-6 рейдов на запись? Link to post Share on other sites
KaYot 3,732 Posted 2011-11-06 22:21:56 Share Posted 2011-11-06 22:21:56 Собственно, то о чем я и говорил. Может быть для 20 дисков и супер-умного контроллера с гигом памяти и независимым питанием в хитрых рейдах и есть смысл(не встречал таких ситуаций), то для БД ISP нет ничего лучше RAID1 или RAID1+0(если дисков >2). Link to post Share on other sites
Oleg Doneck 94 Posted 2011-11-07 07:42:14 Author Share Posted 2011-11-07 07:42:14 Собственно, то о чем я и говорил. Может быть для 20 дисков и супер-умного контроллера с гигом памяти и независимым питанием в хитрых рейдах и есть смысл(не встречал таких ситуаций), то для БД ISP нет ничего лучше RAID1 или RAID1+0(если дисков >2). на серверных платформах в комплете идёт рэйд контроллер, вопрос что лучше с точки зрения эксплуатации, софтовый или хардовый рэйд? Link to post Share on other sites
NEP 217 Posted 2011-11-07 10:39:50 Share Posted 2011-11-07 10:39:50 ЭТО конечно не авторитет, но что скажете на счёт падения производительности 5-6 рейдов на запись? Это бред. Все зависит от контроллера. Link to post Share on other sites
NEP 217 Posted 2011-11-07 10:40:51 Share Posted 2011-11-07 10:40:51 на серверных платформах в комплете идёт рэйд контроллер, вопрос что лучше с точки зрения эксплуатации, софтовый или хардовый рэйд? С точки зрения производительности ничего дешевле чем SSD нет. Link to post Share on other sites
Oleg Doneck 94 Posted 2011-11-07 12:34:14 Author Share Posted 2011-11-07 12:34:14 на серверных платформах в комплете идёт рэйд контроллер, вопрос что лучше с точки зрения эксплуатации, софтовый или хардовый рэйд? С точки зрения производительности ничего дешевле чем SSD нет. Перефразирую вопрос - выбор оптимальной дисковой подсистемы для следующих серверов с точки зрения надёжности и достаточной производительности: 1)Бордер 2)НАС 3)Биллинг+БД 4)ДНС Если применять SSD винты то нужно минимизировать на них запись данных и для серверов БД они не подойдут. Читал на наге некоторые комбинируют SSD винты(на них стоит система с конфигами) и обычные(сюда льются логи и прочая дрянь). Что касается хардовых рейдов, с одной стороны можно без лишних манипуляций вытянуть любой винт на работающем сервере и воткнуть новый после чего пойдёт востановление рэйда, но что будет если в самом контроллере будут проблемы? софтовый рейд сломаться не может но умеет он горячую замену винтов и как там с уведомлением о том что винт умер? Link to post Share on other sites
KaYot 3,732 Posted 2011-11-07 12:46:22 Share Posted 2011-11-07 12:46:22 1) raid1 2) одиночный винт/флешка. Что плохого в умирании NASa если он не один? Или raid1 3) raid1/raid10 4) raid1 Я люблю софт-рейды, sata позволяет горячее подключение устройств и проблем с этим нет. Уведомление о том что умер винт мне лично приходят в виде sms и почтовых сообщений от nagios'a, мониторинг и ремонт прост и удобен. Link to post Share on other sites
Гайджин 574 Posted 2011-11-07 13:03:46 Share Posted 2011-11-07 13:03:46 Если применять SSD винты то нужно минимизировать на них запись данных и для серверов БД они не подойдут. Читал на наге некоторые комбинируют SSD винты(на них стоит система с конфигами) и обычные(сюда льются логи и прочая дрянь). SSD под БД очень даже хорошо идут - только не надо брать SOHO модели и лить на них логи. Т.е. диск использовать исключительно под БД и помнить, что через пару лет его надо сменить. Link to post Share on other sites
NEP 217 Posted 2011-11-07 14:24:50 Share Posted 2011-11-07 14:24:50 Если применять SSD винты то нужно минимизировать на них запись данных и для серверов БД они не подойдут. Читал на наге некоторые комбинируют SSD винты(на них стоит система с конфигами) и обычные(сюда льются логи и прочая дрянь). SSD под БД очень даже хорошо идут - только не надо брать SOHO модели и лить на них логи. Т.е. диск использовать исключительно под БД и помнить, что через пару лет его надо сменить. Ресурс современных SSD (Intel, OCZ Vertex) 2+ млн часов Это даже правнукам хватит Link to post Share on other sites
Sargas 52 Posted 2011-11-07 14:29:47 Share Posted 2011-11-07 14:29:47 У них же вроде ограниченное кол-во раз перезаписи? Читай сколько хочешь, а записывать и удалять ограниченное кол-во раз только. Link to post Share on other sites
NEP 217 Posted 2011-11-07 14:30:59 Share Posted 2011-11-07 14:30:59 У них же вроде ограниченное кол-во раз перезаписи? Читай сколько хочешь, а записывать и удалять ограниченное кол-во раз только. Ну да, ограничено, если каждый день за 24 часа будете перезаписывать весь массив, то через 170 лет ресурс исчерпается. На самом деле ограничение есть и у НЖМД обусловленное изнашиванием механических частей. Для серверных моделей Seagate Constellation время наработки на отказ всего 150 000 часов. Link to post Share on other sites
Гайджин 574 Posted 2011-11-07 14:55:48 Share Posted 2011-11-07 14:55:48 Ресурс современных SSD (Intel, OCZ Vertex) 2+ млн часов Это даже правнукам хватит Ну мы Kingston SSDNow SNE125-S2 пользуем - довольны. Link to post Share on other sites
Гайджин 574 Posted 2011-11-07 15:08:14 Share Posted 2011-11-07 15:08:14 Ну да, ограничено, если каждый день за 24 часа будете перезаписывать весь массив, то через 170 лет ресурс исчерпается. Ну тут скорее все же не так радужно. На SLC NAND Flash количество циклов Erase/Program стремиться к 100К. Однако контроллер такого диска стремиться размазывать информацию по всему адресному полю при записи, что бы минимизировать количество циклов Erase/Program в одну ячейку. Т.е. для того бы убить диск размером 32Г, его нужно полностью перезаписывать его около 6 раз в час в течении двух лет. - Как по мне достаточно странные условия эксплуатации. Link to post Share on other sites
NEP 217 Posted 2011-11-07 15:11:40 Share Posted 2011-11-07 15:11:40 Ресурс современных SSD (Intel, OCZ Vertex) 2+ млн часов Это даже правнукам хватит Ну мы Kingston SSDNow SNE125-S2 пользуем - довольны. У них 125 000 часов наработки на отказ. Link to post Share on other sites
NEP 217 Posted 2011-11-07 15:14:50 Share Posted 2011-11-07 15:14:50 Ну да, ограничено, если каждый день за 24 часа будете перезаписывать весь массив, то через 170 лет ресурс исчерпается. Ну тут скорее все же не так радужно. На SLC NAND Flash количество циклов Erase/Program стремиться к 100К. Однако контроллер такого диска стремиться размазывать информацию по всему адресному полю при записи, что бы минимизировать количество циклов Erase/Program в одну ячейку. Т.е. для того бы убить диск размером 32Г, его нужно полностью перезаписывать его около 6 раз в час в течении двух лет. - Как по мне достаточно странные условия эксплуатации. Это расчетные данные для ранних чипов. Мир не стоит на месте. Link to post Share on other sites
Sargas 52 Posted 2011-11-07 15:15:59 Share Posted 2011-11-07 15:15:59 Почитал более подробно. Если все так красиво как пишут, то это отлично. Особенно что со временем объем жесткого диска уменьшается и ячейки помечаются как read only и информация не теряется. Можно примерно оценивать когда ему каюк наступит. Link to post Share on other sites
NiTr0 585 Posted 2011-11-07 15:17:10 Share Posted 2011-11-07 15:17:10 на серверных платформах в комплете идёт рэйд контроллер, вопрос что лучше с точки зрения эксплуатации, софтовый или хардовый рэйд? ИМХО - софт-рэйд. Ибо не зависит от глюков конкретного рэйд-контроллера (где-то читал о случае, когда контроллер ребилдил массив посчитав актуальным ранее отпавший диск), легче собирается в случае разваливания, без проблем мониторится, и не зависит от железа (сдох контроллер - переключить в любой другой). Перефразирую вопрос - выбор оптимальной дисковой подсистемы для следующих серверов с точки зрения надёжности и достаточной производительности: 1)Бордер 2)НАС 3)Биллинг+БД 4)ДНС 1, 2) Что угодно. В идеале - рид-онли флэш, ось в RAM, + еженедельные бекапы. У нас так. Хуже - 1 диск или рэйд, без свопа. 3) Рэйд-массив, + достаточно памяти чтобы БД жила в кеше. 4) См. 1). Хотя я не виду смысла делать его отдельно. Даже 500 запросов в секунду не смогут создать ощутимую нагрузку на какой-то атом. Если применять SSD винты то нужно минимизировать на них запись данных и для серверов БД они не подойдут. Читал на наге некоторые комбинируют SSD винты(на них стоит система с конфигами) и обычные(сюда льются логи и прочая дрянь). Система на SSD - ИМХО бред, смысла 0. На БД - можно, в рэйд1, хотя я очень сомневаюсь в целесообразности. Особенно на 2к абонов. 10-20к, когда все упрется в БД - возможно и придется. Что касается хардовых рейдов, с одной стороны можно без лишних манипуляций вытянуть любой винт на работающем сервере и воткнуть новый после чего пойдёт востановление рэйда, но что будет если в самом контроллере будут проблемы? софтовый рейд сломаться не может но умеет он горячую замену винтов и как там с уведомлением о том что винт умер? Горячая замена = AHCI hotplug. Уведомления о degraded array mdadm прекрасно шлет. + если сильно хочется надежности - добавляете один spare диск, или таки рэйд6. Ресурс современных SSD (Intel, OCZ Vertex) 2+ млн часов Это даже правнукам хватит Угу. Со звездочкой, а ниже мелким шрифтом - в идеальных условиях, при записи блоками равными размеру физ. блока SSD, при условии того что на диске занят ничтожно малый объем, и т.д. И часы - ничто, кол-во записей решает. К слову, десктопные SSD весьма успешно мрут, не смотря на то, что вроде как не должны... Link to post Share on other sites
Гайджин 574 Posted 2011-11-07 15:24:02 Share Posted 2011-11-07 15:24:02 У них 125 000 часов наработки на отказ. Дима, для этой конкретной модели все же - MTBF, миллионов часов = 2. Это расчетные данные для ранних чипов. Мир не стоит на месте. Я понимаю что прогресс имеется, я говорю о том, что даже SSD первого поколения были весьма не дурны. Link to post Share on other sites
NEP 217 Posted 2011-11-07 15:25:05 Share Posted 2011-11-07 15:25:05 Угу. Со звездочкой, а ниже мелким шрифтом - в идеальных условиях, при записи блоками равными размеру физ. блока SSD, при условии того что на диске занят ничтожно малый объем, и т.д. И часы - ничто, кол-во записей решает. К слову, десктопные SSD весьма успешно мрут, не смотря на то, что вроде как не должны... Вечного нет ничего. Я четко обозначил производителей. Какие же модели и каких производителей у вас "мрут"? Link to post Share on other sites
Гайджин 574 Posted 2011-11-07 15:26:11 Share Posted 2011-11-07 15:26:11 Угу. Со звездочкой, а ниже мелким шрифтом - в идеальных условиях, при записи блоками равными размеру физ. блока SSD, при условии того что на диске занят ничтожно малый объем, и т.д. И часы - ничто, кол-во записей решает. К слову, десктопные SSD весьма успешно мрут, не смотря на то, что вроде как не должны... Ну по количеству циклов стирания/записи я уже говорил. И опять же - кто то говорил что в сервера надо ставить десктопные SSD? Link to post Share on other sites
NEP 217 Posted 2011-11-07 15:27:20 Share Posted 2011-11-07 15:27:20 Дима, для этой конкретной модели все же - MTBF, миллионов часов = 2. Да, почитал, действительно 2 млн, но это в чистом виде снятая с производства модель Intel. Link to post Share on other sites
Гайджин 574 Posted 2011-11-07 15:33:56 Share Posted 2011-11-07 15:33:56 Да, почитал, действительно 2 млн, но это в чистом виде снятая с производства модель Intel. Именно - это практические и есть Intel X25-E. Так вот в тот момент когда их брали они не так давно стали выпускаться. - Работают и есть не просят. Link to post Share on other sites
Recommended Posts
Create an account or sign in to comment
You need to be a member in order to leave a comment
Create an account
Sign up for a new account in our community. It's easy!
Register a new accountSign in
Already have an account? Sign in here.
Sign In Now