Jump to content

Выбор железа для виртуализации под proxmox


Recommended Posts

кластер на нем пока без кворумной ноды стоит

Если оба сервера в один свич воткнуты можно нормально жить с мастер/слейв архитектурой. Ручками ресинхронизировать и возвращать старого мастера придется после отказа, но это не беда :)
Link to post
Share on other sites
  • Replies 63
  • Created
  • Last Reply

Top Posters In This Topic

Top Posters In This Topic

Popular Posts

Макс, вау такие классные одесские акценты:".....так я вам за него расскажу...." Так приятно слышать, шо аж порадовали мою маму! Спасибо! Сорри - оффтоп.

И я бы еще несколько к грн на простенькую 3-ю ноду кластера накинул (по большому счету хватит и атома). Для кворума. Ну чтобы сплит брэйн не случился И по хорошему - управляемые розетки для stonith (

+1 серверная платформа, есть серверная. Архитектура ксеоновая - не для тазиков, но для благополучия потоков )))

Posted Images

 

Melanxolik, не гоните, зачем Xeon, зачем бегать к кластеру? Xeon, в качестве обогревателя - может быть, ибо другой пользы от него в данном случае в общем-то нет. Даже если автору захочется чего-то покрутить в виртуалках, все равно же все будет упираться в диски. Xeon можно начинать рассматривать, когда весь сервер забит SSDшками.

Вы прикалываетесь? скажите вы кластер на цепхе рулили?

Как уже сказал, автору надо разобраться сперва чего он хочет, и потом под это получать решение.

Xeon выбирается по нескольким причинам: память, архитектура процессора и его заточки,  реализация многопоточности и раздельных кэшей в ядре под каждое из ядер и тд. Хотите работать на десктоп варианте и сутками разбраться чего не пашет или почему так медленно, дело ваше.

+1 серверная платформа, есть серверная.

Архитектура ксеоновая - не для тазиков, но для благополучия потоков :))))

Link to post
Share on other sites

На форуме Николай продавал отличные сервера супермикро, новые (601х), один проц ксеон - уровня i3, 16-24гб озу , без веников... Жрет около 50-60вт , цена вопроса в районе 500$ ,   итого в 25кгрн можно вписатся

Link to post
Share on other sites

 Хотите работать на десктоп варианте и сутками разбраться чего не пашет или почему так медленно, дело ваше.

Бред.

Link to post
Share on other sites

+1 серверная платформа, есть серверная.

Архитектура ксеоновая - не для тазиков, но для благополучия потоков :))))

Это ваши предрассудки. Программам все равно на серверность вашей платформы.

А с потоками там давным давно уже все плохо, но это проблемы архитектуры с общей памятью, а по другому интел не умеет :)

Link to post
Share on other sites

 

Бред.

 

Обоснуйте, только конкретикой.
Тоже с удовольствием послушаю. Решение не на год, два....?
Link to post
Share on other sites

 

+1 серверная платформа, есть серверная.

Архитектура ксеоновая - не для тазиков, но для благополучия потоков :))))

Это ваши предрассудки. Программам все равно на серверность вашей платформы.

А с потоками там давным давно уже все плохо, но это проблемы архитектуры с общей памятью, а по другому интел не умеет :)

Вполне соглашусь со своими предрассудками!

За 13 лет работы и безденежья на хорошее железо их набралось много-много )))))

Link to post
Share on other sites

За 13 лет работы и безденежья на хорошее железо их набралось много-много )))))

Ну то такое, у меня за столько же лет совсем другие выводы: ненадежность железа машинок далеко не в топе причин отказов :) Edited by ttttt
Link to post
Share on other sites

Я не собираюсь начинать с вами холивары. Я просто смотрю на свой гипервизор. Чето я не провожу за ним сутки в поисках того что не работает.
пс, по темае: Человек хочет сервер, с дуру ляпнул 50 к ему сказали да. И понеслось. Ноды кластера облака ксеоны.

Link to post
Share on other sites

 

 

Я просто смотрю на свой гипервизор

гипевизор или кластер? будьте любезны определитесь.

так как 1 машина это не 20ть машин, и подходы к построению системы не то что отличаются а совершенно разные.

Link to post
Share on other sites

 

Я просто смотрю на свой гипервизор

гипевизор или кластер? будьте любезны определитесь.

так как 1 машина это не 20ть машин, и подходы к построению системы не то что отличаются а совершенно разные.

 

Окей я смотрю на два гипервизора, завязанных в кластер, и почему-то не провожу сутки в поиске проблем. Так вам лучше?

ПС, ненадо мне сейчас рассказывать про решения на стопицот машин и суперкластера, мы говрим в контексте данного треда разговоры про 20 нод тут неуместны. БТВ, ув. меланхолик, погуглите на чем построен кластер гугля (такой вот калабур).

Link to post
Share on other sites

 

За 13 лет работы и безденежья на хорошее железо их набралось много-много )))))

Ну то такое, у меня за столько же лет совсем другие выводы: ненадежность железа машинок далеко не в топе причин отказов :)
Мы ведь не обсуждаем ТОП отказов?
Link to post
Share on other sites

Мы ведь не обсуждаем ТОП отказов?

А как же без этого? Сервер не в вакууме эксплуатируется и реально у серверных платформ нет никаких преимуществ по надежности.
Link to post
Share on other sites

В основании пирамиды лежит кластерный массив, единичным узлом которого был недорогой и далеко не лучший по надёжности компьютер — сервер Google. Его архитектура была разработана в 2005 году талантливым Беном Джеем (Ben Jai). Своё детище, до поры хранившееся в секрете, Бен называл «манхэттенским проектом» Google — и неспроста. В то время как дорогостоящие отказоустойчивые кластеры использовали сложные системы резервного питания, каждый из серверов Google толщиной в 3,5 дюйма (2U в стоечной терминологии) нёс на борту… собственную двенадцативольтовую батарейку.


Абсурд? Отнюдь. Использование в качестве резервного источника питания не централизованной системы бесперебойного питания, а недорогих батарей, монтируемых прямо на сервере, многократно снизило затраты на аппаратную составляющую империи Google. Договориться с поставщиком материнских плат (на первых порах эту роль играла компания Gigabyte) о небольшой модификации блока распределения напряжения оказалось куда дешевле, чем городить отработанные кем-то решения по резервированию питания.


Если бы не дешёвое «железо», Google не смог бы расти с такой скоростью. Вскоре у компании насчитывалось несколько сотен тысяч серверов. Центры обработки данных Google росли как грибы после дождя. В них монтировали сотни стандартных морских контейнеров, каждый из которых «упаковывался» стойками, содержащими 1 160 серверов. Один такой контейнерный узел потреблял 250 киловатт.


 


post-12403-0-74803300-1414588638_thumb.jpg

Link to post
Share on other sites

 

Мы ведь не обсуждаем ТОП отказов?

А как же без этого? Сервер не в вакууме эксплуатируется и реально у серверных платформ нет никаких преимуществ по надежности.

 

Единственный аргумент который можно принять это два БП. И да, на порос чем Ксеон лучше Ай5 мне ниодин продаван не дал внятного ответа.

Link to post
Share on other sites

 

 

ПС, ненадо мне сейчас рассказывать про решения на стопицот машин и суперкластера, мы говрим в контексте данного треда разговоры про 20 нод тут неуместны.

Пытаюсь до вас донести, что для построения вот таких вот вещей существует специально выведенное железо, которое позволяет без всяких проблем работать и предоставлять услугу.

 

Уточните также, вы используете DRBD для обеспечения отказоусточивости системы или каким методом реализуете общую фс для нод?

 

Но хотя подозреваю что в двухузловом кластере  максимум что действительно можно отжать это drbd поверх какого-то raid массива, ну и такие вещи как fence и ha конечно нервно курят.

 

 

Ага, то есть по вашей статье гугл юзает I3 для своих кластеров и обычную память, с другой стороны это гугл и его ресурсы програмирования и технологий находятся вне нашей доступности. Вплоть до того что они дублируют свои узлы и вполне используют shared memory между нодами.

Link to post
Share on other sites

 

 

Если оба сервера в один свич воткнуты можно нормально жить с мастер/слейв архитектурой. Ручками ресинхронизировать и возвращать старого мастера придется после отказа, но это не беда

Угу, свичок погас - и получили 2 мастера, каждый из которых нагадил кучу данных на ФС/в БД пока дошли руки сплит брэйн разрулить...

Тута надо отдельный линк патч-кордом между серверами. А в идеале - сагрегировать этот отдельный линк со вторым линком в общий свич...

 

 

 

Архитектура ксеоновая - не для тазиков, но для благополучия потоков

Если уж на то пошло - лга1155/лга1150/лга2011 зион практически ничем не отличается от аналогичного десктопного камня. Некоторые серверные фичи зарезают в десктопных камнях (как на i5 - ЕСС), иногда - кеш немного зарезается, но в целом - разницы в архитектуре нет. Вообще нет.

 

 

 

При том что попробуйте запихнуть I3 рекомендованный на мамку с ipmi и поддержкой ECC

Легко. http://www.supermicro.com/products/motherboard/Xeon/C220/X10SLL_-F.cfm к примеру.

 

К слову, ipmi реально нужен только в том случае, если до серверной ехать хрензнаетсколько км. Если надо пройти в соседнее крыло или спуститься на пару этажей - ipmi в принципе не особо важен. Удобно, да, но не критично.

Link to post
Share on other sites
Если надо пройти в соседнее крыло или спуститься на пару этажей - ipmi в принципе не особо важен

Ровно до тех пор пока не свалил в коммандировку или отпуск, ну или заболел и остался дома, а там как раз рухнул этот самый клевый кластер построенный на обычном десктоп железе.

 

Извните конечно, но я лучше докину $ и сделаю так чтобы даже если будет совсем попа, мне не надо было носится по городу как ошпареному, а достаточно было обычного подключения к сети.

 

+1 к резервирования сетевого подключения, это избавляет от большого количетства проблем.

 

 

Если правильно помню, то разница серверных и десктоп процессоров это в разделяемости cache между ядрами,  соотствественно это очень сильно влияет многопоточность приложений.

Edited by Melanxolik
Link to post
Share on other sites

 

 

И да, на порос чем Ксеон лучше Ай5 мне ниодин продаван не дал внятного ответа.

Только поддержка ЕСС (если E3 vs i5/i7). Для которой надо еще и соотв. мамку.

Link to post
Share on other sites

 

Мы ведь не обсуждаем ТОП отказов?

А как же без этого? Сервер не в вакууме эксплуатируется и реально у серверных платформ нет никаких преимуществ по надежности.
:)

Честно. Улыбнули.

Тазики китайские с бытовушными винтами не живут более трех лет.

О серверных сборках из серверных комплектующих я ТАКОГО не скажу. Из собственного опыта. Живут пока не надоедят.

А о брендовых юнитовых и винтах, их комплектующих - вообще просто помолчу.

Мой опыт правда ограничивался брендом IBM.

Edited by Norther
Link to post
Share on other sites

 

 

Ровно до тех пор пока не свалил в коммандировку или отпуск, ну или заболел и остался дома, а там как раз рухнул этот самый клевый кластер построенный на обычном десктоп железе.

Для таких случаев есть коллега-напарник всегда. Потому как человек в отпуске имеет полное право отключить все телефоны и отдыхать. И имеет полное право уйти на больничный, без постоянных звонков с места работы.

Link to post
Share on other sites

Угу, свичок погас - и получили 2 мастера, каждый из которых нагадил кучу данных на ФС/в БД пока дошли руки сплит брэйн разрулить...

С чего вдруг? На слейв переключение должно быть перманентным после отказа, никакого возврата на прошлого мастера без вмешательства админа, как раз чтобы split brain не случился.
Link to post
Share on other sites

 

 

Тазики китайские с бытовушными винтами не живут более трех лет.

Живут. У меня в эксплуатации есть тазики и 2008 года сборки (более старый хлам уже поубирали - и совсем не по причине отказов). Работают и не пыхтят. И винты по 50 тыс. часов нааботки, обычные десктопные - тоже имеются. И типа серверные винты, сородичи десктопных, мрут ничуть не хуже десктопов.

Link to post
Share on other sites

 

 

С чего вдруг? На слейв переключение должно быть перманентным после отказа, никакого возврата на прошлого мастера без вмешательства админа, как раз чтобы split brain не случился.

 

А кто мастеру доложит, что это свичок умер, а не слэйв? Или кто слэйву доложит, что мастер - жив, а умер свич? Пушкин что ли? :)

Рвется связь между нодами - и вот вам 2 мастера.

Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
  • Recently Browsing   0 members

    No registered users viewing this page.


×
×
  • Create New...