Jump to content

1155 box кулер - обрезать до 1U получится?


Recommended Posts

  • Replies 71
  • Created
  • Last Reply

Top Posters In This Topic

Top Posters In This Topic

Popular Posts

NAS - и в 1 поток?

мы уходим от истины, заявление было о том что при значительном трафике с виртуального сервера грузятся реальные ядра проца процессами виртуализации и о том что трафик в 30 мб парализует работу сервера,,,

 

Да, парализует, 30Мб в 100 потоков.

 

чем мне эти 100 потоков сэмулировать? обещаю показать графики

 

 

wget

 

test.sh
#!/bin/bash
for i in `cat url.txt`;
do
wget -r -b -nc $i
done

на сервере винда и веб/ftp сервера на ней нет

 

Ну а как вы получаете данные netbios?

Link to post
Share on other sites

Ну и чисто ради интереса, во сколько вам обошлась: плата + бп + корпус + радиатор самосбора?

Прикидываем

корпус с БП 1400 грн

мать около 500 грн

проц i3 950 грн

память 2х4Gb 200 грн

винт 2х500Gb SATA 800 грн

итого 2900 грн

 

 

Разница с супермикровской платформой 700 грн

добавим к платформе проц, память, винты и получим разницу не 700 грн, а 2700, если не больше.

Link to post
Share on other sites

NEP: все таки ты гонишь. Вон у DarkSpider'a вообще сервер доступа стоит в виртуалке и замечательно лопатит сотни мегабит с натом, шейпингом и терминацией туннелей. Оверхед по загрузке железа от этого минимальный.

Да и тема ну совсем не про виртуалки, трафик и цену говенных платформ от супермикро..

Link to post
Share on other sites

мы уходим от истины, заявление было о том что при значительном трафике с виртуального сервера грузятся реальные ядра проца процессами виртуализации и о том что трафик в 30 мб парализует работу сервера,,,

 

Да, парализует, 30Мб в 100 потоков.

 

чем мне эти 100 потоков сэмулировать? обещаю показать графики

 

 

wget

 

test.sh
#!/bin/bash
for i in `cat url.txt`;
do
wget -r -b -nc $i
done

на сервере винда и веб/ftp сервера на ней нет

 

Ну а как вы получаете данные netbios?

я не получаю netbios ....

 

если Вы о графиках, так это из клиента сферы графики,,,, :)

Link to post
Share on other sites

NEP: все таки ты гонишь. Вон у DarkSpider'a вообще сервер доступа стоит в виртуалке и замечательно лопатит сотни мегабит с натом, шейпингом и терминацией туннелей. Оверхед по загрузке железа от этого минимальный.

Да и тема ну совсем не про виртуалки, трафик и цену говенных платформ от суцпермикро..

 

Все зависит от гипервизора и подджерки технологий Intel VT в том числе и на уровне сетевых контроллеров. Оверхед на XEN, KVM, OpenVZ таков, что при маршрутизации траффика 100Мбит (10к pps) через виртуалку под управлением этих гипервизоров загрузка одного ядра под 100%. При этом та же задача на хосте решается с загрузкой процессора <1%.

 

ESXi 5 я не тестировал. Предыдущие версии давали тот же результат что и XEN, KVM, OpenVZ...

 

если Вы о графиках, так это из клиента сферы графики,,,, :)

 

Ну хорошо, вы сказали, между двумя серверами передаете информацию. По какому протоколу?

Link to post
Share on other sites

Ну и чисто ради интереса, во сколько вам обошлась: плата + бп + корпус + радиатор самосбора?

Прикидываем

корпус с БП 1400 грн

мать около 500 грн

проц i3 950 грн

память 2х4Gb 200 грн

винт 2х500Gb SATA 800 грн

итого 2900 грн

 

 

Разница с супермикровской платформой 700 грн

добавим к платформе проц, память, винты и получим разницу не 700 грн, а 2700, если не больше.

 

Ну смотрите, корпус + БП + плата = 1900 грн и это на говеном риалтеке в лучшем случае. 3600 стоит платформа с 2хi82574 + IPMI + ipkvm. Разница 1700 грн. Ну это столько примерно стоят приличные ботинки

Link to post
Share on other sites
корпус с БП 1400 грн

 

Ссылкой на корпус не поделитесь?

 

NEP, комментарии будут?

 

Нет, потому что в firefox я не могу их ни просмотреть ни скачать.

 

http://fotoifolder.r...o/wkn_j15ohh1o/

http://fotoifolder.r...o/cy_5av6m9b_w/

 

Какой гипервизор используете?

 

ESXi 5.0

 

Трафик гоняли часом не в пределах одной физической машины?

Link to post
Share on other sites

NEP: все таки ты гонишь. Вон у DarkSpider'a вообще сервер доступа стоит в виртуалке и замечательно лопатит сотни мегабит с натом, шейпингом и терминацией туннелей. Оверхед по загрузке железа от этого минимальный.

Да и тема ну совсем не про виртуалки, трафик и цену говенных платформ от суцпермикро..

 

Все зависит от гипервизора и подджерки технологий Intel VT в том числе и на уровне сетевых контроллеров. Оверхед на XEN, KVM, OpenVZ таков, что при маршрутизации траффика 100Мбит (10к pps) через виртуалку под управлением этих гипервизоров загрузка одного ядра под 100%. При этом та же задача на хосте решается с загрузкой процессора <1%.

 

ESXi 5 я не тестировал. Предыдущие версии давали тот же результат что и XEN, KVM, OpenVZ...

 

если Вы о графиках, так это из клиента сферы графики,,,, :)

 

Ну хорошо, вы сказали, между двумя серверами передаете информацию. По какому протоколу?

через сетевое окружение windows, какой протокол щас погуглю, никогда не углублялся

Link to post
Share on other sites
корпус с БП 1400 грн

 

Ссылкой на корпус не поделитесь?

 

NEP, комментарии будут?

 

Нет, потому что в firefox я не могу их ни просмотреть ни скачать.

 

http://fotoifolder.r...o/wkn_j15ohh1o/

http://fotoifolder.r...o/cy_5av6m9b_w/

 

Какой гипервизор используете?

 

ESXi 5.0

 

Трафик гоняли часом не в пределах одной физической машины?

 

нет, на внешний сервер, физический, отдельно стоящий, через 1гб свитч

Link to post
Share on other sites

через сетевое окружение windows, какой протокол щас погуглю, никогда не углублялся

 

Да не утруждайтесь. С вами все ясно Вы для начала разберитесь в том, результаты чего вы приводите. :)

Link to post
Share on other sites

Ну смотрите, корпус + БП + плата = 1900 грн и это на говеном риалтеке в лучшем случае. 3600 стоит платформа с 2хi82574 + IPMI + ipkvm. Разница 1700 грн. Ну это столько примерно стоят приличные ботинки

Ну а по мне так добавить еще 200 грн и собрать две таких платформы. Понимаете, у каждого товара есть своя ниша покупателей. Кто-то может себе позволить купить супермикру ( кстати разброс цен от 3600 до 12000 немного смущает) а кто-то не может и для него эти 1700 грн решающие.
Link to post
Share on other sites

через сетевое окружение windows, какой протокол щас погуглю, никогда не углублялся

 

Да не утруждайтесь. С вами все ясно Вы для начала разберитесь в том, результаты чего вы приводите. :)

 

соглашусь что нужно сворачивать полемику,,

 

NEP, по сути, трафик есть? это TCP трафик..., расходов времени проца на него нет! тогда шо за предъявы про 30мб и умрет,,,

Link to post
Share on other sites

через сетевое окружение windows, какой протокол щас погуглю, никогда не углублялся

 

Да не утруждайтесь. С вами все ясно Вы для начала разберитесь в том, результаты чего вы приводите. :)

 

соглашусь что нужно сворачивать полемику,,

 

NEP, по сути, трафик есть? это TCP трафик..., расходов времени проца на него нет! тогда шо за предъявы про 30мб и умрет,,,

 

Да вы не можете обьяснить что это за траффик от куда он и куда и по каком у протоколу. И еще раз повторяю, что в один поток - это не показательный тест.

Link to post
Share on other sites

NEP: все таки ты гонишь. Вон у DarkSpider'a вообще сервер доступа стоит в виртуалке и замечательно лопатит сотни мегабит с натом, шейпингом и терминацией туннелей. Оверхед по загрузке железа от этого минимальный.

Все зависит от гипервизора и подджерки технологий Intel VT в том числе и на уровне сетевых контроллеров. Оверхед на XEN, KVM, OpenVZ таков, что при маршрутизации траффика 100Мбит (10к pps) через виртуалку под управлением этих гипервизоров загрузка одного ядра под 100%. При этом та же задача на хосте решается с загрузкой процессора <1%.

Дык вот есть опыт, под XEN в виртуалке прекрасно живет NAS-сервер со stargazer. До оптимизации iptables и tc начинал киснуть ближе к 300мбит(не 30!), после мозгового штурма и оптимизации системы - рулит сколько в сетевки влезет.

Link to post
Share on other sites

NEP: все таки ты гонишь. Вон у DarkSpider'a вообще сервер доступа стоит в виртуалке и замечательно лопатит сотни мегабит с натом, шейпингом и терминацией туннелей. Оверхед по загрузке железа от этого минимальный.

Все зависит от гипервизора и подджерки технологий Intel VT в том числе и на уровне сетевых контроллеров. Оверхед на XEN, KVM, OpenVZ таков, что при маршрутизации траффика 100Мбит (10к pps) через виртуалку под управлением этих гипервизоров загрузка одного ядра под 100%. При этом та же задача на хосте решается с загрузкой процессора <1%.

Дык вот есть опыт, под XEN в виртуалке прекрасно живет NAS-сервер со stargazer. До оптимизации iptables и tc начинал киснуть ближе к 300мбит(не 30!), после мозгового штурма и оптимизации системы - рулит сколько в сетевки влезет.

 

300Мбит в один поток, а не в 100 потков по 3.

Link to post
Share on other sites

Так а да, может поделится кто-то какой гипервизор юзает и как с производительностью, и насколько большой оверхед сетевой подсистемы ?

Роутить на виртуалках никто и не собирается конечно-же, а вот сервисы все унести не мешало бы, желательно с возможностью хот миграции между хостами.

Сплошь и рядом одна FreeBSD, и пару сервисов на линуксе.

Спасибо!

Link to post
Share on other sites

Так а да, может поделится кто-то какой гипервизор юзает и как с производительностью, и насколько большой оверхед сетевой подсистемы ?

Роутить на виртуалках никто и не собирается конечно-же, а вот сервисы все унести не мешало бы, желательно с возможностью хот миграции между хостами.

Сплошь и рядом одна FreeBSD, и пару сервисов на линуксе.

Спасибо!

ESXi 5.0 стоит на SD карте внутри DL120G7, сторедж на нем-же из двух SAS 15k в RAID1, в виртуалке один 2003 сервер, терминальный с файловой 1с, оутлуком, итп, 30пользователей , один 2008R2 c таким-же набором рядом,

Снапшот делать в рабочее время нельзя - виснет на минуту, а так впечатления только положительные

Link to post
Share on other sites

Так а да, может поделится кто-то какой гипервизор юзает и как с производительностью, и насколько большой оверхед сетевой подсистемы ?

Роутить на виртуалках никто и не собирается конечно-же, а вот сервисы все унести не мешало бы, желательно с возможностью хот миграции между хостами.

Сплошь и рядом одна FreeBSD, и пару сервисов на линуксе.

Спасибо!

ESXi 5.0 стоит на SD карте внутри DL120G7, сторедж на нем-же из двух SAS 15k в RAID1, в виртуалке один 2003 сервер, терминальный с файловой 1с, оутлуком, итп, 30пользователей , один 2008R2 c таким-же набором рядом,

Снапшот делать в рабочее время нельзя - виснет на минуту, а так впечатления только положительные

 

А как насчет миграции? Скажем 2 физический сервера. По 4 виртуальных на каждом. У меня сломался 1. Как мне унести все на другой?

Можно ли бекапить сами виртуалки как их переносить на другой физический сервер ? Как быть со снапшотами на лету, приложений, которые работают с базой и 98% процентов там - операции записи - не вариант же ?

Как спасает от этого vsphere?

 

Я понимаю, что виртуализация не спасает от нужды делать бекапы, но люди же за что-то деньги платят за эти vsphere и тд, может там какие-то вкусности видятся.

 

Сейчас вижу вариант только такой : есть например 2 физических сервера. На одном скажем 6 виртуалок с сервисами, они каждая по себе бекапятся(не средствами гипервизора, а обычные бекапы) . На другом держать потушенными копии этих виртуалок и в случае чего включать их накатывать бекап.

Link to post
Share on other sites

слейте с рутрекера 5ю сферу, сделайте лаболаторку ,,,,

миграцию не проходил еще:) заявлена такая возможность, если конечно лицензии позволяют, для горячей миграции нужен отдельно стоящий сторедж,,,,

именно через VSphere server все вкусности и работают,,,

Link to post
Share on other sites

Был на конференции Vmware, производители утверждали что виртуальная производительность по сравнению с реальным на таком же железе более 99% :)

Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
  • Recently Browsing   0 members

    No registered users viewing this page.


×
×
  • Create New...