Перейти до

Melanxolik

Сitizens
  • Всього повідомлень

    678
  • Приєднався

  • Останній візит

  • Дней в лидерах

    3

Все, що було написано Melanxolik

  1. Прерывания разбросаны, с самого бордера траса, upload в /dev/null как поживает? может есть возможность iperf с кем-то запустить.
  2. Простите, но это не ядро сети, у нас такие на доступе для клиентов стоят.
  3. На чем перевариваете? Каналы в один таз или разные?
  4. Melanxolik

    DDoS на Mikrotik

    iptables в руки, делайте для клиентов морды и позвольте им добавлять в rule, отслеживайте кол коннектов, порубайте непонятный трафик в сторону клиентов, это не сложно, дальше по ситуации. Незабывайте что из вне просто так пакеты не приходят, а вот из внутри они вполне могут исходить, так что правила должны быть направлены в сторону внешнего трафика.
  5. Ровно до тех пор пока не свалил в коммандировку или отпуск, ну или заболел и остался дома, а там как раз рухнул этот самый клевый кластер построенный на обычном десктоп железе. Извните конечно, но я лучше докину $ и сделаю так чтобы даже если будет совсем попа, мне не надо было носится по городу как ошпареному, а достаточно было обычного подключения к сети. +1 к резервирования сетевого подключения, это избавляет от большого количетства проблем. Если правильно помню, то разница серверных и десктоп процессоров это в разделяемости cache между ядрами, соотствественно это очень силь
  6. Пытаюсь до вас донести, что для построения вот таких вот вещей существует специально выведенное железо, которое позволяет без всяких проблем работать и предоставлять услугу. Уточните также, вы используете DRBD для обеспечения отказоусточивости системы или каким методом реализуете общую фс для нод? Но хотя подозреваю что в двухузловом кластере максимум что действительно можно отжать это drbd поверх какого-то raid массива, ну и такие вещи как fence и ha конечно нервно курят. Ага, то есть по вашей статье гугл юзает I3 для своих кластеров и обычную память, с другой стороны это гугл
  7. гипевизор или кластер? будьте любезны определитесь. так как 1 машина это не 20ть машин, и подходы к построению системы не то что отличаются а совершенно разные.
  8. Обоснуйте, только конкретикой.
  9. Вы прикалываетесь? скажите вы кластер на цепхе рулили? Как уже сказал, автору надо разобраться сперва чего он хочет, и потом под это получать решение. Xeon выбирается по нескольким причинам: память, архитектура процессора и его заточки, реализация многопоточности и раздельных кэшей в ядре под каждое из ядер и тд. Хотите работать на десктоп варианте и сутками разбраться чего не пашет или почему так медленно, дело ваше. И да, xeon стоит дешевле i7.
  10. При том что попробуйте запихнуть I3 рекомендованный на мамку с ipmi и поддержкой ECC, зачем искать геморой на свою голову, когда есть проверенные и работающие решения.
  11. ну расскажите как вы сделаете live migration в этом случае? также обьясните как вы видете архитетуру ФС в кластерной системе?
  12. Вам схемы уже расписали, 2-3 нормальных таза, на базе Xeon + ECC память. Диски в этих серверах лучше в hotswap, хранилище у вас одно, это цепх, других вариантов особо у вас не будет. Ваши NAS под backup монтируются или по iscsi или по nfs для налива backup.
  13. ох, да, стойка это дорого, особенно для предприятия, лучше везде развесить сопли. ceph, читать про архитектуру, ну если конечно... Очень дельный вариант, а платформы там есть вкусные не передать. Вы виртуализацией занимаетесь или PC домохозяйкам собираете? Только Xeon, на supermicre ipmi в самом простом варианте. Ну не бегать же к кластеру тыкать потом KVM. При двух нодовой конфигурации разруливается за счет внешнего диска.
  14. 50к, мне бы ваши проблемы, можно как минимум 3 таза собрать. берите здесь корпусок 2U супер микро с хотсвапом, пихайте в него v3 1225, мать супермикра, 32ECC памяти, по хорошему в 50к можно собрать 3и таких железки, будет ha, fence и прочие приятные плюшки. Винты ставите 500ки в каждый сервер, поднимаете ceph, пихаете lsi контроллеры с кэшом, ставите по 4ре сетевки с агрегацией, свич можно тоже неплохой прибарахлить, лишь бы в него балансировка в L4 была на агрегациях. Можно еще жирнее, докинуть еще не много и поставить SSD в качестве прослойки cache под сам цепх. На выходе получаете супер
  15. Интересно сравнивать ЗП админа и прибыль владельца.
  16. Получать ЗП в $ которые можно потратить на его увеличение. Тут зависит исключительно от цености сотрудника и если директор заинтересован в данном сотруднике он будет платить и в $ и в евро. Как уже сказано, вы можете нанять студента за 2к грн, а можете нанять человека прошедшего большой и тернистый путь за $, дело исключительно в том как вы относитесь к сотрудникам. Для человека, а тем более технаря нужна золотая середина при которой он будет хотеть развиваться, внедрять новые услуги и делать жизнь директора лучше или думать о том где бы еще подшабашить и заработать. Очень
  17. Странно, сначала вот так экономят на админе, а потом удивляются почему такой застой. Паралельно сети можно развивать вполне несколько других проектов.
  18. Очень много зависит от компании в которой работаешь. Зарубежка вся идет от 15к наших, даже средняк. Тут еще существует несколько категорий админов, одни будут сидеть сутками и долбить высокие технологии, другие будут делать ровно то что им говорят, вам какой вариант больше нравится? не факт что тот кто будет инициативным будет стремится к супер зп, неоднократно сталкивался с тем что чем выше у человека зп тем более узконаправленные его знания.
  19. 20 клиентов, на 2.4? а на рокет вы их 50 хотите? полный жесть. пересмотрите свой подход, лучше разбейте на несколько секторов, выровняйте уровни сигналов, еще небось работаете в черную.
  20. Ну а что покажет тест? На столе все тип топ, ставим, а потом когда 20человек пускают торены, оказывается все в захлебе. Какой смысл переплачивать 10 раз и покупать то что изначально подлежит замене? В этой теме уже приведено 100 вариантов железа и все за и против архитектуры, но если у автора досих пор не появилось понимание чего и как так может стоит заняться другой работой?
  21. Вы об этом: Динамическая оперативная память передает заряд по определенному столбцу. Этот заряд называют стробом адреса столбца (CAS, Column Adress Strobe) или просто сигналом CAS. Этот сигнал может активировать транзистор любого бита столбца. Управляющий сигнал строки именуется стробом адреса строки (RAS, Row Adress Strobe). Для указания адреса ячейки следует задать оба управляющих сигнала. В процессе записи конденсатор готов принять в себя заряд. В процессе чтения усилитель считывания (sense-amplifier) определяет уровень заряда конденсатора. Если он выше 50 %, бит читается, как «1»; в остал
  22. читал, но ваше утверждение: не имеет основания. Ошибки появляются рано или поздно, зависит от качество используемых компонентов, от того как ядро системы управляет памятью, в каких областях выделяет и освобождает память, сколько циклов перезаписи выдержит ячейка, какой тип хранимых данных на сервере, это статика или постоянная динамика. Именно по этой причине если и строить то строить надежно чтобы не было звонка от клиента: а чего опять тырнет пропал? а сейчас роутер перезагружается... мы ведь сэкономили 100баков на компонентах, но недобрали сотню абонентов которых не устраивает так
  23. Нет. Там где в первое время не было ошибок, там они никогда и не появляются, т.к. как природа ошибок - брак (инфа из исследования гугла по памяти). Читали? http://habrahabr.ru/post/171407/
  24. ЕСС на софтроутере не шибко нужна. Смысла с нее там немного. ЕСС нужна (и даже необходима) там, где молотятся критичные данные (т.е. биллинг с БД и т.п.).АМД К10 к примеру практически на любой памяти сыпят раз в сутки где-то 1-2 бита в мемтесте. При этом у нас на них и брасы и бордеры - аптайм в основном ограничен лишь проблемами с питанием. Даже если сбойный бит попадет на критически важные структуры ядра (вероятность чего - весьма малая ввиду их малого объема), худшее что случится - система ребутнется по кернел паник. К слову, в CCR никакого ЕСС нет и в помине Наверное вы работаете
×
×
  • Створити нове...