NEP 217 Опубліковано: 2010-02-28 11:22:59 Share Опубліковано: 2010-02-28 11:22:59 Посмотрел на ваяту - 4 гига на 1500 байтах это равно 800 мегабит интернет траффика. Очередной бред от roger. 1Г при размере пакета 128 байт у меня маршрутизировал старенький Dell 3.5 летней давности на базе E5345. А сейчас ВОН ОНО ЧЕ МИХАЛЫЧ: root@vyatta:~# cat /proc/interrupts CPU0 CPU1 CPU2 CPU3 CPU4 CPU5 CPU6 CPU7 61: 0 0 0 0 0 0 0 0 PCI-MSI-edge eth2-tx-0 62: 0 0 0 0 0 0 0 0 PCI-MSI-edge eth2-tx-1 63: 0 0 0 0 0 0 0 0 PCI-MSI-edge eth2-tx-2 64: 0 0 0 0 0 0 0 0 PCI-MSI-edge eth2-tx-3 65: 2956682 0 0 0 0 0 0 0 PCI-MSI-edge eth2-rx-0 66: 2 0 2956694 0 0 0 0 0 PCI-MSI-edge eth2-rx-1 67: 2 0 0 0 2956696 0 0 0 PCI-MSI-edge eth2-rx-2 68: 2 0 0 0 0 0 2956696 0 PCI-MSI-edge eth2-rx-3 69: 1 0 0 0 0 0 0 0 PCI-MSI-edge eth2 70: 0 0 0 0 0 0 0 0 PCI-MSI-edge eth3-tx-0 71: 0 0 0 0 0 0 0 0 PCI-MSI-edge eth3-tx-1 72: 0 0 0 0 0 0 0 0 PCI-MSI-edge eth3-tx-2 73: 0 0 0 0 0 0 0 0 PCI-MSI-edge eth3-tx-3 74: 2956670 0 0 0 0 0 0 0 PCI-MSI-edge eth3-rx-0 75: 2 0 2956668 0 0 0 0 0 PCI-MSI-edge eth3-rx-1 76: 2 0 0 0 2956668 0 0 0 PCI-MSI-edge eth3-rx-2 77: 2 0 0 0 0 0 2956668 0 PCI-MSI-edge eth3-rx-3 78: 1 0 0 0 0 0 0 0 PCI-MSI-edge eth3 79: 156856606 0 0 0 0 0 0 0 PCI-MSI-edge eth4-tx-0 80: 1 0 210551118 0 0 0 0 0 PCI-MSI-edge eth4-tx-1 81: 1 0 0 0 750141936 0 0 0 PCI-MSI-edge eth4-tx-2 82: 1 0 0 0 0 0 123445569 0 PCI-MSI-edge eth4-tx-3 83: 9518427 0 0 0 0 0 0 0 PCI-MSI-edge eth4-rx-0 84: 2 0 2993451 0 0 0 0 0 PCI-MSI-edge eth4-rx-1 85: 2 0 0 0 2993843 0 0 0 PCI-MSI-edge eth4-rx-2 86: 2 0 0 0 0 0 2993761 0 PCI-MSI-edge eth4-rx-3 87: 1 0 0 0 0 0 0 0 PCI-MSI-edge eth4 88: 27611 0 0 0 0 0 0 0 PCI-MSI-edge eth5-tx-0 89: 1 0 152220 0 0 0 0 0 PCI-MSI-edge eth5-tx-1 90: 1 0 0 0 16 0 0 0 PCI-MSI-edge eth5-tx-2 91: 1 0 0 0 0 0 1 0 PCI-MSI-edge eth5-tx-3 92: 5163406 0 0 0 0 0 0 0 PCI-MSI-edge eth5-rx-0 93: 2 0 1810834 0 0 0 0 0 PCI-MSI-edge eth5-rx-1 94: 2 0 0 0 1881819 0 0 0 PCI-MSI-edge eth5-rx-2 95: 2 0 0 0 0 0 1811312 0 PCI-MSI-edge eth5-rx-3 96: 1 0 0 0 0 0 0 0 PCI-MSI-edge eth5 97: 16306042 0 0 0 0 0 0 0 PCI-MSI-edge eth1-0 98: 1 0 3799355890 0 0 0 0 0 PCI-MSI-edge eth1-1 99: 1 0 0 0 923276989 0 0 0 PCI-MSI-edge eth1-2 100: 1 0 0 0 0 0 4191204977 0 PCI-MSI-edge eth1-3 101: 1 897231937 0 0 0 0 0 0 PCI-MSI-edge eth1-4 102: 1 0 0 3514337151 0 0 0 0 PCI-MSI-edge eth1-5 103: 1 0 0 0 0 1159102229 0 0 PCI-MSI-edge eth1-6 104: 1 0 0 0 0 0 0 3750744112 PCI-MSI-edge eth1-7 106: 3684661 0 0 0 0 0 0 0 PCI-MSI-edge eth0-0 107: 1 0 3435579223 0 0 0 0 0 PCI-MSI-edge eth0-1 108: 1 0 0 0 332488854 0 0 0 PCI-MSI-edge eth0-2 109: 1 0 0 0 0 0 2650331014 0 PCI-MSI-edge eth0-3 110: 1 241410814 0 0 0 0 0 0 PCI-MSI-edge eth0-4 111: 1 0 0 2189062330 0 0 0 0 PCI-MSI-edge eth0-5 112: 1 0 0 0 0 1233049230 0 0 PCI-MSI-edge eth0-6 113: 1 0 0 0 0 0 0 484842353 PCI-MSI-edge eth0-7 Ссылка на сообщение Поделиться на других сайтах
zulu_gluk 23 Опубліковано: 2010-02-28 12:12:14 Share Опубліковано: 2010-02-28 12:12:14 не стоит писюки в сторону откидывать, вот живой роутер - 2 фуллвью, 800М трафика: Cpu0 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu1 : 0.0%us, 0.0%sy, 0.0%ni, 68.9%id, 0.0%wa, 5.0%hi, 26.2%si, 0.0%st Cpu2 : 0.0%us, 0.0%sy, 0.0%ni, 90.7%id, 0.0%wa, 1.3%hi, 7.9%si, 0.0%st Cpu3 : 0.0%us, 0.0%sy, 0.0%ni, 91.7%id, 0.0%wa, 1.0%hi, 7.3%si, 0.0%st Cpu4 : 0.0%us, 0.0%sy, 0.0%ni, 82.5%id, 0.0%wa, 2.3%hi, 15.2%si, 0.0%st Cpu5 : 0.0%us, 0.0%sy, 0.0%ni, 84.4%id, 0.0%wa, 2.0%hi, 13.6%si, 0.0%st Cpu6 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu7 : 0.0%us, 0.0%sy, 0.0%ni, 74.5%id, 0.0%wa, 3.0%hi, 22.5%si, 0.0%st Cpu8 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu9 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu10 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu11 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu12 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu13 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu14 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu15 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Mem: 8185960k total, 3310864k used, 4875096k free, 138272k buffers Swap: 2096472k total, 0k used, 2096472k free, 2688276k cached т.е. запаса кагбэ хватит еще надолго. И это не специализированная ваята, а простой линукс Ссылка на сообщение Поделиться на других сайтах
NEP 217 Опубліковано: 2010-02-28 12:17:18 Share Опубліковано: 2010-02-28 12:17:18 не стоит писюки в сторону откидывать, вот живой роутер - 2 фуллвью, 800М трафика: Cpu0 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu1 : 0.0%us, 0.0%sy, 0.0%ni, 68.9%id, 0.0%wa, 5.0%hi, 26.2%si, 0.0%st Cpu2 : 0.0%us, 0.0%sy, 0.0%ni, 90.7%id, 0.0%wa, 1.3%hi, 7.9%si, 0.0%st Cpu3 : 0.0%us, 0.0%sy, 0.0%ni, 91.7%id, 0.0%wa, 1.0%hi, 7.3%si, 0.0%st Cpu4 : 0.0%us, 0.0%sy, 0.0%ni, 82.5%id, 0.0%wa, 2.3%hi, 15.2%si, 0.0%st Cpu5 : 0.0%us, 0.0%sy, 0.0%ni, 84.4%id, 0.0%wa, 2.0%hi, 13.6%si, 0.0%st Cpu6 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu7 : 0.0%us, 0.0%sy, 0.0%ni, 74.5%id, 0.0%wa, 3.0%hi, 22.5%si, 0.0%st Cpu8 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu9 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu10 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu11 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu12 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu13 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu14 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu15 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Mem: 8185960k total, 3310864k used, 4875096k free, 138272k buffers Swap: 2096472k total, 0k used, 2096472k free, 2688276k cached т.е. запаса кагбэ хватит еще надолго. И это не специализированная ваята, а простой линукс Производительности хватит - это и ежику понятно. А смысл "простой линукс"?! Вы понимаете, в этом случае все заботы по устранению критических ошибок в той же quagga ложится на плечи админа + вся работа по тестированию такого дистрибутива. Ну чего только стоит известная ошибка с 32-х битными AS. При этом админ - даже близко не высококвалифицированный программист. Как он это будет делать? Какаовы будут действия в случае появления критической ошибки? Метод тыка? Админ будет смотреть на код той же quagga как баран на новые ворота Вы думаете такое решение примут в качестве рабочего в серьезной организации? Ссылка на сообщение Поделиться на других сайтах
zulu_gluk 23 Опубліковано: 2010-02-28 12:22:53 Share Опубліковано: 2010-02-28 12:22:53 А смысл?! Вы понимаете, в этом случае все заботы по устранению критических ошибок в той же quagga ложится на плечи админа + вся работа по тестированию такого дистрибутива. При этом админ - далеко не высококвалифицированный программист. Как он это будет делать? Методом тыка? Вы думаете такое решение примут в качестве рабочего в серьезной организации? смысл в том что эта система работает уже так несколько лет, без каких либо критических ошибок. З.Ы. Возможно сейчас бы и рассмотрели ваяту как вариант, если поднимать систему с нуля Ссылка на сообщение Поделиться на других сайтах
KaYot 3 711 Опубліковано: 2010-02-28 12:56:13 Share Опубліковано: 2010-02-28 12:56:13 А смысл "простой линукс"?! Вы понимаете, в этом случае все заботы по устранению критических ошибок в той же quagga ложится на плечи админа + вся работа по тестированию такого дистрибутива. А зачем админу что-то тестировать или исправлять? Ставится стандартный серверный дистрибутив, стандартная же квагга, разработка и тестирование которой идет десяток лет. Да и в случае обнаружения какой-либо каки обновить кваггу будет проще чем ждать новую версию виатты.. А как у виатты с поддержкой железа? В основе какой-то стандартный дистрибутив? Ссылка на сообщение Поделиться на других сайтах
NEP 217 Опубліковано: 2010-02-28 13:01:33 Share Опубліковано: 2010-02-28 13:01:33 А зачем админу что-то тестировать или исправлять? Ставится стандартный серверный дистрибутив, стандартная же квагга, разработка и тестирование которой идет десяток лет. Ну у не знаю, зачем это в DEC-IX стоит переработанная quagga... Может вы просто не того уровня задачи решаете? Да и в случае обнаружения какой-либо каки обновить кваггу будет проще чем ждать новую версию виатты.. Ну да и получить вместо одной - две каки А как у виатты с поддержкой железа? В основе какой-то стандартный дистрибутив? С поддержкой оборудования проблем не встречал. В основе debian. Ссылка на сообщение Поделиться на других сайтах
Sergek 123 Опубліковано: 2010-02-28 13:06:11 Share Опубліковано: 2010-02-28 13:06:11 Насколько я понимаю некомерческая квага нужна для тестирвоания и для разработки коммерческого правильного софта. Таже обычая квага сама по себе далека от цисковского БЖП и скорее всего по той же причине.... Ссылка на сообщение Поделиться на других сайтах
blackjack 250 Опубліковано: 2010-02-28 14:03:28 Автор Share Опубліковано: 2010-02-28 14:03:28 ок, зупиняємося на сервері. Тепер скажіть який готовий вибрати, або яке залізо туди засунути якшо самому збирати? Ссылка на сообщение Поделиться на других сайтах
Sergek 123 Опубліковано: 2010-02-28 14:25:09 Share Опубліковано: 2010-02-28 14:25:09 Вопрос довольно интимный! А сколько денег есть? Ссылка на сообщение Поделиться на других сайтах
NEP 217 Опубліковано: 2010-02-28 14:30:52 Share Опубліковано: 2010-02-28 14:30:52 ок, зупиняємося на сервері. Тепер скажіть який готовий вибрати, або яке залізо туди засунути якшо самому збирати? intel server platform. Самому собирать не рекомендую, по деньгам экономия не более 15-20%. Ведь большинство проблем в ДЦ с серверными платформами именно из за некачественного охлаждения в корпусах сторонних производителей. Хорошо себя зарекомендовали Dell HP Ссылка на сообщение Поделиться на других сайтах
sh_ 1 Опубліковано: 2010-02-28 20:35:59 Share Опубліковано: 2010-02-28 20:35:59 не сравнивайте Route Server с маршрутизатором! NEP какое у вас кол-во Kpps на каждом интерфейсе? Ссылка на сообщение Поделиться на других сайтах
NEP 217 Опубліковано: 2010-02-28 21:32:55 Share Опубліковано: 2010-02-28 21:32:55 не сравнивайте Route Server с маршрутизатором! NEP какое у вас кол-во Kpps на каждом интерфейсе? RS был приведен в пример тому, что в ДЦ серверными платформами заменяют морально устаревшие печки CISCO. На задачах, которые решаются размер пакетов ~80 байт (RTP). В пике на каждом из двух аплинках порядка ~700 000 pps + IX-s. Это на реальном траффике. На тестах генератором удавалось добиться и больших значений. И это еще далеко не предел. Но я надеюсь вы поняли что у меня igb драйвер и соотв. интерфейсная карта Intel-Quad + парочка интерфейсов Broadcom. Ссылка на сообщение Поделиться на других сайтах
Maxxx 446 Опубліковано: 2010-02-28 21:42:13 Share Опубліковано: 2010-02-28 21:42:13 не сравнивайте Route Server с маршрутизатором! NEP какое у вас кол-во Kpps на каждом интерфейсе? RS был приведен в пример тому, что в ДЦ серверными платформами заменяют морально устаревшие печки CISCO. На задачах, которые решаются размер пакетов ~80 байт (RTP). В пике на каждом из двух аплинках порядка ~700 000 pps + IX-s. Это на реальном траффике. На тестах генератором удавалось добиться и больших значений. И это еще далеко не предел. Но я надеюсь вы поняли что у меня igb драйвер и соотв. интерфейсная карта Intel-Quad + парочка интерфейсов Broadcom. Так какое у вас железо? Ссылка на сообщение Поделиться на других сайтах
sh_ 1 Опубліковано: 2010-03-01 05:58:16 Share Опубліковано: 2010-03-01 05:58:16 В пике на каждом из двух аплинках порядка ~700 000 pps это какой трафик при 700Kpps ? на интерфейсе 1GE? какие процессоры стоят? какая частота? Ссылка на сообщение Поделиться на других сайтах
NEP 217 Опубліковано: 2010-03-01 06:07:30 Share Опубліковано: 2010-03-01 06:07:30 не сравнивайте Route Server с маршрутизатором! NEP какое у вас кол-во Kpps на каждом интерфейсе? RS был приведен в пример тому, что в ДЦ серверными платформами заменяют морально устаревшие печки CISCO. На задачах, которые решаются размер пакетов ~80 байт (RTP). В пике на каждом из двух аплинках порядка ~700 000 pps + IX-s. Это на реальном траффике. На тестах генератором удавалось добиться и больших значений. И это еще далеко не предел. Но я надеюсь вы поняли что у меня igb драйвер и соотв. интерфейсная карта Intel-Quad + парочка интерфейсов Broadcom. Так какое у вас железо? 2 x Broadcom Corporation NetXtreme II BCM5716 Gigabit Ethernet 4 x Intel Corporation 82575GB Gigabit Network Connection Ссылка на сообщение Поделиться на других сайтах
NEP 217 Опубліковано: 2010-03-01 06:19:23 Share Опубліковано: 2010-03-01 06:19:23 В пике на каждом из двух аплинках порядка ~700 000 pps это какой трафик при 700Kpps ? на интерфейсе 1GE? какие процессоры стоят? какая частота? А pps умножить на размер пакета не судьба? Траффик небольшой на каждом ~500М Процессор я уже приводил выше. Ссылка на сообщение Поделиться на других сайтах
sh_ 1 Опубліковано: 2010-03-01 07:23:32 Share Опубліковано: 2010-03-01 07:23:32 В пике на каждом из двух аплинках порядка ~700 000 pps это какой трафик при 700Kpps ? на интерфейсе 1GE? какие процессоры стоят? какая частота? А pps умножить на размер пакета не судьба? Траффик небольшой на каждом ~500М Процессор я уже приводил выше. Нее умножить не судьба! Это не то!! Либо netstat посмотреть кол-во пакетов, либо график anycast нарисуй. А то при 500Метрах 700Kpps что-то мне смутно верится. Ссылка на сообщение Поделиться на других сайтах
NEP 217 Опубліковано: 2010-03-01 07:38:34 Share Опубліковано: 2010-03-01 07:38:34 В пике на каждом из двух аплинках порядка ~700 000 pps это какой трафик при 700Kpps ? на интерфейсе 1GE? какие процессоры стоят? какая частота? А pps умножить на размер пакета не судьба? Траффик небольшой на каждом ~500М Процессор я уже приводил выше. Нее умножить не судьба! Это не то!! Либо netstat посмотреть кол-во пакетов, либо график anycast нарисуй. А то при 500Метрах 700Kpps что-то мне смутно верится. Рута не дать? Мы тут не обсуждаем вопросы веры, а конкретных технических решений. Соберите платформу аналогичную моей - убедитесь сами. Я же говорю - траффик спецефический пакеты поядка 80 байт. Я когда приходил к вендорам описывал задачу мне цены рисовали 30-50к Евро -40% от жпл Ссылка на сообщение Поделиться на других сайтах
sh_ 1 Опубліковано: 2010-03-01 09:21:53 Share Опубліковано: 2010-03-01 09:21:53 траффик спецефический пакеты поядка 80 байт Ооо - вот это ключевая фраза! Это Voice? Просто это не сравнение для этого топика. Тут же про интернет трафик. Ссылка на сообщение Поделиться на других сайтах
NEP 217 Опубліковано: 2010-03-01 09:58:42 Share Опубліковано: 2010-03-01 09:58:42 траффик спецефический пакеты поядка 80 байт Ооо - вот это ключевая фраза! Это Voice? Просто это не сравнение для этого топика. Тут же про интернет трафик. Бред. Если мы говорим о двух аплинках, BGP и маршрутизаторах... то что это, если не Интернет?!!! По вашему это PRI?!!! У вас нагрузка на пограничный маршрутизатор зависит от типа информации хранящейся в поле данных UDP/TCP пакетов?!!! То есть если я вам скажу, что там у меня за маршрутизатором стоит десяток торрент клиентов, которые принимают и отсылают мелкие UDP пакеты - это вкорне изменить суть дела?! Такой тип траффика создает наибольшую ннагрузку и является наиболее показательным тестовым набором. При увеличении размера пакетов pps соотв. уменьшится. И что?!! Ссылка на сообщение Поделиться на других сайтах
Ajar 92 Опубліковано: 2010-03-01 11:08:28 Share Опубліковано: 2010-03-01 11:08:28 НИКАКИХ. Работает система более полу года в одном из ДЦ Франкфурта. У сервера двойное питание, на стойку два ввода по 16А. Стоимость системы 3000Евро. Джунипер с 6 х 1Г портами для аналогичной задачи: 30 000 - 50 000Евро. Вообщем IQ тест в чистом виде. Систему ставил специалист ? Ссылка на сообщение Поделиться на других сайтах
NEP 217 Опубліковано: 2010-03-01 11:17:34 Share Опубліковано: 2010-03-01 11:17:34 НИКАКИХ. Работает система более полу года в одном из ДЦ Франкфурта. У сервера двойное питание, на стойку два ввода по 16А. Стоимость системы 3000Евро. Джунипер с 6 х 1Г портами для аналогичной задачи: 30 000 - 50 000Евро. Вообщем IQ тест в чистом виде. Систему ставил специалист ? ?!!! Заказал у Dell сервер с доставкой в ДЦ, установил техник ДЦ, согласно схемы подключил в сотв. порты коммутатора, подключил KVM и вставил диск. Vyatta я ставил уделенно Ссылка на сообщение Поделиться на других сайтах
JMan 1 Опубліковано: 2010-03-01 12:28:47 Share Опубліковано: 2010-03-01 12:28:47 Сервер украинской сборки, трафика реально до 1.02 Млн пкт/сек 8 сетевух (гиговых) в бонде (2 платы интелы по 4 гиговых порта) трафика до 6,1 Гига в секунду прокачивает в реальной сети. 4 фул. вью. + IX. В ближайшее время (недели) сетевушку на 2 порта 10 гиговых сменим и тогда уже возможно сможем раскочегарить апарат, ибо сейчас не больше половины удавалось нагрузить. Также ядра не самые топовые стоят. И это не синтетические тесты на роутинг, где по 16 маршрутам прокачиваются пакеты, а реально в кеше маршрутизации и 2 лимона записей бывает. Посему думаю 2 по 10 гиг можно прокачать на номральном сервере. Если надо больше, то надо немного уже хитрить ставить 2 сервера и порты в транки на стороне коммутатора суммировать, заодно и повышается надежность резервирование в онлайне есть и тогда можно суммировать в параллель столько портов сколько коммутатор сможет сделать в бонде. Тут конечно есть вопросы программного характера, ибо тогда кто-то должен быть ведущим (или сторонний комп) всем одну таблицу маршрутизации пихать и арп таблицу и обрабатывать БГП сессии, но программно это не аппаратно, что надо платы и чипы новые делать. Кстати интересно что начнется с аппаратными железяками маршрутизации когда масово начнется АЙПИ версии 6, как тогда будет где-то не хватит памяти будет, или где в асике и функции нету такой окажется. Ссылка на сообщение Поделиться на других сайтах
Maxxx 446 Опубліковано: 2010-03-01 20:55:06 Share Опубліковано: 2010-03-01 20:55:06 Сервер украинской сборки, трафика реально до 1.02 Млн пкт/сек 8 сетевух (гиговых) в бонде (2 платы интелы по 4 гиговых порта) трафика до 6,1 Гига в секунду прокачивает в реальной сети. 4 фул. вью. + IX. В ближайшее время (недели) сетевушку на 2 порта 10 гиговых сменим и тогда уже возможно сможем раскочегарить апарат, ибо сейчас не больше половины удавалось нагрузить. Также ядра не самые топовые стоят. И это не синтетические тесты на роутинг, где по 16 маршрутам прокачиваются пакеты, а реально в кеше маршрутизации и 2 лимона записей бывает. Посему думаю 2 по 10 гиг можно прокачать на номральном сервере. Если надо больше, то надо немного уже хитрить ставить 2 сервера и порты в транки на стороне коммутатора суммировать, заодно и повышается надежность резервирование в онлайне есть и тогда можно суммировать в параллель столько портов сколько коммутатор сможет сделать в бонде. Тут конечно есть вопросы программного характера, ибо тогда кто-то должен быть ведущим (или сторонний комп) всем одну таблицу маршрутизации пихать и арп таблицу и обрабатывать БГП сессии, но программно это не аппаратно, что надо платы и чипы новые делать. Кстати интересно что начнется с аппаратными железяками маршрутизации когда масово начнется АЙПИ версии 6, как тогда будет где-то не хватит памяти будет, или где в асике и функции нету такой окажется. Можно ссылочку на такой сервер (с ценой)? Ссылка на сообщение Поделиться на других сайтах
Рекомендованные сообщения
Создайте аккаунт или войдите в него для комментирования
Вы должны быть пользователем, чтобы оставить комментарий
Создать аккаунт
Зарегистрируйтесь для получения аккаунта. Это просто!
Зарегистрировать аккаунтВхід
Уже зарегистрированы? Войдите здесь.
Войти сейчас