Перейти до

Загрузка CPU NAT'ом


XNeo

Рекомендованные сообщения

но феномы тоже радуют.

Чем, 125Вт пакетом? :)

 

IMHO i5-2500 быстрее и в 2 раза экономичнее, и пофиг что ядер меньше.

 

Я использую для маршрутизации i3

 

http://shader.kaist....nchmark/i3.html

 

Потребление 40Вт

 

У меня такой комплект за исключением процессора, у меня i3-550, память ECC:

http://www.servetheh...ion-xeon-x3440/

 

Ограничение при форвардинге - это шина памяти. Поэтому для 2Мппс+ уже использую двухпроцессорные конфигурации на базе Xeon 5620+.

Ссылка на сообщение
Поделиться на других сайтах
  • Відповіді 74
  • Створено
  • Остання відповідь

Top Posters In This Topic

Top Posters In This Topic

Popular Posts

По сути iX не важно какого поколения. Суть там заключается в том, что контроллер памяти и PCI-X контроллер уже на кристале процессора. В iX-XXX контроллер памяти и PCI-X выполнен по 45нм, а сам процес

Чем, 125Вт пакетом?   IMHO i5-2500 быстрее и в 2 раза экономичнее, и пофиг что ядер меньше.

И не только с изобразительным.

Posted Images

вот почему у меня при пережёвывании трафика около 280Мбит+ проц загружен около 1,5%, а всякие интелы от и5 до хеонов при таком же трафике до 40%? (и при этом тдп у них на много выше). всего-то правильно подобранная конфигурация.

А у меня i5 при жевании гигабита почему-то загружен процентов на 7, и то на 2 ядрах из 4. Совершенно не греясь и не кушая, странно?

 

тогда почему блин у нас на двух двоядерных ксеонах при 300 Мбитах они сумарно загружены на 40%?

Где мы что не так делаем? Я не админ, но это помоему дохера

Ссылка на сообщение
Поделиться на других сайтах

тогда почему блин у нас на двух двоядерных ксеонах при 300 Мбитах они сумарно загружены на 40%?

Где мы что не так делаем? Я не админ, но это помоему дохера

 

Выбросьте нат, htb, сложные правила в firewall, netflow, туннелирование или что там еще... купите адресов, сэкономьте электроэнергию.

Ссылка на сообщение
Поделиться на других сайтах

тогда почему блин у нас на двух двоядерных ксеонах при 300 Мбитах они сумарно загружены на 40%?

Где мы что не так делаем? Я не админ, но это помоему дохера

 

Выбросьте нат, купите адресов, сэкономьте электроэнергию.

 

да купили адресов, еще не всех перевели просто. Еще где-то пол сети за НАТом сидят

Ссылка на сообщение
Поделиться на других сайтах

тогда почему блин у нас на двух двоядерных ксеонах при 300 Мбитах они сумарно загружены на 40%?

Где мы что не так делаем? Я не админ, но это помоему дохера

ксеоны какого года выпуска?)

тут разница между quad и i7 первого поколения огромна

Ссылка на сообщение
Поделиться на других сайтах

тогда почему блин у нас на двух двоядерных ксеонах при 300 Мбитах они сумарно загружены на 40%?

Где мы что не так делаем? Я не админ, но это помоему дохера

ксеоны какого года выпуска?)

тут разница между quad и i7 первого поколения огромна

 

а хз... не помню блин, боюсь соврать

Ссылка на сообщение
Поделиться на других сайтах

тогда почему блин у нас на двух двоядерных ксеонах при 300 Мбитах они сумарно загружены на 40%?

Где мы что не так делаем? Я не админ, но это помоему дохера

ксеоны какого года выпуска?)

тут разница между quad и i7 первого поколения огромна

 

По сути iX не важно какого поколения. Суть там заключается в том, что контроллер памяти и PCI-X контроллер уже на кристале процессора. В iX-XXX контроллер памяти и PCI-X выполнен по 45нм, а сам процессор на 32нм, соеденены высокопроизводительной шиной . В iX-XXXX - это уже монолитный 32нм кристал.

В обоих случаях узкое место везде остается - шина памяти и сама память.

 

Все старье:

Core2Duo

CoreQuad

Xeon 33xx и младше

 

проще выбросить.

Ссылка на сообщение
Поделиться на других сайтах

Как ни удивительно, но полностью согласен с NEPом.

Выбросьте старье, не покупайте "супер-сервера" на 771ом сокете - любой современный двухядерный i3 разорвет старого монстра с 4 ядрами просто в клочья. В хозяйстве есть сервера на некогда топовом q9550(за 600$ камень брали), и на i5-2500(500$ стоит весь сервер) - загрузка у последнего ниже раз в 10, я сейчас вообще не понимаю чем его можно загрузить до предела.. И модные карты с очередями не нужны, одно ядро везет что угодно.

 

Для сетевых задач важна скорость памяти и только, а по этому параметру современные интеловские платформы абсолютные чемпионы.

Ссылка на сообщение
Поделиться на других сайтах

тогда почему блин у нас на двух двоядерных ксеонах при 300 Мбитах они сумарно загружены на 40%?

Где мы что не так делаем? Я не админ, но это помоему дохера

ксеоны какого года выпуска?)

тут разница между quad и i7 первого поколения огромна

Ксеоны 5160

Ссылка на сообщение
Поделиться на других сайтах

А у меня i5 при жевании гигабита почему-то загружен процентов на 7, и то на 2 ядрах из 4. Совершенно не греясь и не кушая, странно?

 

А можно конфигурацию сервака узнать? И очень интересно что на этом серваке крутится.

Буду благодарен за инфу.

Ссылка на сообщение
Поделиться на других сайтах

А у меня i5 при жевании гигабита почему-то загружен процентов на 7, и то на 2 ядрах из 4. Совершенно не греясь и не кушая, странно?

А можно конфигурацию сервака узнать? И очень интересно что на этом серваке крутится.

Буду благодарен за инфу.

i5-2500, мать десктопная на Z68 какая в мини-корпус влезла, 2х2Гб ddr3, intel ET двухпортовый. Машина BRAS, терминирует PPPoE, шейпит(не полисит) на HTB, собирает статистику по трафику, сливает маршруты на бордер по rip.

В час пик набирает до 1к ppp-сессий и метров 700 трафика, загрузка близка к нулю. На старых квадах в тех же условиях загрузка 30-40%, даже при условии что они клиентов обслуживают в итоге меньше.

Ссылка на сообщение
Поделиться на других сайтах

По сути iX не важно какого поколения. Суть там заключается в том, что контроллер памяти и PCI-X контроллер уже на кристале процессора. В iX-XXX контроллер памяти и PCI-X выполнен по 45нм, а сам процессор на 32нм, соеденены высокопроизводительной шиной .

Нет, разница есть. clarkdale (i3-xxx и некоторые i5) по сути есть не что иное как совмещенные на одной подложке чуток допиленное ядро core2 и северный мост с контроллером памяти и графикой (те самые 2 кристалла). С соответственно печальной производительностью, которая лишь немногим выше старого wolfdale.

Nehalem/lynnfield/bloomfield (старшие i5, i7-xxx) - как раз монолитный 45нм кристалл с набортным контроллером памяти. 2-е поколение (LGA1155/2011) - уже все монолитные.

Ссылка на сообщение
Поделиться на других сайтах

Нет, разница есть. clarkdale (i3-xxx и некоторые i5) по сути есть не что иное как совмещенные на одной подложке чуток допиленное ядро core2 и северный мост с контроллером памяти

Самая важная часть - встроенный северный мост. Т.е. отсутствуют узкие места в работе с памятью, остальное типа числа конвееров/скорость FPU как бы и не важна.. У санди все стало еще лучше, память еще быстрее, ядро монолитное.

Ссылка на сообщение
Поделиться на других сайтах

По сути iX не важно какого поколения. Суть там заключается в том, что контроллер памяти и PCI-X контроллер уже на кристале процессора. В iX-XXX контроллер памяти и PCI-X выполнен по 45нм, а сам процессор на 32нм, соеденены высокопроизводительной шиной .

Нет, разница есть. clarkdale (i3-xxx и некоторые i5) по сути есть не что иное как совмещенные на одной подложке чуток допиленное ядро core2 и северный мост с контроллером памяти и графикой (те самые 2 кристалла). С соответственно печальной производительностью, которая лишь немногим выше старого wolfdale.

Nehalem/lynnfield/bloomfield (старшие i5, i7-xxx) - как раз монолитный 45нм кристалл с набортным контроллером памяти. 2-е поколение (LGA1155/2011) - уже все монолитные.

 

Вы о какой производительности? В чем вы ее измеряете в Гигафлопах или ППС-ах? :) В Гигафлопах, да выигрывает Sandy Bridge у clarkdale, а вот в ППС собственно - индифферентно. Узкое место - шина памяти и сама память.

Ссылка на сообщение
Поделиться на других сайтах
Самая важная часть - встроенный северный мост. Т.е. отсутствуют узкие места в работе с памятью, остальное типа числа конвееров/скорость FPU как бы и не важна.. У санди все стало еще лучше, память еще быстрее, ядро монолитное.

В том-то и дело, что у clarkdale он не встроенный. Он физически лежит на одной подложке, но не интегрирован с ядрами - т.е. ядра с ним общаются по все той же FSB. Со всеми вытекающими.

 

Вы о какой производительности? В чем вы ее измеряете в Гигафлопах или ППС-ах? :rolleyes: В Гигафлопах, да выигрывает Sandy Bridge у clarkdale, а вот в ППС собственно - индифферентно. Узкое место - шина памяти и сама память.

Ну-ну. Clarkdale собссно по большому от core2 отличается только тем, что северный мост чуть ближе геометрически к ядрам. Все. Ибо узкое место в виде FSB что там, что там присутствует. Разве что в одном случае длинна линий FSB порядка 10 см, в другом случае - порядка 10 мм. И clarkdale - шаг назад по производительности на гигагерц, хотя и частоты выше, и ядро практически то же что и у nehalem (различия минимальны).

Ссылка на сообщение
Поделиться на других сайтах

Ну-ну. Clarkdale собссно по большому от core2 отличается только тем, что северный мост чуть ближе геометрически к ядрам. Все. Ибо узкое место в виде FSB что там, что там присутствует. Разве что в одном случае длинна линий FSB порядка 10 см, в другом случае - порядка 10 мм. И clarkdale - шаг назад по производительности на гигагерц, хотя и частоты выше, и ядро практически то же что и у nehalem (различия минимальны).

 

Бред.

 

Я вам привел тест:

http://shader.kaist....nchmark/i3.html

 

Основное отличие обуславливающее повышение pps у clarkdale над Core2 - это то, что контроллер памяти и контроллер PCI-X собраны в одну процессорную сборку и соединены высокопроизводительной шиной. Именно это и дает такой прирост в производительности для pps. А вот Flops у clarkdale сопоставимы с Core2. Ну и что? Где вы на маршрутизаторе выполняете операции с вещественными числами?

Ссылка на сообщение
Поделиться на других сайтах

Действительно clarkdale должен быть на уровне обычных core2, пакет ведь в любом случае копируется в кэш через внутреннюю шину. Напрямую между контроллером pci-e и контроллером памяти данные ведь бегать не могут, или могут?

Ссылка на сообщение
Поделиться на других сайтах

Действительно clarkdale должен быть на уровне обычных core2, пакет ведь в любом случае копируется в кэш через внутреннюю шину. Напрямую между контроллером pci-e и контроллером памяти данные ведь бегать не могут, или могут?

 

Это не совсем шина в обычном ее понимании. Это MCP Interface (от Multi-Chip Package) и имеет на порядок большую производительность во многом за счет того, что она в тысячи! раз короче, чем шина соединяющая процессор Core2 и мост.

 

Что же касается кеша, то и в сандибриж котнроллер - естественно не встроен в конвейер. И пакеты тоже попадают от контроллера в кеш через специализированную шину. И каждое прерывание естественно разрывает конвейер.

Принципиальных отличий при маршрутизации (т.е. обработки прерываний) нет. Отличие одно - монолитный кристал.

 

Вот если бы контроллер PCI-X был частью конвейера, тогда да, думаю там 40-50Мппс бы он лопатил, но это уже буде специализированный вычислитель. Кстати в архитектурах следующего поколения подобное архитектурное решение и предлагается, где то выложен пресс-релиз Intel и там затронуты вопросы маршрутизации.

Ссылка на сообщение
Поделиться на других сайтах

MCP с ее чудо скоростью это хорошо, но заявляют ведь всего 12Гб/с у этой самой внутренней QPI-шины. А это скорость 1 канального ddr3-1333..

Ссылка на сообщение
Поделиться на других сайтах

MCP с ее чудо скоростью это хорошо, но заявляют ведь всего 12Гб/с у этой самой внутренней QPI-шины. А это скорость 1 канального ddr3-1333..

 

Это не QPI, это аналог QPI. За счет того, что она в тысячи раз короче самой QPI она имеет большую производительность.

Ссылка на сообщение
Поделиться на других сайтах

MCP с ее чудо скоростью это хорошо, но заявляют ведь всего 12Гб/с у этой самой внутренней QPI-шины. А это скорость 1 канального ddr3-1333..

Это не QPI, это аналог QPI. За счет того, что она в тысячи раз короче самой QPI она имеет большую производительность.

Бред ©

Связь между чипами процессора отведена интерфейсу QPI, частота которого на данный момент составляет 3,2 ГГц (6,4 ГТ/с), что дает в итоге пропускную способность шины около 12,8 ГБ/с в одну сторону. Двухканальный контроллер памяти поддерживает максимум DDR3-1333, а это в теории порядка 21,3 ГБ/с. Но ведь QPI использует еще и контроллер PCI Express. В конечном итоге Clarkdale работает с памятью также быстро, как и процессоры архитектуры Core в связке с чипсетами Intel 3/4 Series, и в плане производительности они отстают процентов на 50% от решений на базе ядра Lynnfield. Кроме того, «встроенный» контроллер отличается высокой латентностью — на уровне все тех же наборов системной логики прошлого поколения. Скорее Clarkdale можно назвать гибридом процессора архитектуры Nehalem и чипсета G45

Ссылка на сообщение
Поделиться на других сайтах

MCP с ее чудо скоростью это хорошо, но заявляют ведь всего 12Гб/с у этой самой внутренней QPI-шины. А это скорость 1 канального ddr3-1333..

Это не QPI, это аналог QPI. За счет того, что она в тысячи раз короче самой QPI она имеет большую производительность.

Бред ©

Связь между чипами процессора отведена интерфейсу QPI, частота которого на данный момент составляет 3,2 ГГц (6,4 ГТ/с), что дает в итоге пропускную способность шины около 12,8 ГБ/с в одну сторону. Двухканальный контроллер памяти поддерживает максимум DDR3-1333, а это в теории порядка 21,3 ГБ/с. Но ведь QPI использует еще и контроллер PCI Express. В конечном итоге Clarkdale работает с памятью также быстро, как и процессоры архитектуры Core в связке с чипсетами Intel 3/4 Series, и в плане производительности они отстают процентов на 50% от решений на базе ядра Lynnfield. Кроме того, «встроенный» контроллер отличается высокой латентностью — на уровне все тех же наборов системной логики прошлого поколения. Скорее Clarkdale можно назвать гибридом процессора архитектуры Nehalem и чипсета G45

 

Берд.

 

Это все догадки на основании косвенных тестов. Найдите в официальной документации пропускную способность MCP Interface. В любом случае, даже если там 12ГБайт - при маршрутизации 20Гбит - это более чем достаточно.

 

И да, пропускная способность шины != латентность шины.

 

Я же вам говорю, что транспортная шина, есть и у Sandy Bridge, но только реализована эта шина, сам процессор и контроллеры на одном кристале и эта шина тоже имеет свои ограничения, которые в реальных задачах - вряд ли буду задействоваться даже на 25%.

 

Now, with Sandy Bridge, the graphics circuitry is moved right onto the same die as the processor, gaining performance by using the same 32nm technology. Furthermore, rather than communicating with processor cores through memory, as before, the graphics engine of Sandy Bridge communicates through on-chip cache, allowing 4- to 5-times faster throughput according to Intel. To accommodate the increased demand on cache bandwidth, the internal bus connecting cores and graphics has been redesigned for Sandy Bridge. It is that redesigned internal bus that promises to boost performance of Sandy Bridge server chips, when they eventually arrive.

Ссылка на сообщение
Поделиться на других сайтах

Бред.

 

Я вам привел тест:

http://shader.kaist....nchmark/i3.html

Сравнительного теста нет?

 

Основное отличие обуславливающее повышение pps у clarkdale над Core2 - это то, что контроллер памяти и контроллер PCI-X собраны в одну процессорную сборку и соединены высокопроизводительной шиной.

Бред (с)

http://www.fcenter.ru/forprint.shtml?online/articles/hardware/processors/27965 - посмотрите, обратите внимание на латентность памяти (именно она играет роль для роутеров, а не пропускная способность). И там же сравнение с lynnfield с полноценным ИКП, и с LGA775 платформой.

А вообще и в LGA775 контроллер PCI-E на том же кристалле, что и контроллер памяти.

Ну и еще дровишки о "высокопроизводительной" QPI. К слову, ее пропускная способность на номинальных 3.2ГГц в одну из сторон такая же, как и ПСП стандартной QPB корок на частоте 400(1600) МГц (разве что QPB не дуплексная). Вот такая вот "высокопроизводительная" шина.

 

Это все догадки на основании косвенных тестов. Найдите в официальной документации пропускную способность MCP Interface. В любом случае, даже если там 12ГБайт - при маршрутизации 20Гбит - это более чем достаточно.

Да не MCP (выдуманное вами) это, а QPI. И производительность ее даже на интеловых слайдах рисуется.

 

И да, пропускная способность шины != латентность шины.

Латентность у QPI оказыается выше, чем у более раннего QPB - что и показывают тесты.

 

Я же вам говорю, что транспортная шина, есть и у Sandy Bridge, но только реализована эта шина, сам процессор и контроллеры на одном кристале

Транспортная шина есть везде. Только латентность какбы разная :)

Ссылка на сообщение
Поделиться на других сайтах

Бред.

 

Я вам привел тест:

http://shader.kaist....nchmark/i3.html

Сравнительного теста нет?

 

Основное отличие обуславливающее повышение pps у clarkdale над Core2 - это то, что контроллер памяти и контроллер PCI-X собраны в одну процессорную сборку и соединены высокопроизводительной шиной.

Бред (с)

http://www.fcenter.r...rocessors/27965 - посмотрите, обратите внимание на латентность памяти (именно она играет роль для роутеров, а не пропускная способность). И там же сравнение с lynnfield с полноценным ИКП, и с LGA775 платформой.

А вообще и в LGA775 контроллер PCI-E на том же кристалле, что и контроллер памяти.

Ну и еще дровишки о "высокопроизводительной" QPI. К слову, ее пропускная способность на номинальных 3.2ГГц в одну из сторон такая же, как и ПСП стандартной QPB корок на частоте 400(1600) МГц (разве что QPB не дуплексная). Вот такая вот "высокопроизводительная" шина.

 

Это все догадки на основании косвенных тестов. Найдите в официальной документации пропускную способность MCP Interface. В любом случае, даже если там 12ГБайт - при маршрутизации 20Гбит - это более чем достаточно.

Да не MCP (выдуманное вами) это, а QPI. И производительность ее даже на интеловых слайдах рисуется.

 

И да, пропускная способность шины != латентность шины.

Латентность у QPI оказыается выше, чем у более раннего QPB - что и показывают тесты.

 

Я же вам говорю, что транспортная шина, есть и у Sandy Bridge, но только реализована эта шина, сам процессор и контроллеры на одном кристале

Транспортная шина есть везде. Только латентность какбы разная ;)

 

Бред не подкрепленный фактами.

 

Найдете тест c аналогичными показателями производительности и 40Вт в целом на всю систему на Core2 приходите.

 

http://shader.kaist....nchmark/i3.html

 

http://www.servetheh...ion-xeon-x3440/

 

Core2 загибались на 100-200 kpps, i3-550/i3-2125 1-1.5Mpps,

Ссылка на сообщение
Поделиться на других сайтах

Создайте аккаунт или войдите в него для комментирования

Вы должны быть пользователем, чтобы оставить комментарий

Создать аккаунт

Зарегистрируйтесь для получения аккаунта. Это просто!

Зарегистрировать аккаунт

Вхід

Уже зарегистрированы? Войдите здесь.

Войти сейчас
  • Зараз на сторінці   0 користувачів

    Немає користувачів, що переглядають цю сторінку.

  • Схожий контент

    • Від Sat_Odessa
      Помогите решить задачу:
      Есть 2 роутера с белыми адресами: TPLink и MikroTik. Необходима переодическая настройка (открытие/закрытие портов). С Mikrotik-oм никаких проблем нет, так как инструкций в интернете вагон и маленькая тележка. А вот с TPLink-ом загвоздка. Чтобы не открывать доступ к нему на весь мир, доступ веб-интерфейсу TPLink-а открыт только для адреса Mikrotik-а. Соответственно из локальной сети Mikrotik-а я могу попасть в настройки TPLink-а. Но иногда нужен удаленный доступ к TPLink-у из других мест.
       
      Можно ли как-то открыть на Mikrotik-е внешний порт, чтобы весь трафик из интернета на этот порт перенаправлялся на внешний IP-адрес TPLink-а? Чтобы для TPLink-а это выглядело так, как будто я подключаюсь к нему с IP-адреса Mikrotik-а.
    • Від Інет.укр
      Продам MS-MIC-16G б.у з гарантією 1міс.
      вартість 65 000грн 
      Варіанти оплати:
      рахунок від фоп крипта USDT на карту монобанк p.s 
       


    • Від Lux-Domofon
      Доброго дня, потріна допомога в налаштуванні sip server Asterisk, для ip домофонії. Виникла проблема з NAT, а також з  DTMF для відкривання дверей. 
    • Від Інет.укр
      Продам 3шт MS-MIC-16G ціна $4600 за 3шт.
      Гарантія 30діб
      Можливо рахунок від ФОП
    • Від renegade310
      Доброго дня.
      Маємо коробку A10 3030s.
      Прошивка:
               64-bit Advanced Core OS (ACOS) version 4.1.4-GR1-P5, build 81 (Sep-08-2020,09:32)           Booted from Hard Disk primary image           Number of control CPUs is set to 1           aFleX version: 2.0.0           GUI primary image (default) version 4_1_4-GR1-P5-4_1_4-gr1-p5-38           GUI secondary image version 4_1_4-GR1-P5-4_1_4-gr1-p5-38           aXAPI version: 3.0           Cylance version: N/A           Hard Disk primary image (default) version 4.1.4-GR1-P5, build 81           Hard Disk secondary image version 4.1.4-GR1-P5, build 81           Last configuration saved at Feb-9-2023, 18:37           Hardware: 8 CPUs(Stepping 9), Single 74G drive, Free storage is 34G           Total System Memory 16350 Mbytes, Free Memory 7692 Mbytes           Hardware Manufacturing Code: 175211           Current time is Feb-11-2023, 19:01           The system has been up 21 days, 1 hour, 9 minutes  
      І недавно сталася проблема що розвалився lag на ньому і в логах було таке:
       
      Feb 09 2023 16:54:12 Notice      [Router]:Interface(s)  ethernet 9,  removed from aggregator po2 Feb 09 2023 16:54:12 Notice      [Router]:Interface(s)  ethernet 10,  removed from aggregator po2 Feb 09 2023 16:54:12 Notice      [Router]:Interface(s)  ethernet 11,  removed from aggregator po1 Feb 09 2023 16:54:12 Notice      [Router]:Interface(s)  ethernet 12,  removed from aggregator po1 Feb 09 2023 16:54:11 Error       [Fail Safe]:Failed in thread LWP 6361 Feb 09 2023 16:54:11 Error       [Fail Safe]:Failed in thread LWP 6338 Feb 09 2023 16:54:11 Error       [Fail Safe]:Failed in thread LWP 6340 Feb 09 2023 16:54:11 Error       [Fail Safe]:Failed in thread 0x6f09149 Feb 09 2023 16:54:11 Error       [Fail Safe]:FailSafe timestamp 4704431868, last update time 409464572  Feb 09 2023 16:54:11 Error       [Fail Safe]:FailSafe detected problem in ALB threads. Feb 09 2023 16:54:11 Warning     [AXMON]:Detected problem in Health Monitor DataCPU1 (LWP 6216). (Last counter was -1772775275 at time 4704431868 bit 7). Feb 09 2023 16:54:11 Warning     [AXMON]:Detected problem in Health Monitor DataCPU4 (LWP 6220). (Last counter was -1460486145 at time 4704431868 bit 6). Feb 09 2023 16:54:11 Warning     [AXMON]:Detected problem in Health Monitor DataCPU0 (LWP 6215). (Last counter was -974207122 at time 4704431868 bit 5). Feb 09 2023 16:54:11 Warning     [AXMON]:Detected problem in Health Monitor DataCPU3 (LWP 6219). (Last counter was 1747921038 at time 4704431868 bit 4). Feb 09 2023 16:54:11 Warning     [AXMON]:Detected problem in Health Monitor DataCPU2 (LWP 6217). (Last counter was -1737089530 at time 4704431868 bit 3). Feb 09 2023 16:54:10 Warning     [AXMON]:Detected problem in Health Monitor DataCPU1 (LWP 6216). (Last counter was -1772775275 at time 4704431789 bit 7). Feb 09 2023 16:54:10 Warning     [AXMON]:Detected problem in Health Monitor DataCPU4 (LWP 6220). (Last counter was -1460486145 at time 4704431789 bit 6). Feb 09 2023 16:54:10 Warning     [AXMON]:Detected problem in Health Monitor DataCPU0 (LWP 6215). (Last counter was -974207122 at time 4704431789 bit 5). Feb 09 2023 16:54:10 Warning     [AXMON]:Detected problem in Health Monitor DataCPU3 (LWP 6219). (Last counter was 1747921038 at time 4704431789 bit 4). Feb 09 2023 16:54:10 Warning     [AXMON]:Detected problem in Health Monitor DataCPU2 (LWP 6217). (Last counter was -1737089530 at time 4704431789 bit 3). Feb 09 2023 16:54:10 Warning     [AXMON]:Detected problem in Health Monitor DataCPU1 (LWP 6216). (Last counter was -1772775275 at time 4704431713 bit 7). Feb 09 2023 16:54:10 Warning     [AXMON]:Detected problem in Health Monitor DataCPU4 (LWP 6220). (Last counter was -1460486145 at time 4704431713 bit 6). Feb 09 2023 16:54:10 Warning     [AXMON]:Detected problem in Health Monitor DataCPU0 (LWP 6215). (Last counter was -974207122 at time 4704431713 bit 5). Feb 09 2023 16:54:10 Warning     [AXMON]:Detected problem in Health Monitor DataCPU3 (LWP 6219). (Last counter was 1747921038 at time 4704431712 bit 4). Feb 09 2023 16:54:10 Warning     [AXMON]:Detected problem in Health Monitor DataCPU1 (LWP 6216). (Last counter was -1772775275 at time 4704431636 bit 7). Feb 09 2023 16:54:10 Warning     [AXMON]:Detected problem in Health Monitor DataCPU4 (LWP 6220). (Last counter was -1460486145 at time 4704431636 bit 6). Feb 09 2023 16:54:10 Warning     [AXMON]:Detected problem in Health Monitor DataCPU0 (LWP 6215). (Last counter was -974207122 at time 4704431636 bit 5). Feb 09 2023 16:54:10 Warning     [AXMON]:Detected problem in Health Monitor DataCPU3 (LWP 6219). (Last counter was 1747921038 at time 4704431636 bit 4). Feb 09 2023 16:54:09 Warning     [AXMON]:Detected problem in Health Monitor DataCPU1 (LWP 6216). (Last counter was -1772775275 at time 4704431556 bit 7). Feb 09 2023 16:54:09 Warning     [AXMON]:Detected problem in Health Monitor DataCPU0 (LWP 6215). (Last counter was -974207122 at time 4704431556 bit 5). Feb 09 2023 16:54:09 Warning     [AXMON]:Detected problem in Health Monitor DataCPU3 (LWP 6219). (Last counter was 1747921038 at time 4704431552 bit 4).  
      Проблема була тимчасова, буквально за хвилину лаг знову зібрався і все працює.
      В чому може бути проблема?

×
×
  • Створити нове...