Перейти до

poling во freebsd 9


Рекомендованные сообщения

всем привет.

поставил freebsd9 сделал тюнинг через sysctl, после перезагрузки ругается на kern.polling.enable.

может кто знает как в 9-ке это сделать.

Ссылка на сообщение
Поделиться на других сайтах

всем привет.

поставил freebsd9 сделал тюнинг через sysctl, после перезагрузки ругается на kern.polling.enable.

может кто знает как в 9-ке это сделать.

 

Поллинг давно не имеет смысла и только вредит, уберите его из ядра

Ссылка на сообщение
Поделиться на других сайтах

Правильный - поставить современные Интеловые сетевые с заводскими драйверами и дефолтными настройками. И на процессорах выключить HT

Ссылка на сообщение
Поделиться на других сайтах

Правильный - поставить современные Интеловые сетевые с заводскими драйверами и дефолтными настройками. И на процессорах выключить HT

 

сетевые Integrated Dual Intel® 82573L, драйвера не менялись, что имеется введу под "и дефолтными настройками"?

Ссылка на сообщение
Поделиться на других сайтах

По возможности лучше заменить на карточку с чипом 82576

"Дефолтные настройки" - это значит ничего не менять в параметрах драйвера - очереди, задержки прерывания и т.д.

Ссылка на сообщение
Поделиться на других сайтах

По возможности лучше заменить на карточку с чипом 82576

"Дефолтные настройки" - это значит ничего не менять в параметрах драйвера - очереди, задержки прерывания и т.д.

кое что поменять все же стоит. но многое зависит от задач и нагрузки.

Ссылка на сообщение
Поделиться на других сайтах

помогите разобраться, сервак с freebsd9

 

Quad-Core Intel Xeon L5420 2.5GHz

 

Dual Intel® 82573L Single Port Gigabit Ethernet Controller

 

firewall+nat

 

на сервере 300 vlan-ов

 

проблема следующая, через некоторое время ~15-30минут как когда, что то происходит и при этом пинг растет до ~300-600мс хотя все остальное время ~0.2-0.5мс и растет NAT.

 

не могу понять из-за чего такое происходит, может кто подскажет

 

когда это происходит вот такие данные.......

 

top -SHP

 

last pid: 42494; load averages: 2.79, 1.25, 0.94

140 processes: 20 running, 98 sleeping, 22 waiting

CPU 0: 0.0% user, 0.0% nice, 48.5% system, 0.0% interrupt, 51.5% idle

CPU 1: 0.0% user, 0.0% nice, 2.6% system, 0.7% interrupt, 96.7% idle

CPU 2: 0.0% user, 0.0% nice, 2.2% system, 3.3% interrupt, 94.5% idle

CPU 3: 0.0% user, 0.0% nice, 2.2% system, 0.0% interrupt, 97.8% idle

CPU 4: 0.0% user, 0.0% nice, 34.6% system, 0.0% interrupt, 65.4% idle

CPU 5: 0.0% user, 0.0% nice, 33.5% system, 0.0% interrupt, 66.5% idle

CPU 6: 0.0% user, 0.0% nice, 0.7% system, 0.0% interrupt, 99.3% idle

CPU 7: 0.0% user, 0.0% nice, 0.0% system, 0.0% interrupt, 100% idle

Mem: 88M Active, 167M Inact, 391M Wired, 436K Cache, 252M Buf, 7270M Free

Swap: 1024M Total, 1024M Free

 

PID USERNAME PRI NICE SIZE RES STATE C TIME WCPU COMMAND

11 root 155 ki31 0K 128K RUN 3 73:55 97.85% idle{idle: cpu3}

11 root 155 ki31 0K 128K RUN 7 73:42 97.07% idle{idle: cpu7}

11 root 155 ki31 0K 128K RUN 6 72:26 93.16% idle{idle: cpu6}

11 root 155 ki31 0K 128K RUN 2 72:12 92.38% idle{idle: cpu2}

11 root 155 ki31 0K 128K RUN 5 68:10 91.46% idle{idle: cpu5}

11 root 155 ki31 0K 128K CPU1 1 70:07 90.97% idle{idle: cpu1}

11 root 155 ki31 0K 128K RUN 4 67:12 87.79% idle{idle: cpu4}

11 root 155 ki31 0K 128K RUN 0 55:33 64.79% idle{idle: cpu0}

0 root -92 0 0K 192K CPU0 1 12:59 25.88% kernel{em1 taskq}

41515 root 79 0 30768K 8088K CPU5 5 8:24 24.46% natd

0 root -92 0 0K 192K CPU4 0 13:09 15.09% kernel{em0 taskq}

12 root -60 - 0K 368K WAIT 1 0:25 5.76% intr{swi4: clock}

12 root -72 - 0K 368K CPU7 7 6:28 5.57% intr{swi1: netisr 0}

41693 root 20 0 40688K 7284K CPU6 3 0:20 0.10% snmpd

0 root -92 0 0K 192K CPU3 3 1:54 0.00% kernel{dummynet}

0 root -16 0 0K 192K RUN 4 0:59 0.00% kernel{swapper}

42261 user 20 0 68016K 5584K select 7 0:31 0.00% sshd

42325 root 20 0 32792K 6984K select 1 0:09 0.00% mc

14 root -16 - 0K 16K - 4 0:08 0.00% yarrow

42152 www 20 0 162M 26480K accept 4 0:08 0.00% httpd

41958 mysql 20 0 379M 138M select 1 0:05 0.00% mysqld{mysqld}

12 root -52 - 0K 368K WAIT 4 0:04 0.00% intr{swi6: Giant task}

12 root -84 - 0K 368K WAIT 0 0:02 0.00% intr{irq1: atkbd0}

42001 www 20 0 162M 26572K accept 1 0:02 0.00% httpd

42313 www 20 0 162M 26576K accept 1 0:02 0.00% httpd

41754 root 20 0 22332K 3884K select 1 0:02 0.00% ntpd

41958 mysql 20 0 379M 138M uwait 7 0:01 0.00% mysqld{mysqld}

42310 root 20 0 20464K 1632K RUN 6 0:01 0.00% netstat

42311 www 20 0 158M 20680K accept 4 0:01 0.00% httpd

41958 mysql 20 0 379M 138M RUN 5 0:01 0.00% mysqld{mysqld}

8 root 16 - 0K 16K RUN 7 0:00 0.00% syncer

42478 root 20 0 16700K 2660K CPU2 1 0:00 0.00% top

42286 user 20 0 68016K 5572K select 1 0:00 0.00% sshd

41967 root 20 0 154M 12816K select 0 0:00 0.00% httpd

12 root -60 - 0K 368K WAIT 4 0:00 0.00% intr{swi4: clock}

13 root -8 - 0K 48K - 3 0:00 0.00% geom{g_up}

13 root -8 - 0K 48K - 4 0:00 0.00% geom{g_down}

42002 www 20 0 158M 20672K accept 4 0:00 0.00% httpd

12 root -68 - 0K 368K WAIT 5 0:00 0.00% intr{swi2: cambio}

42003 www 20 0 158M 20660K accept 4 0:00 0.00% httpd

12 root -84 - 0K 368K WAIT 2 0:00 0.00% intr{irq12: psm0}

12 root -60 - 0K 368K WAIT 2 0:00 0.00% intr{swi4: clock}

12 root -60 - 0K 368K WAIT 5 0:00 0.00% intr{swi4: clock}

12 root -88 - 0K 368K WAIT 0 0:00 0.00% intr{irq258: ahci0}

16 root -16 - 0K 16K RUN 3 0:00 0.00% softdepflush

 

netstat -w1 -h

 

input (Total) output

packets errs idrops bytes packets errs bytes colls

22k 0 0 16M 23k 0 21M 0

21k 0 0 16M 22k 0 21M 0

23k 0 0 17M 24k 0 22M 0

23k 0 0 17M 24k 0 22M 0

22k 0 0 17M 23k 0 21M 0

21k 0 0 16M 22k 0 20M 0

21k 0 0 15M 21k 0 20M 0

21k 0 0 16M 22k 0 20M 0

20k 0 0 15M 21k 0 19M 0

22k 0 0 16M 23k 0 20M 0

19k 0 0 14M 20k 0 18M 0

20k 0 0 15M 21k 0 19M 0

21k 0 0 16M 22k 0 20M 0

21k 0 0 16M 22k 0 20M 0

22k 0 0 16M 23k 0 21M 0

21k 0 0 15M 21k 0 19M 0

21k 0 0 15M 21k 0 19M 0

22k 0 0 16M 23k 0 20M 0

21k 0 0 16M 22k 0 20M 0

22k 0 0 17M 23k 0 21M 0

19k 0 0 13M 20k 0 18M 0

input (Total) output

packets errs idrops bytes packets errs bytes colls

22k 0 0 16M 22k 0 20M 0

10k 0 0 6.4M 9.5k 0 7.1M 0

9.3k 0 0 5.4M 8.7k 0 6.2M 0

8.9k 0 0 5.2M 8.6k 0 6.1M 0

9.1k 0 0 5.6M 8.7k 0 6.5M 0

7.6k 0 0 4.9M 7k 0 5.8M 0

9.5k 0 0 6.1M 10k 0 7.7M 0

10k 0 0 6.0M 9.9k 0 7.3M 0

9.1k 0 0 5.3M 8.9k 0 6.5M 0

11k 0 0 6.1M 9.4k 0 6.9M 0

6.7k 0 0 4.4M 8.0k 0 6M 0

9.2k 0 0 5.4M 9.0k 0 6.7M 0

12k 0 0 6.8M 10k 0 7.6M 0

4.6k 0 0 2.6M 5.6k 0 4.5M 0

8.2k 0 0 4.4M 7.7k 0 5.5M 0

8.4k 0 0 4.7M 7.9k 0 5.8M 0

8k 0 0 4.4M 7.6k 0 5.4M 0

7.9k 0 0 4.3M 7.6k 0 5.3M 0

8.4k 0 0 4.2M 8.1k 0 5.3M 0

8.3k 0 0 4.4M 8.0k 0 5.5M 0

8.4k 0 0 4.3M 8k 0 5.3M 0

input (Total) output

packets errs idrops bytes packets errs bytes colls

8k 0 0 4.4M 8.3k 0 5.9M 0

12k 0 0 6M 11k 0 7.2M 0

7k 0 0 4.3M 7.6k 0 5.8M 0

9.7k 0 0 4.9M 9.7k 0 6.5M 0

16k 0 0 10M 16k 0 11M 0

17k 0 0 11M 17k 0 13M 0

10k 0 0 5.3M 11k 0 7.3M 0

9.6k 0 0 5.1M 9.6k 0 6.9M 0

8.7k 0 0 4.2M 9k 0 6.2M 0

9.2k 0 0 4.3M 9.2k 0 6.2M 0

8.1k 0 0 3.8M 8.0k 0 5.2M 0

8.6k 0 0 4.4M 8.7k 0 6.1M 0

8.7k 0 0 5.1M 8.6k 0 6.9M 0

9.1k 0 0 5.0M 9.3k 0 6.9M 0

19k 0 0 12M 20k 0 17M 0

20k 0 0 13M 22k 0 18M 0

20k 0 0 14M 21k 0 19M 0

18k 0 0 11M 19k 0 15M 0

18k 0 0 11M 19k 0 15M 0

18k 0 0 12M 19k 0 15M 0

19k 0 0 13M 20k 0 17M 0

input (Total) output

packets errs idrops bytes packets errs bytes colls

19k 0 0 12M 20k 0 17M 0

18k 0 0 12M 19k 0 16M 0

18k 0 0 12M 19k 0 16M 0

19k 0 0 12M 19k 0 15M 0

19k 0 0 13M 20k 0 17M 0

20k 0 0 14M 21k 0 17M 0

18k 0 0 13M 18k 0 16M 0

18k 0 0 12M 19k 0 14M 0

18k 0 0 12M 19k 0 15M 0

18k 0 0 12M 18k 0 15M 0

19k 0 0 13M 19k 0 16M 0

 

и сам ping

 

64 bytes from 111.111.111.111: icmp_seq=133 ttl=64 time=0.140 ms

64 bytes from 111.111.111.111: icmp_seq=134 ttl=64 time=0.165 ms

64 bytes from 111.111.111.111: icmp_seq=135 ttl=64 time=0.235 ms

64 bytes from 111.111.111.111: icmp_seq=136 ttl=64 time=0.196 ms

64 bytes from 111.111.111.111: icmp_seq=137 ttl=64 time=0.360 ms

64 bytes from 111.111.111.111: icmp_seq=138 ttl=64 time=0.198 ms

64 bytes from 111.111.111.111: icmp_seq=139 ttl=64 time=0.248 ms

64 bytes from 111.111.111.111: icmp_seq=140 ttl=64 time=0.235 ms

64 bytes from 111.111.111.111: icmp_seq=141 ttl=64 time=0.282 ms

64 bytes from 111.111.111.111: icmp_seq=142 ttl=64 time=0.277 ms

64 bytes from 111.111.111.111: icmp_seq=143 ttl=64 time=0.148 ms

64 bytes from 111.111.111.111: icmp_seq=144 ttl=64 time=0.206 ms

64 bytes from 111.111.111.111: icmp_seq=145 ttl=64 time=0.159 ms

64 bytes from 111.111.111.111: icmp_seq=146 ttl=64 time=0.141 ms

64 bytes from 111.111.111.111: icmp_seq=147 ttl=64 time=0.176 ms

64 bytes from 111.111.111.111: icmp_seq=148 ttl=64 time=0.268 ms

64 bytes from 111.111.111.111: icmp_seq=149 ttl=64 time=0.165 ms

64 bytes from 111.111.111.111: icmp_seq=150 ttl=64 time=0.239 ms

64 bytes from 111.111.111.111: icmp_seq=151 ttl=64 time=0.244 ms

64 bytes from 111.111.111.111: icmp_seq=152 ttl=64 time=0.258 ms

64 bytes from 111.111.111.111: icmp_seq=153 ttl=64 time=0.191 ms

64 bytes from 111.111.111.111: icmp_seq=154 ttl=64 time=0.256 ms

64 bytes from 111.111.111.111: icmp_seq=155 ttl=64 time=0.200 ms

64 bytes from 111.111.111.111: icmp_seq=156 ttl=64 time=0.134 ms

64 bytes from 111.111.111.111: icmp_seq=157 ttl=64 time=0.206 ms

64 bytes from 111.111.111.111: icmp_seq=158 ttl=64 time=0.154 ms

64 bytes from 111.111.111.111: icmp_seq=159 ttl=64 time=0.212 ms

64 bytes from 111.111.111.111: icmp_seq=160 ttl=64 time=0.159 ms

64 bytes from 111.111.111.111: icmp_seq=161 ttl=64 time=0.222 ms

64 bytes from 111.111.111.111: icmp_seq=162 ttl=64 time=0.168 ms

64 bytes from 111.111.111.111: icmp_seq=163 ttl=64 time=0.139 ms

64 bytes from 111.111.111.111: icmp_seq=164 ttl=64 time=0.174 ms

64 bytes from 111.111.111.111: icmp_seq=165 ttl=64 time=0.120 ms

64 bytes from 111.111.111.111: icmp_seq=166 ttl=64 time=0.523 ms

64 bytes from 111.111.111.111: icmp_seq=167 ttl=64 time=0.518 ms

64 bytes from 111.111.111.111: icmp_seq=168 ttl=64 time=398 ms

64 bytes from 111.111.111.111: icmp_seq=169 ttl=64 time=461 ms

64 bytes from 111.111.111.111: icmp_seq=170 ttl=64 time=527 ms

64 bytes from 111.111.111.111: icmp_seq=171 ttl=64 time=595 ms

64 bytes from 111.111.111.111: icmp_seq=172 ttl=64 time=0.483 ms

64 bytes from 111.111.111.111: icmp_seq=173 ttl=64 time=0.142 ms

64 bytes from 111.111.111.111: icmp_seq=174 ttl=64 time=0.470 ms

64 bytes from 111.111.111.111: icmp_seq=175 ttl=64 time=0.144 ms

64 bytes from 111.111.111.111: icmp_seq=176 ttl=64 time=0.457 ms

64 bytes from 111.111.111.111: icmp_seq=177 ttl=64 time=0.453 ms

64 bytes from 111.111.111.111: icmp_seq=178 ttl=64 time=25.0 ms

64 bytes from 111.111.111.111: icmp_seq=179 ttl=64 time=95.0 ms

64 bytes from 111.111.111.111: icmp_seq=180 ttl=64 time=160 ms

64 bytes from 111.111.111.111: icmp_seq=181 ttl=64 time=231 ms

64 bytes from 111.111.111.111: icmp_seq=182 ttl=64 time=296 ms

64 bytes from 111.111.111.111: icmp_seq=183 ttl=64 time=365 ms

64 bytes from 111.111.111.111: icmp_seq=184 ttl=64 time=433 ms

64 bytes from 111.111.111.111: icmp_seq=185 ttl=64 time=503 ms

64 bytes from 111.111.111.111: icmp_seq=186 ttl=64 time=571 ms

64 bytes from 111.111.111.111: icmp_seq=187 ttl=64 time=640 ms

64 bytes from 111.111.111.111: icmp_seq=188 ttl=64 time=0.381 ms

64 bytes from 111.111.111.111: icmp_seq=189 ttl=64 time=0.376 ms

64 bytes from 111.111.111.111: icmp_seq=190 ttl=64 time=0.369 ms

64 bytes from 111.111.111.111: icmp_seq=191 ttl=64 time=0.362 ms

64 bytes from 111.111.111.111: icmp_seq=192 ttl=64 time=0.356 ms

64 bytes from 111.111.111.111: icmp_seq=193 ttl=64 time=0.351 ms

64 bytes from 111.111.111.111: icmp_seq=194 ttl=64 time=69.3 ms

64 bytes from 111.111.111.111: icmp_seq=195 ttl=64 time=139 ms

64 bytes from 111.111.111.111: icmp_seq=196 ttl=64 time=204 ms

64 bytes from 111.111.111.111: icmp_seq=197 ttl=64 time=275 ms

64 bytes from 111.111.111.111: icmp_seq=198 ttl=64 time=340 ms

64 bytes from 111.111.111.111: icmp_seq=199 ttl=64 time=410 ms

64 bytes from 111.111.111.111: icmp_seq=200 ttl=64 time=474 ms

64 bytes from 111.111.111.111: icmp_seq=201 ttl=64 time=539 ms

64 bytes from 111.111.111.111: icmp_seq=202 ttl=64 time=0.144 ms

64 bytes from 111.111.111.111: icmp_seq=203 ttl=64 time=0.220 ms

64 bytes from 111.111.111.111: icmp_seq=204 ttl=64 time=0.374 ms

64 bytes from 111.111.111.111: icmp_seq=205 ttl=64 time=0.234 ms

64 bytes from 111.111.111.111: icmp_seq=206 ttl=64 time=0.192 ms

64 bytes from 111.111.111.111: icmp_seq=207 ttl=64 time=0.215 ms

64 bytes from 111.111.111.111: icmp_seq=208 ttl=64 time=0.216 ms

64 bytes from 111.111.111.111: icmp_seq=209 ttl=64 time=0.291 ms

64 bytes from 111.111.111.111: icmp_seq=210 ttl=64 time=0.244 ms

64 bytes from 111.111.111.111: icmp_seq=211 ttl=64 time=0.311 ms

64 bytes from 111.111.111.111: icmp_seq=212 ttl=64 time=0.247 ms

64 bytes from 111.111.111.111: icmp_seq=213 ttl=64 time=0.208 ms

64 bytes from 111.111.111.111: icmp_seq=214 ttl=64 time=0.181 ms

64 bytes from 111.111.111.111: icmp_seq=215 ttl=64 time=0.142 ms

64 bytes from 111.111.111.111: icmp_seq=216 ttl=64 time=0.180 ms

64 bytes from 111.111.111.111: icmp_seq=217 ttl=64 time=0.243 ms

Ссылка на сообщение
Поделиться на других сайтах

1. фря, 9ка. выкинуть natd нахрен.

2. 111.111.111.111 - это сама машинка или хост в инете?

3. сравните pps на интерфейсе в локалку во время больших пингов и после них

4. polling выключен?

5. покажите ifconfig на физические интерфейсы

Ссылка на сообщение
Поделиться на других сайтах

1. фря, 9ка. выкинуть natd нахрен.

2. 111.111.111.111 - это сама машинка или хост в инете?

3. сравните pps на интерфейсе в локалку во время больших пингов и после них

4. polling выключен?

5. покажите ifconfig на физические интерфейсы

 

фря 9

111.111.111.111 это сама машинка

polling выключен

 

 

em0: flags=8843<UP,BROADCAST,RUNNING,SIMPLEX,MULTICAST> metric 0 mtu 1500

options=219b<RXCSUM,TXCSUM,VLAN_MTU,VLAN_HWTAGGING,VLAN_HWCSUM,TSO4,WOL_MAGIC>

ether 00:00:08:d3:80:96

inet 111.111.111.111 netmask 0xfffffff8 broadcast

inet6 fe80::230:48ff:fed3:8096%em0 prefixlen 64 scopeid 0x3

nd6 options=29<PERFORMNUD,IFDISABLED,AUTO_LINKLOCAL>

media: Ethernet autoselect (1000baseT <full-duplex>)

status: active

 

 

em1: flags=8843<UP,BROADCAST,RUNNING,SIMPLEX,MULTICAST> metric 0 mtu 1500

options=219b<RXCSUM,TXCSUM,VLAN_MTU,VLAN_HWTAGGING,VLAN_HWCSUM,TSO4,WOL_MAGIC>

ether 00:30:48:d3:80:97

inet 192.168.44.1 netmask 0xffffff00 broadcast 192.168.44.255

inet6 fe80::230:48ff:fed3:8097%em1 prefixlen 64 scopeid 0x4

nd6 options=29<PERFORMNUD,IFDISABLED,AUTO_LINKLOCAL>

media: Ethernet autoselect (1000baseT <full-duplex>)

status: active

 

а что вместо natd?

Ссылка на сообщение
Поделиться на других сайтах

попробуйте поработать с такими опциями:

ifconfig em0 -txcsum -rxcsum -tso

ifconfig em1 -txcsum -rxcsum -tso

 

вместо natd

man ipfw /NAT

 

пример команд:

ipfw nat 1 config ip xxx.xxx.xxx.xxx

ipfw add 900 nat 1 all from any to xxx.xxx.xxx.xxx in

ipfw add 910 nat 1 all from 192.168.0.016 to any out

 

И основной вопрос: помониторьте pps в сторону клиентов в моменты вырастания нагрузки.

Ссылка на сообщение
Поделиться на других сайтах

pf хорош всем, кроме того, что ничерта про SMP не знает )

 

Из этого следует, что он не параллелится на ядра.

 

Справедливости ради : на маленьком трафе - никак не заметно, а так лучше использовать kernel nat.

 

П.С: natd, polling - Удалите из закладок статьи 2001-го года, с тех пор многое изменилось )

Ссылка на сообщение
Поделиться на других сайтах

А лучше и про BSD закладку удалить, ядерный NAT линукса из коробки 100 очков форы даст)

У меня противоположный опыт :blink:

Но это зависит от админа, конечно...

Ссылка на сообщение
Поделиться на других сайтах
  • 4 weeks later...

проблема осталась, может кто подскажет, подглючивает система, при нулевой загрузке канала пинг около 600 мс(секунд 10) остальное время 1-2 мс, такое происходит примерно каждые 15-30 минут, в это время подвисает набор текста в консоли, в миднайт командере передвижение по меню тоже подглючивает, в том же биосе происходят глюки по передвижению по меню, память проверял (мемтест ничего не показал).

в чем может быть проблема, що можна еще попробовать сделать.

Ссылка на сообщение
Поделиться на других сайтах

если даже в БИОСе имеют место подвисоны, то однозначно менять железо, начните с БП, если не попустит, то мать, проц, память...

Ссылка на сообщение
Поделиться на других сайтах

Я бы еще посмотрел на счетчики прерываний. Может железка какая-то с ума сходит и начинает адски генерить прерывания, на которые тратится процессорное время.

Ссылка на сообщение
Поделиться на других сайтах

Создайте аккаунт или войдите в него для комментирования

Вы должны быть пользователем, чтобы оставить комментарий

Создать аккаунт

Зарегистрируйтесь для получения аккаунта. Это просто!

Зарегистрировать аккаунт

Вхід

Уже зарегистрированы? Войдите здесь.

Войти сейчас
  • Зараз на сторінці   0 користувачів

    Немає користувачів, що переглядають цю сторінку.

  • Схожий контент

    • Від a_n_h
      Всем доброго дня и мирного неба!
        После многочисленных экспериментов выяснил, что на последних версиях freebsd  максимум удавалось прокачать до 14 ГБт суммарно трафика со 100% загрузкой процессора. На том-же железе но с установленной freebsd 11.2 прокачивается до 20-ти ГБт суммарно тестового трафика с загрузкой процессора около 50%. 
        Подскажите, что можно убрать или наоборот добавить в систему с freebsd 13,3 для получения аналогичного результата...
    • Від mac
      Здається, після оновлення PHP 7.4 до PHP 8.2 feesharvester припинив працювати:
       
      /usr/local/bin/curl "http://127.0.0.1/billing/?module=remoteapi&key={SERIAL}&action=feesharvester" <br /> <b>Fatal error</b>: Uncaught TypeError: Unsupported operand types: string - string in {UBPATH}/billing/api/libs/api.fundsflow.php:570 Stack trace: #0 {UBPATH}/billing/modules/remoteapi/feesharvester.php(22): FundsFlow-&gt;harvestFees('2024-01') ...  
      Невеличке розслідування врешті з'ясувало, що це через наявність пробілу у деяких логінах абонентів. Як так сталося? Тому що інколи був неуважно додан трейлінг пробіл до номеру будинка і цей пробіл потрапив до логіну абоненту. Логін абоненту неможливо змінити ніяким чином штатними засобами. Я не розглядаю створення нового абонента для усунення помілки.

      Був обран такий шлях вирішення проблеми. Заміну функції php explode() знайшов у мережі. Мабуть це станеться в нагоді:

       
      diff api.fundsflow.php.bak api.fundsflow.php.new 559c559 < $eachfee = explode(' ', $eachline); --- > $eachfee = preg_split("~(?<!\\\\)(?:\\\\{2})*'[^'\\\\]*(?:\\\\.[^'\\\\]*)*'(*SKIP)(*F)|\s+~s" , $eachline);  
    • Від FantoM_EscapE
      Хочу перенести свій білінг NODENY із фізичного сервера на віртуальний. Шукаю адміна який зможе допомогти у цьому питанні, так як нашого адміна банально призвали до війська. Вся схема на даний момент робоча, маю доступи до всього. Потрібно проінсталити на новішу версію FREEBSD, бо на моїй 10 річній вже не працюють нові SSL сертифікати. Кого зацікавила дана пропозиція - прошу у приватні повідомлення. обсудимо ціну і строки. або пишіть на будь-який месенджер 0677792091
    • Від rusol
      Добрый вечер.
       
      Есть от провайдера блок реальных адресов, к примеру 100.1.1.192/26
       
      Раньше сеть была в одном влане и записи в /etc/rc.conf были такие:

       
      ifconfig_ix0="inet 192.168.0.1 netmask 255.255.255.0" # Шлюз для пользователей с локальным IP ifconfig_ix0_alias0="inet 100.1.1.193 netmask 255.255.255.192" # Шлюз для пользователей с реальными IP  
      После чего стала задача часть пользователей переводить во вланы тоже с разделением на локальные IP и реальные, первый влан создал где-то пару лет назад и все работает:
       
      ifconfig_vlan1="vlan 1 vlandev ix0 192.168.1.1 netmask 255.255.255.0" # Шлюз для пользователей с локальным IP во Влане 1 ifconfig_vlan1_alias0="inet 100.1.1.248 netmask 255.255.255.248" # Шлюз для пользователей с реальными IP  во Влане 1  
      И вот стоит задача создать еще один влан, делаю по аналогии с вланом 1, только маску смещаю назад:
       
      ifconfig_vlan2="vlan 2 vlandev ix0 192.168.1.1 netmask 255.255.255.0" # Шлюз для пользователей с локальным IP во Влане 2 ifconfig_vlan2_alias0="inet 100.1.1.246 netmask 255.255.255.254" # Шлюз для пользователей с реальными IP во Влане 2  
      Когда я внес это в /etc/rc.conf и прописал команду:
       
      ifconfig vlan2 create  
      Все заработало.
       
      Но как только перезагрузился сервер, перестали работать реальные IP без вланов, в первом влане и во втором. Не пойму что не так делаю, возможно я с маской подсети что-то недопонимаю...
    • Від rusol
      Добрый вечер.
       
      Есть от провайдера блок реальных адресов, к примеру 100.1.1.192/26
       
      Раньше сеть была в одном влане и записи в /etc/rc.conf были такие:

       
      ifconfig_ix0="inet 192.168.0.1 netmask 255.255.255.0" # Шлюз для пользователей с локальным IP ifconfig_ix0_alias0="inet 100.1.1.193 netmask 255.255.255.192" # Шлюз для пользователей с реальными IP  
      После чего стала задача часть пользователей переводить во вланы тоже с разделением на локальные IP и реальные, первый влан создал где-то пару лет назад и все работает:
       
      ifconfig_vlan1="vlan 1 vlandev ix0 192.168.1.1 netmask 255.255.255.0" # Шлюз для пользователей с локальным IP во Влане 1 ifconfig_vlan1_alias0="inet 100.1.1.248 netmask 255.255.255.248" # Шлюз для пользователей с реальными IP  во Влане 1  
      И вот стоит задача создать еще один влан, делаю по аналогии с вланом 1, только маску смещаю назад:
       
      ifconfig_vlan1="vlan 1 vlandev ix0 192.168.1.1 netmask 255.255.255.0" # Шлюз для пользователей с локальным IP во Влане 2 ifconfig_vlan1_alias0="inet 100.1.1.246 netmask 255.255.255.254" # Шлюз для пользователей с реальными IP во Влане 2  
      Когда я вношу это в /etc/rc.conf и прописал команду:
       
      ifconfig vlan2 create  
      Все заработало.
       
      Но как только перезагрузился сервер, перестали работать реальные IP без вланов, в первом влане и во втором. Не пойму что не так делаю, возможно я с маской подсети что-то недопонимаю...
×
×
  • Створити нове...