[PLUTO-help] inode number
Mariano Cunietti
mcunietti a enter.it
Mar 23 Nov 2004 17:44:01 CET
Ciao,
stanotte (yawn!) ho portato in produzione un server di posta che serve 700 domini e 3000 utenti con:
-RedHat Enterprise 3.0ES
-kernel 2.6.9
-Postfix ultima release
-Qpopper POP3 server 4.0.1
e hardware 2 Dual Xeon 2.4GHz con 2GB RAM e 2GB swap
Ho un grosso problema di prestazioni. Questo il mio 'top':
17:37:13 up 14:06, 6 users, load average: 3.87, 4.35, 4.10
153 processes: 146 sleeping, 2 running, 5 zombie, 0 stopped
CPU states: cpu user nice system irq softirq iowait idle
total 24.4% 0.0% 3.2% 0.4% 0.0% 22.5% 49.3%
cpu00 95.3% 0.0% 4.6% 0.0% 0.0% 0.0% 0.0%
cpu01 0.0% 0.0% 0.0% 0.0% 0.0% 0.0% 100.0%
cpu02 1.8% 0.0% 0.0% 0.0% 0.0% 0.0% 98.1%
cpu03 0.0% 0.0% 7.5% 1.8% 0.0% 90.5% 0.0%
Mem: 2076356k av, 2067148k used, 9208k free, 0k shrd, 87128k buff
1182148k active, 828356k inactive
Swap: 1975976k av, 148k used, 1975828k free 355212k cached
PID USER PRI NI SIZE RSS SHARE STAT %CPU %MEM TIME CPU COMMAND
21006 studio.l 25 0 1748 824 1540 R 24.9 0.0 0:03 0 popper
21003 root 17 0 4144 1324 3812 R 1.6 0.0 0:00 3 top
1866 root 15 0 0 0 0 DW 0.2 0.0 2:00 3 kjournald
1 root 16 0 1500 508 1348 S 0.0 0.0 0:00 1 init
2 root RT 0 0 0 0 SW 0.0 0.0 0:00 0 migration/0
3 root 34 19 0 0 0 SWN 0.0 0.0 0:00 0 ksoftirqd/0
4 root RT 0 0 0 0 SW 0.0 0.0 0:00 1 migration/1
5 root 34 19 0 0 0 SWN 0.0 0.0 0:00 1 ksoftirqd/1
6 root RT 0 0 0 0 SW 0.0 0.0 0:00 2 migration/2
7 root 34 19 0 0 0 SWN 0.0 0.0 0:00 2 ksoftirqd/2
8 root RT 0 0 0 0 SW 0.0 0.0 0:00 3 migration/3
9 root 34 19 0 0 0 SWN 0.0 0.0 0:00 3 ksoftirqd/3
10 root 5 -10 0 0 0 SW< 0.0 0.0 0:00 0 events/0
11 root 5 -10 0 0 0 SW< 0.0 0.0 0:00 1 events/1
12 root 5 -10 0 0 0 SW< 0.0 0.0 0:00 2 events/2
13 root 5 -10 0 0 0 SW< 0.0 0.0 0:00 3 events/3
14 root 5 -10 0 0 0 SW< 0.0 0.0 0:00 2 khelper
E'tutto il giorno che il load average oscilla tra 2 e 10!!!
Non so più cosa pensare. Il problema è sicuramente legato a Qpopper, che uso con mbox (non Maildir): quando lo spengo il load
average scende a 0.5 fisso.
Osservando l'output di top vedo che la voce 'iowait' è quella che influisce maggiormente sulle prestazioni. Preciso che ho due
dischi IDE ATA133 in Raid1 software.
hdparm mi dà 900MB/s in read/write dalla cache, e 56MB/s in read/write su disco
Guardando in giro ho trovato che in /proc/sys/fs/inode-state ho:
# cat /proc/sys/fs/inode-state
3758 89 0 0 0 0 0
il che vuol dire chiaramente che ho quasi esaurito gli inode.
Che ne pensate? Come posso fare per aumentare il numero degli inode disponibili? sysctl non fa una piega.
Qualche suggerimento?
Ciao
More information about the pluto-help
mailing list