[PLUTO-help] inode number

Mariano Cunietti mcunietti a enter.it
Mar 23 Nov 2004 17:44:01 CET


Ciao,
stanotte (yawn!) ho portato in produzione un server di posta che serve 700 domini e 3000 utenti con:

-RedHat Enterprise 3.0ES
-kernel 2.6.9
-Postfix ultima release
-Qpopper POP3 server 4.0.1

e hardware 2 Dual Xeon 2.4GHz con 2GB RAM e 2GB swap

Ho un grosso problema di prestazioni. Questo il mio 'top':

17:37:13  up 14:06,  6 users,  load average: 3.87, 4.35, 4.10
153 processes: 146 sleeping, 2 running, 5 zombie, 0 stopped
CPU states:  cpu    user    nice  system    irq  softirq  iowait    idle
           total   24.4%    0.0%    3.2%   0.4%     0.0%   22.5%   49.3%
           cpu00   95.3%    0.0%    4.6%   0.0%     0.0%    0.0%    0.0%
           cpu01    0.0%    0.0%    0.0%   0.0%     0.0%    0.0%  100.0%
           cpu02    1.8%    0.0%    0.0%   0.0%     0.0%    0.0%   98.1%
           cpu03    0.0%    0.0%    7.5%   1.8%     0.0%   90.5%    0.0%
Mem:  2076356k av, 2067148k used,    9208k free,       0k shrd,   87128k buff
      1182148k active,             828356k inactive
Swap: 1975976k av,     148k used, 1975828k free                  355212k cached

  PID USER     PRI  NI  SIZE  RSS SHARE STAT %CPU %MEM   TIME CPU COMMAND
21006 studio.l  25   0  1748  824  1540 R    24.9  0.0   0:03   0 popper
21003 root      17   0  4144 1324  3812 R     1.6  0.0   0:00   3 top
 1866 root      15   0     0    0     0 DW    0.2  0.0   2:00   3 kjournald
    1 root      16   0  1500  508  1348 S     0.0  0.0   0:00   1 init
    2 root      RT   0     0    0     0 SW    0.0  0.0   0:00   0 migration/0
    3 root      34  19     0    0     0 SWN   0.0  0.0   0:00   0 ksoftirqd/0
    4 root      RT   0     0    0     0 SW    0.0  0.0   0:00   1 migration/1
    5 root      34  19     0    0     0 SWN   0.0  0.0   0:00   1 ksoftirqd/1
    6 root      RT   0     0    0     0 SW    0.0  0.0   0:00   2 migration/2
    7 root      34  19     0    0     0 SWN   0.0  0.0   0:00   2 ksoftirqd/2
    8 root      RT   0     0    0     0 SW    0.0  0.0   0:00   3 migration/3
    9 root      34  19     0    0     0 SWN   0.0  0.0   0:00   3 ksoftirqd/3
   10 root       5 -10     0    0     0 SW<   0.0  0.0   0:00   0 events/0
   11 root       5 -10     0    0     0 SW<   0.0  0.0   0:00   1 events/1
   12 root       5 -10     0    0     0 SW<   0.0  0.0   0:00   2 events/2
   13 root       5 -10     0    0     0 SW<   0.0  0.0   0:00   3 events/3
   14 root       5 -10     0    0     0 SW<   0.0  0.0   0:00   2 khelper


E'tutto il giorno che il load average oscilla tra 2 e 10!!!
Non so più cosa pensare. Il problema è sicuramente legato a Qpopper, che uso con mbox (non Maildir): quando lo spengo il load
average scende a 0.5 fisso.
Osservando l'output di top vedo che la voce 'iowait' è quella che influisce maggiormente sulle prestazioni. Preciso che ho due
dischi IDE ATA133 in Raid1 software.

hdparm mi dà 900MB/s in read/write dalla cache, e 56MB/s in read/write su disco

Guardando in giro ho trovato che in /proc/sys/fs/inode-state ho:
# cat /proc/sys/fs/inode-state
3758    89      0       0       0       0       0

il che vuol dire chiaramente che ho quasi esaurito gli inode.

Che ne pensate? Come posso fare per aumentare il numero degli inode disponibili? sysctl non fa una piega.
Qualche suggerimento?
Ciao




More information about the pluto-help mailing list