|
1C perfomance : Lun (raid adapter) queue length & etc @ VMWare ESXi 4.1 | ☑ | ||
---|---|---|---|---|
0
cfk
28.09.11
✎
12:33
|
Заранее пардон за много побочной информации, которая покажется кому то излишней.
Ногами не пинайте, я в этих виртуализациях еще не разбираюсь совсем. Задача - повысить быстродействие. Все шары и резервы настроены хорошо, по нюма тоже разбайндено. Имею БД MSSQL & 1C на одной из виртуальных машин (BD&1CAS, RDP) под файловую систему БД вынес два RAID1 на SSD (на дат и лог соответственно по 1му), каждый на своем LUN'e , а проблема следующая - операции записи документов (с проведением) очень долго идут(по 1 секунде), код вылизан, счетчики поставил в коде - долго идут именно операции записи (и установки пометки удаления тоже). Хотя по графикам ESXi латентность у бд идет только по чтению дат(макс 10 мс), а не при записи. Все параметры ОС и т.п. уже твикнуты по максимуму. Да, профили 1С (там 81 и 82) вынесены на SSD тоже. Да, единственное что не на SSD - это tempdb, собираюсь вот вот перенести. Сама ОС на сасовском рэйде.. В ESXi есть параметры Disk.SchedNumReqOutstanding (поставил 64)- глобальный параметр, отвечает за длину очереди каждого LUN'a, но используется только если LUN юзается более чем 1й машиной. И также есть адаптивный алгоритм : который режет вдвое эту длину очереди, если превышается количество счетчика BUSY/QFULL, пороговое количество для триггера указано в параметре Disk.QFullSampleSize(поставил 32), и увеличивает на 1 длину очереди, если количество счетчика успешных команд достигает значения указанного в параметре Disk.QFullThreshold (поставил 8). Так как все на отдельных лунах то скорее всего все описанное выше не работает, разве что троттлинг очереди, который сам по себе не даст прироста производительности. У меня стоит HP Smart Array P410 controller 512MB BBWC. Для установки длины очереди как в http://kb.vmware.com/selfservice/microsites/search.do?language=en_US&cmd=displayKC&externalId=1268 сказано что надо найти модуль ядра который отвечает за вводвывод контроллера, у меня разумеется тех модулей нет что в семпле, в гуи сферы написано что тома висят на vmhba2, в консоли ~ # vmkload_mod -l Name Used Size (kb) vmkernel 55 11007 procfs 2 16 vmkapiv1_0_0_0_vmkernel_shim0 32 vmklinux 24 664 random 1 32 usb 4 112 ehci-hcd 0 40 usb-uhci 0 24 hid 0 24 dm 2 12 nmp 32 120 vmw_satp_local 11 8 vmw_satp_default_aa 0 8 vmw_psp_lib 8 12 vmw_psp_fixed 11 12 vmw_psp_rr 0 16 vmw_psp_mru 0 12 vmw_psp_fixed_ap 0 12 vmw_satp_alua 0 20 vmw_satp_cx 0 28 libata 1 92 usb-storage 0 60 vfat 1 36 mask_path_plugin 0 8 vaai_filter 0 16 vmw_vaaip_emc 0 8 vmkapiv1_0_0_0_nmp_shim 0 8 vmci 2 112 iscsi_trans 3 52 hub 1 8 netsched 1 16 igb 0 96 iscsi_linux 0 16 ata_piix 4 16 hpsa 1 112 lvmdriver 4 80 deltadisk 0 40 multiextent 0 12 dvsdev 0 12 etherswitch 2 180 shaper 0 28 cdp 4 100 tcpip3 4 816 dvfilter 2 72 vmkapiv1_0_0_0_dvfilter_shim0 8 vmkibft 0 16 vmfs3 4 260 nfsclient 0 96 ipmi_msghandler 2 40 ipmi_si_drv 0 40 ipmi_devintf 1 16 vmkstatelogger 1 116 migrate 2 252 cbt 0 12 (по названию) похоже что модуль hpsa то что надо видимо юзается какой то стандартный драйвер, у которого вообще не понятно, есть ли такие опции как в кб. |
Форум | Правила | Описание | Объявления | Секции | Поиск | Книга знаний | Вики-миста |