[vpsFree.cz: community-list] Vypadky Node5

Stanislav Petr glux at glux.org
Tue Feb 10 14:50:37 CET 2015


Jenze stejne nedosahnete toho aby slo efektivne provozovat pod KVM 100 
guestu na jednom fyzickem serveru - pri takhle velke agregaci zacnete 
pocitovat krome samotne pameti dalsi problemy, jako obbsluhu preruseni a 
podobne. Budoucnost samozrejme je v kontejnerove virtualizaci, ale 
osobne si opravdu nejsem jist jestli zrovna v OpenVZ...

Takze kdyz uz tady mame tuhle krasnou debatu, tak pojdme probrat 
moznosti reseni.

1. Padani predpokladam zpusobuje nejaka race-condition chyba, coz 
znamena ze nalezeni nemusi bejt vubec jednoduchy a uz vubec ne rychly 
(obzvlaste pokud je v tom i ZFS diky SPL). Tim padem si nejsem uplne 
jisty tim, jestli stehovani jednotlivych VPS, tento problem nejak vyresi 
nebo "zamaskuje".

2. Co rozdelit soucasne VPS na rekneme mensi casti - vyuzit k tomu prave 
zminene KVM tak ze se na fyzickem stroji pusti nekolik (tak odhadem 
strelim 3 - 5) KVM guestu a OpenVZ az na nich. Takhle bude guest kernel 
porad pod kontrolou spravce fyzickeho serveru, takze sproblemy s 
ballooningem odpadaji... Zaroven se tim zmensi zatez na jednotliva 
OpenVZ jadra. Dalsi vyhodou je (a co v rpaxi obcas pouzivam) moznost i z 
totalne vytuhlyho guesta udelat memory dump celeho VPS a to si rozebrat 
pozdeji.

3. Jak zminoval Snajpa - problem kdyz to spadne ze nemuze vygenerovat 
ani backtrace, nepomohl by crashkernel+kdump? (pravdepodobne to Snajpa 
zna). 
https://access.redhat.com/documentation/en-US/Red_Hat_Enterprise_Linux/6/html/Deployment_Guide/s2-kdump-configuration-cli.html
Me se to hodne osvedcilo pri debugovani KVM... :D

4. Kdyz uz se ma venovat cas vyvoji rekneme vlastniho systemu 
kontejneru, co nam brani zacit se pomalu orientovat na LXC/LXD? Jestli 
by nebylo efektivnejsi venovat ten cas necemu co je sice dnes jeste v 
plenkach ale narozdil od OpenVZ to ma pravdepodobne vetsi budoucnost...

--
Stanislav Petr

Dne 10.02.2015 v 14:35 Jirka Bourek napsal(a):
> Pavel Snajdr wrote:
>> -----BEGIN PGP SIGNED MESSAGE-----
>> Hash: SHA256
>>
>> Ono to docela zalezi. Jsou kontejnery, co nevyuzijou ani 100 MB RAM a
>> byt to plna virtualizace, urcite ten kontejner 3.9 GB nevrati,
>> obzvlast, kdyz je tam linux - staci zaplnit diskovou cache i totalne
>> nepouzivanymi daty. Nebo se to uz da nejak nastavit, aby kdyztak pri
>> pozadavku na pamet host pustil memory reclaim?
>>
>
> Dělá se to z userspace - "něco" musí hypervizoru říct, aby balloon 
> ovladač odebral hostovi třeba 3.8GB RAM (aby mu nějaká cache zůstala). 
> Jádro hosta pak vrátí diskové cache, protože bez těch se obejde - jo, 
> když se to přežene, nastoupí oom killer.
>
> Red Hat na to asi nějakého démona mít bude, to už nevím.
>
> Samozřejmě by to šlo dělat ještě lépe - jádro hosta může vědět, že 
> běží pod hypervizorem, a říkat mu, které konkrétní kusy paměti používá 
> jako diskové cache. Hypervizor tuhle informaci předá jádru hostitele a 
> to ji v případě potřeby může hostovi odebrat.
>
> Hostovi se samozřejmě při pokusu tu paměť číst vrátí nějaká chyba, ale 
> protože to byla cache, tak se s tím snadno vyrovná tím, že příslušná 
> data znovu načte.
>
> Vím, že na tomhle se pracovalo a AFAIK se to dostalo i do mainline. 
> Akorát to vyvíjel někdo z Oracle a udělal to jenom pro Xen (protože 
> KVM je konkurence), takže mám ten pocit, že KVM tohle nepoužívá.
>
> Suma sumárum jde udělat to samé co v kontejneru, akorát je to o něco 
> složitější - na rozdíl od kontejneru, do kterého je dobře vidět, jsou 
> u plné virtualizace k dispozici jenom nějaké základní informace (u KVM 
> 2.1 je to paměť celkem, volno, počítadlo minor a major fault a 
> počítadlo swap-in a swap-out.) Na ostatní už je potřeba nějaký démon 
> běžící v tom hostovi - u KVM qemu-guest-agent
> _______________________________________________
> Community-list mailing list
> Community-list at lists.vpsfree.cz
> http://lists.vpsfree.cz/listinfo/community-list




More information about the Community-list mailing list