<div dir="ltr">Teď tomu úplně nerozumím, co znamená to "připojit se do té virtuálky", navíc ta virtulka je Windows stroj, není <span style="color:rgb(34,34,34);font-family:arial,sans-serif;font-size:12.8px;font-style:normal;font-variant-ligatures:normal;font-variant-caps:normal;font-weight:400;letter-spacing:normal;text-align:start;text-indent:0px;text-transform:none;white-space:normal;word-spacing:0px;background-color:rgb(255,255,255);text-decoration-style:initial;text-decoration-color:initial;float:none;display:inline">fsfreeze otázka jen Linuxu?</span><div><span style="color:rgb(34,34,34);font-family:arial,sans-serif;font-size:12.8px;font-style:normal;font-variant-ligatures:normal;font-variant-caps:normal;font-weight:400;letter-spacing:normal;text-align:start;text-indent:0px;text-transform:none;white-space:normal;word-spacing:0px;background-color:rgb(255,255,255);text-decoration-style:initial;text-decoration-color:initial;float:none;display:inline"><br></span></div><div><span style="color:rgb(34,34,34);font-family:arial,sans-serif;font-size:12.8px;font-style:normal;font-variant-ligatures:normal;font-variant-caps:normal;font-weight:400;letter-spacing:normal;text-align:start;text-indent:0px;text-transform:none;white-space:normal;word-spacing:0px;background-color:rgb(255,255,255);text-decoration-style:initial;text-decoration-color:initial;float:none;display:inline">P.</span></div></div><div class="gmail_extra"><br><div class="gmail_quote">Dne 18. dubna 2018 12:25 Jirka Bourek <span dir="ltr"><<a href="mailto:vpsfree-list@keroub.cz" target="_blank">vpsfree-list@keroub.cz</a>></span> napsal(a):<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Pokud se do té virtuálky jde připojit před pořízením toho snapshotu, dá se použít fsfreeze - filesystém v tom snapshotu by pak měl být konzistentní (což ale samozřejmě ještě neznamená, že budou konzistentní i např. data v databázích)<div class="HOEnZb"><div class="h5"><br>
<br>
On 18.4.2018 12:22, Pavel Hruška wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Tak samozřejmě, že "5 minut výpadku je problém" do té doby, než řekneš,<br>
kolik to stojí, aby teda ten výpadek nebyl, umocněno pravděpodobností, že<br>
se to fakt stane. To je běžná praxe kde se pohybuji, tedy menší a střední<br>
firmy. A tím jedním dnem výpadku jsem opravdu myslel, že to "nepoloží<br>
firmu", ale určitě jsem nemyslel "nemít problém". Cílem je ten výpadek co<br>
nejvíc minimalizovat. A proto jsem rád za každou radu či názor.<br>
<br>
Víc storage na každý stroj sice potřebuju, nepotřebuju ale sdílený storage,<br>
který samo o sobě (mimo disků) taky něco stojí. Navíc se celkově pohybuju v<br>
pohodě, něco mezi 1-2 TB/node.<br>
<br>
Migrace na druhou lokalitu není v plánu, je to poslední záchranej bod pro<br>
data při totálním kolapsu (aka spadne mi sem letadlo) :o).<br>
<br>
V praxi nevím, jak se bude chovat filesystém virtuálu, když bude mít<br>
naběhnout ze "snapshotu". Přeci jen ten snapshot je dělanej za provozu.<br>
<br>
<br>
P.<br>
<br>
Dne 18. dubna 2018 11:57 Ondrej.Flidr <<a href="mailto:Ondrej.Flidr@seznam.cz" target="_blank">Ondrej.Flidr@seznam.cz</a>> napsal(a):<br>
<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Hoj,<br>
jo, hardware neumira. Ale HA nestavis za ucelem "co kdyz umre hardware"<br>
ale "nechci muset kazdou upravu delat ve tri rano, protoze chci tou dobou<br>
bejt na srot pod stolem nebo s holkou v posteli".<br>
<br>
Ja jsem holt zvyklej na situace, kdy 5 minut vypadku je problem :)<br>
Samozrejme, pokud firmu nepolozi denni vypadek, tak jsi za vodou a proste<br>
bych delal jenom zalohy a neresil. Virtualy na ZFS, kazdejch treba 30 minut<br>
(podle velikosti okna, ktery si muzes/chces dovolit) zfs send na druhej<br>
stroj a v pripade problemu nahodis klon.  Akorat to tvoje potrebuje vyrazne<br>
vic storage (vlastne na vsech serverech potrebujes misto pro vsechny<br>
virtualy), coz muze byt docela drahy.<br>
<br>
S migraci na druhou lokalitu zacnes narazet na slozitosti s routovanim<br>
(musis prehodit IP adresu => vlastni rozsah a reseni BGP).<br>
<br>
Ondra Flidr<br>
<br>
---------- Původní e-mail ----------<br>
Od: Pavel Hruška <<a href="mailto:mrpear@mrpear.net" target="_blank">mrpear@mrpear.net</a>><br>
Komu: vpsFree.cz Community list <<a href="mailto:community-list@lists.vpsfree.cz" target="_blank">community-list@lists.vpsfree.<wbr>cz</a>><br>
Datum: 18. 4. 2018 11:42:32<br>
<br>
Předmět: Re: [vpsFree.cz: community-list] Infrastruktura <a href="http://vpsfree.cz" rel="noreferrer" target="_blank">vpsfree.cz</a><br>
<br>
Čauec, díky za objasnění. Já to trošku upřesním, trošku zmírním to, o co<br>
mi jde, protože úplně 100% HA nepotřebuju. Co si budeme povídat, firmu<br>
nepoloží, když to nepojede hodinu, možná víc, nepoloží ji ani to, když to<br>
nepojede den. Důležitý je nepřijít o data (resp. přijít o data co nejmíň) a<br>
dát to co nejdřív zase dohromady.<br>
<br>
Dělat HA na úrovni aplikace taky není někdy sranda a hlavně to může vyjít<br>
dráž (např. licence na SQL server), než HA na úrovni HW a virtualizace. To<br>
je třeba taky vzít v úvahu.<br>
<br>
Přemýšlím nad možností replikace storage - tzn. 3 stroje v clusteru, každý<br>
má svoje virtuály a k nim storage. Storage se replikuje (rozdílově) v<br>
určitých intervalech na zbylé stroje. Mohl bych teoreticky replikovat i<br>
offsite na stroj v jiné lokalitě přes nějaký link (VPN). V případě kolapsu<br>
jednoho fyzického stroje by došlo k migraci jeho virtuálů na zbylé stroje s<br>
tím, že počítám s určitým oknem, ve kterém prostě můžu o něco přijít. Je to<br>
o definici toho, co jsem schopen tolerovat (a jestli tedy vůbec ano). K<br>
tomu samozřejmě podpora pomocí běžných záloh.<br>
<br>
Vycházím z toho, že přeci jen ten HW zase tak moc neumírá a není to otázka<br>
běžné praxe. Ale chci s tím počítat.<br>
<br>
Ještě jsem to takto nezkoušel, chystám si na to testlab, nevím jestli to<br>
není úplně zcestné.<br>
<br>
<br>
P.<br>
<br>
<br>
<br>
Dne 18. dubna 2018 11:06 Ondrej.Flidr <<a href="mailto:Ondrej.Flidr@seznam.cz" target="_blank">Ondrej.Flidr@seznam.cz</a>> napsal(a):<br>
<br>
Hoj,<br>
Co ti muzu rict ze svoji zkusenosti, tak data jsou na nodu, kde bezi<br>
virtual. Kdyz node slitne, virtual nejede. Delaly se nejaky experimenty s<br>
centralnim storage, ale bylo to nechutne pomaly (prakticky takhle vznikl<br>
NASbox). Ostatne to je problem vzdycky, ono i 100Gbit linky jsou pomaly,<br>
kdyz pres to tahas image stovek virtualu.<br>
<br>
Pokud chces mit jistotu, ze ti veci pojedou at se stane cokoliv, musis jit<br>
do klasickejch HA technik - balancing napric vic VPS, nesmej bejt na<br>
stejnym nodu (idealne pulka v Praze, pulka v Brne, abys dokazal ustat i<br>
DDoS). Je to drahy ale to je HA vzdycky.<br>
<br>
At tvuj stack a jak to udelat lip - vsechno musi byt min. 2x :) Pokud<br>
chces mit jistotu, ze to bude OK, musis to postavit takhle:<br>
<br>
- min 3x vypocetni stroj<br>
- v kazdym 2x radic diskovyho pole<br>
- 2x SAS/FC switch<br>
- Z kazdyho serveru kabel do kazdyho SAS/FC switche<br>
- Z kazdyho SAS/FC switche kabely do kazdyho pole<br>
- V kazdym poli 2x radic, kazdej pripojenej do jednoho switche<br>
- Na obou polich totozny data<br>
<br>
Takhle budes mit jistotu, ze at uz umre cokoliv, porad bude nejaka cesta<br>
jak se danej node dostane k datum. Nicmene uprimne - na tohle bych se<br>
vykaslal, delal storage primo na serverech a mirror/HA na urovni aplikaci<br>
ve virtualech. A proste pocitat s tim, ze hardware muze umrit, ale aplikaci<br>
je to jedno.<br>
<br>
Co se tyce site, tu pak res stejnym konceptem:<br>
<br>
- 2x switch<br>
- v kazdym serveru 2x sitovka, kazda 2 porty (1 muze byt onboard)<br>
- Nakonfigurovany Bond-over-Bond - vzdycky 1 port z kazdy sitovky do<br>
stejnyho switche, nad tim LACP bond a nad temahle dvouma bondama dalsi v<br>
rezimu active-passive (pokud nemas switche co umej stackovat a LACP pres<br>
ruzny zarizeni)<br>
- 2x router, kazdej vlastni uplink<br>
- kazdej switch pripojenej do obou routeru a mezi sebou. Je potreba mit<br>
dobre nastaveny STP, aby jsi se nezabil na smyckach<br>
<br>
Ondra Flidr<br>
<br>
<br>
---------- Původní e-mail ----------<br>
Od: Pavel Hruška <<a href="mailto:mrpear@mrpear.net" target="_blank">mrpear@mrpear.net</a>><br>
Komu: vpsFree.cz Community list <<a href="mailto:community-list@lists.vpsfree.cz" target="_blank">community-list@lists.vpsfree.<wbr>cz</a>><br>
Datum: 18. 4. 2018 10:45:27<br>
Předmět: Re: [vpsFree.cz: community-list] Infrastruktura <a href="http://vpsfree.cz" rel="noreferrer" target="_blank">vpsfree.cz</a><br>
<br>
Ahoj Pavle, díky za odpověď.<br>
<br>
Pro mě je záběr <a href="http://vpsfree.cz" rel="noreferrer" target="_blank">vpsfree.cz</a>, resp. vpsadminos, tedy to, že bych se hrabal<br>
ve zdrojácích na githubu, trošku za hranou, navíc pokud píšeš, že to není<br>
příliš friendly pro lidi neznalé "z venku" :). Jsem o "několik pater jako<br>
admin výš" a některé věci nechávám raději jako black-box. Jinak<br>
virtualizuju spíš Windows stroje přes KVM (tedy ne u vás, ale tady na<br>
firmě).<br>
<br>
Nicméně rád bych věděl trošku víc jak máte z principu postavený celý<br>
systém - jestli chápu dobře, tak každý node je samostatný, tzn. je včetně<br>
svého úložiště (prostě když mám svůj virtuál na node14, data mám taky na<br>
něm)? NAS je samozřejmě po síti dostupný z každého node. Zajímá mě co se<br>
děje při výpadku node: hostované virtály na něm pak nejedou? Chodí mi<br>
samozřejmě maily z outage listu, ale když mi něco přijde a zkusím si svůj<br>
server, vždy to běží, tak nevím, jestli to chodí až po výpadku nebo jak<br>
přesně? Nebo je to úplně jinak? A pak samozřejmě jde o to, kdyby byl nějaký<br>
horší výpadek, třeba to, že se node celý sesype (hw serveru, disky), co pak?<br>
<br>
Aktuálně mám virtualizovaný dva fyzický stroje, které sdílí společné<br>
diskové pole, nepřijde mi to moc šťastné, protože při výpadku toho pole<br>
jsem....no asi víš kde. Tak přemýšlím, jak to vyřešit lépe.<br>
<br>
Na tom vašem HW mě překvapilo i to, že se v nodech používají desktop-grade<br>
disky (WD black jsem tam viděl), teda jestli jsem to pochopil správně. A<br>
jaké máš dlouhodobě zkušenosti s Supermicro servery, jsou ok? Četl jsem<br>
rozporuplné názory... Já jedu na HP.<br>
<br>
V podstatě v tom prvním mailu jsem se ptal na to, jestli už třeba někde<br>
nevisí přednáška nebo něco, která by tohle popisovala. Nechci zbytečně<br>
otravovat ;).<br>
<br>
<br>
P.<br>
<br>
Dne 17. dubna 2018 16:27 Pavel Snajdr <<a href="mailto:snajpa@snajpa.net" target="_blank">snajpa@snajpa.net</a>> napsal(a):<br>
<br>
Cauko Pavle,<br>
<br>
v te tabulce chybi nove nody a celkove je dost zastarala; nechtelo by se<br>
Ti na to napsat skript, ktery by ji generoval? Nebo kdyz ne tobe, nasel by<br>
se jiny dobrovolnik?<br>
<br>
Na vsechny nody mam SSH, skript bych poustel od sebe, jako parametr by<br>
dostal hostnames a pak, kdyby idealne vyplivnul Dokuwiki tabulku s udaji<br>
per node:<br>
<br>
- typ desky (dmidecode)<br>
- nainstalovane procesory (dmidecode)<br>
- nainstalovana pamet (dmidecode)<br>
- nainstalovane disky (lsblk? smartctl -a /dev/sd* ?)<br>
<br>
Kdyby se to nekomu chtelo splacnout, budu velmi rad :)<br>
<br>
Jinak zdrojaky k tomu, co jedeme, jsou na Githubu:<br>
<br>
<a href="https://github.com/vpsfreecz/" rel="noreferrer" target="_blank">https://github.com/vpsfreecz/</a><br>
<br>
Aktualni reseni neni moc staveny na vic deploymentu, aby si to kazdy mohl<br>
nasadit u sebe - neni to moc dobre podokumentovane a uz vubec se nepocita<br>
pri updatech s nekym "neinformovanym".<br>
<br>
Tak jako tak, OpenVZ 6 doziva a stavime nastupnicky reseni nad upstream<br>
technologiemi:<br>
<br>
<a href="https://vpsadminos.org/" rel="noreferrer" target="_blank">https://vpsadminos.org/</a><br>
<br>
Tohle uz si troufame mirit i pro ostatni k nasazeni, je to jeste dost<br>
dlouhy kus cesty, ale chceme se tam dostat.<br>
<br>
Aby si mohli treba kluci v Indii zalozit svoje vpsFree, protoze pro nas se<br>
tam dostat je vcelku z fleku nerealny, kdyz nezname mistni pomery (a na<br>
slepo do nejakyho indickyho datacentra jit, to je o nervy).<br>
<br>
Vypadky hlasime v outage-listu:<br>
<br>
<a href="https://lists.vpsfree.cz/pipermail/outage-list/" rel="noreferrer" target="_blank">https://lists.vpsfree.cz/piper<wbr>mail/outage-list/</a><br>
<br>
Na konferencich nas muzes potkat uz nekolikaty rok, jezdime na<br>
InstallFest, LinuxDays, OpenAlt a cokoliv, co se zrovna povede v Bratislave<br>
- pristi vikend se muzem potkat prave na OpenCampu, sobota, FIT STU:<br>
<br>
<a href="https://opencamp.sk/o-konferencii" rel="noreferrer" target="_blank">https://opencamp.sk/o-konferen<wbr>cii</a><br>
<br>
A jinak se urcite ptej dal, kdyztak dej prosim konkretnejsi dotaz, akorat<br>
;)<br>
<br>
/snajpa<br>
<br>
On 2018-04-17 15:15, Pavel Hruška wrote:<br>
<br>
Ahojte,<br>
<br>
   četl jsem si ve znalostní bázi o infrastruktuře <a href="http://vpsfree.cz" rel="noreferrer" target="_blank">vpsfree.cz</a> [1]<br>
(<a href="https://kb.vpsfree.cz/informace/infrastruktura" rel="noreferrer" target="_blank">https://kb.vpsfree.cz/informa<wbr>ce/infrastruktura</a> [2]), můj dotaz<br>
jestli je popsaný stav aktuální?<br>
<br>
   Jsem u <a href="http://vpsfree.cz" rel="noreferrer" target="_blank">vpsfree.cz</a> [1] přes dva roky a řeším teď infrastrukturu<br>
ve firmě, tedy v menším měřítku (3 fyzické servery) a také<br>
díky <a href="http://vpsfree.cz" rel="noreferrer" target="_blank">vpsfree.cz</a> [1] se začínám zajímat více o (opensource)<br>
linuxovou virtualizaci a především ZFS. Dozvědět se více o tom,<br>
jak funguje infrastruktura <a href="http://vpsfree.cz" rel="noreferrer" target="_blank">vpsfree.cz</a> [1] by byla skvělá inspirace,<br>
např. zkušenosti se servery, jak přesněji je řešeno<br>
úložiště, co výpadky nodů (jestli jsou a jak se to případně<br>
řeší) atp. Nedá někde zjistit více, nebude nějaká konference,<br>
přednáška, ...?<br>
<br>
Díky,<br>
Pavel<br>
<br>
Links:<br>
------<br>
[1] <a href="http://vpsfree.cz" rel="noreferrer" target="_blank">http://vpsfree.cz</a><br>
[2] <a href="https://kb.vpsfree.cz/informace/infrastruktura" rel="noreferrer" target="_blank">https://kb.vpsfree.cz/informac<wbr>e/infrastruktura</a><br>
<br>
______________________________<wbr>_________________<br>
Community-list mailing list<br>
<a href="mailto:Community-list@lists.vpsfree.cz" target="_blank">Community-list@lists.vpsfree.c<wbr>z</a><br>
<a href="http://lists.vpsfree.cz/listinfo/community-list" rel="noreferrer" target="_blank">http://lists.vpsfree.cz/listin<wbr>fo/community-list</a><br>
<br>
______________________________<wbr>_________________<br>
Community-list mailing list<br>
<a href="mailto:Community-list@lists.vpsfree.cz" target="_blank">Community-list@lists.vpsfree.c<wbr>z</a><br>
<a href="http://lists.vpsfree.cz/listinfo/community-list" rel="noreferrer" target="_blank">http://lists.vpsfree.cz/listin<wbr>fo/community-list</a><br>
<br>
<br>
<br>
<br>
--<br>
Ing. Pavel Hruška<br>
<a href="http://www.mrpear.net" rel="noreferrer" target="_blank">http://www.mrpear.net</a><br>
<a href="mailto:mrpear@mrpear.net" target="_blank">mrpear@mrpear.net</a><br>
<br>
web, webdesign, web-aplikace:<br>
<a href="http://www.pearfect.cz" rel="noreferrer" target="_blank">http://www.pearfect.cz</a><br>
______________________________<wbr>_________________<br>
Community-list mailing list<br>
<a href="mailto:Community-list@lists.vpsfree.cz" target="_blank">Community-list@lists.vpsfree.c<wbr>z</a><br>
<a href="http://lists.vpsfree.cz/listinfo/community-list" rel="noreferrer" target="_blank">http://lists.vpsfree.cz/listin<wbr>fo/community-list</a><br>
<br>
<br>
______________________________<wbr>_________________<br>
Community-list mailing list<br>
<a href="mailto:Community-list@lists.vpsfree.cz" target="_blank">Community-list@lists.vpsfree.c<wbr>z</a><br>
<a href="http://lists.vpsfree.cz/listinfo/community-list" rel="noreferrer" target="_blank">http://lists.vpsfree.cz/listin<wbr>fo/community-list</a><br>
<br>
<br>
<br>
<br>
--<br>
Ing. Pavel Hruška<br>
<a href="http://www.mrpear.net" rel="noreferrer" target="_blank">http://www.mrpear.net</a><br>
<a href="mailto:mrpear@mrpear.net" target="_blank">mrpear@mrpear.net</a><br>
<br>
web, webdesign, web-aplikace:<br>
<a href="http://www.pearfect.cz" rel="noreferrer" target="_blank">http://www.pearfect.cz</a><br>
______________________________<wbr>_________________<br>
Community-list mailing list<br>
<a href="mailto:Community-list@lists.vpsfree.cz" target="_blank">Community-list@lists.vpsfree.c<wbr>z</a><br>
<a href="http://lists.vpsfree.cz/listinfo/community-list" rel="noreferrer" target="_blank">http://lists.vpsfree.cz/listin<wbr>fo/community-list</a><br>
<br>
<br>
______________________________<wbr>_________________<br>
Community-list mailing list<br>
<a href="mailto:Community-list@lists.vpsfree.cz" target="_blank">Community-list@lists.vpsfree.c<wbr>z</a><br>
<a href="http://lists.vpsfree.cz/listinfo/community-list" rel="noreferrer" target="_blank">http://lists.vpsfree.cz/listin<wbr>fo/community-list</a><br>
<br>
<br>
</blockquote>
<br>
<br>
<br>
<br>
______________________________<wbr>_________________<br>
Community-list mailing list<br>
<a href="mailto:Community-list@lists.vpsfree.cz" target="_blank">Community-list@lists.vpsfree.c<wbr>z</a><br>
<a href="http://lists.vpsfree.cz/listinfo/community-list" rel="noreferrer" target="_blank">http://lists.vpsfree.cz/listin<wbr>fo/community-list</a><br>
<br>
</blockquote>
______________________________<wbr>_________________<br>
Community-list mailing list<br>
<a href="mailto:Community-list@lists.vpsfree.cz" target="_blank">Community-list@lists.vpsfree.c<wbr>z</a><br>
<a href="http://lists.vpsfree.cz/listinfo/community-list" rel="noreferrer" target="_blank">http://lists.vpsfree.cz/listin<wbr>fo/community-list</a><br>
</div></div></blockquote></div><br><br clear="all"><div><br></div>-- <br><div class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div style="font-size:small">Ing. Pavel Hruška</div><div style="font-size:small"><a href="http://www.mrpear.net/" style="color:rgb(17,85,204)" target="_blank">http://www.mrpear.net</a><br></div><div style="font-size:small"><a href="mailto:mrpear@mrpear.net" style="color:rgb(17,85,204)" target="_blank">mrpear@mrpear.net</a><br></div><div style="font-size:small"><br></div><div style="font-size:small">web, webdesign, web-aplikace:</div><div style="font-size:small"><a href="http://www.pearfect.cz/" style="color:rgb(17,85,204)" target="_blank">http://www.pearfect.cz</a></div></div></div></div></div></div></div></div>
</div>