<div dir="ltr">Centrální pole OK do doby, než mi zdechne. Musím na něj držet podporu, abych měl jistotu, že se mému problému bude někdo věnovat, cena takové podpory garantující rozumnou dobu řešení, je úplně extrémní a myslím, že levněji vyjde mít ta pole dvě. Když mi zdechne server, je to přeci jen víc obecnější kus hardware, můžu jej nahradit "relativně čímkoliv" jiným. Na sdílené poje jedu teď, mám nad tím HA a jo, pokud to jede (jako že zatím jo), je to pohodička. Moje myšlenka je zbavit se centrálního prvku, který mi může shodit úplně všechno.<div><br></div><div>To s tím mixem SSD/HDD v distr řešení beru, myslel jsem si to.</div><div><br></div><div>Mohl bych poprosit o víc rozepsání té první myšlenky ohledně spapshotů ZFS+NTFS? Abych se mohl chytnout toho jak to správně rozjet a na co si dát pozor. Mě se totiž tahle cesta pořád líbí nejvíc...</div><div><br></div><div>Díky,</div><div><br></div></div><div class="gmail_extra"><br><div class="gmail_quote">Dne 18. dubna 2018 15:17 Tomas Srnka <span dir="ltr"><<a href="mailto:tomas.srnka@gmail.com" target="_blank">tomas.srnka@gmail.com</a>></span> napsal(a):<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">Ahoj,<div><br></div><div>snapshotov v ZFS + NTFS/EXT sa nemas preco bat ked mas spravne nastavene mount pointy pre disk image a synchronizaciou zapisov (existuje aj guest utilita, ktora riesi sync z guesta az po FS na diskovom poli, myslim, ze je prednaska na poslednom fosdeme o tom). Pouzivame tak NexentaStor polia (komercne ZFS riesenie) a par tisic KVM virtualok nad tym. Este druhu moznost mas pouzivat ZVOL nad ZFS + iSCSI, kde ti tento problem odpada. Jedine obmedzenie je potom pocet diskov, ktore tak vies vyexportovat. </div><div><br></div><div>Ak chces distribuovane riesenie, odporucam jedine Nx 10GE + SSD only. V pripade ak je vsetko online je to OK, ale akonahle treba dopocitat data po zlyhani nodu, tak ide vykon "do kytek".  V ziadnom pripade by som nemiesal HDD a SSD pokial na to nie je extremne dobry dovod. </div><div><br></div><div>Z mojej skusenosti pokial nemas 30+ nodov, tak sa stale oplati "centralne" pole (pomer cena/vykon/stabilita/zlozitost prevadzky a siete). </div><span class="HOEnZb"><font color="#888888"><div><br></div><div>Tomas</div></font></span></div><div class="HOEnZb"><div class="h5"><div class="gmail_extra"><br><div class="gmail_quote">2018-04-18 15:08 GMT+02:00 Pavel Hruška <span dir="ltr"><<a href="mailto:mrpear@mrpear.net" target="_blank">mrpear@mrpear.net</a>></span>:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">Já se právě té replikace pomocí snapshotů trošku bojím, protože nad tím je jiný filesystém (NTFS) a můžou tam být problémy s konzistencí, která ve finále udělá víc problémů než užitku.<div><br></div><div>U lokálního storage jsem chtěl škálovat servery individuálně podle potřeby - třeba pro SQL bych dal SSD disky, do ostatních klasické SAS disky, teď ale nevím, jestli u distribuovaného storage toho můžu taky dosáhnout (aniž bych musel mít třeba 3 identické nody).<br><div><br></div><div><div>Protože si hraju s Proxmox VE, zkusím ještě Ceph, je to teď součást prostředí. Myslíš, že přes 10GbE je šance na reálný nasazení? Jediné místo "citlivé" na výkon je SQL databáze, relativně malá (desítky GB).<br></div></div></div><div><br></div><div>P.</div></div><div class="gmail_extra"><br><div class="gmail_quote">Dne 18. dubna 2018 14:47 Pavel Snajdr <span dir="ltr"><<a href="mailto:snajpa@snajpa.net" target="_blank">snajpa@snajpa.net</a>></span> napsal(a):<div><div class="m_-6984739547382655908h5"><br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">V praxi jsme zkouseli (v Relbitu, ne vpsFree) zalohovat InnoDB z MySQL pomoci snapshotu ZFS;<br>
<br>
trochu problem je, kdyz nastane potreba obnovy *hned* a jenom nabeh te DB ze snapshotu trva 45 minut kvuli InnoDB a jeho paranoie, ze by nemusel mit neco ok :)<br>
<br>
(to byla DB s par tisicama tabulek, cca 3/4 TB).<br>
<br>
/snajpa<div class="m_-6984739547382655908m_-5418868080265924961HOEnZb"><div class="m_-6984739547382655908m_-5418868080265924961h5"><br>
<br>
On 2018-04-18 13:12, Jirka Bourek wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Tohle ale platí jenom pro vpsfree a kontejnery obecně, ne? Protože<br>
jinak ten ZFS filesystém těžko může vědět, jestli zrovna v daný<br>
okamžik byl konzistentní třeba ext4 nebo taky NTFS filesystém, co je v<br>
té virtuálce...<br>
<br>
On 18.4.2018 12:59, Ondrej.Flidr wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
To prave neni. Je to skutecne freeze filesystemu.<br>
<br>
ZFS pouziva tzv. copy-on-write pristup, kdy data neprepisuje, ale vlastne<br>
pridava dalsi listy a vetve binarniho stromu. Kazdej vrchol toho stromu ale<br>
vi, kdy byl zmenen, takze ZFS je schopny danej filesystem vratit do<br>
libovolnyho bodu v case (ono je to trochu slozitejsi, mota se do toho i<br>
mergovani zmen aby FS zbytecne nebobtnal, ale principielne je to takhle).<br>
Cili ty kdyz delas snapshot, tak reknes ZFS "vrat mi vsechny bloky<br>
filesystemu ve stavu, v jakym byly k dnesnimu dni 12:54:12 SELC" a ZFS ti<br>
vrati konzistentni obraz filesystemu. A dalsi sranda je, ze se da i rict<br>
"mam obraz tvyho filesystemu k predvcerejsku, 20:58:19 SELC, updatni mi ho k<br>
dnesnimu 10:58:14" a on ti posle pouze diff zmen toho stromu. - ty updaty<br>
jsou strasne rychly i kdyz mas petabytovej storage. Kdyz to mas pod tou<br>
virtualkou, tak virtualka ani nevi, ze byla snapshotovana a netusi nic o<br>
tom, ze nastartovala po vypnuti. Jeji filesystem je naprosto konzistentni k<br>
okamziku snapshotu. Kdyz nad tim mas nejakou SQL, tak ta se pak podiva do<br>
binlogu, zjisti ze je pozadu za zbytkem clusteru a necha si poslat updaty. A<br>
vsechno je slunickovy a suprzeleny.<br>
<br>
Ondra Flidr<br>
<br>
---------- Původní e-mail ----------<br>
Od: Pavel Hruška <<a href="mailto:mrpear@mrpear.net" target="_blank">mrpear@mrpear.net</a>><br>
Komu: vpsFree.cz Community list <<a href="mailto:community-list@lists.vpsfree.cz" target="_blank">community-list@lists.vpsfree.<wbr>cz</a>><br>
Datum: 18. 4. 2018 12:43:03<br>
Předmět: Re: [vpsFree.cz: community-list] Infrastruktura <a href="http://vpsfree.cz" rel="noreferrer" target="_blank">vpsfree.cz</a><br>
"<br>
Tak předpokládám, že je to na úrovni "náhlého vypnutí stroje", se kterým se<br>
dnešní filesystémy už umí vypořádat...<br>
<br>
<br>
<br>
Dne 18. dubna 2018 12:36 Ondrej.Flidr <<a href="mailto:Ondrej.Flidr@seznam.cz" target="_blank">Ondrej.Flidr@seznam.cz</a><br>
(mailto:<a href="mailto:Ondrej.Flidr@seznam.cz" target="_blank">Ondrej.Flidr@seznam.cz</a><wbr>)> napsal(a):<br>
"<br>
Ty snapshoty prave resi ZFS.  Kdyz jako storage pro virtualy pouzijes ZFS,<br>
tak to neni problem, protoze ZFS snapshoty jsou atomicky - zamrazis celej<br>
filesystem konzistentne. Jo, prijdes o data co jsou jenom v ram, ale to<br>
nebejva tak moc.<br>
<br>
Ondra Flidr<br>
<br>
---------- Původní e-mail ----------<br>
Od: Pavel Hruška <<a href="mailto:mrpear@mrpear.net" target="_blank">mrpear@mrpear.net</a>(mailto:<a href="mailto:mrpear@mrpear.net" target="_blank">mrpe<wbr>ar@mrpear.net</a>)><br>
Komu: vpsFree.cz Community list <<a href="mailto:community-list@lists.vpsfree.cz" target="_blank">community-list@lists.vpsfree.<wbr>cz</a><br>
(mailto:<a href="mailto:community-list@lists.vpsfree.cz" target="_blank">community-list@lists.v<wbr>psfree.cz</a>)><br>
Datum: 18. 4. 2018 12:25:55<br>
<br>
<br>
Předmět: Re: [vpsFree.cz: community-list] Infrastruktura <a href="http://vpsfree.cz" rel="noreferrer" target="_blank">vpsfree.cz</a><br>
(<a href="http://vpsfree.cz" rel="noreferrer" target="_blank">http://vpsfree.cz</a>)<br>
<br>
<br>
<br>
<br>
"<br>
Tak samozřejmě, že "5 minut výpadku je problém" do té doby, než řekneš,<br>
kolik to stojí, aby teda ten výpadek nebyl, umocněno pravděpodobností, že se<br>
to fakt stane. To je běžná praxe kde se pohybuji, tedy menší a střední<br>
firmy. A tím jedním dnem výpadku jsem opravdu myslel, že to "nepoloží<br>
firmu", ale určitě jsem nemyslel "nemít problém". Cílem je ten výpadek co<br>
nejvíc minimalizovat. A proto jsem rád za každou radu či názor.<br>
<br>
<br>
<br>
Víc storage na každý stroj sice potřebuju, nepotřebuju ale sdílený storage,<br>
který samo o sobě (mimo disků) taky něco stojí. Navíc se celkově pohybuju v<br>
pohodě, něco mezi 1-2 TB/node.<br>
<br>
<br>
<br>
<br>
Migrace na druhou lokalitu není v plánu, je to poslední záchranej bod pro<br>
data při totálním kolapsu (aka spadne mi sem letadlo) :o).<br>
<br>
<br>
<br>
<br>
V praxi nevím, jak se bude chovat filesystém virtuálu, když bude mít<br>
naběhnout ze "snapshotu". Přeci jen ten snapshot je dělanej za provozu.<br>
<br>
<br>
<br>
<br>
<br>
<br>
<br>
P.<br>
<br>
<br>
<br>
<br>
Dne 18. dubna 2018 11:57 Ondrej.Flidr <<a href="mailto:Ondrej.Flidr@seznam.cz" target="_blank">Ondrej.Flidr@seznam.cz</a><br>
(mailto:<a href="mailto:Ondrej.Flidr@seznam.cz" target="_blank">Ondrej.Flidr@seznam.cz</a><wbr>)> napsal(a):<br>
"<br>
Hoj,<br>
jo, hardware neumira. Ale HA nestavis za ucelem "co kdyz umre hardware" ale<br>
"nechci muset kazdou upravu delat ve tri rano, protoze chci tou dobou bejt<br>
na srot pod stolem nebo s holkou v posteli".<br>
<br>
Ja jsem holt zvyklej na situace, kdy 5 minut vypadku je problem :)<br>
Samozrejme, pokud firmu nepolozi denni vypadek, tak jsi za vodou a proste<br>
bych delal jenom zalohy a neresil. Virtualy na ZFS, kazdejch treba 30 minut<br>
(podle velikosti okna, ktery si muzes/chces dovolit) zfs send na druhej<br>
stroj a v pripade problemu nahodis klon.  Akorat to tvoje potrebuje vyrazne<br>
vic storage (vlastne na vsech serverech potrebujes misto pro vsechny<br>
virtualy), coz muze byt docela drahy.<br>
<br>
S migraci na druhou lokalitu zacnes narazet na slozitosti s routovanim<br>
(musis prehodit IP adresu => vlastni rozsah a reseni BGP).<br>
<br>
Ondra Flidr<br>
<br>
---------- Původní e-mail ----------<br>
Od: Pavel Hruška <<a href="mailto:mrpear@mrpear.net" target="_blank">mrpear@mrpear.net</a>(mailto:<a href="mailto:mrpear@mrpear.net" target="_blank">mrpe<wbr>ar@mrpear.net</a>)><br>
Komu: vpsFree.cz Community list <<a href="mailto:community-list@lists.vpsfree.cz" target="_blank">community-list@lists.vpsfree.<wbr>cz</a><br>
(mailto:<a href="mailto:community-list@lists.vpsfree.cz" target="_blank">community-list@lists.v<wbr>psfree.cz</a>)><br>
Datum: 18. 4. 2018 11:42:32<br>
<br>
<br>
Předmět: Re: [vpsFree.cz: community-list] Infrastruktura <a href="http://vpsfree.cz" rel="noreferrer" target="_blank">vpsfree.cz</a><br>
(<a href="http://vpsfree.cz" rel="noreferrer" target="_blank">http://vpsfree.cz</a>)<br>
<br>
<br>
<br>
<br>
"<br>
Čauec, díky za objasnění. Já to trošku upřesním, trošku zmírním to, o co mi<br>
jde, protože úplně 100% HA nepotřebuju. Co si budeme povídat, firmu<br>
nepoloží, když to nepojede hodinu, možná víc, nepoloží ji ani to, když to<br>
nepojede den. Důležitý je nepřijít o data (resp. přijít o data co nejmíň) a<br>
dát to co nejdřív zase dohromady.<br>
<br>
<br>
<br>
<br>
Dělat HA na úrovni aplikace taky není někdy sranda a hlavně to může vyjít<br>
dráž (např. licence na SQL server), než HA na úrovni HW a virtualizace. To<br>
je třeba taky vzít v úvahu.<br>
<br>
<br>
<br>
<br>
Přemýšlím nad možností replikace storage - tzn. 3 stroje v clusteru, každý<br>
má svoje virtuály a k nim storage. Storage se replikuje (rozdílově) v<br>
určitých intervalech na zbylé stroje. Mohl bych teoreticky replikovat i<br>
offsite na stroj v jiné lokalitě přes nějaký link (VPN). V případě kolapsu<br>
jednoho fyzického stroje by došlo k migraci jeho virtuálů na zbylé stroje s<br>
tím, že počítám s určitým oknem, ve kterém prostě můžu o něco přijít. Je to<br>
o definici toho, co jsem schopen tolerovat (a jestli tedy vůbec ano). K tomu<br>
samozřejmě podpora pomocí běžných záloh.<br>
<br>
<br>
<br>
<br>
Vycházím z toho, že přeci jen ten HW zase tak moc neumírá a není to otázka<br>
běžné praxe. Ale chci s tím počítat.<br>
<br>
<br>
<br>
<br>
Ještě jsem to takto nezkoušel, chystám si na to testlab, nevím jestli to<br>
není úplně zcestné.<br>
<br>
<br>
<br>
<br>
<br>
<br>
<br>
<br>
P.<br>
<br>
<br>
<br>
<br>
<br>
<br>
<br>
<br>
<br>
<br>
<br>
Dne 18. dubna 2018 11:06 Ondrej.Flidr <<a href="mailto:Ondrej.Flidr@seznam.cz" target="_blank">Ondrej.Flidr@seznam.cz</a><br>
(mailto:<a href="mailto:Ondrej.Flidr@seznam.cz" target="_blank">Ondrej.Flidr@seznam.cz</a><wbr>)> napsal(a):<br>
"<br>
Hoj,<br>
Co ti muzu rict ze svoji zkusenosti, tak data jsou na nodu, kde bezi<br>
virtual. Kdyz node slitne, virtual nejede. Delaly se nejaky experimenty s<br>
centralnim storage, ale bylo to nechutne pomaly (prakticky takhle vznikl<br>
NASbox). Ostatne to je problem vzdycky, ono i 100Gbit linky jsou pomaly,<br>
kdyz pres to tahas image stovek virtualu.<br>
<br>
Pokud chces mit jistotu, ze ti veci pojedou at se stane cokoliv, musis jit<br>
do klasickejch HA technik - balancing napric vic VPS, nesmej bejt na stejnym<br>
nodu (idealne pulka v Praze, pulka v Brne, abys dokazal ustat i DDoS). Je to<br>
drahy ale to je HA vzdycky.<br>
<br>
At tvuj stack a jak to udelat lip - vsechno musi byt min. 2x :) Pokud chces<br>
mit jistotu, ze to bude OK, musis to postavit takhle:<br>
<br>
- min 3x vypocetni stroj<br>
- v kazdym 2x radic diskovyho pole<br>
- 2x SAS/FC switch<br>
- Z kazdyho serveru kabel do kazdyho SAS/FC switche<br>
- Z kazdyho SAS/FC switche kabely do kazdyho pole<br>
- V kazdym poli 2x radic, kazdej pripojenej do jednoho switche<br>
- Na obou polich totozny data<br>
<br>
Takhle budes mit jistotu, ze at uz umre cokoliv, porad bude nejaka cesta jak<br>
se danej node dostane k datum. Nicmene uprimne - na tohle bych se vykaslal,<br>
delal storage primo na serverech a mirror/HA na urovni aplikaci ve<br>
virtualech. A proste pocitat s tim, ze hardware muze umrit, ale aplikaci je<br>
to jedno.<br>
<br>
Co se tyce site, tu pak res stejnym konceptem:<br>
<br>
- 2x switch<br>
- v kazdym serveru 2x sitovka, kazda 2 porty (1 muze byt onboard)<br>
- Nakonfigurovany Bond-over-Bond - vzdycky 1 port z kazdy sitovky do<br>
stejnyho switche, nad tim LACP bond a nad temahle dvouma bondama dalsi v<br>
rezimu active-passive (pokud nemas switche co umej stackovat a LACP pres<br>
ruzny zarizeni)<br>
- 2x router, kazdej vlastni uplink<br>
- kazdej switch pripojenej do obou routeru a mezi sebou. Je potreba mit<br>
dobre nastaveny STP, aby jsi se nezabil na smyckach<br>
<br>
Ondra Flidr<br>
<br>
<br>
---------- Původní e-mail ----------<br>
Od: Pavel Hruška <<a href="mailto:mrpear@mrpear.net" target="_blank">mrpear@mrpear.net</a>(mailto:<a href="mailto:mrpear@mrpear.net" target="_blank">mrpe<wbr>ar@mrpear.net</a>)><br>
Komu: vpsFree.cz Community list <<a href="mailto:community-list@lists.vpsfree.cz" target="_blank">community-list@lists.vpsfree.<wbr>cz</a><br>
(mailto:<a href="mailto:community-list@lists.vpsfree.cz" target="_blank">community-list@lists.v<wbr>psfree.cz</a>)><br>
Datum: 18. 4. 2018 10:45:27<br>
Předmět: Re: [vpsFree.cz: community-list] Infrastruktura <a href="http://vpsfree.cz" rel="noreferrer" target="_blank">vpsfree.cz</a><br>
(<a href="http://vpsfree.cz" rel="noreferrer" target="_blank">http://vpsfree.cz</a>)<br>
<br>
<br>
"<br>
Ahoj Pavle, díky za odpověď.<br>
<br>
<br>
<br>
Pro mě je záběr <a href="http://vpsfree.cz" rel="noreferrer" target="_blank">vpsfree.cz</a>(<a href="http://vpsfree.cz" rel="noreferrer" target="_blank">http://vpsfree.cz</a>), resp. vpsadminos, tedy to, že<br>
bych se hrabal ve zdrojácích na githubu, trošku za hranou, navíc pokud<br>
píšeš, že to není příliš friendly pro lidi neznalé "z venku" :). Jsem o<br>
"několik pater jako admin výš" a některé věci nechávám raději jako black-<br>
box. Jinak virtualizuju spíš Windows stroje přes KVM (tedy ne u vás, ale<br>
tady na firmě).<br>
<br>
<br>
<br>
<br>
Nicméně rád bych věděl trošku víc jak máte z principu postavený celý systém<br>
- jestli chápu dobře, tak každý node je samostatný, tzn. je včetně svého<br>
úložiště (prostě když mám svůj virtuál na node14, data mám taky na něm)? NAS<br>
je samozřejmě po síti dostupný z každého node. Zajímá mě co se děje při<br>
výpadku node: hostované virtály na něm pak nejedou? Chodí mi samozřejmě<br>
maily z outage listu, ale když mi něco přijde a zkusím si svůj server, vždy<br>
to běží, tak nevím, jestli to chodí až po výpadku nebo jak přesně? Nebo je<br>
to úplně jinak? A pak samozřejmě jde o to, kdyby byl nějaký horší výpadek,<br>
třeba to, že se node celý sesype (hw serveru, disky), co pak?<br>
<br>
<br>
<br>
<br>
Aktuálně mám virtualizovaný dva fyzický stroje, které sdílí společné diskové<br>
pole, nepřijde mi to moc šťastné, protože při výpadku toho pole jsem....no<br>
asi víš kde. Tak přemýšlím, jak to vyřešit lépe.<br>
<br>
<br>
<br>
<br>
Na tom vašem HW mě překvapilo i to, že se v nodech používají desktop-grade<br>
disky (WD black jsem tam viděl), teda jestli jsem to pochopil správně. A<br>
jaké máš dlouhodobě zkušenosti s Supermicro servery, jsou ok? Četl jsem<br>
rozporuplné názory... Já jedu na HP.<br>
<br>
<br>
<br>
<br>
V podstatě v tom prvním mailu jsem se ptal na to, jestli už třeba někde<br>
nevisí přednáška nebo něco, která by tohle popisovala. Nechci zbytečně<br>
otravovat ;).<br>
<br>
<br>
<br>
<br>
<br>
<br>
<br>
P.<br>
<br>
<br>
<br>
<br>
Dne 17. dubna 2018 16:27 Pavel Snajdr <<a href="mailto:snajpa@snajpa.net" target="_blank">snajpa@snajpa.net</a><br>
(mailto:<a href="mailto:snajpa@snajpa.net" target="_blank">snajpa@snajpa.net</a>)> napsal(a):<br>
"Cauko Pavle,<br>
<br>
v te tabulce chybi nove nody a celkove je dost zastarala; nechtelo by se Ti<br>
na to napsat skript, ktery by ji generoval? Nebo kdyz ne tobe, nasel by se<br>
jiny dobrovolnik?<br>
<br>
Na vsechny nody mam SSH, skript bych poustel od sebe, jako parametr by<br>
dostal hostnames a pak, kdyby idealne vyplivnul Dokuwiki tabulku s udaji per<br>
node:<br>
<br>
- typ desky (dmidecode)<br>
- nainstalovane procesory (dmidecode)<br>
- nainstalovana pamet (dmidecode)<br>
- nainstalovane disky (lsblk? smartctl -a /dev/sd* ?)<br>
<br>
Kdyby se to nekomu chtelo splacnout, budu velmi rad :)<br>
<br>
Jinak zdrojaky k tomu, co jedeme, jsou na Githubu:<br>
<br>
<a href="https://github.com/vpsfreecz/(https://github.com/vpsfreecz/)" rel="noreferrer" target="_blank">https://github.com/vpsfreecz/(<wbr>https://github.com/vpsfreecz/)</a><br>
<br>
Aktualni reseni neni moc staveny na vic deploymentu, aby si to kazdy mohl<br>
nasadit u sebe - neni to moc dobre podokumentovane a uz vubec se nepocita<br>
pri updatech s nekym "neinformovanym".<br>
<br>
Tak jako tak, OpenVZ 6 doziva a stavime nastupnicky reseni nad upstream<br>
technologiemi:<br>
<br>
<a href="https://vpsadminos.org/(https://vpsadminos.org/)" rel="noreferrer" target="_blank">https://vpsadminos.org/(https:<wbr>//vpsadminos.org/)</a><br>
<br>
Tohle uz si troufame mirit i pro ostatni k nasazeni, je to jeste dost dlouhy<br>
kus cesty, ale chceme se tam dostat.<br>
<br>
Aby si mohli treba kluci v Indii zalozit svoje vpsFree, protoze pro nas se<br>
tam dostat je vcelku z fleku nerealny, kdyz nezname mistni pomery (a na<br>
slepo do nejakyho indickyho datacentra jit, to je o nervy).<br>
<br>
Vypadky hlasime v outage-listu:<br>
<br>
<a href="https://lists.vpsfree.cz/pipermail/outage-list/" rel="noreferrer" target="_blank">https://lists.vpsfree.cz/piper<wbr>mail/outage-list/</a><br>
(<a href="https://lists.vpsfree.cz/pipermail/outage-list/" rel="noreferrer" target="_blank">https://lists.vpsfree.cz/pipe<wbr>rmail/outage-list/</a>)<br>
<br>
Na konferencich nas muzes potkat uz nekolikaty rok, jezdime na InstallFest,<br>
LinuxDays, OpenAlt a cokoliv, co se zrovna povede v Bratislave - pristi<br>
vikend se muzem potkat prave na OpenCampu, sobota, FIT STU:<br>
<br>
<a href="https://opencamp.sk/o-konferencii(https://opencamp.sk/o-konferencii)" rel="noreferrer" target="_blank">https://opencamp.sk/o-konferen<wbr>cii(https://opencamp.sk/o-konf<wbr>erencii)</a><br>
<br>
A jinak se urcite ptej dal, kdyztak dej prosim konkretnejsi dotaz, akorat ;)<br>
<br>
/snajpa<br>
<br>
On 2018-04-17 15:15, Pavel Hruška wrote:<br>
" Ahojte,<br>
<br>
   četl jsem si ve znalostní bázi o infrastruktuře <a href="http://vpsfree.cz" rel="noreferrer" target="_blank">vpsfree.cz</a><br>
(<a href="http://vpsfree.cz" rel="noreferrer" target="_blank">http://vpsfree.cz</a>) [1]<br>
(<a href="https://kb.vpsfree.cz/informace/infrastruktura" rel="noreferrer" target="_blank">https://kb.vpsfree.cz/informa<wbr>ce/infrastruktura</a><br>
(<a href="https://kb.vpsfree.cz/informace/infrastruktura" rel="noreferrer" target="_blank">https://kb.vpsfree.cz/informa<wbr>ce/infrastruktura</a>) [2]), můj dotaz<br>
jestli je popsaný stav aktuální?<br>
<br>
   Jsem u <a href="http://vpsfree.cz" rel="noreferrer" target="_blank">vpsfree.cz</a>(<a href="http://vpsfree.cz" rel="noreferrer" target="_blank">http://vpsfree.cz</a>) [1] přes dva roky a řeším teď<br>
infrastrukturu<br>
ve firmě, tedy v menším měřítku (3 fyzické servery) a také<br>
díky <a href="http://vpsfree.cz" rel="noreferrer" target="_blank">vpsfree.cz</a>(<a href="http://vpsfree.cz" rel="noreferrer" target="_blank">http://vpsfree.cz</a>) [1] se začínám zajímat více o<br>
(opensource)<br>
linuxovou virtualizaci a především ZFS. Dozvědět se více o tom,<br>
jak funguje infrastruktura <a href="http://vpsfree.cz" rel="noreferrer" target="_blank">vpsfree.cz</a>(<a href="http://vpsfree.cz" rel="noreferrer" target="_blank">http://vpsfree.cz</a>) [1] by byla skvělá<br>
inspirace,<br>
např. zkušenosti se servery, jak přesněji je řešeno<br>
úložiště, co výpadky nodů (jestli jsou a jak se to případně<br>
řeší) atp. Nedá někde zjistit více, nebude nějaká konference,<br>
přednáška, ...?<br>
<br>
Díky,<br>
Pavel<br>
<br>
Links:<br>
------<br>
[1] <a href="http://vpsfree.cz" rel="noreferrer" target="_blank">http://vpsfree.cz</a>(<a href="http://vpsfree.cz" rel="noreferrer" target="_blank">http://vpsfr<wbr>ee.cz</a>)<br>
[2] <a href="https://kb.vpsfree.cz/informace/infrastruktura" rel="noreferrer" target="_blank">https://kb.vpsfree.cz/informac<wbr>e/infrastruktura</a><br>
(<a href="https://kb.vpsfree.cz/informace/infrastruktura" rel="noreferrer" target="_blank">https://kb.vpsfree.cz/informa<wbr>ce/infrastruktura</a>)<br>
<br>
______________________________<wbr>_________________<br>
Community-list mailing list<br>
<a href="mailto:Community-list@lists.vpsfree.cz" target="_blank">Community-list@lists.vpsfree.c<wbr>z</a>(mailto:<a href="mailto:Community-list@lists.vpsfree.cz" target="_blank">Community-list@lists.<wbr>vpsfree.cz</a>)<br>
<a href="http://lists.vpsfree.cz/listinfo/community-list" rel="noreferrer" target="_blank">http://lists.vpsfree.cz/listin<wbr>fo/community-list</a><br>
(<a href="http://lists.vpsfree.cz/listinfo/community-list" rel="noreferrer" target="_blank">http://lists.vpsfree.cz/listi<wbr>nfo/community-list</a>)<br>
" ______________________________<wbr>_________________<br>
Community-list mailing list<br>
<a href="mailto:Community-list@lists.vpsfree.cz" target="_blank">Community-list@lists.vpsfree.c<wbr>z</a>(mailto:<a href="mailto:Community-list@lists.vpsfree.cz" target="_blank">Community-list@lists.<wbr>vpsfree.cz</a>)<br>
<a href="http://lists.vpsfree.cz/listinfo/community-list" rel="noreferrer" target="_blank">http://lists.vpsfree.cz/listin<wbr>fo/community-list</a><br>
(<a href="http://lists.vpsfree.cz/listinfo/community-list" rel="noreferrer" target="_blank">http://lists.vpsfree.cz/listi<wbr>nfo/community-list</a>)<br>
"<br>
<br>
<br>
<br>
<br>
<br>
<br>
<br>
______________________________<wbr>_________________<br>
Community-list mailing list<br>
<a href="mailto:Community-list@lists.vpsfree.cz" target="_blank">Community-list@lists.vpsfree.c<wbr>z</a><br>
<a href="http://lists.vpsfree.cz/listinfo/community-list" rel="noreferrer" target="_blank">http://lists.vpsfree.cz/listin<wbr>fo/community-list</a><br>
______________________________<wbr>_________________<br>
</blockquote>
Community-list mailing list<br>
<a href="mailto:Community-list@lists.vpsfree.cz" target="_blank">Community-list@lists.vpsfree.c<wbr>z</a><br>
<a href="http://lists.vpsfree.cz/listinfo/community-list" rel="noreferrer" target="_blank">http://lists.vpsfree.cz/listin<wbr>fo/community-list</a><br>
</blockquote>
______________________________<wbr>_________________<br>
Community-list mailing list<br>
<a href="mailto:Community-list@lists.vpsfree.cz" target="_blank">Community-list@lists.vpsfree.c<wbr>z</a><br>
<a href="http://lists.vpsfree.cz/listinfo/community-list" rel="noreferrer" target="_blank">http://lists.vpsfree.cz/listin<wbr>fo/community-list</a><br>
</div></div></blockquote></div></div></div><br><br clear="all"><span><div><br></div>-- <br><div class="m_-6984739547382655908m_-5418868080265924961gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div style="font-size:small">Ing. Pavel Hruška</div><div style="font-size:small"><a href="http://www.mrpear.net/" style="color:rgb(17,85,204)" target="_blank">http://www.mrpear.net</a><br></div><div style="font-size:small"><a href="mailto:mrpear@mrpear.net" style="color:rgb(17,85,204)" target="_blank">mrpear@mrpear.net</a><br></div><div style="font-size:small"><br></div><div style="font-size:small">web, webdesign, web-aplikace:</div><div style="font-size:small"><a href="http://www.pearfect.cz/" style="color:rgb(17,85,204)" target="_blank">http://www.pearfect.cz</a></div></div></div></div></div></div></div></div>
</span></div>
<br>______________________________<wbr>_________________<br>
Community-list mailing list<br>
<a href="mailto:Community-list@lists.vpsfree.cz" target="_blank">Community-list@lists.vpsfree.c<wbr>z</a><br>
<a href="http://lists.vpsfree.cz/listinfo/community-list" rel="noreferrer" target="_blank">http://lists.vpsfree.cz/listin<wbr>fo/community-list</a><br>
<br></blockquote></div><br></div>
</div></div><br>______________________________<wbr>_________________<br>
Community-list mailing list<br>
<a href="mailto:Community-list@lists.vpsfree.cz">Community-list@lists.vpsfree.<wbr>cz</a><br>
<a href="http://lists.vpsfree.cz/listinfo/community-list" rel="noreferrer" target="_blank">http://lists.vpsfree.cz/<wbr>listinfo/community-list</a><br>
<br></blockquote></div><br><br clear="all"><div><br></div>-- <br><div class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div style="font-size:small">Ing. Pavel Hruška</div><div style="font-size:small"><a href="http://www.mrpear.net/" style="color:rgb(17,85,204)" target="_blank">http://www.mrpear.net</a><br></div><div style="font-size:small"><a href="mailto:mrpear@mrpear.net" style="color:rgb(17,85,204)" target="_blank">mrpear@mrpear.net</a><br></div><div style="font-size:small"><br></div><div style="font-size:small">web, webdesign, web-aplikace:</div><div style="font-size:small"><a href="http://www.pearfect.cz/" style="color:rgb(17,85,204)" target="_blank">http://www.pearfect.cz</a></div></div></div></div></div></div></div></div>
</div>