<html><body>Hoj,<br>Co ti muzu rict ze svoji zkusenosti, tak data jsou na nodu, kde bezi virtual. Kdyz node slitne, virtual nejede. Delaly se nejaky experimenty s centralnim storage, ale bylo to nechutne pomaly (prakticky takhle vznikl NASbox). Ostatne to je problem vzdycky, ono i 100Gbit linky jsou pomaly, kdyz pres to tahas image stovek virtualu.<br><br>Pokud chces mit jistotu, ze ti veci pojedou at se stane cokoliv, musis jit do klasickejch HA technik - balancing napric vic VPS, nesmej bejt na stejnym nodu (idealne pulka v Praze, pulka v Brne, abys dokazal ustat i DDoS). Je to drahy ale to je HA vzdycky.<br><br>At tvuj stack a jak to udelat lip - vsechno musi byt min. 2x :) Pokud chces mit jistotu, ze to bude OK, musis to postavit takhle:<br><br>- min 3x vypocetni stroj<br>- v kazdym 2x radic diskovyho pole<br>- 2x SAS/FC switch<br>- Z kazdyho serveru kabel do kazdyho SAS/FC switche<br>- Z kazdyho SAS/FC switche kabely do kazdyho pole<br>- V kazdym poli 2x radic, kazdej pripojenej do jednoho switche<br>- Na obou polich totozny data<br><br>Takhle budes mit jistotu, ze at uz umre cokoliv, porad bude nejaka cesta jak se danej node dostane k datum. Nicmene uprimne - na tohle bych se vykaslal, delal storage primo na serverech a mirror/HA na urovni aplikaci ve virtualech. A proste pocitat s tim, ze hardware muze umrit, ale aplikaci je to jedno.<br><br>Co se tyce site, tu pak res stejnym konceptem:<br><br>- 2x switch<br>- v kazdym serveru 2x sitovka, kazda 2 porty (1 muze byt onboard)<br>- Nakonfigurovany Bond-over-Bond - vzdycky 1 port z kazdy sitovky do stejnyho switche, nad tim LACP bond a nad temahle dvouma bondama dalsi v rezimu active-passive (pokud nemas switche co umej stackovat a LACP pres ruzny zarizeni)<br>- 2x router, kazdej vlastni uplink<br>- kazdej switch pripojenej do obou routeru a mezi sebou. Je potreba mit dobre nastaveny STP, aby jsi se nezabil na smyckach<br><br>Ondra Flidr<br><br><br><aside>
---------- PĹŻvodnĂ­ e-mail ----------<br>
Od: Pavel Hruška <mrpear@mrpear.net><br>
Komu: vpsFree.cz Community list <community-list@lists.vpsfree.cz><br>
Datum: 18. 4. 2018 10:45:27<br>
PĹ™edmÄ›t: Re: [vpsFree.cz: community-list] Infrastruktura vpsfree.cz
</aside><br><blockquote data-email="mrpear@mrpear.net"><div dir="ltr">Ahoj Pavle, dĂ­ky za odpověď.<div><br></div><div>Pro mÄ› je zábÄ›r <a href="http://vpsfree.cz">vpsfree.cz</a>, resp. vpsadminos, tedy to, Ĺľe bych se hrabal ve zdrojácĂ­ch na githubu, trošku za hranou, navĂ­c pokud píšeš, Ĺľe to nenĂ­ příliš friendly pro lidi neznalĂ© "z venku" :). Jsem o "nÄ›kolik pater jako admin výš" a nÄ›kterĂ© vÄ›ci nechávám radÄ›ji jako black-box. Jinak virtualizuju spíš Windows stroje pĹ™es KVM (tedy ne u vás, ale tady na firmÄ›). </div><div><br></div><div>NicmĂ©nÄ› rád bych vÄ›dÄ›l trošku vĂ­c jak máte z principu postavenĂ˝ celĂ˝ systĂ©m - jestli chápu dobĹ™e, tak kaĹľdĂ˝ node je samostatnĂ˝, tzn. je vÄŤetnÄ› svĂ©ho ĂşloĹľištÄ› (prostÄ› kdyĹľ mám svĹŻj virtuál na node14, data mám taky na nÄ›m)? NAS je samozĹ™ejmÄ› po sĂ­ti dostupnĂ˝ z kaĹľdĂ©ho node. ZajĂ­má mÄ› co se dÄ›je pĹ™i vĂ˝padku node: hostovanĂ© virtály na nÄ›m pak nejedou? ChodĂ­ mi samozĹ™ejmÄ› maily z outage listu, ale kdyĹľ mi nÄ›co pĹ™ijde a zkusĂ­m si svĹŻj server, vĹľdy to běží, tak nevĂ­m, jestli to chodĂ­ aĹľ po vĂ˝padku nebo jak pĹ™esnÄ›? Nebo je to ĂşplnÄ› jinak? A pak samozĹ™ejmÄ› jde o to, kdyby byl nÄ›jakĂ˝ horší vĂ˝padek, tĹ™eba to, Ĺľe se node celĂ˝ sesype (hw serveru, disky), co pak?</div><div><br></div><div>AktuálnÄ› mám virtualizovanĂ˝ dva fyzickĂ˝ stroje, kterĂ© sdĂ­lĂ­ spoleÄŤnĂ© diskovĂ© pole, nepĹ™ijde mi to moc ĹˇĹĄastnĂ©, protoĹľe pĹ™i vĂ˝padku toho pole jsem....no asi víš kde. Tak pĹ™emýšlĂ­m, jak to vyĹ™ešit lĂ©pe.</div><div><br></div><div>Na tom vašem HW mÄ› pĹ™ekvapilo i to, Ĺľe se v nodech používajĂ­ desktop-grade disky (WD black jsem tam vidÄ›l), teda jestli jsem to pochopil správnÄ›. A jakĂ© máš dlouhodobÄ› zkušenosti s Supermicro servery, jsou ok? ÄŚetl jsem rozporuplnĂ© názory... Já jedu na HP.</div><div><br></div><div>V podstatÄ› v tom prvnĂ­m mailu jsem se ptal na to, jestli uĹľ tĹ™eba nÄ›kde nevisĂ­ pĹ™ednáška nebo nÄ›co, která by tohle popisovala. Nechci zbyteÄŤnÄ› otravovat ;).</div><div><br></div><div><br></div><div>P.</div></div><div><br><div>Dne 17. dubna 2018 16:27 Pavel Snajdr <span dir="ltr"><<a href="mailto:snajpa@snajpa.net">snajpa@snajpa.net</a>></span> napsal(a):<br><blockquote style="margin:0 0 0 0.8ex;border-left:1px#ccc solid;padding-left:1ex">Cauko Pavle,<br>
<br>
v te tabulce chybi nove nody a celkove je dost zastarala; nechtelo by se Ti na to napsat skript, ktery by ji generoval? Nebo kdyz ne tobe, nasel by se jiny dobrovolnik?<br>
<br>
Na vsechny nody mam SSH, skript bych poustel od sebe, jako parametr by dostal hostnames a pak, kdyby idealne vyplivnul Dokuwiki tabulku s udaji per node:<br>
<br>
- typ desky (dmidecode)<br>
- nainstalovane procesory (dmidecode)<br>
- nainstalovana pamet (dmidecode)<br>
- nainstalovane disky (lsblk? smartctl -a /dev/sd* ?)<br>
<br>
Kdyby se to nekomu chtelo splacnout, budu velmi rad :)<br>
<br>
Jinak zdrojaky k tomu, co jedeme, jsou na Githubu:<br>
<br>
<a href="https://github.com/vpsfreecz/" rel="noreferrer">https://github.com/vpsfreecz/</a><br>
<br>
Aktualni reseni neni moc staveny na vic deploymentu, aby si to kazdy mohl nasadit u sebe - neni to moc dobre podokumentovane a uz vubec se nepocita pri updatech s nekym "neinformovanym".<br>
<br>
Tak jako tak, OpenVZ 6 doziva a stavime nastupnicky reseni nad upstream technologiemi:<br>
<br>
<a href="https://vpsadminos.org/" rel="noreferrer">https://vpsadminos.org/</a><br>
<br>
Tohle uz si troufame mirit i pro ostatni k nasazeni, je to jeste dost dlouhy kus cesty, ale chceme se tam dostat.<br>
<br>
Aby si mohli treba kluci v Indii zalozit svoje vpsFree, protoze pro nas se tam dostat je vcelku z fleku nerealny, kdyz nezname mistni pomery (a na slepo do nejakyho indickyho datacentra jit, to je o nervy).<br>
<br>
Vypadky hlasime v outage-listu:<br>
<br>
<a href="https://lists.vpsfree.cz/pipermail/outage-list/" rel="noreferrer">https://lists.vpsfree.cz/piper<wbr>mail/outage-list/</a><br>
<br>
Na konferencich nas muzes potkat uz nekolikaty rok, jezdime na InstallFest, LinuxDays, OpenAlt a cokoliv, co se zrovna povede v Bratislave - pristi vikend se muzem potkat prave na OpenCampu, sobota, FIT STU:<br>
<br>
<a href="https://opencamp.sk/o-konferencii" rel="noreferrer">https://opencamp.sk/o-konferen<wbr>cii</a><br>
<br>
A jinak se urcite ptej dal, kdyztak dej prosim konkretnejsi dotaz, akorat ;)<br>
<br>
/snajpa<span><br>
<br>
On 2018-04-17 15:15, Pavel Hruška wrote:<br>
</span><blockquote style="margin:0 0 0 0.8ex;border-left:1px#ccc solid;padding-left:1ex">
Ahojte,<br>
<br>
  ÄŤetl jsem si ve znalostnĂ­ bázi o infrastruktuĹ™e <a href="http://vpsfree.cz" rel="noreferrer">vpsfree.cz</a> [1]<br>
(<a href="https://kb.vpsfree.cz/informace/infrastruktura" rel="noreferrer">https://kb.vpsfree.cz/informa<wbr>ce/infrastruktura</a> [2]), mĹŻj dotaz<span><br>
jestli je popsanĂ˝ stav aktuálnĂ­?<br>
<br></span>
  Jsem u <a href="http://vpsfree.cz" rel="noreferrer">vpsfree.cz</a> [1] pĹ™es dva roky a Ĺ™eším teÄŹ infrastrukturu<span><br>
ve firmÄ›, tedy v menším měřítku (3 fyzickĂ© servery) a takĂ©<br></span>
dĂ­ky <a href="http://vpsfree.cz" rel="noreferrer">vpsfree.cz</a> [1] se zaÄŤĂ­nám zajĂ­mat vĂ­ce o (opensource)<span><br>
linuxovou virtualizaci a pĹ™edevším ZFS. DozvÄ›dÄ›t se vĂ­ce o tom,<br></span>
jak funguje infrastruktura <a href="http://vpsfree.cz" rel="noreferrer">vpsfree.cz</a> [1] by byla skvÄ›lá inspirace,<span><br>
napĹ™. zkušenosti se servery, jak pĹ™esnÄ›ji je Ĺ™ešeno<br>
ĂşloĹľištÄ›, co vĂ˝padky nodĹŻ (jestli jsou a jak se to případnÄ›<br>
Ĺ™eší) atp. Nedá nÄ›kde zjistit vĂ­ce, nebude nÄ›jaká konference,<br>
pĹ™ednáška, ...?<br>
<br>
DĂ­ky,<br>
Pavel<br>
<br></span>
Links:<br>
------<br>
[1] <a href="http://vpsfree.cz" rel="noreferrer">http://vpsfree.cz</a><br>
[2] <a href="https://kb.vpsfree.cz/informace/infrastruktura" rel="noreferrer">https://kb.vpsfree.cz/informac<wbr>e/infrastruktura</a><br>
<br>
______________________________<wbr>_________________<br>
Community-list mailing list<br>
<a href="mailto:Community-list@lists.vpsfree.cz">Community-list@lists.vpsfree.c<wbr>z</a><br>
<a href="http://lists.vpsfree.cz/listinfo/community-list" rel="noreferrer">http://lists.vpsfree.cz/listin<wbr>fo/community-list</a><br>
</blockquote>
______________________________<wbr>_________________<br>
Community-list mailing list<br>
<a href="mailto:Community-list@lists.vpsfree.cz">Community-list@lists.vpsfree.c<wbr>z</a><br>
<a href="http://lists.vpsfree.cz/listinfo/community-list" rel="noreferrer">http://lists.vpsfree.cz/listin<wbr>fo/community-list</a><br>
</blockquote></div><br><br clear="all"><div><br></div>-- <br><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div style="font-size:small">Ing. Pavel Hruška</div><div style="font-size:small"><a href="http://www.mrpear.net/" style="color:rgb(17,85,204)">http://www.mrpear.net</a><br></div><div style="font-size:small"><a href="mailto:mrpear@mrpear.net" style="color:rgb(17,85,204)">mrpear@mrpear.net</a><br></div><div style="font-size:small"><br></div><div style="font-size:small">web, webdesign, web-aplikace:</div><div style="font-size:small"><a href="http://www.pearfect.cz/" style="color:rgb(17,85,204)">http://www.pearfect.cz</a></div></div></div></div></div></div></div></div>
</div>
_______________________________________________<br>Community-list mailing list<br>Community-list@lists.vpsfree.cz<br>http://lists.vpsfree.cz/listinfo/community-list<br></blockquote></body></html>