[vpsFree.cz: community-list] Infrastruktura vpsfree.cz

Pavel Hruška mrpear at mrpear.net
Wed Apr 18 19:20:00 CEST 2018


To je super strategie, v podstate v uplny krizovce (smrt nodu a vsechno je
spatne) pouzitelna i pro me...

P.

Dne st 18. 4. 2018 19:04 uživatel Pavel Snajdr <snajpa at snajpa.net> napsal:

> Hot standby je cela masina v OK stavu ready na nasunuti kontejneru,
> idealne zapnuta a regnuta ve vpsAdminu.
>
> V pripade totalni paniky se precvaknou disky, v pripade klidnejsiho
> konce sveta je jenom migrujou VPSky za chodu.
>
> /snajpa
>
> On 2018-04-18 18:59, Pavel Hruška wrote:
> > Hot-standby je mašina bez disků?
> >
> > Dne st 18. 4. 2018 18:36 uživatel Pavel Snajdr <snajpa at snajpa.net>
> > napsal:
> >
> >> On 2018-04-18 13:00, Pavel Hruška wrote:
> >>> Nad cluster storage jsem taky uvažoval, ale četl jsem, že tam
> >>> "může" být problém s výkonem (i kdyby 10GbE, tak má sice
> >>> propustnost, ale problém může být latence a je třeba počkat
> >> na
> >>> potvrzení od všech nodů v clusteru) - nevím, jen jsem četl,
> >>> nezkoušel jsem.
> >>
> >> Broadcom Trident II switch cipy, ktere budeme pouzivat, maji mit
> >> nejakych 600ns port-to-port latenci, kdyz zapocitas, ze packet
> >> pujde
> >> (kdyz mezi racky) max pres 2 switche, udela to z NVMe disku vec s o
> >> par
> >> stovek mikrosekund vetsi latenci, dokud je volny bandwidth (a tam
> >> zalezi
> >> na zesilovacim efektu pri zapisu, tj. jak a kolika nodam se dava
> >> vedet,
> >> kdyz jedna noda neco pise do clusteru).
> >>
> >>>
> >>> Pro zajímavost, řešili jste někdy takovou situaci, že by
> >> klekl HW
> >>> celého node tak jak to tu diskutujeme?
> >>
> >> Ojeje, jasne.
> >>
> >> Nastesti jsme vzdycky meli nejaky volny hardware, i kdyz v Brne,
> >> kdyz
> >> byly problemy s node1.brq, to bylo zajimavejsi a downtime by byl
> >> kratsi,
> >> kdyby tam byla hot-standby masina, jak je to ted uz pravidelne v
> >> Praze.
> >> Nastesti Brno neni daleko od Bratislavy a Tomas dovezl nahradni
> >> desku,
> >> kterou jsme to vyresili docasne, nez prisla nova.
> >>
> >> Celkove ty vypadky, kdyz se neco takovyho deje, jsou max tak na 2
> >> hodky.
> >>
> >> Jina vec je to s NASem, ten ale neni zdvojeny vicemene "by design",
> >>
> >> protoze to je vec postavena z penez, co zbydou - a jeste nezbyly
> >> penize
> >> na zdvojeni - bo to mmj. i do budoucna zdvojnasobi naklad uz na
> >> vzdycky,
> >> co jednou nekomu slibime, uz brat zpatky tezko muzem, ze ;). To
> >> vyresime
> >> casem, nejdriv 2x10GE konektivitu per noda.
> >>
> >> Hlavni je se nestrelit do nohy jak my s node4.brq, co je 350k CZK
> >> lezicich jen tak; je to zatim jedna jedina NVMe noda a samozrejme
> >> technologie kravi, takze namigrovane VPSky sly do par tydnu dolu.
> >>
> >> Novy HW, jakoze novou konfiguraci, kupovat zasadne v dvojici a mit
> >> kam
> >> premigrovat z toho zdravyho nodu z nich...
> >>
> >> Ted mi node4.brq lezi na stole v base48 a akorat si s nim hraju,
> >> abych
> >> zjistil, co je vlastne za problem.
> >>
> >> (vlivem cca moji vlastni blbosti uz neni v zaruce a porad nevim, co
> >> je
> >> tam za problem, prinejhorsim pujde out na soucastky po jejich
> >> validaci)
> >>
> >> /snajpa
> >>
> >>>
> >>> P.
> >>>
> >>> Dne 18. dubna 2018 12:46 sorki <srk at 48.io> napsal(a):
> >>>
> >>>> Ahoj,
> >>>>
> >>>> data VPSiek su momentalne na nodach a je to vcelku nestastne
> >> lebo
> >>>> ked umre hardware tak jedina moznost je prehadzat disky do inej
> >>>> masiny aby sli VPSky aspon odmigrovat. Pohravali sme sa s
> >> myslienkou
> >>>> stand-by node, do ktorych by prave sli disky takto prehadzat,
> >>>> problem je vsak, ze niektore nody maju iny pocet diskov a po
> >> novom
> >>>> sa nam do toho miesa este aj NVMe.
> >>>>
> >>>> Dalsia moznost by bola bezat nad clustrovym storageom (snajpa
> >>>> navrhoval skusit DRBD9), kde by v pripade vypadku hw mohli VPS
> >>>> nastartovat na inych nodach (storage zdielany cez vsetky nody v
> >>>> lokacii). Prave druhu moznost by som rad casom virtualizovane
> >>>> vyskusal, otazka je ako to bude fungovat so zfs.
> >>>>
> >>>> - srk
> >>>>
> >>>> On 04/18/2018 11:06 AM, Ondrej.Flidr wrote:
> >>>> Hoj,
> >>>> Co ti muzu rict ze svoji zkusenosti, tak data jsou na nodu, kde
> >>>> bezi virtual. Kdyz node slitne, virtual nejede. Delaly se nejaky
> >>>> experimenty s centralnim storage, ale bylo to nechutne pomaly
> >>>> (prakticky takhle vznikl NASbox). Ostatne to je problem vzdycky,
> >> ono
> >>>> i 100Gbit linky jsou pomaly, kdyz pres to tahas image stovek
> >>>> virtualu.
> >>>>
> >>>> Pokud chces mit jistotu, ze ti veci pojedou at se stane cokoliv,
> >>>> musis jit do klasickejch HA technik - balancing napric vic VPS,
> >>>> nesmej bejt na stejnym nodu (idealne pulka v Praze, pulka v
> >> Brne,
> >>>> abys dokazal ustat i DDoS). Je to drahy ale to je HA vzdycky.
> >>>>
> >>>> At tvuj stack a jak to udelat lip - vsechno musi byt min. 2x :)
> >>>> Pokud chces mit jistotu, ze to bude OK, musis to postavit
> >> takhle:
> >>>>
> >>>> - min 3x vypocetni stroj
> >>>> - v kazdym 2x radic diskovyho pole
> >>>> - 2x SAS/FC switch
> >>>> - Z kazdyho serveru kabel do kazdyho SAS/FC switche
> >>>> - Z kazdyho SAS/FC switche kabely do kazdyho pole
> >>>> - V kazdym poli 2x radic, kazdej pripojenej do jednoho switche
> >>>> - Na obou polich totozny data
> >>>>
> >>>> Takhle budes mit jistotu, ze at uz umre cokoliv, porad bude
> >> nejaka
> >>>> cesta jak se danej node dostane k datum. Nicmene uprimne - na
> >> tohle
> >>>> bych se vykaslal, delal storage primo na serverech a mirror/HA
> >> na
> >>>> urovni aplikaci ve virtualech. A proste pocitat s tim, ze
> >> hardware
> >>>> muze umrit, ale aplikaci je to jedno.
> >>>>
> >>>> Co se tyce site, tu pak res stejnym konceptem:
> >>>>
> >>>> - 2x switch
> >>>> - v kazdym serveru 2x sitovka, kazda 2 porty (1 muze byt
> >> onboard)
> >>>> - Nakonfigurovany Bond-over-Bond - vzdycky 1 port z kazdy
> >> sitovky
> >>>> do stejnyho switche, nad tim LACP bond a nad temahle dvouma
> >> bondama
> >>>> dalsi v rezimu active-passive (pokud nemas switche co umej
> >> stackovat
> >>>> a LACP pres ruzny zarizeni)
> >>>> - 2x router, kazdej vlastni uplink
> >>>> - kazdej switch pripojenej do obou routeru a mezi sebou. Je
> >> potreba
> >>>> mit dobre nastaveny STP, aby jsi se nezabil na smyckach
> >>>>
> >>>> Ondra Flidr
> >>>>
> >>>> ---------- Původní e-mail ----------
> >>>> Od: Pavel Hruška <mrpear at mrpear.net>
> >>>> Komu: vpsFree.cz Community list
> >> <community-list at lists.vpsfree.cz>
> >>>> Datum: 18. 4. 2018 10:45:27
> >>>> Předmět: Re: [vpsFree.cz: community-list] Infrastruktura
> >>>> vpsfree.cz [1] [1]
> >>>>
> >>>> Ahoj Pavle, díky za odpověď.
> >>>>
> >>>> Pro mě je záběr vpsfree.cz [1] [1], resp. vpsadminos, tedy
> >> to, že
> >>>> bych se hrabal ve zdrojácích na githubu, trošku za hranou,
> >> navíc
> >>>> pokud píšeš, že to není příliš friendly pro lidi
> >> neznalé "z
> >>>> venku" :). Jsem o "několik pater jako admin výš" a některé
> >>>> věci nechávám raději jako black-box. Jinak virtualizuju
> >> spíš
> >>>> Windows stroje přes KVM (tedy ne u vás, ale tady na firmě).
> >>>>
> >>>> Nicméně rád bych věděl trošku víc jak máte z principu
> >>>> postavený celý systém - jestli chápu dobře, tak každý
> >> node je
> >>>> samostatný, tzn. je včetně svého úložiště (prostě když
> >>>> mám svůj virtuál na node14, data mám taky na něm)? NAS je
> >>>> samozřejmě po síti dostupný z každého node. Zajímá mě
> >> co se
> >>>> děje při výpadku node: hostované virtály na něm pak
> >> nejedou?
> >>>> Chodí mi samozřejmě maily z outage listu, ale když mi něco
> >>>> přijde a zkusím si svůj server, vždy to běží, tak nevím,
> >>>> jestli to chodí až po výpadku nebo jak přesně? Nebo je to
> >>>> úplně jinak? A pak samozřejmě jde o to, kdyby byl nějaký
> >>>> horší výpadek, třeba to, že se node celý sesype (hw
> >> serveru,
> >>>> disky), co pak?
> >>>>
> >>>> Aktuálně mám virtualizovaný dva fyzický stroje, které
> >> sdílí
> >>>> společné diskové pole, nepřijde mi to moc šťastné,
> >> protože
> >>>> při výpadku toho pole jsem....no asi víš kde. Tak
> >> přemýšlím,
> >>>> jak to vyřešit lépe.
> >>>>
> >>>> Na tom vašem HW mě překvapilo i to, že se v nodech
> >> používají
> >>>> desktop-grade disky (WD black jsem tam viděl), teda jestli jsem
> >> to
> >>>> pochopil správně. A jaké máš dlouhodobě zkušenosti s
> >>>> Supermicro servery, jsou ok? Četl jsem rozporuplné názory...
> >> Já
> >>>> jedu na HP.
> >>>>
> >>>> V podstatě v tom prvním mailu jsem se ptal na to, jestli už
> >>>> třeba někde nevisí přednáška nebo něco, která by tohle
> >>>> popisovala. Nechci zbytečně otravovat ;).
> >>>>
> >>>> P.
> >>>>
> >>>> Dne 17. dubna 2018 16:27 Pavel Snajdr <snajpa at snajpa.net>
> >> napsal(a):
> >>>> Cauko Pavle,
> >>>>
> >>>> v te tabulce chybi nove nody a celkove je dost zastarala;
> >> nechtelo
> >>>> by se Ti na to napsat skript, ktery by ji generoval? Nebo kdyz
> >> ne
> >>>> tobe, nasel by se jiny dobrovolnik?
> >>>>
> >>>> Na vsechny nody mam SSH, skript bych poustel od sebe, jako
> >> parametr
> >>>> by dostal hostnames a pak, kdyby idealne vyplivnul Dokuwiki
> >> tabulku
> >>>> s udaji per node:
> >>>>
> >>>> - typ desky (dmidecode)
> >>>> - nainstalovane procesory (dmidecode)
> >>>> - nainstalovana pamet (dmidecode)
> >>>> - nainstalovane disky (lsblk? smartctl -a /dev/sd* ?)
> >>>>
> >>>> Kdyby se to nekomu chtelo splacnout, budu velmi rad :)
> >>>>
> >>>> Jinak zdrojaky k tomu, co jedeme, jsou na Githubu:
> >>>>
> >>>> https://github.com/vpsfreecz/ [2] [2]
> >>>>
> >>>> Aktualni reseni neni moc staveny na vic deploymentu, aby si to
> >>>> kazdy mohl nasadit u sebe - neni to moc dobre podokumentovane a
> >> uz
> >>>> vubec se nepocita pri updatech s nekym "neinformovanym".
> >>>>
> >>>> Tak jako tak, OpenVZ 6 doziva a stavime nastupnicky reseni nad
> >>>> upstream technologiemi:
> >>>>
> >>>> https://vpsadminos.org/ [3] [3]
> >>>>
> >>>> Tohle uz si troufame mirit i pro ostatni k nasazeni, je to jeste
> >>>> dost dlouhy kus cesty, ale chceme se tam dostat.
> >>>>
> >>>> Aby si mohli treba kluci v Indii zalozit svoje vpsFree, protoze
> >> pro
> >>>> nas se tam dostat je vcelku z fleku nerealny, kdyz nezname
> >> mistni
> >>>> pomery (a na slepo do nejakyho indickyho datacentra jit, to je o
> >>>> nervy).
> >>>>
> >>>> Vypadky hlasime v outage-listu:
> >>>>
> >>>> https://lists.vpsfree.cz/pipermail/outage-list/ [4] [4]
> >>>>
> >>>> Na konferencich nas muzes potkat uz nekolikaty rok, jezdime na
> >>>> InstallFest, LinuxDays, OpenAlt a cokoliv, co se zrovna povede v
> >>>> Bratislave - pristi vikend se muzem potkat prave na OpenCampu,
> >>>> sobota, FIT STU:
> >>>>
> >>>> https://opencamp.sk/o-konferencii [5] [5]
> >>>>
> >>>> A jinak se urcite ptej dal, kdyztak dej prosim konkretnejsi
> >> dotaz,
> >>>> akorat ;)
> >>>>
> >>>> /snajpa
> >>>>
> >>>> On 2018-04-17 15:15, Pavel Hruška wrote:
> >>>> Ahojte,
> >>>>
> >>>> četl jsem si ve znalostní bázi o infrastruktuře vpsfree.cz
> >> [1]
> >>>> [1] [1]
> >>>> (https://kb.vpsfree.cz/informace/infrastruktura [6] [6] [2]),
> >> můj
> >>>> dotaz
> >>>> jestli je popsaný stav aktuální?
> >>>>
> >>>> Jsem u vpsfree.cz [1] [1] [1] přes dva roky a řeším teď
> >>>> infrastrukturu
> >>>> ve firmě, tedy v menším měřítku (3 fyzické servery) a
> >> také
> >>>> díky vpsfree.cz [1] [1] [1] se začínám zajímat více o
> >>>> (opensource)
> >>>> linuxovou virtualizaci a především ZFS. Dozvědět se více o
> >>>> tom,
> >>>> jak funguje infrastruktura vpsfree.cz [1] [1] [1] by byla
> >> skvělá
> >>>> inspirace,
> >>>> např. zkušenosti se servery, jak přesněji je řešeno
> >>>> úložiště, co výpadky nodů (jestli jsou a jak se to
> >>>> případně
> >>>> řeší) atp. Nedá někde zjistit více, nebude nějaká
> >>>> konference,
> >>>> přednáška, ...?
> >>>>
> >>>> Díky,
> >>>> Pavel
> >>>>
> >>>> Links:
> >>>> ------
> >>>> [1] http://vpsfree.cz [1] [1]
> >>>> [2] https://kb.vpsfree.cz/informace/infrastruktura [6] [6]
> >>>>
> >>>> _______________________________________________
> >>>> Community-list mailing list
> >>>> Community-list at lists.vpsfree.cz
> >>>> http://lists.vpsfree.cz/listinfo/community-list [7] [7]
> >>>> _______________________________________________
> >>>> Community-list mailing list
> >>>> Community-list at lists.vpsfree.cz
> >>>> http://lists.vpsfree.cz/listinfo/community-list [7] [7]
> >>>
> >>> --
> >>>
> >>> Ing. Pavel Hruška
> >>> http://www.mrpear.net [8] [8]
> >>>
> >>> mrpear at mrpear.net
> >>>
> >>> web, webdesign, web-aplikace:
> >>> http://www.pearfect.cz [9] [9]
> >>> _______________________________________________
> >>> Community-list mailing list
> >>> Community-list at lists.vpsfree.cz
> >>> http://lists.vpsfree.cz/listinfo/community-list [7] [7]
> >>>
> >>> _______________________________________________
> >>> Community-list mailing list
> >>> Community-list at lists.vpsfree.cz
> >>> http://lists.vpsfree.cz/listinfo/community-list [7] [7]
> >>>
> >>> _______________________________________________
> >>> Community-list mailing list
> >>> Community-list at lists.vpsfree.cz
> >>> http://lists.vpsfree.cz/listinfo/community-list [7] [7]
> >>>
> >>> --
> >>>
> >>> Ing. Pavel Hruška
> >>> http://www.mrpear.net [8] [8]
> >>>
> >>> mrpear at mrpear.net
> >>>
> >>> web, webdesign, web-aplikace:
> >>> http://www.pearfect.cz [9] [9]
> >>>
> >>> Links:
> >>> ------
> >>> [1] http://vpsfree.cz [1]
> >>> [2] https://github.com/vpsfreecz/ [2]
> >>> [3] https://vpsadminos.org/ [3]
> >>> [4] https://lists.vpsfree.cz/pipermail/outage-list/ [4]
> >>> [5] https://opencamp.sk/o-konferencii [5]
> >>> [6] https://kb.vpsfree.cz/informace/infrastruktura [6]
> >>> [7] http://lists.vpsfree.cz/listinfo/community-list [7]
> >>> [8] http://www.mrpear.net/ [10]
> >>> [9] http://www.pearfect.cz/ [11]
> >>>
> >>> _______________________________________________
> >>> Community-list mailing list
> >>> Community-list at lists.vpsfree.cz
> >>> http://lists.vpsfree.cz/listinfo/community-list [7]
> >> _______________________________________________
> >> Community-list mailing list
> >> Community-list at lists.vpsfree.cz
> >> http://lists.vpsfree.cz/listinfo/community-list [7]
> >
> >
> > Links:
> > ------
> > [1] http://vpsfree.cz
> > [2] https://github.com/vpsfreecz/
> > [3] https://vpsadminos.org/
> > [4] https://lists.vpsfree.cz/pipermail/outage-list/
> > [5] https://opencamp.sk/o-konferencii
> > [6] https://kb.vpsfree.cz/informace/infrastruktura
> > [7] http://lists.vpsfree.cz/listinfo/community-list
> > [8] http://www.mrpear.net
> > [9] http://www.pearfect.cz
> > [10] http://www.mrpear.net/
> > [11] http://www.pearfect.cz/
> >
> > _______________________________________________
> > Community-list mailing list
> > Community-list at lists.vpsfree.cz
> > http://lists.vpsfree.cz/listinfo/community-list
> _______________________________________________
> Community-list mailing list
> Community-list at lists.vpsfree.cz
> http://lists.vpsfree.cz/listinfo/community-list
>
-------------- next part --------------
An HTML attachment was scrubbed...
URL: <http://lists.vpsfree.cz/pipermail/community-list/attachments/20180418/9081027f/attachment-0001.html>


More information about the Community-list mailing list