Ahoj!
Tohle téma mne také velmi zajímá, neboť řešíme něco podobného. Tři
fyzické stroje o podobném výkonu, stejné konfiguraci OS a SW. Každý stroj v jiném DC s rozdílnou konektivitou.
Jak efektivně zajistit load balancing, případně HA v případně výpadku jednoho z nich… přičemž obsah webu má relativně malou proměnlivost (1 až 2 za den), ale jde tu o synchro datových souborů o velkém objemu v řádu stovek MB plus data v pgsql.
Přeji hezký den!
Sueneé
From: Community-list [mailto:community-list-bounces@lists.vpsfree.cz] On Behalf Of me
Sent: Monday, September 20, 2021 10:22 PM
To: vpsFree.cz Community list
Subject: Re: [vpsFree.cz: community-list] Jak vyřešit high availability na VPS
Ahoj,
problem vysoke dostupnosti ma nekolik rovin:
- HA v ramci jednoho poskytovatele
- HA v ramci ruznych dataventer
- Synchronizace dat
Prvni rovina je snadna - staci pouzit prepinanou IP adresu a dve VPS v rezimu active-passive. Pokud dojde k vypadku primarni, prepinana adresa se prehodi na zalohu a jede se dal. Resitelne je to napr. pres VRRP a Keepalived. Samozrejme je potreba tu IP adresu prehazovat na entry pointech a vsechno smerovat na ni.
HA napric datacentry je vyrazme komplikovanejsi. Realne je potreba byt schopen prehodit IP adresu mezi sitemi a rict Internetu, ze ted se na ni dostane jinudy. Resenim je BGP protokol, akorat na jeho pouziti uz je potreba vlastni HW a ASN (standartne toto poskytovatele neumi). V omezene mire lze na to pouzit i ruzne LB od providera (napr. NLB Amazonu) ale maji sva omezeni - standartne podporuji pouze http(s) a balancuji pouze v ramci regionu.
Synchronizace dat je problem sam o sobe. V ramci jednoho DC lze pouzit synchronni replikaci (u mysql rezim master-master nebo galeru, u storage napr. gluster nebo ceph). Se synchronizaci dat musi take pocitat aplikace (uploady) a jeji deployment. V pripade synchronizace pres vic DC je potreba pouzit async replikaci a rozume nastavit synchronizacni okno, aby replikace nezabila vykon a zaroven jsme neprisli o velke mnozstvi nezreplikovanych dat.
Ondra Flidr
Odesláno z mého zařízení Galaxy
-------- Původní zpráva --------
Od: Martin Mohler <martin(a)mohler.it <mailto:martin@mohler.it> >
Datum: 20.09.21 21:40 (GMT+01:00)
Komu: community-list(a)lists.vpsfree.cz <mailto:community-list@lists.vpsfree.cz>
Předmět: [vpsFree.cz: community-list] Jak vyřešit high availability na VPS
Ahoj,
dneska se mi stala zajímavá věc. Spravuji VPS pro klienta u jedné nejmenované společnosti. Jsem s nimi velmi a dlouhodobě spokojen. Mám u nich více VPS s různými projekty klientů a až na pár maličkostí jsem maximálně spokojen. Zejména oproti zkušenostem s jinými společnostmi, kde projekty původně běželi.
Dnes u nich ale došlo k HW problému a měli výpadek, který ale do hodinky vyřešili migrací VPS na jiný node. Dle zákonů schválnosti se tak stane, když klientovi společnost doporučíte.
Začal jsem uvažovat jak tomu předcházet. Řešením by byl load balancer, ale pokud budu mít VPSky ve dvou servrovnách, tak balancer na úrovni DNS neudělám, nebo nevím jak či u jakého poskytovatele bych to mohl nastavit. Další možnost je přidat VPS s nginx, ale pokud tato z jakéhokoliv důvodu vypadne, tak je to úplně jedno, že jsou VPS zrcadlené. Nemáte nějaký nápad, který momentálně nevidím jak vyřešit aby v případě problému s jedním poskytovatelem VPS přepnout v co nejkratším čase na jinou VPS v případě závažného problému? Další věcí je synchronizace MySQL databáze, ale ta může být ze zálohy.
Mockrát díky za tipy a postřehy.
Díky, Š.
**
Dne 22. 09. 21 v 19:49 Ondra Flidr napsal(a):
> Knot v popredi kvuli vykonu a nenarocnosti, powerdns v pozadi protoze
> je spravovatelny ansiblem a mysql backend. Jediny drawback je, ze pri
> vytvareni novy zony ji musim udelat i na knotech. Kdybych mel vsude
> powerdns, zvladlo by to zakladat i domeny automaticky pres notify.
>
>
>
> Odesláno z mého zařízení Galaxy
>
>
> -------- Původní zpráva --------
> Od: Stepan Liska <stepan(a)comlinks.cz>
> Datum: 22.09.21 16:05 (GMT+01:00)
> Komu: "vpsFree.cz Community list" <community-list(a)lists.vpsfree.cz>
> Předmět: [vpsFree.cz: community-list] jaký DNS server (Bylo: Jak
> vyřešit high availability na VPS)
>
> Ahoj,
>
> Ondro, mohl bys, prosím, napsat argumenty proč jsi zvolil v pozadí
> powerdns a proč v popředí knot? (Já ještě konzervativně používám bind
> i pro dynamické updaty, master i slave v popředí a jiné servery
> vlastně neznám - tak proč se je učit).
>
> Děkuji,
> Štěpán.
>
>
> Dne 22. 09. 21 v 10:46 Ondra Flidr napsal(a):
>> DNS je distribuovane by design. Sance, ze selze cela root domena nebo
>> cely rozumny tld je minimalni, to je riziko, co prijimam. Pak uz je
>> to na provozu vlastni DNS infrastruktury, mit minimalne 2 nody ve 2
>> ruznych sitich a za nimi hidden master node. Tim je docela slusna
>> sance, ze to bude fungovat. Pouzivam powerdns jako hidden mastera a
>> knot na zbytku. Samozrejme to nechrani pred uzivatelskou chybou, ale
>> to zadna replikace.
>>
>>
>> Ondra Flidr
>>
>> Odesláno z mého zařízení Galaxy
>>
>>
>
>
> _______________________________________________
> Community-list mailing list
> Community-list(a)lists.vpsfree.cz
> http://lists.vpsfree.cz/listinfo/community-list
Ahoj,
Ondro, mohl bys, prosím, napsat argumenty proč jsi zvolil v pozadí
powerdns a proč v popředí knot? (Já ještě konzervativně používám bind i
pro dynamické updaty, master i slave v popředí a jiné servery vlastně
neznám - tak proč se je učit).
Děkuji,
Štěpán.
Dne 22. 09. 21 v 10:46 Ondra Flidr napsal(a):
> DNS je distribuovane by design. Sance, ze selze cela root domena nebo
> cely rozumny tld je minimalni, to je riziko, co prijimam. Pak uz je to
> na provozu vlastni DNS infrastruktury, mit minimalne 2 nody ve 2
> ruznych sitich a za nimi hidden master node. Tim je docela slusna
> sance, ze to bude fungovat. Pouzivam powerdns jako hidden mastera a
> knot na zbytku. Samozrejme to nechrani pred uzivatelskou chybou, ale
> to zadna replikace.
>
>
> Ondra Flidr
>
> Odesláno z mého zařízení Galaxy
>
>
Priznam se ze nevim tolik co umi haproxy/nginx, ale co se rychle divam, tak prave ten GSLB nebo mozna vice algoritmu pro LB, ale nerikam, ze to nejde udelat jinak. Kazdy problem ma vice moznych reseni a cest. Tohle se proste jednoduse nastavuje v webovem UI.
kapi
From: Ondra Flidr
Sent: Wednesday, September 22, 2021 9:37 AM
To: vpsFree.cz Community list
Subject: Re: [vpsFree.cz: community-list] Jak vyřešit high availability na VPS
Na rovinu - co ta vec umi navic pred haproxy nebo nginxem? Samotny balancer musi byt taky v HA a jsme tam, kde jsme byli - bud prepinana IP v ramci jednoho DC nebo anycast a tedy vlastni AS.
Ondra Flidr
Odesláno z mého zařízení Galaxy
-------- Původní zpráva --------
Od: Jirka Knapek <jirka(a)kapi.cz>
Datum: 22.09.21 6:46 (GMT+01:00)
Komu: "vpsFree.cz Community list" <community-list(a)lists.vpsfree.cz>
Předmět: Re: [vpsFree.cz: community-list] Jak vyřešit high availability na VPS
Ahoj Martine,
jde to udělat i pomocí load balanceru, používám na to v práci Kemp LoadMaster, který dokáže směrovat DNS kam je potřeba. Máme to nasazené v Brně a US jen to je celá VM, pak dokážeš směrovat uživatele na základě dotazu DNS.
Mají i řešení pro malé projekty, které je zadarmo - https://freeloadbalancer.com/ který by GSLB měl také dokázat. Jen s tím časem tam může být trošku problém podle nastavení TTL u DNS. Já to musel nastavit na hodinu, když to bylo moc krátké tak ve scenáriu, kdy já používám obě DC jako aktivní a uživatelé jdou do bližšího, tak docházelo k problémům, protože jim to dávalo různé cílové adresy. Pro záložní případ by to asi nedělalo neplechu.
kapi
From: Martin Mohler
Sent: Monday, September 20, 2021 9:40 PM
To: community-list(a)lists.vpsfree.cz
Subject: [vpsFree.cz: community-list] Jak vyřešit high availability na VPS
Ahoj,
dneska se mi stala zajímavá věc. Spravuji VPS pro klienta u jedné nejmenované společnosti. Jsem s nimi velmi a dlouhodobě spokojen. Mám u nich více VPS s různými projekty klientů a až na pár maličkostí jsem maximálně spokojen. Zejména oproti zkušenostem s jinými společnostmi, kde projekty původně běželi.
Dnes u nich ale došlo k HW problému a měli výpadek, který ale do hodinky vyřešili migrací VPS na jiný node. Dle zákonů schválnosti se tak stane, když klientovi společnost doporučíte.
Začal jsem uvažovat jak tomu předcházet. Řešením by byl load balancer, ale pokud budu mít VPSky ve dvou servrovnách, tak balancer na úrovni DNS neudělám, nebo nevím jak či u jakého poskytovatele bych to mohl nastavit. Další možnost je přidat VPS s nginx, ale pokud tato z jakéhokoliv důvodu vypadne, tak je to úplně jedno, že jsou VPS zrcadlené. Nemáte nějaký nápad, který momentálně nevidím jak vyřešit aby v případě problému s jedním poskytovatelem VPS přepnout v co nejkratším čase na jinou VPS v případě závažného problému? Další věcí je synchronizace MySQL databáze, ale ta může být ze zálohy.
Mockrát díky za tipy a postřehy.
Zkouším se na to podívat jinak. Problém může nastat kdekoliv. V datacentru
(např. OVH), na úrovni domény a DNS záznamů (např.: Subreg/Gransy) a nebo
prostě selžou klíčové uzly jak se to stalo Google. Máte nějaké best
practice jak být na to připraven nebo jak postupovat? Máte nějaký
disaster plan pro tyto situace?
On Wed, Sep 22, 2021 at 9:37 AM Ondra Flidr <me(a)ondrejflidr.cz> wrote:
> Na rovinu - co ta vec umi navic pred haproxy nebo nginxem? Samotny
> balancer musi byt taky v HA a jsme tam, kde jsme byli - bud prepinana IP v
> ramci jednoho DC nebo anycast a tedy vlastni AS.
>
> Ondra Flidr
>
>
>
> Odesláno z mého zařízení Galaxy
>
>
> -------- Původní zpráva --------
> Od: Jirka Knapek <jirka(a)kapi.cz>
> Datum: 22.09.21 6:46 (GMT+01:00)
> Komu: "vpsFree.cz Community list" <community-list(a)lists.vpsfree.cz>
> Předmět: Re: [vpsFree.cz: community-list] Jak vyřešit high availability na
> VPS
>
> Ahoj Martine,
>
>
>
> jde to udělat i pomocí load balanceru, používám na to v práci Kemp
> LoadMaster, který dokáže směrovat DNS kam je potřeba. Máme to nasazené
> v Brně a US jen to je celá VM, pak dokážeš směrovat uživatele na základě
> dotazu DNS.
>
> Mají i řešení pro malé projekty, které je zadarmo -
> https://freeloadbalancer.com/ který by GSLB měl také dokázat. Jen s tím
> časem tam může být trošku problém podle nastavení TTL u DNS. Já to musel
> nastavit na hodinu, když to bylo moc krátké tak ve scenáriu, kdy já
> používám obě DC jako aktivní a uživatelé jdou do bližšího, tak docházelo
> k problémům, protože jim to dávalo různé cílové adresy. Pro záložní případ
> by to asi nedělalo neplechu.
>
>
>
> kapi
>
>
>
> *From: *Martin Mohler <martin(a)mohler.it>
> *Sent: *Monday, September 20, 2021 9:40 PM
> *To: *community-list(a)lists.vpsfree.cz
> *Subject: *[vpsFree.cz: community-list] Jak vyřešit high availability na
> VPS
>
>
>
> Ahoj,
>
> dneska se mi stala zajímavá věc. Spravuji VPS pro klienta u jedné
> nejmenované společnosti. Jsem s nimi velmi a dlouhodobě spokojen. Mám u
> nich více VPS s různými projekty klientů a až na pár maličkostí jsem
> maximálně spokojen. Zejména oproti zkušenostem s jinými společnostmi, kde
> projekty původně běželi.
>
>
>
> Dnes u nich ale došlo k HW problému a měli výpadek, který ale do hodinky
> vyřešili migrací VPS na jiný node. Dle zákonů schválnosti se tak stane,
> když klientovi společnost doporučíte.
>
>
>
> Začal jsem uvažovat jak tomu předcházet. Řešením by byl load balancer, ale
> pokud budu mít VPSky ve dvou servrovnách, tak balancer na úrovni DNS
> neudělám, nebo nevím jak či u jakého poskytovatele bych to mohl nastavit.
> Další možnost je přidat VPS s nginx, ale pokud tato z jakéhokoliv důvodu
> vypadne, tak je to úplně jedno, že jsou VPS zrcadlené. Nemáte nějaký nápad,
> který momentálně nevidím jak vyřešit aby v případě problému s jedním
> poskytovatelem VPS přepnout v co nejkratším čase na jinou VPS v
> případě závažného problému? Další věcí je synchronizace MySQL databáze, ale
> ta může být ze zálohy.
>
>
>
> Mockrát díky za tipy a postřehy.
>
>
> _______________________________________________
> Community-list mailing list
> Community-list(a)lists.vpsfree.cz
> http://lists.vpsfree.cz/listinfo/community-list
>
Na rovinu - co ta vec umi navic pred haproxy nebo nginxem? Samotny balancer musi byt taky v HA a jsme tam, kde jsme byli - bud prepinana IP v ramci jednoho DC nebo anycast a tedy vlastni AS.Ondra FlidrOdesláno z mého zařízení Galaxy
-------- Původní zpráva --------Od: Jirka Knapek <jirka(a)kapi.cz> Datum: 22.09.21 6:46 (GMT+01:00) Komu: "vpsFree.cz Community list" <community-list(a)lists.vpsfree.cz> Předmět: Re: [vpsFree.cz: community-list] Jak vyřešit high availability na VPS Ahoj Martine, jde to udělat i pomocí load balanceru, používám na to v práci Kemp LoadMaster, který dokáže směrovat DNS kam je potřeba. Máme to nasazené v Brně a US jen to je celá VM, pak dokážeš směrovat uživatele na základě dotazu DNS.Mají i řešení pro malé projekty, které je zadarmo - https://freeloadbalancer.com/ který by GSLB měl také dokázat. Jen s tím časem tam může být trošku problém podle nastavení TTL u DNS. Já to musel nastavit na hodinu, když to bylo moc krátké tak ve scenáriu, kdy já používám obě DC jako aktivní a uživatelé jdou do bližšího, tak docházelo k problémům, protože jim to dávalo různé cílové adresy. Pro záložní případ by to asi nedělalo neplechu. kapi From: Martin MohlerSent: Monday, September 20, 2021 9:40 PMTo: community-list(a)lists.vpsfree.czSubject: [vpsFree.cz: community-list] Jak vyřešit high availability na VPS Ahoj,dneska se mi stala zajímavá věc. Spravuji VPS pro klienta u jedné nejmenované společnosti. Jsem s nimi velmi a dlouhodobě spokojen. Mám u nich více VPS s různými projekty klientů a až na pár maličkostí jsem maximálně spokojen. Zejména oproti zkušenostem s jinými společnostmi, kde projekty původně běželi. Dnes u nich ale došlo k HW problému a měli výpadek, který ale do hodinky vyřešili migrací VPS na jiný node. Dle zákonů schválnosti se tak stane, když klientovi společnost doporučíte. Začal jsem uvažovat jak tomu předcházet. Řešením by byl load balancer, ale pokud budu mít VPSky ve dvou servrovnách, tak balancer na úrovni DNS neudělám, nebo nevím jak či u jakého poskytovatele bych to mohl nastavit. Další možnost je přidat VPS s nginx, ale pokud tato z jakéhokoliv důvodu vypadne, tak je to úplně jedno, že jsou VPS zrcadlené. Nemáte nějaký nápad, který momentálně nevidím jak vyřešit aby v případě problému s jedním poskytovatelem VPS přepnout v co nejkratším čase na jinou VPS v případě závažného problému? Další věcí je synchronizace MySQL databáze, ale ta může být ze zálohy. Mockrát díky za tipy a postřehy.
Ahoj,
dneska se mi stala zajímavá věc. Spravuji VPS pro klienta u jedné
nejmenované společnosti. Jsem s nimi velmi a dlouhodobě spokojen. Mám u
nich více VPS s různými projekty klientů a až na pár maličkostí jsem
maximálně spokojen. Zejména oproti zkušenostem s jinými společnostmi, kde
projekty původně běželi.
Dnes u nich ale došlo k HW problému a měli výpadek, který ale do hodinky
vyřešili migrací VPS na jiný node. Dle zákonů schválnosti se tak stane,
když klientovi společnost doporučíte.
Začal jsem uvažovat jak tomu předcházet. Řešením by byl load balancer, ale
pokud budu mít VPSky ve dvou servrovnách, tak balancer na úrovni DNS
neudělám, nebo nevím jak či u jakého poskytovatele bych to mohl nastavit.
Další možnost je přidat VPS s nginx, ale pokud tato z jakéhokoliv důvodu
vypadne, tak je to úplně jedno, že jsou VPS zrcadlené. Nemáte nějaký nápad,
který momentálně nevidím jak vyřešit aby v případě problému s jedním
poskytovatelem VPS přepnout v co nejkratším čase na jinou VPS v
případě závažného problému? Další věcí je synchronizace MySQL databáze, ale
ta může být ze zálohy.
Mockrát díky za tipy a postřehy.
Ahoj,
dnes jsme zprovoznili node5.brq, první node s vpsAdminOS v Brně.
Kdo máte zájem o přesun z OpenVZ, můžete napsat na podporu. Na
vpsAdminOS přidělujeme také /64 IPv6 adresy, můžete si je vyměnit i sami
přes vpsAdmin za ty /128 z OpenVZ, viz
https://blog.vpsfree.cz/umime-pridelit-kazdemu-serveru-vlastni-blok-64-adre…
Prozatím to bude složitější s přístupem na NAS. Z vpsAdminOS v Brně se
teď na NAS dostanete, jen když máte jako první na síťovém rozhraní
privátní adresu. To ale znamená, že provoz do internetu půjde přes NAT,
tj. jako zdrojová adresa se nepoužije ta veřejná, protože není první.
Je to kvůli tomu, že na vpsAdminOS se exporty NASu připojují zevnitř
VPS. Na OpenVZ mounty připojoval vpsAdmin z hostitele a na síti uvnitř
VPS tak nezáleželo.
Časem bychom to chtěli vyřešit tak, že na privátní adresy/NAS uděláme
druhé síťové rozhraní. To by ale zase trvalo dlouho a už jsme nechtěli
nasazení vpsAdminOS v Brně odkládat.
Jakub
Ahoj,
pokud se nemýlím, tak jdou dvě možnosti. Můžeš vytvořit dva node, mezi které
rozdělis přiděleny prostor, disk a rám.
Kdyby to bylo málo, můžeš k účtu dokoupit další kapacitu.
P. B.
"---------- Původní zpráva ----------
Od: Filip Bartmann <filip.bartmann(a)gmail.com>
Datum: 13.09.2021 14:09:10
Předmět: [vpsFree.cz: community-list] Provoz více VPS na jeden účet
Ahoj,
je možné využívat více VPS na jednom účtu? Mám jednu svou VPS a druhou bych
potřeboval pro zákazníka, který chce mít VPS přeze mně.
Děkuji,
Filip Bartmann
"
Ahoj,
je možné využívat více VPS na jednom účtu? Mám jednu svou VPS a druhou bych
potřeboval pro zákazníka, který chce mít VPS přeze mně.
Děkuji,
Filip Bartmann
-------- Přeposlaná zpráva --------
Předmět: debian upgrade
Datum: Wed, 18 Aug 2021 15:35:53 +0200
Od: Petr Bolf <petr.bolf(a)taborpolana.cz>
Komu: podpora(a)vpsfree.cz
zdravím,
obgraduji na Debian 11 a po spuštění apt upgrade mám tuto chybu. Co to
může být. dík
Pokud používáte docker, nebo něco jiného co staví na cgroups, a jste na
vpsAdminOS, je důležité po přechodu na Debian 11 aktualizovat info o
distribuci ve vpsAdminu v detailu VPS.
Bullseye totiž používá ve výchozím stavu cgroupv2 a vpsAdminOS zatím
staví na cgroupv1. VPS jsou kontejnery a dědí cgroup v1 controllery,
takže controllery ve v2 nejsou k dispozici. Přenastavením distribuce ve
vpsAdminu se u VPS nastaví parametr systemd, který vynutí použití v1.
Podpora cgroupv2 bude teď asi moje priorita, o tom více někdy později až
to bude. Pokud se bez toho nějaké aplikace už neobejdou, tak prosím
urgovat. Co vím, tak se zatím vždy dá nějakým způsobem nastavit použití
cgroupv1.
Jakub
Ahojte,
puvodne jsem tohle tema nechtel otevirat, protoze jsem doufal, ze se
cela situace okolo Freenode nejak rozumne uklidni, az dohori emoce,
protoze jsem si myslel, ze je skoro jedno, kdo tu IRC sit spravuje, bo
snad vsude maji zajem na tom, aby jim lidi neodchazeli... ale evidentne
na Freenodu se to rozhodli dopohrbit uplne.
Ted se rozhodli zabanovat IRCCloud, tj. nikdo se z te site uz na
Freenode nepripoji. Oficialni vyjadreni na #freenode, proc byl IRCCloud
zabanovan: "because fuck irccloud".
To je trochu moc uz, rekl bych...
Vzhledem k tomu, jak se to s IRC semlelo a ze spousta IRC-related
vyvojaru se na IRC diky explozi okolo Freenodu vykaslala uplne, bych se
klonil spis tedy k odchodu z IRC uplne. Nemyslim, ze by cely ten
protokol mel pred sebou nejakou zarnou budoucnost, to uz bude, myslim
si, jenom pomalu umirat.
Otazka je, kam se tedy presunout...
Osobne je mym favoritem Matrix, ne tedy kvuli dnesnimu stavu, ktery je
takovy mirne neuteseny, ale spis kvuli potencialu do budoucna. Ted je
Matrix tvoreny hlavne Element klienty a Synapse self-hosted server
instancemi, coz neni uplne vyhra, protoze web klient a Python-based
server implikuji s IRC neporovnatelne naroky na server i klienty.
Ale zase Dendrite (prepis server side do Golangu, s planovanou podporou
HA, atd...) a Fractal-next (klient, GTK-based) vypadaji dost slibne...
Myslim, ze to ma docela budoucnost.
Co si o tom myslite?
Prejdeme na Matrix, nebo zustaneme na IRC a presuneme se jen na jinou
sit?
/snajpa
Ahoj,
sorry za spam, jsem tu v komunitě novej, ale potřeboval bych vytrhnout trn
z paty, jedna z našich vpsek (kde máme zejména weby cca do 10ks) je
nakažena malwarem (běží tam schovaný pseudo cron.d což je kamuflovaný XMRig
na mining monera).
Co bych potřeboval:
- kompletní reinstalaci serveru z Debian8 na 10, respektive komplet install
- instalaci Webminu
- znovumigraci a spuštění webů ve Wordpressu včetně SSL certifikátů
- základní nastavení bezpečnosti
asi bych to dokázal i sám, ale raději bych to svěřil nějakému zkušenému
linuxáři, co zároveň umí pracovat i s vpsadminem (běží to ještě na legacy
VZ, což bychom rovnou mohli přehodit taky).
Docela to hoří vzhledem k tomu běžícímu malware, přesun by bylo ideální
udělat o víkendu v noci.
Koho by to zajímalo, prosím private mail přímo na mě, díky moc!
dan
--
<https://www.fragile.cz/?utm_source=email&utm_medium=podpis>
Daniel Kafka / Founder
M: daniel.kafka(a)fragile.cz T: +420 777 177 570 <+420777177570>
Fragile / agentura pro digitální marketing
Jankovcova 1037/49, 170 00 Praha 7
<https://www.fragile.cz/?utm_source=email&utm_medium=podpis>
<https://www.linkedin.com/company/fragile-agency/>
<https://www.facebook.com/fragile.agency/>
<https://www.instagram.com/fragile.agency/> <https://fragile.cz/mail-link>
Ahoj,
pokouším se naistalovat GNOME rozhraní na Ubuntu 20.04 s VNC serverem ale
vyhodí mě to error po zavolání *sudo apt install ubuntu-gnome-desktop*.
Postupuji podle tohoto návodu:
https://www.teknotut.com/en/install-vnc-server-with-gnome-display-on-ubuntu…
(vím
o tom, že návod je na 18.04)
Errors were encountered while processing:
libfprint-2-2:amd64
fprintd
libpam-fprintd:amd64
udisks2
gvfs-daemons
gvfs-backends
gnome-disk-utility
usb-creator-common
gvfs:amd64
usb-creator-gtk
gvfs-fuse
nautilus
ubuntu-desktop
gnome-shell-extension-desktop-icons
ubuntu-desktop-minimal
nautilus-share
ubuntu-gnome-desktop
E: Sub-process /usr/bin/dpkg returned an error code (1)
Díky všem za jakoukoliv pomoc.
Honza
Ahoj,
píšu takhle večer a jsem unavený, tak se nezlobte zda jsem přehlédl
nějkou blbost, ale při upgradu systému (Arch Linux) na svojí VPS jsem
narazil na problém, že mi přestal chodit docker. Oprava je na konci
emailu, tak třeba to někomu ušetří trochu práce a stresu.
Update prošel podle následujícího logu:
[2021-04-15T22:20:10+0200] [ALPM] transaction started
[2021-04-15T22:20:10+0200] [ALPM] upgraded borg (1.1.16-1 -> 1.1.16-2)
[2021-04-15T22:20:10+0200] [ALPM] upgraded run-parts (4.8.6.1-2 -> 4.11.2-1)
[2021-04-15T22:20:10+0200] [ALPM] upgraded libxcrypt (4.4.18-1 -> 4.4.19-1)
[2021-04-15T22:20:10+0200] [ALPM] upgraded cronie (1.5.6-1 -> 1.5.7-2)
[2021-04-15T22:20:10+0200] [ALPM] upgraded systemd-libs (247.4-2 -> 248-4)
[2021-04-15T22:20:10+0200] [ALPM] upgraded cryptsetup (2.3.5-1 -> 2.3.5-4)
[2021-04-15T22:20:11+0200] [ALPM] upgraded curl (7.75.0-1 -> 7.76.1-1)
[2021-04-15T22:20:11+0200] [ALPM] upgraded sqlite (3.35.3-1 -> 3.35.4-1)
[2021-04-15T22:20:13+0200] [ALPM] upgraded expat (2.2.10-2 -> 2.3.0-1)
[2021-04-15T22:20:15+0200] [ALPM] upgraded docker (1:20.10.5-1 -> 1:20.10.6-1)
[2021-04-15T22:20:15+0200] [ALPM] upgraded libnsl (1.3.0-1 -> 1.3.0-2)
[2021-04-15T22:20:17+0200] [ALPM] upgraded python (3.9.2-1 -> 3.9.3-1)
[2021-04-15T22:20:17+0200] [ALPM] upgraded python-docker (4.4.4-1 -> 5.0.0-1)
[2021-04-15T22:20:17+0200] [ALPM] upgraded python-dotenv (0.16.0-1 -> 0.17.0-1)
[2021-04-15T22:20:17+0200] [ALPM] upgraded docker-compose (1.28.6-1 -> 1.29.1-1)
[2021-04-15T22:20:17+0200] [ALPM] upgraded file (5.39-1 -> 5.40-2)
[2021-04-15T22:20:18+0200] [ALPM] upgraded glib2 (2.68.0-5 -> 2.68.1-1)
[2021-04-15T22:20:18+0200] [ALPM] warning: /etc/pacman.d/mirrorlist installed as /etc/pacman.d/mirrorlist.pacnew
[2021-04-15T22:20:18+0200] [ALPM] upgraded pacman-mirrorlist (20210302-1 -> 20210405-1)
[2021-04-15T22:20:19+0200] [ALPM] warning: /etc/systemd/system.conf installed as /etc/systemd/system.conf.pacnew
[2021-04-15T22:20:19+0200] [ALPM] upgraded systemd (247.4-2 -> 248-4)
[2021-04-15T22:20:19+0200] [ALPM-SCRIPTLET] Creating group sgx with gid 973.
[2021-04-15T22:20:19+0200] [ALPM-SCRIPTLET] Creating group systemd-oom with gid 972.
[2021-04-15T22:20:19+0200] [ALPM-SCRIPTLET] Creating user systemd-oom (systemd Userspace OOM Killer) with uid 972 and gid 972.
[2021-04-15T22:20:20+0200] [ALPM] upgraded systemd-sysvcompat (247.4-2 -> 248-4)
[2021-04-15T22:20:20+0200] [ALPM] transaction completed
Potom začal ale docker při spouštění triviálních věcí (docker run hello-world) nechávat tyto věci na terminálu i v journálu:
Apr 15 22:55:26 mouflon dockerd[2006]: time="2021-04-15T22:55:26.728977443+02:00" level=error msg="Handler for POST /v1.41/containers/fc72a2108933f3f8fd557151a9b46c79aec1fa3acb71f0e30af4ca9e40b7b29f/start returned error: OCI runtime create failed: container_linux.go:367: starting container process caused: process_linux.go:495: container init caused: process_linux.go:458: setting cgroup config for procHooks process caused: can't load program: operation not permitted: unknown"
... Říkal jsem si, že to otestuju na staging a ověřím, co je přesně
problém, ale na stagingu (čerstvě vytvořená vps 19335) mi nefunguje
šablona Arch Linuxu:
# pacman -Syy docker
[...]
error: libxcrypt: signature from "Christian Hesse <eworm(a)archlinux.org>" is unknown trust
:: File /var/cache/pacman/pkg/libxcrypt-4.4.19-1-x86_64.pkg.tar.zst is corrupted (invalid or corrupted package (PGP signature)).
... Nakonec jsem downgradoval docker na 1:20.10.5-1, to ale nestačilo.
Downgradoval jsem tedy také systemd* na 247.4-2 (systemd, systemd-libs,
systemd-sysvcompat), to taky nepomohlo, ale po restartu vps už to celé
zabralo.
V tuhle hodinu už to debugovat nechci, zítra se podívám jestli to nějak
umím doklepnout v té staging vpsce.
Kdyby náhodou někdo věděl co se děje, rád si ušetřím práci.
Zdar a dobrou noc,
s pozdravem Ladislav Láska
Pretoze ak riesis abuse, mozes tam mat link/mail a registrator to vie stejne,
koho to je, ale neviem preco to davat do whois. Viem, lebo jeden cas som v
CZ.NIC robil a i ked je tam vyplnene hocico, tak staznost na domenu staci (ze
porusuje take a take pravidlo), ani nepotrebujes vediet koho bola, len nejaky dokaz.
OM
On 2021-04-06 17:45, me wrote:
> mojeID skryje kontaktni udaje typu email a telefon, nikoliv jmeno/nazev
> drzitele, ktery navic dost pravdepodobne nebude osobnim udajem v tomhle scopu a
> urcite nevede k identifikaci konkretni osoby dle GDPR.
>
> Proc vlastne schovavat udaje ve whois? Akorat to znemoznuje abuse reporty.
>
> Ondra
>
>
>
> Odesláno z mého zařízení Galaxy
>
>
> -------- Původní zpráva --------
> Od: Jirka Bourek <vpsfree-list(a)keroub.cz>
> Datum: 06.04.21 17:25 (GMT+01:00)
> Komu: community-list(a)lists.vpsfree.cz
> Předmět: Re: [vpsFree.cz: community-list] Doporučení registrátora domény
>
> V registru je jedna věc, ale whois je věc jiná. A řekl bych, že kdyby to
> "nešlo" (mám za to, že podmínkou skrytí údajů bylo mít MojeID), tak by
> stačilo, aby se našel někdo dostatečně aktivní a začal poukazovat na GDPR.
>
> On 06. 04. 21 15:11, me(a)ondrejflidr.cz wrote:
>> Anonymizovat .cz domeny nelze, v registru musi byt uveden skutecny
>> vlastnik. Nesouhlas/nesmyslna data ve whois mohou vest ke zruseni domeny.
>>
>> Ondra
>>
>> On 2021-04-06 14:58, Ondrej Mikle wrote:
>>> Umi subreg anonymizovat data i u .cz domeny?
>>>
>>> Protoze snad podle pravidel CZ.NIC se musi uvadet vlastnik, kvuli tomu
>>> jsem
>>> resil mojeid, ale stejne je tam jmeno.
>>>
>>> Lze teda nejak anonymizovat u subregu whois pro .cz domeny?
>>>
>>> (vynecham rant o mojeid, kolik se do toho sype rocne, kolik mrtvych
>>> dusi tam
>>> maji, uzitecnosti, absurdity kolem U2F/FIDO certifikace kdyz dovoluji
>>> softwarovy
>>> windows token)
>>>
>>> OM
>>>
>>> On 2021-04-06 11:46, Josef Rudolf wrote:
>>>> Zdarec.
>>>> Já používám SubReg. https://subreg.cz/
>>>> Poskytuje i možnost anonymizovat whois data.
>>>>
>>>> ---------- Původní e-mail ----------
>>>> Od: Lukáš Hrázký <lukkash(a)email.cz>
>>>> Komu: vpsFree.cz Community list <community-list(a)lists.vpsfree.cz>
>>>> Datum: 6. 4. 2021 11:33:59
>>>> Předmět: [vpsFree.cz: community-list] Doporučení registrátora domény
>>>>
>>>>
>>>> Čaute,
>>>>
>>>> sháním kvalitního registrátora domény, požadavky:
>>>>
>>>> - sídlo v EU
>>>> - nějaký whois privacy guard
>>>>
>>>> Případné tipy co si ještě hlídat uvítám.
>>>>
>>>> Co používáte vy?
>>>>
>>>> Díky,
>>>> Lukáš
>>>>
>>>> _______________________________________________
>>>> Community-list mailing list
>>>> Community-list(a)lists.vpsfree.cz
>>>> http://lists.vpsfree.cz/listinfo/community-list
>>>>
>>>>
>>>> _______________________________________________
>>>> Community-list mailing list
>>>> Community-list(a)lists.vpsfree.cz
>>>> http://lists.vpsfree.cz/listinfo/community-list
>>>>
>>>
>>> _______________________________________________
>>> Community-list mailing list
>>> Community-list(a)lists.vpsfree.cz
>>> http://lists.vpsfree.cz/listinfo/community-list
>> _______________________________________________
>> Community-list mailing list
>> Community-list(a)lists.vpsfree.cz
>> http://lists.vpsfree.cz/listinfo/community-list
> _______________________________________________
> Community-list mailing list
> Community-list(a)lists.vpsfree.cz
> http://lists.vpsfree.cz/listinfo/community-list
>
> _______________________________________________
> Community-list mailing list
> Community-list(a)lists.vpsfree.cz
> http://lists.vpsfree.cz/listinfo/community-list
>
Pokud se jmenujete Josef Novák, tak ano, jméno nevede k identifikaci
konkrétní osoby. Jenže ne všichni se jmenujeme, Josef Novák, že...
Abuse reporty se posílají na e-mail, takže skrytí jména je neznemožňuje...?
On 06. 04. 21 17:45, me wrote:
> mojeID skryje kontaktni udaje typu email a telefon, nikoliv jmeno/nazev drzitele, ktery navic dost pravdepodobne nebude osobnim udajem v tomhle scopu a urcite nevede k identifikaci konkretni osoby dle GDPR.Proc vlastne schovavat udaje ve whois? Akorat to znemoznuje abuse reporty.
Čaute,
sháním kvalitního registrátora domény, požadavky:
- sídlo v EU
- nějaký whois privacy guard
Případné tipy co si ještě hlídat uvítám.
Co používáte vy?
Díky,
Lukáš
Zdravím, jsem na vpsFree nově, chtěl jsem si nastavit nftables, ale stále
mi hlásí chybu, když chci vytvořit novou tabulku, případně cokliv jiného
Při startu hlásí obdobnou chybu.
/etc/nftables.conf:12:15-20: Error: Could not process rule: Invalid argument
Nemáte, prosím, někdo zkušenosti s nfttables na vpsFree, případně nějaký
odkaz, kde něco zjistit? Zkoušel jsem knowledge base, ale tam jsou pouze
stránky o IPTables.
Z toho, co jsem dohledal, mi přijde, že se nenačítá modul nftables, ale
nevím proč.
Díky za jakoukliv radu,
Honza Mrázek
Ahoj,
FirewallD se mi na Debian 10 odmita spustit. VPSka je na NIXOS. Poradite mi prosim jak to rozjet? :]
Diky
● firewalld.service - firewalld - dynamic firewall daemon
Loaded: loaded (/lib/systemd/system/firewalld.service; enabled; vendor preset: enabled)
Active: inactive (dead) since Sun 2021-02-28 08:32:18 UTC; 10min ago
Docs: man:firewalld(1)
Process: 83 ExecStart=/usr/sbin/firewalld --nofork --nopid (code=exited, status=0/SUCCESS)
Main PID: 83 (code=exited, status=0/SUCCESS)
Feb 28 08:32:18 polaris systemd[1]: Starting firewalld - dynamic firewall daemon...
Feb 28 08:32:18 polaris systemd[1]: Started firewalld - dynamic firewall daemon.
Feb 28 08:32:18 polaris firewalld[83]: ERROR: Failed to load nf_conntrack module: modprobe: ERROR: ../libkmod/libkmod.c:586 kmod_search_moddep() could not open moddep file '/lib/modules/5.10.12/modules.dep.bin'
modprobe: FATAL: Module nf_conntrack not found in directory /lib/modules/5.10.12
Feb 28 08:32:18 polaris firewalld[83]: ERROR: Raising SystemExit in run_server
Feb 28 08:32:18 polaris systemd[1]: firewalld.service: Succeeded.
slozka /lib/modules je prazdna.
Dobrý den,
snažím se připojit SMB sdílení na VPS, ale píče mi to:
-------------------------------------------------------------------------
[root@vps ~]# mount -vvv -t cifs //4799.disk.zonercloud.net/4799 /backup/
-o user=4799 -o password=heslonejake
mount.cifs kernel mount options: ip=2a00:19a0:3:72:0:d9c6:72bf:1,unc=\\
4799.disk.zonercloud.net\4799,user=4799,pass=********
mount error(1): Operation not permitted
Refer to the mount.cifs(8) manual page (e.g. man mount.cifs) and kernel log
messages (dmesg)
-------------------------------------------------------------------------
Přitom když si zkusím sdílení připojit na PC, tak to projde bez problémů.
Co dělám špatně?
Děkuji,
Filip Bartmann
Ahoj,
(English version below)
Ve vpsAdminu přibyla možnost nastartovat VPS z čistého systému ze
šablony a obejít tak systém na disku VPS. Je to něco jako boot live CD.
Můžete se tak zvenku dostat k disku VPS. Bude se to hodit např. když VPS
nestartuje a je potřeba opravit nějaký config, balíčkovací systém nebo
cokoliv jiného. Taky je to možnost jak do VPS dostat jakýkoliv systém
mimo šablony distribucí, které jsou k dispozici ve vpsAdminu.
VPS nastartovaná v nouzovém režimu má úplně stejnou konfiguraci: IP
adresy, hostname, DNS resolvery, features, atp. Pokud máte ve vpsAdminu
nastavené SSH klíče, taky se tam nahrají.
VPS můžete do nouzového režimu nastartovat buď z detailu VPS, formulář
"Boot VPS from template", nebo přímo ze stránky se vzdálenou konzolí
VPS. Původní disk VPS je ve výchozím stavu připojen do adresáře
`/mnt/vps`. Jakkoli vyvolaným restartem VPS nouzový režim opustíte a VPS
nastartuje zase ze svého disku. Systém použitý pro nouzový režim je
dočasný a po restartu se smaže.
Nouzový režim je pouze pro VPS na vpsAdminOS [1]. Na OpenVZ Legacy [2]
podporujeme jiný přístup: dataset jedné VPS je možné připojit do jiné
VPS, takže třeba produkční VPS se dá opravit z playgroundu. Na
vpsAdminOS jsme o tuto možnost přišli a tak se teď vrací v jiné podobě.
Osobně se mi tenhle způsob líbí mnohem víc.
V budoucnu bych chtěl do vpsfreectl [3] dodělat možnost přes nouzový
režim obnovit VPS ze stažené zálohy, včetně zachování nastavení
vpsAdminu. Jinak můžete nouzový režim na obnovu ze stažené zálohy
používat už teď -- stačí systém ze zálohy nahrát do `/mnt/vps`.
Více info jak opravit rozbitou VPS a screenshoty viz KB:
https://kb.vpsfree.cz/navody/vps/vpsadminos/oprava
ENGLISH:
There's a new option in vpsAdmin to start VPS from a clean system using
one of our templates and thus bypass the VPS's own system. You can think
of it as booting a live CD. It can be used to access data on the VPS's
root filesystem from the outside. This is useful e.g. when the VPS is
not starting and you need to fix some configuration inside, fix the
packaging system, etc. It's also a way to install whatever system inside
the VPS outside of the templates available in vpsAdmin.
VPS started in the rescue mode has the same configuration: IP addresses,
hostname, DNS resolvers, features, etc. If you have configured SSH keys
in vpsAdmin, they'll be deployed as well.
To start the VPS in the rescue mode, head to VPS details in vpsAdmin,
it's a form labeled "Boot VPS from template". You can also access the
rescue mode from the page with VPS remote console. The original VPS disk
is by default mounted to the rescue system at `/mnt/vps`. To leave the
rescue mode, simply restart the VPS. Any action that will cause the VPS
to restart will exit the rescue mode and the VPS will start from its own
disk again. The system used for the rescue mode is temporary and is
immediately deleted when the VPS is restarted.
This new rescue mode is available only for VPS running on vpsAdminOS
[4]. On OpenVZ Legacy [5], we support a different way: datasets of one
VPS can be mounted in another, so for example you can access a broken
production VPS from a playground VPS. Since we've lost this capability
with vpsAdminOS, it comes back now in another form. Personally I find
this rescue mode to be a better approach.
In the future I'd like to use the rescue mode in vpsfreectl [6] to
restore VPS from downloaded backups, including vpsAdmin configuration.
You could do this on your own even now, simply upload the system from
your backup to `/mnt/vps` within the rescue system.
For more information on how to access a broken VPS, see the KB:
https://kb.vpsfree.org/manuals/vps/vpsadminos/recovery
[1] https://kb.vpsfree.cz/navody/vps/vpsadminos
[2] https://kb.vpsfree.cz/informace/openvz
[3] https://kb.vpsfree.cz/navody/vps/api#cli
[4] https://kb.vpsfree.org/manuals/vps/vpsadminos
[5] https://kb.vpsfree.org/information/openvz
[6] https://kb.vpsfree.org/manuals/vps/api#cli
Jakub
zdar lidi,
řeším útok. Je to web, kde dělám údržbu databáze CMS. Nejsem síťař. Uměl
by někdo pomoci, odrazit to? Je to celkem akutní, takže za práci raději
zaplatíme, než se to nějak pokoušet sám spravit.
Attack detail : 9Kpps/4Mbps
dateTime srcIp:srcPort dstIp:dstPort protocol flags bytes reason
2021.02.09 03:14:16 CET 94.23.211.61:33782 39.26.27.117:23 TCP SYN 60
ATTACK:TCP_SYN
2021.02.09 03:14:16 CET 94.23.211.61:37242 118.20.135.83:2323 TCP SYN 60
ATTACK:TCP_SYN
2021.02.09 03:14:16 CET 94.23.211.61:33634
díky
Petr Bolf