FYI pro ty co zajímá jak to dopadlo:
Tak jsem se zmýlil - ono to sice ve webové administraci WEDOSu vypadá že
to je /64, ale ve skutečnosti jsou volitelné jenom poslední 2 byty,
takže reálně mám /112, což jsem následně dohledal i v helpdesku. V
nastavení je to síť /64, ale má jí víc zákazníků najednou, každý má ten
/112 kousek. Tak proto jsem na spamlistu, opravdu to asi bude zlobivý
soused. Ode mě opravdu dlouhodobě nic špatného neodchází, už kontroluju
pomalu každé spojení.
Nicméně protože evidentně nejsem první, tak WEDOS teď přiděluje nové
rozsahy a ty už jsou /64 (tedy zase je to v nastavení /48 a jednotlivý
server z toho má /64). Takže změním odesílací IP a je to.
Díky moc všem za pomoc,
Štěpán.
Dne 11. 11. 20 v 17:23 Stepan Liska napsal(a):
> WEDOS tvrdí, že mám celý /64.
>
> Dne 11. 11. 20 v 17:16 Václav Dušek napsal(a):
>> CSS lists both IPv4 addresses (/32) and IPv6 addresses (/64)
>>
>> Máš celý rozsah /64 nebo jen jeho část?
>>
>> Že by zlobil "soused"?
>>
>> Dne 11.11.2020 v 17:04 Stepan Liska napsal(a):
>>> Ahoj,
>>>
>>> prosím jestli by někdo nedokázal poradit.
>>>
>>> TL;DR: existuje nějaký způsob jak logovat odchozí spojení na
>>> konkrétní porty i s PID či jménem procesu? A jakou máte zkušenost s
>>> důvěryhodností dotazů na Spamhaus SBL ohledně IPv6 adres?
>>>
>>>
>>> Long:
>>> Řeším takovou hloupou věc - jeden server se mi dostává občas na
>>> blacklist (Spamhaus SBLCSS), ale když se k tomu dostanu, tak už tam
>>> zpravidla není (vypadá to, že tam visí vždy jen pár hodin, což i
>>> podle popisu toho blacklistu asi je možné). Kromě toho je to server
>>> kde je odchozího provozu naprosté minimum, takže jsem pomocí grepu v
>>> podstatě schopen za poslední 3 dny projít všechny podezřelé adresy.
>>> A nic. Začínám mít podezření, jestli tam není hacklé někde nějaké
>>> PHP. Mám tam prakticky všude PHP-FPM a každý web tak má své UID a
>>> PID a snad jsou i celkem stabilní (ty PIDy). Takže pokud bych byl
>>> schopen ulovit spojení na porty 25,465,587, tak bych mohl vytrasovat
>>> co se tam děje. Ale nějak netuším, zda je to vůbec v Linuxu možné? K
>>> IPTables nic nemůžu najít a jediné co mě napadá je logovat každou
>>> půlvteřinu ss -tlpn (zkouším to, ale moc to nefunguje, ta spojení
>>> jsou zřejmě moc krátká). Ale ono to stejně vypadá, že případný objem
>>> spamu je naprosto minimální, třeba jen 2x za den. Takže ideálně bych
>>> potřeboval opravdu nějaké pravidlo do iptables co by mi to
>>> zalogovalo včetně nějakého kontextu procesu.
>>>
>>> No a pak mě ještě napadá jedna možnost - a to že Spamhausu nějak
>>> zlobí SBLCSS list na IPv6 adresy, protože to co se objevuje, je
>>> jenom IPv6 adresa (IPv4 adresa toho stejného serveru tam snad nikdy
>>> nebyla) a klidně se stane, že 30 minut poté co mi to zahlásilo že
>>> tam jsme, tak tam zase nejsme. Prostě ty dotazy se občas chovají tak
>>> nějak "náhodně". Dokonce se mi děje, že když to zkusím z commandline
>>> pomocí dig, tak se tváří že nic, ale v tu samou chvíli přes web
>>> (spamhaus.org) mi to vylistuje (a mám pocit že se to mi to už jednou
>>> stalo i obráceně). Máte s tím někdo zkušenost (+, -)?
>>>
>>> Předem díky za každou radu,
>>> Štěpán.
>>>
>>>
>>> _______________________________________________
>>> Community-list mailing list
>>> Community-list(a)lists.vpsfree.cz
>>> http://lists.vpsfree.cz/listinfo/community-list
>>>
>>
>
ahoj, snažím se updatovat virutální buntu, případně instalovat appku "tree"
a dalšíl a háže to mně nepohcopitelnou hlášku ..
má někdo prosím ponětí co a jak je nutno dělat a řešit ? hlasí to něco s
zfsutils a zfs ..že bych já někdy používal zfs ? to si nevybavím teda..
Richard
root@vps:~# sudo apt-get install tree
Reading package lists... Done
Building dependency tree
Reading state information... Done
tree is already the newest version (1.8.0-1).
0 upgraded, 0 newly installed, 0 to remove and 0 not upgraded.
2 not fully installed or removed.
After this operation, 0 B of additional disk space will be used.
Do you want to continue? [Y/n] y
Setting up zfsutils-linux (0.8.3-1ubuntu12.4) ...
modprobe: FATAL: Module zfs not found in directory /lib/modules/5.9.0
zfs-import-scan.service is a disabled or a static unit, not starting it.
zfs-import-scan.service is a disabled or a static unit, not starting it.
Job for zfs-mount.service failed because the control process exited with
error code.
See "systemctl status zfs-mount.service" and "journalctl -xe" for details.
invoke-rc.d: initscript zfs-mount, action "start" failed.
● zfs-mount.service - Mount ZFS filesystems
Loaded: loaded (/lib/systemd/system/zfs-mount.service; enabled; vendor
preset: enabled)
Active: failed (Result: exit-code) since Mon 2020-11-09 21:38:55 UTC;
20ms ago
Docs: man:zfs(8)
Process: 4065169 ExecStart=/sbin/zfs mount -a (code=exited,
status=1/FAILURE)
Main PID: 4065169 (code=exited, status=1/FAILURE)
Nov 09 21:38:55 vps systemd[1]: Starting Mount ZFS filesystems...
Nov 09 21:38:55 vps zfs[4065169]: /dev/zfs and /proc/self/mounts are
required.
Nov 09 21:38:55 vps zfs[4065169]: Try running 'udevadm trigger' and 'mount
-t proc proc /proc' as root.
Nov 09 21:38:55 vps systemd[1]: zfs-mount.service: Main process exited,
code=exited, status=1/FAILURE
Nov 09 21:38:55 vps systemd[1]: zfs-mount.service: Failed with result
'exit-code'.
Nov 09 21:38:55 vps systemd[1]: Failed to start Mount ZFS filesystems.
dpkg: error processing package zfsutils-linux (--configure):
installed zfsutils-linux package post-installation script subprocess
returned error exit status 1
dpkg: dependency problems prevent configuration of zfs-zed:
zfs-zed depends on zfsutils-linux (>= 0.8.3-1ubuntu12.4); however:
Package zfsutils-linux is not configured yet.
dpkg: error processing package zfs-zed (--configure):
dependency problems - leaving unconfigured
Errors were encountered while processing:
zfsutils-linux
zfs-zed
E: Sub-process /usr/bin/dpkg returned an error code (1)
root@vps:~#
--
*Ing. Richard Pinka *
*Projekční a inženýrská činnost,*
*hodnocení nákladů životního cyklu budov a systémů TZB*
*tel. +420 608 261 385 *
Ahoj,
prosím jestli by někdo nedokázal poradit.
TL;DR: existuje nějaký způsob jak logovat odchozí spojení na konkrétní
porty i s PID či jménem procesu? A jakou máte zkušenost s důvěryhodností
dotazů na Spamhaus SBL ohledně IPv6 adres?
Long:
Řeším takovou hloupou věc - jeden server se mi dostává občas na
blacklist (Spamhaus SBLCSS), ale když se k tomu dostanu, tak už tam
zpravidla není (vypadá to, že tam visí vždy jen pár hodin, což i podle
popisu toho blacklistu asi je možné). Kromě toho je to server kde je
odchozího provozu naprosté minimum, takže jsem pomocí grepu v podstatě
schopen za poslední 3 dny projít všechny podezřelé adresy. A nic.
Začínám mít podezření, jestli tam není hacklé někde nějaké PHP. Mám tam
prakticky všude PHP-FPM a každý web tak má své UID a PID a snad jsou i
celkem stabilní (ty PIDy). Takže pokud bych byl schopen ulovit spojení
na porty 25,465,587, tak bych mohl vytrasovat co se tam děje. Ale nějak
netuším, zda je to vůbec v Linuxu možné? K IPTables nic nemůžu najít a
jediné co mě napadá je logovat každou půlvteřinu ss -tlpn (zkouším to,
ale moc to nefunguje, ta spojení jsou zřejmě moc krátká). Ale ono to
stejně vypadá, že případný objem spamu je naprosto minimální, třeba jen
2x za den. Takže ideálně bych potřeboval opravdu nějaké pravidlo do
iptables co by mi to zalogovalo včetně nějakého kontextu procesu.
No a pak mě ještě napadá jedna možnost - a to že Spamhausu nějak zlobí
SBLCSS list na IPv6 adresy, protože to co se objevuje, je jenom IPv6
adresa (IPv4 adresa toho stejného serveru tam snad nikdy nebyla) a
klidně se stane, že 30 minut poté co mi to zahlásilo že tam jsme, tak
tam zase nejsme. Prostě ty dotazy se občas chovají tak nějak "náhodně".
Dokonce se mi děje, že když to zkusím z commandline pomocí dig, tak se
tváří že nic, ale v tu samou chvíli přes web (spamhaus.org) mi to
vylistuje (a mám pocit že se to mi to už jednou stalo i obráceně). Máte
s tím někdo zkušenost (+, -)?
Předem díky za každou radu,
Štěpán.
Ahoj,
potreboval bych udelat migraci z:
vps 2.6.32-042stab141.42 #1 SMP Sat Nov 23 20:38:57 CET 2019 x86_64
GNU/Linux
Debian GNU/Linux 8.6 (jessie)
na:
1-vpsAdminOS SMP Tue Oct 13 14:07:42 UTC 2020 x86_64 GNU/Linux
Debian GNU/Linux 10 (buster)
Je v prostredi vpsfree nejake jednoducha moznost jak to udelat?
Nebo budu muset postupovat podle nejakeho obecneho navodu?
Z hlavy me napada udelat export instalovanych packages a zalohu /etc
Nebo existuje nejaka mene bolestna cesta?
Diky,
Vladislav Straka
Vyzkoušel jsem a dokonce jsem ani nemusel dávat "daemon-reload", nějak to chytil automaticky (Debian 9.13).
--
KamK
> 21. 10. 2020 v 12:00, community-list-request(a)lists.vpsfree.cz:
>
> Send Community-list mailing list submissions to
> community-list(a)lists.vpsfree.cz
>
> To subscribe or unsubscribe via the World Wide Web, visit
> http://lists.vpsfree.cz/listinfo/community-list
> or, via email, send a message with subject or body 'help' to
> community-list-request(a)lists.vpsfree.cz
>
> You can reach the person managing the list at
> community-list-owner(a)lists.vpsfree.cz
>
> When replying, please edit your Subject line so it is more specific
> than "Re: Contents of Community-list digest..."
> Today's Topics:
>
> 1. Re: OOM kill s dostatkem paměti (vudiq(a)vudiq.sk)
>
> Od: vudiq(a)vudiq.sk
> Předmět: Re: [vpsFree.cz: community-list] OOM kill s dostatkem paměti
> Datum: 20. října 2020 14:51:10 SELČ
> Komu: "vpsFree.cz Community list" <community-list(a)lists.vpsfree.cz>
>
>
> Ahoj,
>
> ďakujem za tipy, funguje.
>
> Ešte dodám, že pôvodný `/run/log/journal` mal permissions `rwxr-sr-x`,
> tak som okrem
> `mkdir -p /var/log/journal`
> spravil ešte
> `chmod 2755 /var/log/journal`
> a potom
> `systemctl daemon-reload`
>
> Využitie pamäte reportované vo vpsAdmine kleslo o cca. 400 MB.
>
> Tomáš
>
>
> On 19.10.2020 15:56, Matěj Koudelka wrote:
>> IMHO neni třeba otáčet vps, stačí systemctl daemon-reload
>> Matěj Koudelka
>> +420 604 266 933
>> On Mon, 19 Oct 2020 at 15:39, Pavel Snajdr <snajpa(a)snajpa.net> wrote:
>>> Ahoj,
>>> podle toho reportu jsi mel cca 600 MB v tmpfs, to je taky v RAM a
>>> bohuzel se pocita jako 'shmem', takze to vubec neni zrejme, ze je to
>>> vlastne tim...
>>> "Problem" prameni z toho, ze pokud neexistuje /var/log/journal,
>>> uklada
>>> systemd logy do tmpfs pod /run/log/journal - a na to se da docela
>>> rychle
>>> narazit.
>>> Resenim je vyrobit adresar /var/log/journal a otocit tu VPSku, bude
>>> po
>>> problemu.
>>> Proc jsme si toho do ted nevsimli s OpenVZ, zjistuju, ale vypada to,
>>> ze
>>> uz mame hlavniho vinika, proc nam "nevysvetlitelne" ubyva RAMka s
>>> pribyvajicim uptime na tech OpenVZ strojich...
>>> V novych sablonach uz to Aither opravil:
>> https://github.com/vpsfreecz/vpsadminos-image-build-scripts/commit/2872ff1b…
>>> Ve stavajicich VPS to doresime skriptem behem nasledujicich par
>>> desitek
>>> hodin.
>>> Ale ty VPSky, kterych se to tyka, zacnou logovat na spravne misto az
>>> od
>>> restartu (chystame v nasledujicich dnech update vsech vpsadminos
>>> nodes
>>> na Linux 5.9, takze explicitni restart, pokud s tim zrovna
>>> nebojujete,
>>> asi potreba neni).
>>> /snajpa
>>> On 2020-10-19 15:18, Petr Gregor wrote:
>>>> Zdar,
>>>> rád bych poprosil o pomoc s debugováním OOM killů v mém VM.
>>> Měl
>>>> jsem za to, že mám spoustu volného místa a proto mě kill
>>>> překvapil (díky za nové reportování z vpsadminu!). VM
>>> monitoruji
>>>> zabbixem a ten tvrdí, že dostupné paměti je dost (špička na
>>>> konci je kill)
>>>> výstup z free -m vypadá takto:
>>>> root@hostingf:~# free -m
>>>> total used free shared
>>> buff/cache
>>>> available
>>>> Mem: 1000 238 100 621
>>> 661
>>>> 761
>>>> Swap: 0 0 0
>>>> /proc/meminfo MemoryAvailable sedí se zabbixem a free:
>>> "MemAvailable:
>>>> 777548 kB"
>>>> Trošku zarážející je, že "volné" paměti je pouze 100M.
>>>> Rozhodující pro OOM je ale "dostupná" paměť, že?
>>>> V příloze posílám výstup z dmesg náležící k OOM killu.
>>>> Není mi jasné, proč OOM kill vůbec nastal. Součet všech rss
>>> v
>>>> dmesg reportu ani zdaleka nedosahuje 1G. Předpokládám, že mi
>>>> nějak uniká něco podstatného, ale nevím moc co hledat. Budu
>>> rád
>>>> za každé nakopnutí.
>>>> Gregy
>>>> _______________________________________________
>>>> Community-list mailing list
>>>> Community-list(a)lists.vpsfree.cz
>>>> http://lists.vpsfree.cz/listinfo/community-list
>>> _______________________________________________
>>> Community-list mailing list
>>> Community-list(a)lists.vpsfree.cz
>>> http://lists.vpsfree.cz/listinfo/community-list
>> _______________________________________________
>> Community-list mailing list
>> Community-list(a)lists.vpsfree.cz
>> http://lists.vpsfree.cz/listinfo/community-list
>
>
>
> _______________________________________________
> Community-list mailing list
> Community-list(a)lists.vpsfree.cz
> http://lists.vpsfree.cz/listinfo/community-list
Zdar,
rád bych poprosil o pomoc s debugováním OOM killů v mém VM. Měl jsem za to,
že mám spoustu volného místa a proto mě kill překvapil (díky za nové
reportování z vpsadminu!). VM monitoruji zabbixem a ten tvrdí, že dostupné
paměti je dost (špička na konci je kill)
[image: image.png]
výstup z free -m vypadá takto:
root@hostingf:~# free -m
total used free shared buff/cache
available
Mem: 1000 238 100 621 661
761
Swap: 0 0 0
/proc/meminfo MemoryAvailable sedí se zabbixem a free: "MemAvailable:
777548 kB"
Trošku zarážející je, že "volné" paměti je pouze 100M. Rozhodující pro OOM
je ale "dostupná" paměť, že?
V příloze posílám výstup z dmesg náležící k OOM killu.
Není mi jasné, proč OOM kill vůbec nastal. Součet všech rss v dmesg reportu
ani zdaleka nedosahuje 1G. Předpokládám, že mi nějak uniká něco
podstatného, ale nevím moc co hledat. Budu rád za každé nakopnutí.
Gregy
zdravím,
nevěděl by někdo s čím může být problém - asi někde v konfiguraci
serverů pro nginx.
sudo nginx -t
nginx: the configuration file /etc/nginx/nginx.conf syntax is ok
nginx: configuration file /etc/nginx/nginx.conf test is successful
sudo systemctl start nginx.service
sudo systemctl status nginx.service
● nginx.service - A high performance web server and a reverse proxy server
Loaded: loaded (/lib/systemd/system/nginx.service; enabled; vendor
preset: en
Active: active (running) since Tue 2020-10-13 14:49:08 CEST; 6min ago
Docs: man:nginx(8)
Process: 16277 ExecStartPre=/usr/sbin/nginx -t -q -g daemon on;
master_process
Process: 16278 ExecStart=/usr/sbin/nginx -g daemon on; master_process
on; (cod
Main PID: 16279 (nginx)
Memory: 21.0M
CGroup: /system.slice/nginx.service
├─16279 nginx: master process /usr/sbin/nginx -g daemon on;
master_pr
├─16280 nginx: worker process
├─16281 nginx: worker process
├─16282 nginx: worker process
├─16283 nginx: worker process
├─16284 nginx: worker process
├─16285 nginx: worker process
├─16286 nginx: worker process
└─16287 nginx: worker process
jenže po nějakém čase server spadne.
sudo tail -f /var/log/nginx/error.log
2020/10/13 02:39:01 [emerg] 7506#7506: bind() to [::]:443 failed (98:
Address already in use)
2020/10/13 02:39:01 [emerg] 7506#7506: bind() to 0.0.0.0:443 failed (98:
Address already in use)
2020/10/13 02:39:01 [emerg] 7506#7506: bind() to 0.0.0.0:80 failed (98:
Address already in use)
2020/10/13 02:39:01 [emerg] 7506#7506: bind() to [::]:80 failed (98:
Address already in use)
2020/10/13 02:39:01 [emerg] 7506#7506: bind() to [::]:443 failed (98:
Address already in use)
2020/10/13 02:39:01 [emerg] 7506#7506: bind() to 0.0.0.0:443 failed (98:
Address already in use)
2020/10/13 02:39:01 [emerg] 7506#7506: bind() to 0.0.0.0:80 failed (98:
Address already in use)
2020/10/13 02:39:01 [emerg] 7506#7506: bind() to [::]:80 failed (98:
Address already in use)
2020/10/13 02:39:01 [emerg] 7506#7506: still could not bind()
2020/10/13 02:39:04 [alert] 7357#7357: unlink() "/run/nginx.pid" failed
(2: No such file or directory)
a když je spadlý tak
sudo systemctl status nginx.service
[sudo] password for pruga:
● nginx.service - A high performance web server and a reverse proxy server
Loaded: loaded (/lib/systemd/system/nginx.service; enabled; vendor
preset: en
Active: failed (Result: exit-code) since Tue 2020-10-13 02:39:04
CEST; 11h ag
Docs: man:nginx(8)
Process: 7501 ExecStartPre=/usr/sbin/nginx -t -q -g daemon on;
master_process
Process: 7506 ExecStart=/usr/sbin/nginx -g daemon on; master_process
on; (code
Oct 13 02:39:03 domogled nginx[7506]: nginx: [emerg] bind() to
0.0.0.0:80 failed
Oct 13 02:39:03 domogled nginx[7506]: nginx: [emerg] bind() to [::]:80
failed (9
Oct 13 02:39:03 domogled nginx[7506]: nginx: [emerg] bind() to [::]:443
failed (
Oct 13 02:39:03 domogled nginx[7506]: nginx: [emerg] bind() to
0.0.0.0:443 faile
Oct 13 02:39:03 domogled nginx[7506]: nginx: [emerg] bind() to
0.0.0.0:80 failed
Oct 13 02:39:03 domogled nginx[7506]: nginx: [emerg] bind() to [::]:80
failed (9
Oct 13 02:39:04 domogled nginx[7506]: nginx: [emerg] still could not bind()
Oct 13 02:39:04 domogled systemd[1]: nginx.service: Control process
exited, code
Oct 13 02:39:04 domogled systemd[1]: nginx.service: Failed with result
'exit-cod
Oct 13 02:39:04 domogled systemd[1]: Failed to start A high performance
web serv
přičemž
sudo systemctl start nginx.service
ho zase nastartuje a zase chvilu běží.
díky
Petr Bolf
Ahoj,
(English below)
z vpsAdminu byla odstraněna VPS feature pro Docker. Zpočátku to
nastavovalo speciální seccomp profil, který umožňoval běh Dockeru, ale
už dlouho to není potřeba a VPS feature tam tak zbyl jen pro "dobrý
pocit" a kdyby náhodou. Pro instalaci Dockeru není potřeba dělat nic
navíc, viz
https://kb.vpsfree.cz/navody/vps/vpsadminos/docker
Dále jsem se snažil trochu omezit specifika našeho prostředí a usnadnit
konfiguraci novým členům. V nově vytvořených VPS se aktivují features
pro běh FUSE, KVM a TUN/TAP. Na OpenVZ pak iptables a bridge. Features
pro PPP a LXC nesting zůstavají vypnuty. Do šablony pro Ubuntu a Debian
jsem přidal balíčky fuse a squashfuse, takže třeba instalace snap-u už
taky funguje sama od sebe.
Na nodech s vpsAdminOS nás občas trápí VPS s nedostatkem paměti. Některé
takové VPS jsou schopny ovlivnit výkon celého nodu, i když je jinak
volné paměti dostatek. Rozhodli jsme se sledovat aktivitu OOM killeru a
upozorňovat členy na to, že jim dochází paměť. Většina o tom totiž vůbec
neví a tak s tím nikdy ani nic neudělá. Pro zajímavost, aktuálně máme 8
nodů s vpsAdminOS a od čtvrtka jsme zaznamenali ~4756 OOM killů z 38 VPS.
Kdo používáte vlastní DNS resolvery -- ve vpsAdminu bylo na výběr z
našich DNS resolverů, popř. DNS resolver na localhostu. S nastavenou
volbou se při každém startu VPS přepsal /etc/resolv.conf a nebylo možné
si to jednoduše udělat po svém. Nyní si můžete ve vpsAdminu vypnout
správu /etc/resolv.conf, podobně jako funguje manuální správá hostname.
Ve vpsAdminu jsou nově vidět instrukce pro zaplacení členského přispěvku
-- odkaz "Payment instructions" v profilu člena. Jsou tam i QR kódy, tak
jako v emailových upomínkách. Doteď se muselo čekat právě na upomínku,
nebo hledat platební údaje v KB.
Pro začátečníky v detailu VPS přibyl formulář s pokyny pro připojení na
SSH. Konfigurace sítě se u VPS na vpsAdminOS kvůli novým možnostem
trochu zkomplikovala a chtěl jsem tak nováčkům pomoci se připojit. Pokud
vás napadá, co dalšího je u nás zbytečně složité, napište nebo založte
issue:
https://github.com/vpsfreecz/vpsadmin/issues
ENGLISH:
VPS features for Docker was removed from vpsAdmin. Originally it was
needed to set a custom seccomp profile in order to run Docker inside a
VPS, but for a long time now it is not needed and toggling it had no
effect. Docker can be run without any further configuration, see
https://kb.vpsfree.cz/navody/vps/vpsadminos/docker
I was trying to reduce the particularities of our infrastructure and
simplify configuration for new members. Thus, new VPS are created with
features for FUSE, KVM and TUN/TAP enabled by default. iptables and
bridge features are enabled on OpenVZ nodes. Features for PPP and LXC
nesting remain disabled by default. VPS template for Ubuntu and Debian
now contains packages fuse and squashfuse, which makes it possible to
install snap without any extra steps.
Nodes with vpsAdminOS sometimes suffer from VPS that are running out of
memory. In some circumstances such VPS can have an impact on the
performance of the whole node, even if there's enough of free memory
left. Many people don't even know that the OOM killer is killing
processes inside their VPS, so we decided to monitor its activity and
notify members. At this moment, we have 8 vpsAdminOS nodes and since
Thursday we've detected ~4756 OOM kills from 38 VPS.
To those who use or want to use their own DNS resolvers, until now
vpsAdmin offered a choice between DNS resolvers hosted by us and
localhost. On each VPS start, /etc/resolv.conf was overwritten with this
setting. This made it hard to have custom nameservers set. It's now
possible to disable DNS resolver management in vpsAdmin, just like it
works for hostnames.
Payment instructions are now available in vpsAdmin in member profile,
including QR codes just like in the mail notification. Until now it was
necessary to either wait for the mail notification to arrive or search
for payment info in KB.
There's a new form in VPS details describing how to connect to SSH for
beginners. vpsAdminOS brought us new possibilities in network
configuration and it made it less obvious as to which address you could
connect to with SSH, so hopefully it will now be clearer for newcomers.
If you can think of other things that are overly complicated and could
be simplified, feel free to write us or file an issue at:
https://github.com/vpsfreecz/vpsadmin/issues
Jakub
Ahoj
V rámci spolku Otevřených měst začínáme provozovat/nabízet některé věci
jako SaaS. Měl byste někdo tip na dobrou smlouvu? (Myslím jako
nepřepísknuté závazky, minimalizmu délkou textu, bez zbytečných právních
divočin, ..)
Předem dík ;?
Ahoj,
chci se zeptat na vaše zkušenosti, než do něčeho sám skočím.
Mám VPS, kde hostuju pár webů (Apache+MySQL+FTP), pár emailů, mám tam svůj
nextcloud a pár dalších věcí. Na konfiguraci toho www+sql+ftp+imap+smtp
jsem používal panel, který se mezitím stal neudržovaným a
neupgradeovatelným. Věci kolem emailu mi přijdou jako černá magie a
nestíhám sledovat novinky. Chci založit nový server a postupně převést
všechny služby na něj. Ale zároveň bych pořád stál o panel se srozumitelným
rozhraním a s dobrou podporou.
Pro mail se mi líbí mailcow, pár lidí ho tady doporučovalo - jaké máte
zkušenosti, kladné či záporné?
Pro weby je to složitější, chtěl bych:
* aby panel automaticky podporoval letsencrypt. Ale bude to spolupracovat s
mailcow, který také získává certifikáty přes letsencrypt?
* myslím, že pořád chci Apache, protože mám nějaké weby, co používají
.htaccess.
* nevím, jestli chci apache + php-fpm nebo apache + mod_php nebo .. ? Je
apache + php-fpm současný state of the art?
To mě vede k pár kandidátům:
* hestiacp (https://hestiacp.com/)
* froxlor (https://froxlor.org/)
* ispconfig (https://www.ispconfig.org/)
HestiaCP podle všeho podporuje vše, co chci, navíc weby, které nepotřebují
htaccess nebo jiným způsobem apache, můžou běžet pod nginx (rychleji?).
Když nepotřebuju email a DNS, tak by mělo stačit vypnout služby, které je
poskytují (bind, exim, postfix, clamav, ...). Froxlor je asi OK, ale
vypadá, že ho aktivně vyvíjí hlavně jeden člověk... ISPConfig vypadá, jako
že ho používá hodně lidí, ale vlastně nevím, jestli/jak vypnout email,
jestli podporuje letsencrypt, atd.
Jaké máte zkušenosti s webhosting panely? S kombinováním jednoho panelu pro
weby (www+ftp+mysql) a druhého pro email (smtp+imap+antispam)? Nebo se mám
vykašlat na mailcow a spravovat email pomocí hestiacp / ispconfig / ...?
Atd.
Díky,
Martin Koutecký