Dňa 6. 10. 2017 o 17:07, Richard Korinek
<richard.korinek(a)gmail.com> napísal:
Zdravím,
snažím se rozchodit KVM a chtěl bych použít virt-manager. Zkoušel jsem ArchLinux 3.6 i
Centos 7.3 ale zatím bez úspěchu.
Naistaluju qemu, dokonce i spustím image pomocí konfiguračního souboru. Když ale zkouším
virt-amanger (po nainstalování všech dependencies, pro Centos viz KB KVM / Centos), tak
virt-manager padá s nic neříkající chybou. Kompletní debug:
[root@majestatix log]# virt-manager --debug
[Pá, 06 říj 2017 16:47:38 virt-manager 943] DEBUG (cli:261) Launched with command line:
/usr/share/virt-manager/virt-manager --debug
[Pá, 06 říj 2017 16:47:38 virt-manager 943] DEBUG (virt-manager:183) virt-manager
version: 1.4.1
[Pá, 06 říj 2017 16:47:38 virt-manager 943] DEBUG (virt-manager:184) virtManager import:
<module 'virtManager' from
'/usr/share/virt-manager/virtManager/__init__.pyc'>
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (virt-manager:214) PyGObject version:
3.22.0
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (virt-manager:218) GTK version:
3.22.10
Gtk-Message: Failed to load module "canberra-gtk-module"
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (engine:496) libguestfs inspection
support: False
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (systray:156) Showing systray: False
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (engine:1037) processing cli command
uri= show_window= domain=
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (engine:1039) No cli action requested,
launching default window
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (manager:203) Showing manager
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (engine:401) window counter incremented
to 1
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (engine:161) Loading stored URIs:
qemu:///system
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (engine:140) Initial gtkapplication
activated
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:571) conn=qemu:///system
changed to state=Connecting
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:989) Scheduling background
open thread for qemu:///system
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:1039) libvirt
version=3002000
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:1041) daemon
version=3002000
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:1042) conn version=1005003
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:1044) qemu:///system
capabilities:
<capabilities>
<host>
<uuid>4e56d8c3-7406-4b81-9a01-39d12aae0b60</uuid>
<cpu>
<arch>x86_64</arch>
<pages unit="KiB" size="4"/>
</cpu>
<power_management/>
<migration_features>
<live/>
<uri_transports>
<uri_transport>tcp</uri_transport>
<uri_transport>rdma</uri_transport>
</uri_transports>
</migration_features>
<secmodel>
<model>none</model>
<doi>0</doi>
</secmodel>
<secmodel>
<model>dac</model>
<doi>0</doi>
<baselabel type="kvm">+107:+107</baselabel>
<baselabel type="qemu">+107:+107</baselabel>
</secmodel>
</host>
<guest>
<os_type>hvm</os_type>
<arch name="i686">
<wordsize>32</wordsize>
<emulator>/usr/libexec/qemu-kvm</emulator>
<machine maxCpus="240">pc-i440fx-rhel7.0.0</machine>
<machine canonical="pc-i440fx-rhel7.0.0"
maxCpus="240">pc</machine>
<machine maxCpus="240">rhel6.0.0</machine>
<machine maxCpus="240">rhel6.1.0</machine>
<machine maxCpus="240">rhel6.2.0</machine>
<machine maxCpus="240">rhel6.3.0</machine>
<machine maxCpus="240">rhel6.4.0</machine>
<machine maxCpus="240">rhel6.5.0</machine>
<machine maxCpus="240">rhel6.6.0</machine>
<domain type="qemu">
<emulator>/usr/libexec/qemu-kvm</emulator>
</domain>
<domain type="kvm">
<emulator>/usr/libexec/qemu-kvm</emulator>
</domain>
</arch>
<features>
<cpuselection/>
<deviceboot/>
<disksnapshot default="off" toggle="no"/>
<acpi default="on" toggle="yes"/>
<apic default="on" toggle="no"/>
<pae/>
<nonpae/>
</features>
</guest>
<guest>
<os_type>hvm</os_type>
<arch name="x86_64">
<wordsize>64</wordsize>
<emulator>/usr/libexec/qemu-kvm</emulator>
<machine maxCpus="240">pc-i440fx-rhel7.0.0</machine>
<machine canonical="pc-i440fx-rhel7.0.0"
maxCpus="240">pc</machine>
<machine maxCpus="240">rhel6.0.0</machine>
<machine maxCpus="240">rhel6.1.0</machine>
<machine maxCpus="240">rhel6.2.0</machine>
<machine maxCpus="240">rhel6.3.0</machine>
<machine maxCpus="240">rhel6.4.0</machine>
<machine maxCpus="240">rhel6.5.0</machine>
<machine maxCpus="240">rhel6.6.0</machine>
<domain type="qemu">
<emulator>/usr/libexec/qemu-kvm</emulator>
</domain>
<domain type="kvm">
<emulator>/usr/libexec/qemu-kvm</emulator>
</domain>
</arch>
<features>
<cpuselection/>
<deviceboot/>
<disksnapshot default="off" toggle="no"/>
<acpi default="on" toggle="yes"/>
<apic default="on" toggle="no"/>
</features>
</guest>
</capabilities>
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:845) Using domain events
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:882) Using network events
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:902) Using storage pool
events
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:921) Using node device
events
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:1426) Error polling
connection qemu:///system
Traceback (most recent call last):
File "/usr/share/virt-manager/virtManager/connection.py", line 1404, in
tick_from_engine
self._tick(*args, **kwargs)
File "/usr/share/virt-manager/virtManager/connection.py", line 1294, in
_tick
self._hostinfo = self._backend.getInfo()
File "/usr/lib64/python2.7/site-packages/libvirt.py", line 3739, in getInfo
if ret is None: raise libvirtError ('virNodeGetInfo() failed', conn=self)
libvirtError: An error occurred, but the cause is unknown
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:1436) An error occurred,
but the cause is unknown
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:937) conn.close()
uri=qemu:///system
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:571) conn=qemu:///system
changed to state=Disconnected
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (error:99) error dialog message:
summary=Error polling connection 'qemu:///system': An error occurred, but the
cause is unknown
details=Traceback (most recent call last):
File "/usr/share/virt-manager/virtManager/engine.py", line 385, in
_handle_tick_queue
conn.tick_from_engine(**kwargs)
File "/usr/share/virt-manager/virtManager/connection.py", line 1437, in
tick_from_engine
raise e # pylint: disable=raising-bad-type
libvirtError: An error occurred, but the cause is unknown
[Pá, 06 říj 2017 16:47:44 virt-manager 943] DEBUG (manager:214) Closing manager
[Pá, 06 říj 2017 16:47:44 virt-manager 943] DEBUG (engine:405) window counter decremented
to 0
[Pá, 06 říj 2017 16:47:44 virt-manager 943] DEBUG (engine:467) No windows found,
requesting app exit
[Pá, 06 říj 2017 16:47:44 virt-manager 943] DEBUG (engine:491) Exiting app normally.
Vypadá to, že na něco nedostane odpověď "ret is None" .... ale netuším na co.
Jak v ArchLinuxu tak i v Centosu jsem našel tythle hlášky:
Oct 6 17:04:35 majestatix libvirtd: 2017-10-06 15:04:35.371+0000: 1420: warning :
virNumaGetNodeCPUs:276 : NUMA topology for cell 0 is not available, ignoring
Oct 6 17:04:35 majestatix libvirtd: 2017-10-06 15:04:35.372+0000: 1420: warning :
virQEMUCapsInit:1138 : Failed to get host CPU
Na Centosu si potom ještě stěžuje KSMTUNED
Oct 6 16:57:56 majestatix ksmtuned: /usr/sbin/ksmtuned: line 61: /sys/kernel/mm/ksm/run:
No such file or directory
Oct 6 16:58:06 majestatix /usr/sbin/irqbalance: WARNING, didn't collect load info
for all cpus, balancing is broken
Ale netuším, jestli to s tím souvisí. Nemáte někdo nějakou radu co dál prosím? Vzhledem k
tomu, že jsem ke stejnému výsledku dospěl jak na Centos tak i na Arch LInux, tak myslím že
problém bude někde v nastavení VPSky? Nebo se pletu?
Díky za tipy jak dál.
R.
--
Richard Kořínek
^^^^^^^^^^^^^^
email: richard.korinek(a)gmail.com <mailto:richard.korinek@gmail.com>
phone: +420 604 777 044
_______________________________________________
Community-list mailing list
Community-list(a)lists.vpsfree.cz
http://lists.vpsfree.cz/listinfo/community-list