Zdravím, 

snažím se rozchodit KVM a chtěl bych použít virt-manager. Zkoušel jsem ArchLinux 3.6 i Centos 7.3 ale zatím bez úspěchu. 

Naistaluju qemu, dokonce i spustím image pomocí konfiguračního souboru. Když ale zkouším virt-amanger (po nainstalování všech dependencies, pro Centos viz KB KVM / Centos), tak virt-manager padá s nic neříkající chybou. Kompletní debug:


[root@majestatix log]# virt-manager --debug
[Pá, 06 říj 2017 16:47:38 virt-manager 943] DEBUG (cli:261) Launched with command line: /usr/share/virt-manager/virt-manager --debug
[Pá, 06 říj 2017 16:47:38 virt-manager 943] DEBUG (virt-manager:183) virt-manager version: 1.4.1
[Pá, 06 říj 2017 16:47:38 virt-manager 943] DEBUG (virt-manager:184) virtManager import: <module 'virtManager' from '/usr/share/virt-manager/virtManager/__init__.pyc'>
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (virt-manager:214) PyGObject version: 3.22.0
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (virt-manager:218) GTK version: 3.22.10
Gtk-Message: Failed to load module "canberra-gtk-module"
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (engine:496) libguestfs inspection support: False
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (systray:156) Showing systray: False
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (engine:1037) processing cli command uri= show_window= domain=
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (engine:1039) No cli action requested, launching default window
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (manager:203) Showing manager
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (engine:401) window counter incremented to 1
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (engine:161) Loading stored URIs:
qemu:///system
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (engine:140) Initial gtkapplication activated
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:571) conn=qemu:///system changed to state=Connecting
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:989) Scheduling background open thread for qemu:///system
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:1039) libvirt version=3002000
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:1041) daemon version=3002000
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:1042) conn version=1005003
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:1044) qemu:///system capabilities:
<capabilities>

  <host>
    <uuid>4e56d8c3-7406-4b81-9a01-39d12aae0b60</uuid>
    <cpu>
      <arch>x86_64</arch>
      <pages unit="KiB" size="4"/>
    </cpu>
    <power_management/>
    <migration_features>
      <live/>
      <uri_transports>
        <uri_transport>tcp</uri_transport>
        <uri_transport>rdma</uri_transport>
      </uri_transports>
    </migration_features>
    <secmodel>
      <model>none</model>
      <doi>0</doi>
    </secmodel>
    <secmodel>
      <model>dac</model>
      <doi>0</doi>
      <baselabel type="kvm">+107:+107</baselabel>
      <baselabel type="qemu">+107:+107</baselabel>
    </secmodel>
  </host>

  <guest>
    <os_type>hvm</os_type>
    <arch name="i686">
      <wordsize>32</wordsize>
      <emulator>/usr/libexec/qemu-kvm</emulator>
      <machine maxCpus="240">pc-i440fx-rhel7.0.0</machine>
      <machine canonical="pc-i440fx-rhel7.0.0" maxCpus="240">pc</machine>
      <machine maxCpus="240">rhel6.0.0</machine>
      <machine maxCpus="240">rhel6.1.0</machine>
      <machine maxCpus="240">rhel6.2.0</machine>
      <machine maxCpus="240">rhel6.3.0</machine>
      <machine maxCpus="240">rhel6.4.0</machine>
      <machine maxCpus="240">rhel6.5.0</machine>
      <machine maxCpus="240">rhel6.6.0</machine>
      <domain type="qemu">
        <emulator>/usr/libexec/qemu-kvm</emulator>
      </domain>
      <domain type="kvm">
        <emulator>/usr/libexec/qemu-kvm</emulator>
      </domain>
    </arch>
    <features>
      <cpuselection/>
      <deviceboot/>
      <disksnapshot default="off" toggle="no"/>
      <acpi default="on" toggle="yes"/>
      <apic default="on" toggle="no"/>
      <pae/>
      <nonpae/>
    </features>
  </guest>

  <guest>
    <os_type>hvm</os_type>
    <arch name="x86_64">
      <wordsize>64</wordsize>
      <emulator>/usr/libexec/qemu-kvm</emulator>
      <machine maxCpus="240">pc-i440fx-rhel7.0.0</machine>
      <machine canonical="pc-i440fx-rhel7.0.0" maxCpus="240">pc</machine>
      <machine maxCpus="240">rhel6.0.0</machine>
      <machine maxCpus="240">rhel6.1.0</machine>
      <machine maxCpus="240">rhel6.2.0</machine>
      <machine maxCpus="240">rhel6.3.0</machine>
      <machine maxCpus="240">rhel6.4.0</machine>
      <machine maxCpus="240">rhel6.5.0</machine>
      <machine maxCpus="240">rhel6.6.0</machine>
      <domain type="qemu">
        <emulator>/usr/libexec/qemu-kvm</emulator>
      </domain>
      <domain type="kvm">
        <emulator>/usr/libexec/qemu-kvm</emulator>
      </domain>
    </arch>
    <features>
      <cpuselection/>
      <deviceboot/>
      <disksnapshot default="off" toggle="no"/>
      <acpi default="on" toggle="yes"/>
      <apic default="on" toggle="no"/>
    </features>
  </guest>

</capabilities>

[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:845) Using domain events
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:882) Using network events
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:902) Using storage pool events
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:921) Using node device events
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:1426) Error polling connection qemu:///system
Traceback (most recent call last):
  File "/usr/share/virt-manager/virtManager/connection.py", line 1404, in tick_from_engine
    self._tick(*args, **kwargs)
  File "/usr/share/virt-manager/virtManager/connection.py", line 1294, in _tick
    self._hostinfo = self._backend.getInfo()
  File "/usr/lib64/python2.7/site-packages/libvirt.py", line 3739, in getInfo
    if ret is None: raise libvirtError ('virNodeGetInfo() failed', conn=self)
libvirtError: An error occurred, but the cause is unknown
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:1436) An error occurred, but the cause is unknown
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:937) conn.close() uri=qemu:///system
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:571) conn=qemu:///system changed to state=Disconnected
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (error:99) error dialog message:
summary=Error polling connection 'qemu:///system': An error occurred, but the cause is unknown
details=Traceback (most recent call last):
  File "/usr/share/virt-manager/virtManager/engine.py", line 385, in _handle_tick_queue
    conn.tick_from_engine(**kwargs)
  File "/usr/share/virt-manager/virtManager/connection.py", line 1437, in tick_from_engine
    raise e  # pylint: disable=raising-bad-type
libvirtError: An error occurred, but the cause is unknown

[Pá, 06 říj 2017 16:47:44 virt-manager 943] DEBUG (manager:214) Closing manager
[Pá, 06 říj 2017 16:47:44 virt-manager 943] DEBUG (engine:405) window counter decremented to 0
[Pá, 06 říj 2017 16:47:44 virt-manager 943] DEBUG (engine:467) No windows found, requesting app exit
[Pá, 06 říj 2017 16:47:44 virt-manager 943] DEBUG (engine:491) Exiting app normally.


Vypadá to, že na něco nedostane odpověď "ret is None" .... ale netuším na co. 

Jak v ArchLinuxu tak i v Centosu jsem našel tythle hlášky:

Oct  6 17:04:35 majestatix libvirtd: 2017-10-06 15:04:35.371+0000: 1420: warning : virNumaGetNodeCPUs:276 : NUMA topology for cell 0 is not available, ignoring
Oct  6 17:04:35 majestatix libvirtd: 2017-10-06 15:04:35.372+0000: 1420: warning : virQEMUCapsInit:1138 : Failed to get host CPU


Na Centosu si  potom ještě stěžuje KSMTUNED

Oct  6 16:57:56 majestatix ksmtuned: /usr/sbin/ksmtuned: line 61: /sys/kernel/mm/ksm/run: No such file or directory
Oct  6 16:58:06 majestatix /usr/sbin/irqbalance: WARNING, didn't collect load info for all cpus, balancing is broken

Ale netuším, jestli to s tím souvisí. Nemáte někdo nějakou radu co dál prosím? Vzhledem k tomu, že jsem ke stejnému výsledku dospěl jak na Centos tak i na Arch LInux, tak myslím že problém bude někde v nastavení VPSky? Nebo se pletu? 

Díky za tipy jak dál.



R.


--
Richard Kořínek
^^^^^^^^^^^^^^
phone: +420 604 777 044