Ubuntu wybrało KVM zamiast Xen do wirtualizacji

Soren Hansen poinformował w Ubuntu Weekly News, że głównym oprogramowaniem do wirtualizacji zostanie w Ubuntu KVM.

To kierunek odmienny niż ten, jaki wybrały firmy Red Hat i Novell, którzy zdecydowali się na wdrożenie Xena.

KVM jest oprogramowaniem wirtualizacyjnym opartym na Qemu, ale wkompilowanym w jądro Linuksa, dzięki czemu potencjalnie ma przewagę nad Xenem, którego sposób działania uniemożliwia praktycznie pełną integrację z jądrem. Xen jest za to produktem bardziej dojrzałym i już przebijającym się do zastosowań w biznesie.

Zespół Ubuntu wybierał między takimi rozwiązaniami jak Xen, OpenVZ, KQEMU i VirtualBox. KVM okazał się jednak najbardziej przyszłościowym rozwiązaniem.

Ubuntu przygotuje też oprogramowanie virt-manager, które ułatwi zarządzenie wirtualizowanymi maszynami.

żadnych reklam, sama wiedza.

Zarejestruj się na BEZPŁATNY NEWSLETTER i raz w tygodniu otrzymuj najważniejsze wiadmości
ze świata IT, nowych technologii i kryptowalut.

Bez reklam.

31 odpowiedzi na „Ubuntu wybrało KVM zamiast Xen do wirtualizacji”
  1. Awatar http://nintyfan.open
    http://nintyfan.open

    "Xen jest za to produktem bardziej dojrzałym i już przebijającym się do zastosowań w biznesie."
    Xen jest do innych zastosowań, KVM do innych. Jak narazie w KVM nie ma chyba możliwości udostępnienia pewnego urządzenia w pełni dla systemu gościa? Co prawda jest wiele aspektów, w których się pokrywają, ale nie zawsze.
    Nie jestem żadnym adminem, a do administracji używam tylko VirtualBox(oparty na QEMU). Jeżeli się mylę, proszę o sprostowanie.

    1. Awatar globi
      globi

      VirtualBox chyba na qemu nie jest oparty ;p

      1. Awatar Pan Zmaza
        Pan Zmaza

        Chyba, to ja mam w czarnej dziurze, gdy wypowiadam się na temat, na który nie mam pojęcia;
        http://www.virtualbox.org/wiki/VirtualBox_archite…

  2. Awatar vampire
    vampire

    KVM jest pooowwwooollllny…. Szczegolnie obsluga sieci, dostep do pamieci.
    Moze cos poprawili przez ostatnie 4 miesiace, bo ostatnio wowczas to probowalem. Wowczas, Xen zostawial KVM w tyle i to znacznie…

  3. Awatar adios
    adios

    Szybkiej wirtualizacji z KVM życzę 🙂 Już widzę te parawirtualizowane hosty, pełnowirtualizowane Windowsy działające z prędkością zbliżoną do światła ! Nastąpi dylatacja opóźnień wirtualizacji 🙂

    Swoją drogą oprogramowania o nazwie virt-manager używa już RedHat, Fedora i CentOS przy XENie. Oj oryginalnością to twórcy Ubuntu nie grzeszą.

    1. Awatar AdamK
      AdamK

      A po co grzeszyć jak można użyć gotowego, sprawdzonego rozwiązania i żyć w cnocie? 🙂

  4. Awatar devil
    devil

    błąd ubuntu

  5. Awatar Piotr Drąg
    Piotr Drąg

    Warto zauważyć, że virt-manager to kolejny program przeportowany z Fedory.

    1. Awatar adios
      adios

      Otóż to. W sumie znam dużo projektów podlinkowanych do domen Fedory, RedHata, nawet novellowskiego SuSE, lecz do Ubuntu… hmm nie kojarzę nic godnego uwagi.

      1. Awatar Azrael Nightwalker
        Azrael Nightwalker

        Upstart, Storm, CSCVS, Bazaar.
        Upstart nawet zostanie włączony do Fedory 9 :>

        1. Awatar jellonek
          jellonek

          i tu lezy sila OSS – latwosc wymiany kodu, bez obawy ze zostanie przez kogos zawlaszczony…

        2. Awatar Tomasz Torcz
          Tomasz Torcz

          Zabwanie wygląda ta lista w zestawieniu z http://fedoraproject.org/wiki/RedHatContributions

        3. Awatar mby7930
          mby7930

          No, wiesz, zabawnie też pewnie wygląda porównanie ilości zainstalowanych Red Hatów (Fedor) i Ubuntu na biurkach tzw. zwykłych użytkowników.

        4. Awatar Piotr Drąg
          Piotr Drąg

          Przestaje być zabawne, jeśli uświadomisz sobie, że było to możliwe głównie dzięki Red Hatowi i jego pracownikom. Nie Canonical.

        5. Awatar mby7930
          mby7930

          Wszystko dla zwycięstwa.
          I Red Hat i Canonical się do tego dokładają.
          I co ważne, każda z firm potrafi na tym dobrze zarabiać, co oznacza, że ich wsparcie dla Linuksa w tzw. najbliższym przewidywalnym czasie na pewno się nie skończy.

        6. Awatar rlewczuk
          rlewczuk

          Słabi mnie to jęczenie "ci z A to zrobili tyle a ci z B to 10x mniej". Z mojego doświadczenia wynika mniej więcej tyle że 'contribution' jest proporcjonalne do ilość * złożoność projektów które wykonuję. Jeżeli w pracy wykorzystuje się OSS to często zachodzi potrzeba zmiany/poprawienia tego czy tamtego komponentu. Nie tylko z racji ideałów ale i dla świętego spokoju warto wysłać pacza autorowi – choćby po to aby nie trzeba było aplikować tego samego pacza w następnej wersji. Podejrzewam że dotyczy to nie tylko pojedynczych inżynierów ale i całe firmy. Im większy 'biznes' tym więcej takich zmian. RedHat jest znacznie większą firmą od Canonical i działa znacznie dłużej. To że mają znacznie większy wkład w OSS jest naturalnym zjawiskiem. Kudos należy się wszystkim a nie tylko największemu. A tak na marginesie – Sun pomimo bliżej nieokreślonego stanowiska i dziwacznych, czasem wrogich ruchów ma co najmniej taki sam (a moim zdaniem – większy) wkład w Open Source niż Red Hat.

      2. Awatar pdemb
        pdemb

        Zdaje się, że tworzenie nowych projektów open source to nie jest strategia Canonical. Oni po prostu biorą to, co uważają za dobre i dodają do tego swoje wsparcie.

        1. Awatar hiryuu
          hiryuu

          No i bardzo dobrze!!

      3. Awatar evil_core
        evil_core

        Oj, widac ze nie czytasz planety Gnome. Fakt, dzieki RedHatowi powstal GNOME, czyli pierwsze w pełni otwarte środowisko jako alternatywa dla KDE opartego o niewolne Qt. Po wielu latach mozna bylo dostrzec dzialanosc Ximiana, wykupionego przez Novella(tu sie zaczal styk tej firmy z OSS), ktore z racji poprzedniej dzialanosci Ximiana(slawne Novell Evolution), rozwijalo glownie GNOME, potem wykupilo Suse i tak weszlo na rynek dystrybucji, obecnie zajmujac sie glwonie .NET i mono. A co do Canonical/Ubntu to nie zapominajmy ze jest najmlodsza firma z poteg OSS, powstale dzieki milionerowi Shuttleworthowi, ktore mialo pomoc sie rozwinac Afryce, i niesc pewne wartosci, a nie byc najpopularniejszym distrem, i mialo dostarczac debiana, z paroma wlasnymi paczkami. Ale co, jak co, to calkiem sporo robia w GNOME.
        Jezeli chodzi natomiast o pasozyty, to pierwszym tak wielkim byla chyba Mandriva ktora na poczatku byla zywcem zerznieta z RedHata(podczas isntalacji w wielu miejscach jeszcze pisalo RedHat), bo dorobic sie w koncu wlasnego(zamknietego) instalatora graficznego, ktorego i tak RedHat przebil otwarta Anaconda. Przez wiele lat to wlasnie Mandriva i SuSe(przednovellowskie) to byly najwieksze wrzody na dupie OSS, ktore kopiowaly wszystko od RedHata, a jak juz cos zrobily, to prawie zawsze zamkniete. I bardzo mi sie nei podobalo jak reklamowali swoja "innowacje", czyli Metisse(czyli stary nie-mandrivowski otwarty projekt), ktory byl przestarzaly technologicznie, natomiast po Compizie/Berylu w reklamowych filmach jechali ze tamto to sa tylko bajery, a ich przemyslany, innowacyjny przelom.

        1. Awatar jellonek
          jellonek

          hahaha, gnome niby powstal dzieki RH? 😀
          dobre 😀
          gnome powstal dzieki miguelowi. glownie dzieki niemu. o ile sobie przypominam to nigdy nie pracowal w redhacie.
          u podstaw gnoma lezy gtk, ktore tez nie powstalo za sprawa redhata, a za sprawa gimp team…
          btw. suse bylo wczesniej niz mandriva, a tez startowalo z modyfikowania redhata. ale by byli wrzodem? sponsorowali programistow kernela, zrobili yasta, dluuugo sponsorowali kde, a z czasem zaczeli rowniez i gnome. btw. co zlego jest w kopiowaniu rozwiazan ktore sa PUBLICZNIE UDOSTEPNIONE?

    2. Awatar Mieszko Kaczmarczyk
      Mieszko Kaczmarczyk

      Ponieważ już taki jest urok Open-Source – nowe pomysły powstają na kanwie starych – zbiera się najlepsze rozwiązania – dodaje swoje rozwojowe procedury i udostępnia innym.

  6. Awatar Andrzej Dopierała
    Andrzej Dopierała

    ee.. tylko z czego tu wybierać?
    Przecież xen/kqemu/kvm/openvz/vservery to zupelnie inne podejscia do "wirtualizacji". Niby "efekt" jest taki sam, ale sposób w jaki to jest realizowane jest zupełnie inny.

    1. Awatar Thar
      Thar

      Właśnie spośród wielu sposobów na osiągnięcie takiego samego efektu 😉

      1. Awatar Andrzej Dopierała
        Andrzej Dopierała

        Źle się wyraziłem.
        "Efekt", czyli "możliwość uruchomienia wielu linuksów na jednym serwerze" powiedzmy że jest jeden.
        Tylko że każdy z w/w sposobów ma swoje wady/zalety które dyskwalifikują je w okreslonych zastosowaniach.

        Ot – xen ma świetną i wydajną parawirtualizację niewymagającą sprzętowego wsparcia ze strony hosta, z możliwością dynamicznego żonglowania przydziałem pamięci i procesorów, daje możliwość "fizycznego" przydzielenia urządzeń pci dla xenU (problematyczne o tyle że ciężko w linuksie wyłączyć dane urządzenie pci po zbootowaniu go)

        kvm z tego co wiem nie ma ma nawet takich planów.

        Z kolei openvz to bardziej "chroot na sterydach" – pozwala wydajnie uruchomić tysiące "maszyn wirtualnych", zapewnia bezproblemową migrację ich, natomiast np nie pozwala na żadne zabawy z jądrem (bo należy ono do hosta) – więc uruchomienie wszelkich dziwacznych rzeczy, jakiś tuneli itepe – jest kapkę problematyczne…
        No, ale wydajność przy dużej ilości "maszyn" każe chylić czoła – na xen/kvm nie ma szans by coś takiego osiągnąć…

        Idealnym rozwiazaniem byłaby możliwość wyboru.
        W tym możliwość uruchomienia xena do "fizycznego" podziału maszyny, pod nim uruchomienie kvm-ów a w nich klienci by już sobie mogli odpalać openvz-y/vservery…

        1. Awatar ak47
          ak47

          "W tym możliwość uruchomienia xena do “fizycznego” podziału maszyny, pod nim uruchomienie kvm-ów a w nich klienci by już sobie mogli odpalać openvz-y/vservery…"
          O ile dobre zrozumiałem.
          host->XEN->KVM->Vserver->goście
          Dobrze się czujesz?

        2. Awatar Andrzej Dopierała
          Andrzej Dopierała

          Jak najbardziej.
          xen zapewnia niemal "fizyczną" separację zasobów, można bez problemu podzielić np 4 procesorową maszynkę z 16gb ram na 4 "jednoprocesorowe" po 4gb ram (no, prawie, trochę dla xen0 musi zostać).
          Taką wirtualną maszynkę można sprzedać choćby firmie, która może sobie na tym stawiać vservery w ramach przyznanych jej zasobów.

          Zresztą – o ile dobrze pamiętam to w pld xen a pod nim vservery działały "od kopa".
          A by wprząc jeszcze pod to kvm – cóż, klient dodatkowo mógłby odpalić sobie na swojej wirtualnej maszynce windowsa 😉 Albo odsprzedawać wirtualne maszyny, tym razem stworzone w kvm-ach.

        3. Awatar jellonek
          jellonek

          lukasz – kolo dobrze pokazal przyklad "jakfajniebybylo" i choc dosc karkolomna konfiguracja, to dopiero to daje te mozliwosci, ktorych poszczegulne projekty ci nie dadza…
          Andrzej – no wlasnie, gdyby tak byl jakis soft ktory to wszystko w jednym miejscu zalatwia, bez podzialu na "maszyna w maszynie" (na drogich hapekach masz to pieknie sprzetowo realizowane, na ibm – jeszcze lepiej…)

        4. Awatar perl
          perl

          @jellonek: o jakich sprzętowych metodach wirtualizacji mówisz? o tym, że w serwer wbudowana jest karta Flash 32 MB z mini dystrybucją VMWare, która uruchamiana jest przy starcie serwera?

          te pseudo "sprzętowe" rozwiązania nie sprawdzają się w rozwiązaniach profesjonalnych/biznesowych,

          są dobre do tego, żeby w niewielkiej firmie (2 serwerowej) uruchomić wirtualizację, nie wgłębiając się w dokumentację a nawet nie rozumiejąc co to jest wirtualizacja i kiedy będą z niej wypływać korzyści,

  7. Awatar devil
    devil

    zdurnieli Xen rządzi!

  8. Awatar industry earnings
    industry earnings

    I’m impressed, I should say. Actually hardly ever before do I encounter a blog site that’s both equally educative and entertaining, and allow me to inform you, you have got hit the nail about the head. Your imagined is outstanding; the problem is one thing that not sufficient individuals are speaking intelligently about. I’m quite blissful that I stumbled throughout this in my hunt for one matter referring to this

  9. Awatar sfsfs
    sfsfs

    I have realized that over the course of developing a relationship with real estate owners, you’ll be able to come to understand that, in every real estate deal, a commission is paid. Ultimately, FSBO sellers will not “save” the commission. Rather, they try to win the commission through doing a agent’s task. In doing so, they shell out their money as well as time to conduct, as best they might, the assignments of an representative. Those assignments include revealing the home by means of marketing, delivering the home to all buyers, making a sense of buyer emergency in order to induce an offer, booking home inspections, controlling qualification assessments with the lender, supervising fixes, and assisting the closing.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *