Greg K-H popiera pomysły Marka Shuttlewortha

Greg Kroah-Hartman to jedna z najbardziej znanych postaci wśród deweloperów Linuksa. W wywiadzie opublikowanym 31 października na stronach O’Reilly powtórzył swoją zaskakująca tezę, że Linux obsługuje już praktycznie wszystkie dostępne urządzenia, ale wypowiedział się także w kwestii zarządzania projektami.

Tak się składa, że poglądy Kroah-Hartmana na ten temat są zbieżne z tym, co konsekwentnie stara się propagować Mark Shuttleworth. Popiera mianowicie wydawanie kolejnych wersji oprogramowania zgodnie z ustalonym harmonogramem (a więc na przekór niezwykle popularnej w środowisku FLOSS mantrze “będzie wydane kiedy będzie gotowe”, za to w zgodzie ze stylem zarządzania Linusa — “udostępniaj nowe wersje wcześnie i często“) oraz na razie niezbyt entuzjastycznie przyjmowaną na “bazarze” ideę synchronizacji wydań między projektami.

Zalety planowych wydań w pracy nad Linuksem to na przykład lepsze informacje zwrotne, więcej osób testujących kod (ponieważ ludzi aktywizuje dopiero wydanie), większa dyscyplina wśród ochotników, stanowiących przecież zasadniczą siłę projektów FLOSS, więcej osób i firm partycypujących w projekcie. Podkreśla też, że ponieważ zmienia się świat, to oprogramowanie musi także stale ewoluować, bo złota reguła “nie zepsute — nie naprawiam” przestała wystarczać.

Greg K-H przypomina też, że to wcale nie Shuttleworth wymyślił ideę synchronizacji: zaczerpnął je przecież z pozytywnych doświadczeń GNOME (i negatywnych Debiana), ale stosuje je także Eclipse, Midgard czy Coccinella.

O zaletach planowego wydawania Martin Michlmayr, były lider Debiana, napisał swoją rozprawę doktorską pt. “Quality Improvement in Volunteer Free, and Open Source Projects: Exploring the Impact of Release Management”.

Należy jednak pamiętać o milczących założeniach, że zasady te dotyczą przede wszystkim dużych, dojrzałych projektów FLOSS. Niewykluczone, że małe (często kilku- lub nawet jednoosobowe) projekty mogą lepiej działać w innych modelach rozwoju.

żadnych reklam, sama wiedza.

Zarejestruj się na BEZPŁATNY NEWSLETTER i raz w tygodniu otrzymuj najważniejsze wiadmości
ze świata IT, nowych technologii i kryptowalut.

Bez reklam.

78 odpowiedzi na „Greg K-H popiera pomysły Marka Shuttlewortha”
  1. Awatar WoW
    WoW

    "Greg K-H przypomina też, że to wcale nie Shuttleworth wymyślił ideę synchronizacji: zaczerpnął je przecież z pozytywnych doświadczeń GNOME (i negatywnych Debiana), ale stosuje je także Eclipse, Midgard czy Coccinella."

    Debian ma negatywne doświadczenia z wieloma rzeczami, ale nie jest to wynikiem tego, że wiele rzeczy jest złych – przyczyny problemu chyba leżą w starczym stetryczeniu jego deweloperów tak charakterystycznym dla starych projektów bez dopływu świeżej krwi.

    Greg KH ma rację, gdy mówi, że Linux obsługuje najwięcej urządzeń po zainstalowaniu systemu. Zapomina tylko powiedzieć, że na tym kończy się jego potencjał, bo niewielu producentów wypuszcza dodatkowe zamknięte sterowniki.

    Ale to jeszcze nie było by dużym problemem – problemem jest to, że producenci dystrybucji nie chcą dołączać tych sterowników do systemu, bo są niewolne, bo są be. Dobrze, że niektórzy idą po rozum do głowy i chociaż dołączają firmware do kart wifi…

    1. Awatar Thar
      Thar

      Zapomina tylko powiedzieć, że na tym kończy się jego potencjał, bo niewielu producentów wypuszcza dodatkowe zamknięte sterowniki.

      O niczym nie zapomina. To już potencjał rzeczonych producentów, a raczej jego brak.

      1. Awatar WoW
        WoW

        "To już potencjał rzeczonych producentów, a raczej jego brak."

        Potencjał?

        Gdyby Mozilla w każdej wersji Firefoksa zmieniała API dla dodatków, to też byłoby ich bardzo mało.

        1. Awatar Magnes
          Magnes

          Zmienia. Przynajmniej moja wtyczka przestała działać w FF3.0 i musiałem poprawiać.

        2. Awatar WoW
          WoW

          @Magnes

          Ale nie zmieniają API w obrębie jednej serii np. 1.5.x, 2.0.x, 3.0.x.

          Lista zmian w API Linuksa jest duża – to boli, gdy utrzymujesz sterownik poza jądrem i musisz wspierać wszystkie jego wersje.

        3. Awatar Compi
          Compi

          Starczy włączyć sterownik do kernela, zamiast utrzymywać go na zewnątrz.

        4. Awatar WoW
          WoW

          "Starczy włączyć sterownik do kernela, zamiast utrzymywać go na zewnątrz"

          Ciekawe dlaczego Nvidia czy ATI tak nie zrobią ze swoimi sterownikami? Pewnie z czystej złośliwości 😉

        5. Awatar Thar
          Thar

          Wiesz, chyba tak. Programiści kernela zgadzają się podpisywać NDA dokumentacji, a nie wierzę żeby kod sterowników nvidii był tak doskonały, by na jego podstawie złożyć kopię chipsetu 😛

        6. Awatar WoW
          WoW

          Ehhh…

          A może jednak chodzi o patenty na bzdurne rzeczy? Nvidia ma patenty, AMD też ma patenty – używają swoich rozwiązań i dopóki RE sterowników jest zabroniony, żadna z firm nie może skoczyć drugiej do gardła.

          Przed amerykańskim sądem takie oskarżenie chyba by nie przeszło, bo dowody były zdobyte nielegalnie…

        7. Awatar Thar
          Thar

          Ale co z tych patentów? Jeśli obsługa czegokolwiek je łamie, to nv i noveau powinny być na cenzurowanym, a nie są 😛

        8. Awatar WoW
          WoW

          A co ma nv czy nouveau do sterownika Nvidii?

          Nawet, gdyby nv czy nouveau łamały jakieś patenty, to nikt się nie będzie o to specjalnie rzucał, bo nie ma od kogo wyciągnąć kasy. A od Nvidii można wyciągnąć sporo.

          Nawet MS nie garnie się do roszczeń patentowych w sprawie Linuksa – nie chcą wywoływać patentowych wojen z IBM czy Novellem, które to firmy mają spore portfolio i mogłyby się zacząć czepiać MS.

        9. Awatar Thar
          Thar

          A co ma nv czy nouveau do sterownika Nvidii?

          To, że wszystkie trzy robią to samo? Jesli sugerujesz, że konkurencja pozwałaby nvidię, to Intel uwolnił swoje sterowniki – i nie zauważyłem choć jednego pozwu 😉

        10. Awatar sprae
          sprae

          Może niech dzieci sobie ściągną te sterowniki i pooglądają ich jawne źródła…

        11. Awatar kloczek
          kloczek

          Takiej ilości "a może" i innych bzdur w tak krótim wątku już dawno nie widziałem.
          NVidia ma binarne sterowniki bo żaden z dostępnych w źródłach sterowników nie ma pełnego wsparcia do sprzętowego OpenGL. Dziej się tak dlatego że w X.org nie ma podstawowej infrastruktury do takich rzeczy. NVidia to *jedyny* obecnie dostępny sterownik który takie wsparcie ma. Udostępniając źródła sterowników NVidia ułatwiłaby robotę Intelowi i ATI .. czego nie mają ochoty robić.
          Pies jest pogrzebany w memory managemecie którego w ogóle brak w X.org i którego spreparowanie nie jest takie proste.

          Sterowniki do NVidii mają także inne wsparcie do operowania na więcej niż jednym monitorze bo Xinerame można sobie OKDR :>

          Linuxowcy powinni być wdzięczni tej firmie ze dostarczyła sterowniki jakich nikt inny nie był w stanie napisać. Mowa jest tu także o czołowych deweloperach X.org.

        12. Awatar Rsh
          Rsh

          No, brakuje tylko szybkiego 2d do pełni szczęścia i stabilnego KDE 4. 🙂 Vivat NVidia.

        13. Awatar bies
          bies

          Kloczek: wyjaśnij proszę czego brakuje OpenGL w fglrx (poza OpenGL 3.0). Tylko dokładnie proszę, po imieniu, konkretne rozszerzenia.

        14. Awatar bies
          bies

          OK, pisałeś o sterownikach FOSS. Niemniej jednak z tym ,,ułatwianiem'' AMD to racze przesadzasz. Wydajność fglrx jest porównywalna z Windows (patrz testy Phoronix.com) — czyli nVidia niewiele może ,,ułatwić''.

        15. Awatar kloczek
          kloczek

          "Kloczek: wyjaśnij proszę czego brakuje OpenGL w fglrx (poza OpenGL 3.0). Tylko dokładnie proszę, po imieniu, konkretne rozszerzenia."

          Uchom sobie glxinfo i porównaj z tym co masz na NVidii.
          sprawdź dokładnie wsparcie do pbuffers, framebuffer objects, GLSL (shaders), redirected Direct Rendering, OpenGL 2.1 with hardware acceleration i GLX 1.4 with hardware acceleration.

  2. Awatar yoshi314
    yoshi314

    linux obsluguje najwiecej urzadzen, tylko ze rozmija sie to nieco z oczekiwaniami uzytkownikow. linux potrafi np pociagnac rozne egzotyczne urzadzenia GPIO, czy sprzet z platform innych niz x86 i x86-64, bo nie tylko na takich platformach dziala.

    mozna to uznac za chwyt marketingowy. urzadzen obslugiwancyh faktycznie jest sporo, ale typowy user wielu z nich w zyciu nie zobaczy.

    dla niego liczy sie czy linux (jako system, a nie samo jadro) obsluzy jego karte graficzna,dzwiekowa czy wi-fi.

    a tu sytuacja moze byc zupelnie inna.

    1. Awatar kocio
      kocio

      Wydaje mi się, że faktycznie najważniejsza jest wymowa marketingowa, ale nie jako jakaś sprytna metoda reklamowania, tylko raczej wyraźny sygnał przeciw popularnemu mitowi. W dodatku nie jest to wzięte z powietrza: Greg K-H sam pobrudził sobie ręce sprawdzaniem tego, gdzie jeszcze potrzeba napisać nowe sterowniki i pytaniem producentów sprzętu.

      Można na to propagować przekaz szczegółowy, z zastrzeżeniem, że nie chodzi o ilość modeli, tylko ilość egzemplarzy, albo zacząć zwracać uwagę, że wprawdzie obsługuje, ale często tylko podstawowe funkcje itp., ale myślę, że tego już się nie da tak ładnie sformułować w postaci FUD-owego hasła. A jeśli trzeba się już wdawać w szczegóły, to już oznacza myślenie oraz świadome decyzje i to jest MSZ OK.

      1. Awatar WoW
        WoW

        "że wprawdzie obsługuje, ale często tylko podstawowe funkcje itp"

        A co powiesz o sterownikach z X.org (wiem, że to nie do końca sprawa jądra, ale użytkownicy przeważnie nie widzą dużej różnicy)? Ile tak naprawdę obsługuje sprzętową akceleracje? (Nie chodzi mi o żaden soft rendering przez mesę)

        1. Awatar kocio
          kocio

          Cóż, dokładnie to samo co napisałem powyżej. =}

          Sprzętowa akceleracja to właśnie funkcjonalność, z którą mogą być problemy na wielu kartach (choć na moim Radeonie 9250 mam i to od razu), ale _podstawowa_ funkcjonalność wszystkich kart graficznych (2D) jest obsługiwana. I to przecież napisałem.

          Nie widzę powodu żeby się teraz bawić w egzegezy, bo i ja i ty doskonale rozumiemy znaczenie tego. A tak naprawdę to mnie mało już zajmuje, bo to już wiem, a dalej to tylko dłubanie w drobiazgach; dla mnie najciekawsze jest to, co Greg mówił o zarządzaniu projektem.

        2. Awatar WoW
          WoW

          "Sprzętowa akceleracja to właśnie funkcjonalność, z którą mogą być problemy na wielu kartach (choć na moim Radeonie 9250 mam i to od razu), ale _podstawowa_ funkcjonalność wszystkich kart graficznych (2D) jest obsługiwana. I to przecież napisałem."

          Wiesz, wszystkim według potrzeb, ale niektórzy chcieliby mieć np. obsługę OpenGL, bo dla nich to jest podstawowa funkcjonalność.

          To duży problem dla Linuksa, bo to co można nazwać "podsystemem graficznym", bez zewnętrznych zamkniętych sterowników jest na poziomie Windows 3.1.

          Śmieszna historyjka: nabyłem ostatnio laptopa z kartą X3100 – chciałem nabyć sprzęt innej firmy z Radeonem 23000HD, ale niestety już trudno dostać ten model w rozsądnej cenie. Myślę sobie – szkoda, fajna okazja przeszła przed nosem, ale żyć trzeba a na kartach Intela KMS też będzie działał. No i okazało się, że w rawhide KMS działa teraz na Radeonach a na kartach Intela już jest spie%#$#. Ledwo pół roku minęło a fajny ficzer przestał poprawnie działać.

          Podobno KMS dla kart Intela ma znowu działać w okolicach F11, ale obawiam się, że wtedy będą wprowadzać obsługę kart Nvidii i KMS będzie działał tylko na tamtych kartach 😉

        3. Awatar WoW
          WoW

          "Śmieszna historyjka"

          Ok, ta historyjka nie jest śmieszna. Śmieszny jest sposób w jaki deweloperzy bawią się z użytkownikami w grę, która się nazywa "wsparcie dla sprzętu ze strony systemu operacyjnego Linux"…

        4. Awatar evil_core
          evil_core

          @WoW: Intel to najlepszy wybor dla laptopa, bo zzera najmniej energii/najmniej sie grzeje, a przy tym te nowe ukolady nie sa takie slabe. Nie wiem co to KMS, ale w 2.6.26 bedzie GEM, a Intel oficjalnie wspiera i placa developerow piszacych otwarte sterowniki. W PLD Th na listach jak widac z nowym xorgiem po odrzuceniu patchy i odpowiednim xorg.conf dziala juz OpenGL, tak wiec w nastepnym wydanbiu Ubuntu bedzie ci juz smigac out of the box 😀 I nie bedziesz musial sie martwic ze za 3 lata producent kart sie rozmysli(tak jak ATI porzucilo wszystko od radeonow 9250(r200) w dol, czy nVidia ktora choc wspiera to jednak o wiele gorzej wszystko slabsze od FX5200) i przestanie wspierac twoja karte bo sterowniki sa otwarte. Linux Naprawde obsluguje o wiele wiecej urzadzen niz windows. Juz jak wchodzil WindowsXP to wiele urzadzen zostalo porzuconych(sam mi brat dal skaner ktory smiga pod SANE), a teraz podobnie bedzie z Vista. Tak wiec oplaca sie poswiecic troche czasu i wybrac sprzet ktory dziala pod linuksem(przeciez nie kupujesz czegos co ci nie pojdzie pod windosem ktorego uzywasz), a nawet nieraz doplacic troche bo potem za to nie trzeba wymieniac sprzetu jak wchodzi nowe distro lub trialbootowac sie meidzy Win9x, WindowsXP i Vista zaleznie od sprzetu ktorego chce sie uzyc 😉

        5. Awatar WoW
          WoW

          "Intel to najlepszy wybor dla laptopa, bo zzera najmniej energii/najmniej sie grzeje,"

          To wszystko prawda, ale przy zewnętrznych kartach graficznych na MXM zawsze sobie możesz wsadzić lepszą w razie potrzeby 🙂

          "a przy tym te nowe ukolady nie sa takie slabe"

          Tyle teorii.

          Ostatnio sprawdzałem w praktyce jak to działa i zostałem strasznie niemile zaskoczony. Nie mierzyłem wydajności X31000, ale miałem wrażenie, że jest wolniejsza od starszej karty i915 (przynajmniej na tej ostatniej gierka mi lepiej działała).

          "Nie wiem co to KMS"

          Kernel Mode Setting – w PLD będziecie mieli za kilka lat 😉

          "tak wiec w nastepnym wydanbiu Ubuntu bedzie ci juz smigac out of the box"

          Wydawało mi się, że pisałem rawhide.

        6. Awatar WoW
          WoW

          lubię jak mi wycina komentarze…

        7. Awatar kocio
          kocio

          @WoW: Podstawowa rzecz to taka, bez której nie można się obejść — ja osobiście nie mogę dłużej pracować z myszką bez kółka (w tym jego funkcji jako trzeci klawisz), ale jeśli myszka jeździ w górę, dół i daje się nią klikać, to jest podstawowa funkcjonalność. Podobnie podstawowa obsługa karty graficznej to wtedy, gdy w ogóle wyświetla obraz, niekoniecznie z bajerkami typu Compiz czy środowiska 3D. "ale niektórzy chcieliby mieć" – to już kwestia chcenia i potrzeb, jednak podstawy działają – gdyby nie działały, to poruszałbyś myszką i nic, a system nic by ci nie wyświetlił na ekranie. Oczywiście nie zawsze sa to az takie podstawy, ale zdarzają sie i takie sytuacje.

          Mówiłem, że brniemy bez sensu w słówka?

          A komentarzy ci nie wycina — prawdopodobnie nie masz po prostu założonego konta (albo masz, ale z powodu niektórych komentarzy wpadłeś w oko moderatorom), wtedy wszystkie twoje wpisy ktoś musi przejrzeć i przepuścić, a to czasem może potrwać (nawet kilka godzin, bo staramy się regularnie przeglądać kolejkę oczekujących na publikację). Ot i cała tajemnica "znikających" komentarzy.

        8. Awatar gotar
          gotar

          evil_core – krótko skomentuję ten 'najlepszy wybór do laptopa': HAHAHAHHAHAAHHAAAAAAAA.
          GEM już jest od 2.6.28-rc1, mamy UXA w 2.5.0 oraz nowe libdrm (ze zmienionym ABI, a tym samym SONAME…) i zgadnij …TAK! dalej to działa do d* w porównaniu z nVidią.
          Absurdem samym w sobie jest to, że po zrobieniu patcha do Mesy, zrobieniu snapshota z libdrm, i odpaleniu w końcu 2.4.97.0 (całe łatanie masz w repo PLD do wglądu) cieszyłem się z tego, że JAKOŚ się wreszcie przewija strony w firefoksie. Cieszyć się z przewijania zawartości ekranu w 21 wieku…

          Z tym mitycznym niezaprzestawaniem wspierania też nie przesadzaj – do dzisiaj takie rzeczy jak VLAN stripping działają inaczej na różnych kartach, do dzisiaj nie działa mi pc speaker na snd-hda-intel, 3 klawisze funkcyjne (cośtam rusza po załadowaniu acerhk, ale psują się te, które wcześniej działały) i takie problemy można mnożyć.
          Działało mi za to OOTB usypianie (zwykłe echo 1 > /proc/cośtam) i wybudzanie z uśpienia (STR).

        9. Awatar Adi1981
          Adi1981

          W F10 KMS dla intela jest, jednak ze względu na jakiegoś buga w sterowniku jest on póki co domyślnie wyłączony. Ale można go włączyć ustawiając bodajże (na 95%) modeset=1, ale tu lepiej poszukać dokładnie na sieci.

        10. Awatar Adi1981
          Adi1981

          gotar:
          próbuowałeś ustawić w modprobe.conf options snd-hda-intel model=lenovo ? Co do funkcyjnych też można w większości przypadków wszystko ładnie zrobić krótkim skrypcikiem, który z resztą swego czasu był chyba na jakilinux.org – na asusie w każdym bądź razie wszystkie klawisze Fx i multimedialne śmigają.
          Choć faktem jest że jest coraz więcej niedoróbek, a nawet jeśli już coś działa to często jest to na zasadzie "tyle o ile".

        11. Awatar WoW
          WoW

          @Adi

          "For Intel hardware, we default to disabled (targeted for Fedora 11)."
          KernelModesetting

          Sprawdziłem czy da się włączyć – odpowiedź brzmi nie. Nie działa ani z modeset=1 ani z i915.modeset=1 (ten parametr nie jest już akceptowany) ani z samym modeset. Oczywiście to może być też jakaś regresja na 2.6.27.4-68.fc10.x86_64, albo na tym może w ogóle nie działać, bo deweloperzy Intela nie testują swoich wypocin na 64 bitowych systemach "Yeah, none of us are on x86-64"

        12. Awatar WoW
          WoW

          "A komentarzy ci nie wycina — prawdopodobnie nie masz po prostu założonego konta (albo masz, ale z powodu niektórych komentarzy wpadłeś w oko moderatorom"

          Zauważyłem, że niektórzy moderatorzy są mało tolerancyjni na poglądy inne niż jedyne słuszne – chwalenie Linuksa za wszystko i wszędzie…

          BTW. Wycięło mi kolejny komentarz. Pewnie dlatego, że podałem w nim link do listu z LKML, który pokazuje jakimi ignorantami potrafią być goście z Intela 🙂

        13. Awatar WoW
          WoW

          "Cieszyć się z przewijania zawartości ekranu w 21 wieku…"

          A przypadkiem nie masz zbyt wygórowanych oczekiwań? 😉

          Linux jest dobrym systemem dla ludzi bez wygórowanych oczekiwań, tacy się na nim nie zawiodą.

          (Oczywiście mówię teraz o desktopie, bo serwery to inna sprawa i tam Linux od dawna stoi wysoko. Tylko na desktopach w życiowych zastosowaniach słabo się sprawdza…)

        14. Awatar kocio
          kocio

          A jesteś pewien, że wycięło? Pewnie się moderatorzy uwzięli i złośliwie nie chcą sprawdzać co 11 minut, czy aby WoW czegoś nie napisał znowu… =}

        15. Awatar WoW
          WoW

          "A jesteś pewien, że wycięło? Pewnie się moderatorzy uwzięli i złośliwie nie chcą sprawdzać co 11 minut, czy aby WoW czegoś nie napisał znowu… =}"

          Pewnie masz rację 🙂

        16. Awatar mariusz
          mariusz

          ja ostatnio testowałem Ubuntu 8.10 64-bity i z przykrością powiedzieć muszę, że 3D na kartach ATI o wiele lepiej chodzi na sterownikach otwartych (domyślnych) niż na zamkniętych od ATI… Te zamknięte powodują błędy – np. podczas przesuwania okna pomiędzy ścianami kostki. Na otwartych tego nie ma…

        17. Awatar gotar
          gotar

          @Adi1981 – snd-hda-intel model ustawiałem różne, w końcu przeczytałem źródła i tej obsługi po prostu nie ma (developerom niepotrzebna). A tych akurat klawiszy funkcyjnych nie zrobi się skrypcikiem, gdyż nie zwracają scancodów (raw), w ogóle, dopiero po załadowaniu acerhk jest jakiś efekt, ale wtedy z kolei wszystkie funkcyjne zwracają ten sam scancode…

  3. Awatar marcinsud
    marcinsud

    "Zalety planowych wydań w pracy nad Linuksem to na przykład lepsze informacje zwrotne, więcej osób testujących kod (ponieważ ludzi aktywizuje dopiero wydanie)"

    To teraz już wiem dlaczego ubuntu wychodzi za wcześnie czyt. nie do końca gotowe. Jak ktoś nie chce testować to się go i tak 'zmusi' do testowania

    1. Awatar kocio
      kocio

      To raczej przeszacowanie sił wobec ilości pracy, bo np. OpenOffice.org 3.0 nie dali, a gdyby rzeczywiście chodziło im o zmuszanie, to przecież idealny kandydat do testowania.

      1. Awatar gotar
        gotar

        Ale dali gnome 2.24, które nie dość, że nie obsługuje sesji (w ogóle, bo gnomy nie wiedzą po co to jest), to jeszcze ma przepisanego od początku i również niedorobionego GDM-a.

        1. Awatar WoW
          WoW

          "niedorobionego GDM-a."

          — Linux advocate mode on —
          GDM nie jest niedorobiony – masz za duże wymagania. Po co Ci możliwość zmiany konfiguracji z poziomu programu graficznego, jak gdzieś tam w jakimś /usr/user/space/developers/sucks/ass jest plik jakiś konfiguracyjny?
          — Linux advocate mode off —

        2. Awatar SeeM
          SeeM

          Ze starym GDMem też działa. Można spokojnie zainstalować i używać.

        3. Awatar mariusz
          mariusz

          zgadzam się. nowe gnome się sypie… Np. theme manager potrafi sam się zamknąć podczas wgrywania nowego schematu. Albo Brasero zawiesza się… Tak samo gedit – spróbuj otworzyć jakiś plik geditem w nowym gnome – trwa to około 1 minuty!!!!

    2. Awatar t0m3k
      t0m3k

      Ktoś Cię do czegoś zmuszał? Ja nie chcę testować i mnie nikt do tego nie zmusza, mam też kilku takich znajomych. Może nie zmuszają na Dolnośląskim? ;>

      1. Awatar marcinsud
        marcinsud

        nie przypadkiem to słowo o które mnie oskarżasz jest w ' '. Ja testować sam chciałem i to od początku, ale trochę nie jest fajnie jak dzień po premierze forum jest zalane tematami o problemach, których być nie powinno

  4. Awatar nigel
    nigel

    Dla mnie wielką zaletą Linuksa było (?), że produkty wychodzą jak są gotowe, np. Debian. Wolałbym aby nie traktowano użytkownika wersji końcowej jak, de facto, testera. Wychodzi na to, że co pół roku użytkownik Ubuntu ma problemy z systemem, bo właśnie po aktualizacji coś przestało działać. Już chyba Service Packi do XP statystycznie powodują mniej problemów, a przecież wychodzą co 2-3 lata.

    Ponadto, mnie jako użytkownika PC średnio interesuję ile innego sprzętu (innych platform) potrafi obsłużyć Linux (a nawet sam kernel), zwłaszcza, że karierę robi sentencja: jak coś jest do wszystkiego to jest do niczego.

    Sporo ostatnio w tym światku marketingowego myślenia, które raczej nie wpływa na poprawność kodu :>

    1. Awatar TBH
      TBH

      Kto każe Ci upgradować system do kazdej nowej wersji? Wersje LTS są wspierane parę lat, a np wersja 8.04 będzie do marca 2009 wspierana…

      1. Awatar marcinsud
        marcinsud

        kwiecień 2011 (wersja biurkowa), kwiecień 2013 (wersja serwerowa)

    2. Awatar kocio
      kocio

      @nigel: Ależ Debian nadal tak robi, bardzo proszę — wersja stable czeka na ciebie z otwartymi ramionami.

      Marketingowe myślenie dobrze, że się pojawia (jako uzupełnienie, a nie zamiast dotychczasowego myślenia), ale to np. witryny "spreadcostam" albo inne tego typu ciekawe akcje, natomiast kwestia synchronizacji czasowej MSZ nie ma nic wspólnego z żadnym marketingiem. Po prostu jak jest więcej elementów, to się robią straszne lagi i z byle powodu stoi rozwój reszty. Dalszą konsekwencją tego może być nawet utrata zainteresowania i dopływu świeżej krwi i energii do projektu.

      Prosty przykład: wyobraź sobie, że samolot odlatuje dopiero jeśli wsiądą wszyscy pasażerowie z ważnym biletem. I akurat jeden zaspał, drugi zachorował, a trzeci się zabił i nie żyje. Dopóki to samolocik w wiosce na Alasce, to wszystko można dokładnie sprawdzić i ustalić, a w razie potrzeby poczekać, ale jeśli by to ćwiczyć na lotnisku w Warszawie albo Wiedniu, to wkrótce wszyscy by zaczęli omijać ten megalag. A tak to pasażerowie muszą się dostosować do kalendarza i zegarka, dzięki temu zwykle masz pewność, że polecisz niezależnie od tego co się dzieje z wieloma innymi potencjalnymi pasażerami.

  5. Awatar bies
    bies

    Tak tylko… ,,Release early, release often'' to nie Linus tylko ESR.

    1. Awatar kloczek
      kloczek

      Problem polega nie na częstości wypuszczania wersji tylko na testowaniu. W przypadku Linuxa w zasadzie trzeba by mówić o braku testowania i to nei tylko na poziomie dystrybucji ale także na poziomie kernela. Dla przykładu Solkowy kernel czy to wersji GA czy to w wersji Nevada wypuszczanej średnio raz na tydzień *musi* przejść szereg testów. testy te to nie tylko sprawdzenie tego czy coś działa ale także także testy wydajnościowe. W razie pogorszenia się jakiegoś testowanego/mierzonego parametru ktoś musi zatwierdzić to że godzi się na konsekwencje takiego czegoś. Jeżeli to nie jest zamierzony efekt to nie kolejna wersja nie wyjdzie dopóki dopóty konkretne rzeczy nie zostaną poprawione.
      Kwestia w tym że Linux nie ma obecnie takich testów regresyjnych i nikt nie stara się nad takim zestawem testów dla samego kernela czy też aplikacji pracować.
      To że GNOMe wypuszczane w Solku działa a) lepiej niż w Linuxie, b) nie daje się w sumie jakoś obserwować jakiś "zaskakujących" pogorszeń pracy z wersji na wersję to kwestia właśnie tego testowania (w dużej części zautomatyzowanego).

      1. Awatar WoW
        WoW

        Kloczek,

        "W przypadku Linuxa w zasadzie trzeba by mówić o braku testowania i to nei tylko na poziomie dystrybucji ale także na poziomie kernela"

        Tutaj nie mogę się do końca zgodzić jeśli chodzi o jądro (user space jest do du@ i o tym jestem od dawna przekonany). Kiedyś była inicjatywa, ale zabrakło zainteresowanych. Nawet powstało trochę dokumentacji o tym co i jak należy robić. Problemem Linuksa jest nie to, że nie ma testerów, tylko to, że jest za mało testerów. Następnym problemem jest to, że nie ma wystarczającej ilości deweloperów, którzy by naprawiali błędy. To są dwa największe problemy, bo dalsze, trochę mniejsze, ale równie istotne też występują. Nie będę tego tutaj omawiał, kiedyś było to przerabiane na LKML. Rafał Wysocki też o tym wspomniał w swojej prezentacji na KS.

        "W razie pogorszenia się jakiegoś testowanego/mierzonego parametru"

        Są ludzie, którzy to robią w Linuksie, ale na zbyt małą skalę. Niestety nie da się zablokować wydania przez poważną regresję – to już też było przerabiane. Kiedyś Adrian Bunk mocno o takie sprawy się rzucał, ale później przycichło….

        "Kwestia w tym że Linux nie ma obecnie takich testów regresyjnych i nikt nie stara się nad takim zestawem testów dla samego kernela czy też aplikacji pracować."

        Testy regresyjne są – to się nazywa AutoTest, ale niestety nie jest popularne. Framework jest bardzo rozbudowany i oferuje naprawdę dużo możliwości. Nie wiem w jakim teraz jest stadium, gdy przestałem się tym interesować brakowało tylko dobrego, scentralizowanego analizatora wyników różnych benchmarków.

        1. Awatar WoW
          WoW

          Link do AutoTest autotest kernel org .

          To chyba najlepiej przygotowana platforma przeznaczona tylko do testów jadra Linux, gdy się przyglądałem QA w innych systemach, to jeszcze czegoś takiego nie mieli 😉

          (Chcesz robić zdalne testy na wielu maszynach jednocześnie z profilowaniem? AutoTest to robi na dzień dobry…)

        2. Awatar kloczek
          kloczek

          Może choć jeden przypadek wychwycenia jakiegoś błędu tuż przed wypuszczeniem wersji który można by zawdzięczać temu Autotestowi ? (pominę już to że ciocia Google na hasło "autotest linux kernel" w sumie nic ciekawego nie pokazuje)
          Tak czy inaczej mówię o tym że w sumie żaden z developerów linuxa który może już wprost posyłać większe patche Linusowi żadnego autotesta czy czegokolwiek podobnego nie używa .. czyli de facto jest tak jak napisałem.

        3. Awatar WoW
          WoW

          "Może choć jeden przypadek wychwycenia jakiegoś błędu tuż przed wypuszczeniem wersji który można by zawdzięczać temu Autotestowi"

          Widzę, że nie przyjrzałeś się temu projektowi – to framework uruchamiający inne testy/benchmarki/whatever i zbierający dane. Dlatego nigdy zasługa nie zostanie przypisana AutoTestowi

          "(pominę już to że ciocia Google na hasło “autotest linux kernel” w sumie nic ciekawego nie pokazuje)"

          To dlatego, że projekt jest tajny – żartuje, też się dziwiłem, dlaczego tak mało osób o nim wie. Może nie wypozycjonowana strona jest jedną z przyczyn. Dodaj autotest przed kernel org i już jesteś na stronie.

          "Tak czy inaczej mówię o tym że w sumie żaden z developerów linuxa który może już wprost posyłać większe patche Linusowi żadnego autotesta czy czegokolwiek podobnego nie używa .. czyli de facto jest tak jak napisałem."

          Tu się trochę mylisz – z tego co wiem, to deweloperzy SuSE go używają, również ludzie z IBM zajmujący się Linuksem – nie wiem, dlaczego nie używają do tego ABAT.

          Ale w jednym masz rację – sporo deweloperów olewa testowanie, bo wolą się skupić na reimplementowaniu istniejącej funkcjonalności a testy regresyjne niech robi ktoś inny…

        4. Awatar kloczek
          kloczek

          "Tu się trochę mylisz – z tego co wiem, to deweloperzy SuSE go używają, również ludzie z IBM zajmujący się Linuksem – nie wiem, dlaczego nie używają do tego ABAT."

          Czyli .. którzy developerzy SuSE którzy maja prawo o decydowaniu o tym co wejdzie do kernela tego używają ?

          "Ale w jednym masz rację – sporo deweloperów olewa testowanie, bo wolą się skupić na reimplementowaniu istniejącej funkcjonalności a testy regresyjne niech robi ktoś inny…"

          Czyli znowu .. chcąc nie chcąc tylko potwierdzasz to co napisałem wcześniej. do tego dorzucasz jeszcze to że zamiast skupić się na projektowaniu zmian owi developerzy wolą "reimplementować" (cokolwiek miałoby to znaczyć).

        5. Awatar WoW
          WoW

          "Czyli .. którzy developerzy SuSE którzy maja prawo o decydowaniu o tym co wejdzie do kernela tego używają ?"

          Nie rozumiem skąd wyciągasz takie wnioski. Napisałem tylko, że deweloperzy SuSE używają AutoTest a ty robisz z nich decydentów… Zaczynam rozumieć, dlaczego nie chcieli Cię jako szefa PLD – mówi się do Ciebie o jednym, a ty zupełnie coś innego…

          "Czyli znowu .. chcąc nie chcąc tylko potwierdzasz to co napisałem wcześniej. do tego dorzucasz jeszcze to że zamiast skupić się na projektowaniu zmian owi developerzy wolą “reimplementować” (cokolwiek miałoby to znaczyć)."

          Dlaczego nie chcąc? Widziałem jak to wygląda, mówię że są dwie strony medalu, a Ty dalej swoje…

          Reimplementacja to termin, którym ludzie określają przepisywanie jakiegoś działającego kodu. W Linuksie panuje jakaś reimplementacyjna masturbacja – patrz kolejne wersje podsystemu zarządzania pamięcią. Deweloperzy Linuksa potrafią bez przerwy na nowo implementować mechanizmy, które działały we wcześniejszych wersjach, tylko dlatego, bo myślą, że kod będzie ładniejszy. Jak jest w praktyce, to wychodzi na benchmarkach, które z wersji na wersje pokazują kolejne regresje w wydajności.

          Polyakov śledził regresje wydajności zarejestrowaną w tbench i chyba zrezygnował, bo ostatnio się zastanawiał, czy to ma jakiś związek ze światowym kryzysem finansowym…

        6. Awatar WoW
          WoW

          Zależność pomiędzy kryzysem finansowym a wydajnością Linuksa jest opisana tutaj www.ioremap.net/node/42

    2. Awatar kocio
      kocio

      @bies: "Wczesne i częste udostępnianie nowych wersji jest kluczowym fragmentem linuksowego modelu rozwoju." tak napisał ESR, więc _model_ jest linu(k)sowy, a on to tylko opisał.

      1. Awatar bies
        bies

        Np. Wine wypuszcza wersje częściej niż Linux. Zatem?

  6. Awatar kloczek
    kloczek

    Możnaby siespytać w takim razie "skoro jest już tak dobrze to dlaczego jest tak źle ?".
    Linux traci kolejne kawałki rynku (w zasadzie na rynku systemów embedded w nowych rzeczach w zasadzie juzmało kto zaprząta sobie głowę czymś innym niż VxWorks; ilość ofert dla ludzi piszących sterowniki czy soft pod Linuxa w porównaniu do tego co było jeszcze dwa lata temu spadła bardzo wyraźnie).
    Na desktopie gdzie właśnie ważna jest ilość wspieranego sprzętu Linux właśnie w comiesięcznym notowaniach wykazał się największą stratą rynku w swojej historii: http://marketshare.hitslink.com/report.aspx?qprid…
    Definitywnie Linux nie przebije w tym roku 1% udziału w rynku desktopów, a dobrze będzie jak utrzyma to co miał na początku roku.
    W dużych serwerowniach też Linux coraz mocniej jest wypierany prze Solarisa (na sprzęcie zwykle w takich miejscach używanych Linux nie daje nic po za kłopotami z brakiem serwisu i gorszą diagnostyką ewentualnych problemów na poziomie aplikacyjnym .. DTrace wymiata).
    Solaris zresztą na tym samym sprzęcie jeśli chodzi o support jest po prostu tańszy niż support oferowany do Ubuntu czy przez RH.
    Dowolny system plikowy pod Linuxem ssie .. jeśli mówimy o systemach które mają uptime większy niż 60 dni bo trzeba pamiętać żeby wyłączać fsck przy restarcie, a i nie ma end-to-end checksumingu (btrfs czy ext4 ma sumy kontrolne ale cała reszta infrastruktury nie ma nawet w planach dodania tego co jest w Solarisie).

    Po prostu to co Greg wypisuje nie trzyma się w żaden sposób faktów … a owe fakty coraz bardziej mówią że mamy właśnie do czynienia jeśli nie z regresem używania Linuxa to przynajmniej ze stagnacją.

    1. Awatar WoW
      WoW

      "Możnaby siespytać w takim razie “skoro jest już tak dobrze to dlaczego jest tak źle ?”."

      Bo ludzi, którzy próbują wytykać problemy i o nich mówić nazywa się trollami.

      Fani Linuksa nie chcą pokonać trudności, wolą wyśmiewać ludzi wytykających błędy i mówić, że wszystko ok.

    2. Awatar bies
      bies

      Kloczek: możesz napisać co właściwie porównujesz pisząc o sumach kontrolnych w Ext4 i (jak sądzę) ZFS? To ,,trochę'' różne mechanizmy, chyba że o czymś nie wiem.

    3. Awatar Thar
      Thar

      @kloczek:

      1) Już nie raz pisano, że o ile badania rynku serwerów można przeprowadzić w sposób miarodajny, to zyski i straty tak małego ułamka jak Linux na desktopach okazują się zazwyczaj kaczką dziennikarską, bo próba statystyczna jest zbyt mała na -wiarygodne- zmierzenie paru promili. Przy czym nadal to Linux pozostaje 3cim systemem na desktopach, na co żaden inny wolny system już się nie porywa, a żaden wynalazek Suna szans nie ma…

      2) Tak, wiemy że Solaris to najbardziej doniosły wynalazek od czasów krojonego chleba. To prawda objawiona, zatem pisząc o tym w każdym kolejnym komentarzu zwyczajnie marnujesz bity.

      3) "Dowolny"? Lol, jak się Solaris wzbogaci o coś równie nadającego się pod obróbkę multimediów jak XFS to pogadamy. Póki co stwierdzę równie stanowczo "dowolny system plików pod Solarisem ssie". A co, ty możesz to ja też.

      Po czym odróżnić fanboja od eksperta? Ekspert w tym co lubi widzi nie tylko zalety, a w tym czego nie lubi – nie tylko wady.

      1. Awatar kloczek
        kloczek

        "Już nie raz pisano, że o ile badania rynku serwerów można przeprowadzić w sposób miarodajny, to zyski i straty tak małego ułamka jak Linux na desktopach okazują się zazwyczaj kaczką dziennikarską, bo próba statystyczna jest zbyt mała na -wiarygodne- zmierzenie paru promili. Przy czym nadal to Linux pozostaje 3cim systemem na desktopach, na co żaden inny wolny system już się nie porywa, a żaden wynalazek Suna szans nie ma…"

        Może w takim razie przytoczysz choć jeden przykład takiej kaczki ? jakiś URL na ten przykład ?
        Tak przy okazji .. sprawdziełeś co jest jest prezentowane pod URLem jaki podałem ? Bo bynajmniej nie jest o procentowy udział ilości instalacji tego czy innego systemu tylko procentowy udział tego czy innego systemu używanego przy odwoływaniu się do jednego z wielu większych portali na świecie.
        Wprost te dane można zinterpretować tak, że około 1/4 rzadziej w ostatnim miesiącu był używany Linux i jest to *faktem* bo nikt danych z tej strony jak na razie przez ostanie kilka lat nie próbował podważać (ciekawe co o tych danych Ty wiesz że je podważasz ?). Wnioskiem z tego może być albo to że choćby swego rodzaju atrakcyjność Linuxa jako desktopu spadła o taki mniejwięcej czynnik z powodu tego że choćby użytkownicy Linuxa nie mają czasu na siedzenie przy komputerze czy też muszą z takich czy innych powodów innych systemów.
        Tak czy inaczej .. udział Linuxa na desktopie jest na granicy błędu pomiaru. Czyli .. ilość driverów o której pisze Greg ma się nijak do tego jak często Linux na desktopie jest używany. Ergo: deweloperzy Linuxa chcąc zwiększyć częstość używania Linuxa na desktopie powinni skupić się na zupełnie czymś innym niż ilość obsługiwanego sprzętu (co widać na przykładzie MOX który obsługuje ułamek sprzętu jaki jest w stanie obsłużyć Linux a na desktopie ma udział o rząd wielkości większy).
        Poprostu ilość nie przechodzi w jakość .. bo jakość to jest czynnik sam w sobie niepowiązany z resztą.

        1. Awatar ak47
          ak47

          koloczek daj se siana sam przyznałeś że ten spadek o 1/4 to równie dobrze błąd pomiarowy.

        2. Awatar Thar
          Thar

          @kloczek:

          Właśnie – za mało o tych danych wiem, dlatego je podważam. Ja tam widzę tylko wykresy. Nieznany jest sposób zbierania danych, analizy. Wiesz w ogóle cokolwiek o analizie statystycznej? Bo ja ją mam na studiach.

          Żebyś zrozumiał, o co chodzi. Weźmy hipotetyczny pomiar na popularnej w statystyce grupie tysiąca osób. Windows ma udział na poziomie, powiedzmy 95% – więc w badaniach wychodzi nam dość duża grupa użytkowników Windowsa. Jeśli w następnym badaniu będzie jedna mniej lub jedna więcej, nie wpłynie to na ogólny poziom.

          Mac OS X dostaje zazwyczaj w takich badaniach 2,7%, co w naszej próbie przekłada się na 27 osób. Tu wahania w jedną stronę lub w drugą już mają znaczenie większe, ale nadal marginalne: zmiana na poziomie 0,4%.

          Dochodzimy do Linuksa, gdzie trend zazwyczaj wynosi 0,7%. W naszym badaniu to 7 osób, co oznacza, że jednoosobowe wahania niosą zmianę na poziomie parawie 15%! Próbowałeś kiedyś pomyśleć, dlaczego w publikacji takich badań pomija się systemy na desktopie mające znaczenie niewielkie, ale wciąż sporą rzeszę użytkowników (masochistów… 😉 ): *BSD, Solarisy? Bo przy udziale rzędu 0,2% jakiekolwiek wahanie prowadzi do absurdalnego wniosku, że popularność zmienia się o 50%, a chwilami w ogóle zanika! Nie wspominając o tym, że większości systemów takie badanie zwyczajnie "nie wykryje". Przy niewielkiej grupie użytkowników – gdzieś tak do 1% – można najwyżej postawić wniosek, czy dany produkt jeszcze jest na rynku. Cała reszta to FUD.

        3. Awatar kielpi
          kielpi

          Opisujesz trywialną kwestię manipulacji opartej na małej próbce. Twój "przyrząd pomiarowy" ma rozdzielczość gorszą bądź porównywalną z mierzoną wielkością. I na tym właśnie polega problem – ta wielkość jest tak mała, że aż trudno mierzalna. Nie zastanawia Ciebie dlaczego….

        4. Awatar Thar
          Thar

          @kielpi: trudno chyba, żeby przy dyskusji na temat statystyki przywołanej przez kloczka miały mnie jednocześnie interesować powody niskiego udziału Linuksa na desktopach, zagadka powstania wszechświata i teoria strun. Pierwszy zarzut kloczka brzmiał "udział Linuksa spada", dopiero jak się okazało, że jest to zarzut głupi, przeszedł do "udział Linuksa jest niski". Jednocześnie porównując wady Linuksa do zalet Solarisa, który udział na desktopach ma w ogóle poniżej błędu statystycznego, chociaż wszystko jest w nim tak wspaniale rozwiązane i wyprzedza pozostałe systemy o lata świetlne. Skoro więc nie jakość gra decydującą rolę, to istotnie, pokusiłbym się o dorzucenie moich 3 groszy:
          – Linux nie ma na reklamę nawet promila środków, jakie ma konkurencja
          – Linux nie ma już sytuacji niszy rynkowej, w której bardzo wygodnie ulokował się Windows
          – Linux doskonale spełnia potrzeby ludzi którzy go tworzą i używają, a które wykluczają się wzajemnie z potrzebami ludzi, którzy Linuksa nie używają

          Każdy może być rozpatrywany osobno i w różnych konfiguracjach z pozostałymi.

        5. Awatar kielpi
          kielpi

          Bardzo ciekawe tezy zwłaszcza ta:

          "- Linux doskonale spełnia potrzeby ludzi którzy go tworzą i używają, a które wykluczają się wzajemnie z potrzebami ludzi, którzy Linuksa nie używają"

          witamy we wspaniałym i elitarnym klubie użytkowników linux-a – którzy sami zaspokoją swoje potrzeby – czy Ty na pewno aby chcesz popularyzacji tego systemu ?

        6. Awatar Thar
          Thar

          @kielpi: to o wspaniałości i elitarności dopisałeś już ty. Zwróć uwagę na fragment:

          (…) a które wykluczają się wzajemnie z potrzebami ludzi, którzy Linuksa nie używają.

          Jeśli popularyzacja tego systemu miałaby oznaczać zrezognowanie z zaspokajania potrzeb aktualnych użytkowników, to owszem, nie chcę jej. Jest to jednak, jak zauważyłeś, tylko teza – jeśli uważasz, że potrzeby te da się ze sobą pogodzić, zapraszam byś spróbował mi to udowodnić. Z różnych dyskusji (również tych na osnews) wyciągam wniosek, że to, czego użytkownicy chcą od systemów, diametralnie się różni.

      2. Awatar kielpi
        kielpi

        Wybacz ale twoja reakcja przypomina mi reakcję alergika. Zwłaszcza ostanie zdanie. Jeżeli nawet Kloczek nie ma 100% racji to warto rozważyć jego tezy. Tak się składa, że twarzą linux-a w Polsce są fanboje bo ekspertów jest zwyczajnie jak na lekarstwo a i mówiąc szczerze nikt ich nie słucha. Przypomina mi się Studio Otwartego Oprogramowania – które było na witrynie pewnej partii podczas wyborów 2 lata temu. I co – gdzie ono jest teraz. Linux pełni teraz fukcję haka (klucza zależnie od potrzeby) na windows (oj bo zmigrujemy…) jest trendi (fajny żeby pokazać koledze super compiza) ale na pewno nie budzi masowych profesjonalnych skojarzeń. Żeby tak było trzeba jeszcze lata pracować. Zamiast tej pracy czasami widzę klub wzajemnej adoracji (X coś powiedział Y się zgadza – tylko co z tego). Bicie piany. Kiedy ktoś próbuje szukać przyczyn zaraz skacze na niego tłumek nazwijmy to sympatyków. Naprawdę nie widzisz problemu ?

        1. Awatar Thar
          Thar

          A i owszem, nie widzę. Pewnie dlatego, że to "problem" zupełnie wydumany. Częściej spotykam ludzi krzyczących o linuksowych fanbojach niż rzeczonych fanbojów.

      3. Awatar trasz
        trasz

        @Thar: Skad ci sie wziela obrobka multimediow pod XFS? To, ze ten system byl fajny do multimediow, streamingu, realtime itd pod IRIX-em nijak nie przeklada sie na fajnosc pod Linuksem. Pod Linuksem afaik najlepszy do obrobki dzwieku nadal jest ext3.

        1. Awatar Thar
          Thar

          Ależ traszu drogi, to ten sam filesystem co pod iriksem…

        2. Awatar trasz
          trasz

          @Thar: Tyle teoria. W praktyce pod IRIX-em nadawal sie idealnie do streamingu, multitrackow itd, a w Linuksie nie.

  7. Awatar ó
    ó

    Podkreśla też, że ponieważ zmienia się świat, to oprogramowanie musi także stale ewoluować, bo złota reguła “nie zepsute — nie naprawiam” przestała wystarczać

    Ale bełkot. To znaczy równie dobrze wszystko – jak i nic.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *