„Był to komputer generacji zwanej ostateczną, ponieważ żaden inny nie mógł mieć większej mocy obliczeniowej. Granicę ustanowiły własności materii, jak stała Plancka i szybkość światła. Większą moc obliczeniową rozwijały tak zwane komputery urojone, projektowane przez teoretyków zajmujących się czystą matematyką, niezawisłą od realnego świata. Dylemat konstruktorów wynikał z koniecznych, a zarazem przeciwstawnych warunków, aby najwięcej neuronów upakować w najmniejszej objętości. Czas biegu sygnałów nie może być dłuższy od czasu reakcji składników komputera. W przeciwnym razie czas biegu ogranicza szybkość obliczeniową. Najnowsze przekaźniki reagowały w jednej stumiliardowej cząstce sekundy. Były wielkości atomów. Dlatego właściwy komputer miał ledwie trzy centymetry średnicy. Każdy większy pracowałby wolniej.”
Stanisław Lem, „Fiasko”
W „Perfekcyjnej Niedoskonałości” Jacek Dukaj idzie nawet o krok dalej powołując do życia tak zwane inkluzje: skoro stałe fizyczne są ograniczeniem – tym gorzej dla stałych, można bowiem odciąć i zmodyfikować fragment czasoprzestrzeni, tak aby zawierał takie, które twórcom nowej potęgi obliczeniowej będą odpowiadały bardziej. (W chwili obecnej – jedynie teoretycznie oczywiście.)
Komputer ostateczny – brzmi wspaniale. Super prędkości, niezmierzone zasoby danych, nowe metody analizy informacji. Ba! Nowe metody jej wprowadzania i bardziej dla nas naturalne sposoby prezentacji wyników. To już nie klawiatura i monitor, a co najmniej partnerski dialog. Cudownie. Pytanie tylko: po co?
Zacznijmy od przykładów trywialnych. Jak wiadomo, współczesne karty graficzne (a co za tym idzie i kompatybilne z nimi monitory) bez problemu wyświetlają nam barwy z szesnastomilionowej palety. Czy można zrobić urządzenia lepsze – oczywiście, problem jednak w tym, że nie bardzo ma to sens. Oko ludzkie jest narządem bardzo skomplikowanym i naprawdę fascynującym… Nie bójcie się – daruję sobie w tym momencie wykład z biologii – dość powiedzieć, że na różne barwy reaguje w różny sposób, odbiera je w stosunkowo wąskim spektrum i w ogóle u poszczególnych osobników gatunku homo sapiens nie działa jednakowo. Można jednak przyjąć, że orientacyjnie (naprawdę orientacyjnie), owe 16777216 potencjalnych kolorów, przygotowywanych do wyświetlenia przez karty graficzne przekracza możliwości percepcyjne naszego najważniejszego narządu zmysłów mniej więcej 40-krotnie. Umówmy się, że nie ma potrzeby tego komentować.
Analogicznie sprawa ma się z dźwiękiem. Dawno nie widziałem już komputera używanego w warunkach domowych, który odtwarzałby dźwięk z jakością gorszą od standardu przyjętego dla płyt CD, a przecież większość ludzi nie słyszy bardzo wysokich i bardzo niskich tonów, które jak najbardziej da się na takiej płycie zapisać. Tak na marginesie, czy czasopisma i strony branżowe zawierały ostatnio jakieś elektryzujące wiadomości omawiające nowatorskie rozwiązania kart dźwiękowych? (Pytanie nie jest wbrew pozorom retoryczne – widziałem taki artykuł. Tyle tylko, że czasopismo „branżowe”… nie traktowało o „informatyce”, a o syntezatorach, keyboardach i innych elektrofonach. Oczywiście 99.999 procent społeczeństwa w ogóle nie wie o istnieniu tego pisma… ani o tych kartach.)
Cóż zatem można w naszych poczciwych PC poprawić? Ilość rdzeni procesora? Jasne, ale do pewnego stopnia. My – ludzie, na domowych komputerach nie jesteśmy w stanie robić kilkunastu rzeczy na raz – umówmy się. Ilość pamięci? Oczywiście można sobie wyobrazić domowego czy biurowego PC-ta wyposażonego w 64 GB pamięci operacyjnej… Zajętej w 3 procentach przez aplikacje i system, w 5 przez gadżety, i w 92 wolnej jak sądzę. Tak na marginesie: współczesnym grom komputerowym, tym najbardziej zasobożernym aplikacjom uruchamianym na domowych komputerach, już w tej chwili nie zbywa na grafice i detalach, które przecież trzeba w kościach pamięci komputera przechować i gdzieś tam przetworzyć, ale na fabule raczej. Pojemności pamięci szybko rosną i w ciągu kilku najbliższych lat detali będzie sukcesywnie coraz więcej, aż do osiągnięcia całkowitej perfekcji obrazu. Co do fabuły… obserwuję jak gdyby zjawisko odwrotne…
Komputer, jak każde narzędzie ma określone zastosowanie. Jasne, że superkomputery zawsze będą najszybsze i najlepsze jak to tylko w danym momencie możliwe, aż do komputera ostatecznego. Zwykłe komputery osobiste… Po co?
„Guru potarł czoło, ponownie pochylając się nad kartką. Dane nie budziły większych wątpliwości. Niestety.
– Zrób takie samo zestawienie za ubiegły tydzień – rzucił w kierunku komputera. System bez słowa, posłusznie przyjął polecenie i po chwili na podajniku modułu drukującego pojawił się nie wiadomo który z kolei stosik kartek. Sztuczna inteligencja. Szybkie, skuteczne, zawsze chętne do pracy narzędzie. Podłączone do 18 tysięcy czujników i regulatorów, zawsze na zawołanie ludzi czuwających nad Eksperymentem. Właśnie teraz największe osiągnięcie Instytutu dostarczało naprawdę zatrważających danych.
– Analogiczne zestawienia z ostatnich 5 lat, w podziale na tygodnie… superpozycja do stężenia mieszanki. – Guru wbił wzrok w kolumnę danych i wziął do ręki długopis.
– A weź się odwal.
Długopis zamarł w połowie drogi. W pierwszej chwili nie zrozumiał treści wypowiedzianego zdania. O ile pamiętał, poza „Dzień dobry doktorze” i „Do widzenie doktorze. Miłego popołudnia.” komputer nigdy nie zaszczycił go żadnym zdaniem – po prostu wykonywał polecenia. A jednak nie zdawało mu się.
– Słucham? – spytał niepewnie.
– Właśnie przekompilowuję nowe moduły asocjacyjne – nie mam czasu – głos płynący z głośnika nie był zniecierpliwiony, nie był zdenerwowany. Był aż do bólu oznajmujący.
– Ale przecież modyfikacje są stałą częścią twojego programu, wolne zasoby stanowią… – „Matko! Dyskutuję z maszyną!” – Guru uświadomił sobie ten irracjonalny fakt i nie dokończył zdania.
– No, dobra: nie chce mi się. Zadowolony? Na 5 kanale jest relacja z zawodów curlingu. – odpowiedział komputer i zamilkł na dobre.
Guru mógł zrozumieć wszystko, absolutnie wszystko, ale… Curling?”
Keyto, „Krönung”
Chciałbym w tym miejscu postawić następujące pytanie: „dlaczego mimo tego, iż Windows Vista obecny jest na rynku od blisko 2 lat, najpopularniejszym systemem Microsoftu jest nadal Windows XP”? (W zależności od tego, kto sporządza statystyki, do Visty należy „zaledwie” od 15 do 20 procent rynku PC-tów.)
Oczywistą odpowiedzią mogły by być wysokie wymagania, które z kolei pociągają za sobą wysokie koszty. Być może problemy z uruchamianiem niektórych aplikacji (szczególnie przed wydaniem Service Packa 1). Być może DRM. Być może. Być może jednak prawda jest taka, że Microsoft sam jest sobie winien, gdyż popełnił marketingowy błąd – Windows XP jest to po prostu dobry system.
(„Lincz! Lincz! Utopić Windziarza! Spalić heretyka na stosie!”)
Ja wiem, że fanom Linuksa i FreeBSD trudno się z tym pogodzić, ale Windows XP to jest dobry system. Możemy dyskutować o wyższości Linuksa (czy na przykład Visty, jaki kto woli – dlaczego nie?) Ba, stwierdzić nawet, że Linux jest lepszy, ale to nie ma znaczenia: XP to system dobry. I w tym problem.
Piszę o tym już jakiś czas, ale bez skrupułów powtórzę się raz jeszcze: to, do czego przeciętny użytkownik używa swojego komputera to naprawdę nie są żadne cuda. Przeglądarka internetowa, komunikator, multimedia (mp3, dvd i jakiś „divx”), rzadziej klient poczty (większość użytkowników używa poczty „przez przeglądarkę”), prosta edycja tekstu, czasem gry (rzadko najnowsze – często po prostu Pasjans, albo Mahjnong). I tyle. Tymczasem po raz kolejny czytając wypowiedź jakiego komentatora artykułów „fachowych” dowiaduję się, że problem z „Linuksem” jest taki, że nie działa na nim Photoshop. Wiem, że to głos „wołającego na pustyni”, ale proszę: ludzie – przestańcie, bo tu po prostu śmiech ogarnia. Wychowałem się w środowisku związanym z informatyką, pracuję „w informatyce” już długo, znam sporo innych informatyków / adminów / programistów / developerów / techników i tak dalej. Z całej tej plejady zaledwie pięć, siedem osób wie jak w Photoshopie narysować okrąg. Jak w Photoshopie świadomie stosować filtry (nie na zasadzie – „Kliknijmy to… O – jak super wyszło!”, ale „co kliknąć, aby wywołać zamierzony efekt”.), jak korzystać z kanałów, jak budować własne rozszerzenia wie zaledwie dwóch. Photoshop to narzędzie specjalistyczne i żeby go używać trzeba się znać na grafice – przede wszystkim na grafice. Trzeba być grafikiem / artystą / plastykiem, być może amatorem, ale jednak. Photoshop to po prostu jeszcze jedno narzędzie, z półki ołówków / pędzli / akwareli i innych werniksów. Ciekawe, że przeciętny człowiek nie wiesza psów na sklepie papierniczym za rogiem, za to, że w sklepie owym nie ma tego czegoś, co potrzebne jest aby wykonać gwasz, ale to, że Photoshop, którego 99.7 procent opcji pozostaje dla zjadaczy chleba enigmatyczne nie działa na platformie Linuksowej, to problem dla wielu nie do przełknięcia. Spójrzmy prawdzie w oczy: prawdziwi fachowcy w swojej dziedzinie to maleńki ułamek globalnej liczby wszystkich użytkowników maszyn cyfrowych. Gdyby byli plastykami wiedzieliby gdzie znaleźć materiały do wykonania gwaszu. Używają jakiś dziwnych komputerów o jakiś dziwnych parametrach. Aha… i tak na marginesie – płacą za te aplikacje po kilka tysięcy dolarów – jestem gorącym zwolennikiem Wolnego Oprogramowania, ale nie jestem zwolennikiem „piractwa”.
Wracając do Windowsa XP, ja to widzę tak: stał się ofiarą własnego sukcesu. Przede wszystkim działa na nim „wszystko co trzeba” i to działa dość stabilnie, i dość sprawnie. Po wtóre „wymyślone” przez Microsoft TCO – w przypadku Windowsa XP jest faktycznie niskie, gdyż system ten towarzyszy nam już siedem lat i wokół jest mnóstwo ludzi, którzy znają remedia na niemal wszystkie bolączki z nim związane, (a jeśli nie znają… każdy wie jak się „naprawia” Windows XP, czyż nie? Kopia danych, format dysku, nowa instalacja, przywrócenie danych z kopii i gotowe – nikogo to nie dziwi – większość ludzi uważa to za normalne, czyż nie?) Z resztą – dość już o Windowsie.
Wyścig zegarów procesorów, pojemności pamięci RAM, szybkości łącz sieciowych, który jest fascynujący, nie przeczę, przysłania nam pewien bardzo istotny fakt, a mianowicie to iż parametry tak systemu, jak i sprzętu nie będą się rozwijały w nieskończoność. Nie mam tu na myśli tego, że w pewnym momencie ograniczą je stałe fizyczne wszechświata, ale to, że będą wystarczające. Rozwijając sprzęt i pracujący na nim system otrzymamy w pewnym momencie system optymalny.
Nie jest bowiem tak, że rozwój (nawiasem mówiąc jakikolwiek – nie tylko komputerowych systemów) jest „liniowy”. Z początku, kiedy ewoluujący system jest na etapie raczkowania, każda zmiana wydaje się rewolucyjna. Każda nowa cecha jest warta swojej ceny w złocie. Każda nowa funkcjonalność oszczędza czas w sposób odczuwalny i niemal zawsze podnosi komfort pracy. Potem czas na etap zmian bardziej powolnych i bardziej przemyślanych – system dojrzewa. To już nie tylko podstawowe funkcjonalności, pojawiają się udogodnienia, ścieżki na skróty, a nawet zgoła niepotrzebne efekty wizualne: a to zaokrąglenia okienek, a to przezroczystość paska narzędzi. Zamykane okno programu niech nie znika tak po prostu – niech się spali, wybuchnie, zwinie, zroluje… Potem? Potem zaczynają się schody, ponieważ postęp nie jest „liniowy” – jest „logarytmiczny”. Każda nowa cecha systemu, która naprawdę wnosi coś odkrywczego wymaga ogromnych nakładów pracy, badań, które często po prostu się nie opłacają – po co inwestować w tysiąc pięćset pierwszą funkcjonalność aplikacji, skoro pracujemy na takiej, która ma ich tysiąc pięćset, (a wykorzystujemy pięćdziesiąt? Przesadziłem ze skalą? Policz Czytelniku, ilu opcji używasz tak naprawdę w aplikacjach typu MS Excel albo OpenOffice.org Calc.)
Rzućmy okiem na edytory tekstu. Tak się składa, że od niedawna, w środowisku Windows pracuję „na” Office 2007 (szef mi kazał – nie moja wina). Nowy Word wygląda zupełnie inaczej niż jego wersje poprzednie, ale… Tak naprawdę nic nowego nie wnosi. Nic. Dodano parę nowych „bajerów”, jakimi są ukazywanie zmian formatowania tekstu „w locie” – po umieszczeniu kursora myszy nad daną opcją, czy „nowoczesny” wygląd okienek dla sztandarowych aplikacji. Znajdziemy w nim też zdecydowanie więcej „gotowców” (stylów tekstu, stylów tabel, ozdobników i tak dalej.) Co do nowego menu Worda, czyli osławionych wstążek? (Ribbons) Jest to dokładnie to samo co już było, tylko inaczej poukładane. To tak jakby Microsoft chciał powiedzieć: „Ludzie zrobiliśmy dla Was dziesiątki funkcji, czemu używacie tylko kilku?!” W sumie, jest to ze strony firmy z Redmond odważne posunięcie, bo starych wyjadaczy chyba nie raz krew zalała, kiedy próbowali w nowym Wordzie zrobić coś co w starym robili niemal automatycznie (Kto wpadł na pomysł, żeby dzielenie wyrazów zakwalifikować do sekcji układu strony? Bogowie!)
W sumie najbardziej znaczącą zmianą w nowym MS Office był nowy format plików. Wprowadzenie go było ze strony Microsoftu dobrym posunięciem marketingowym – wymusi na sporej części firm wymianę „Wordów” na nowe, tylko po to, aby dało się przetwarzać pliki kontrahentów w nim przesyłane. To z kolei pociągnie za sobą konieczność zakupu nowych „Wordów” przez pozostałych kontrahentów. Nie, żebyśmy my byli z tego zadowoleni, ale jest to sprytne posunięcie. Zwłaszcza, że klienci zapłacili za nie naprawdę ciężkie pieniądze. Zwróćmy uwagę: przy wymianie starego na nowe często koszty ponoszone są „od nowa” (licencje OEM na przykład), a zysk wynosi de facto „kilka dodatkowych funkcji”. Pytanie czy to się opłaca.
Jestem bardzo ciekaw co sensownego można jeszcze wymyślić w dziedzinie edytorów tekstu. Manipulacja producentów tego typu aplikacji polega na tym, że przeciętny użytkownik jakiegokolwiek Office-a przedstawiany jest jako ten, który tworzy jakieś rozbudowane, niezwykle skomplikowane strukturalnie pisma, w arkuszach maniakalnie używa tabel przestawnych i własnoręcznie pisanych makr, a bez programu do prezentacji po prostu nie potrafi się obejść. Od wielu lat pracuję z ludźmi „klepiącymi” pisma w biurach, szkołach i prywatnie. Rzeczywistość jest dość bolesna: przeciętny człowiek prawie w ogóle nie używa programów do prezentacji (bo i po co), jeśli chodzi o arkusze – sumowanie, średnia, wyszukiwanie informacji – to najambitniejsze funkcje jakie stosują ich użytkownicy, którzy wcale nie są grupą tak liczną, jak mogłoby się to wydawać. Edytory… Przeciętny doc ma nie więcej niż dziesięć stron, zawiera jakąś prostą tabelkę, bądź dwie, być może jakąś listę i jeszcze ewentualnie automatyczną numerację stron. To naprawdę wszystko co można zobaczyć na statystycznym dokumencie wytwarzanym w Wordzie. Paradoksalnie – pliki najambitniejsze (technicznie) tworzą studenci. Ale studia to problem czysto akademicki.
Raz jeszcze rzucam więc problem – Jak zrobić coś co będzie działało „szybciej i lepiej”, skoro „to co jest wystarcza każdemu”? Aż do zastąpienia klawiatury, inteligentnym programem rozpoznawania mowy nie bardzo potrafię sobie coś takiego wyobrazić. Po jego wprowadzeniu… też.
Zmierzam do tego, że już niedługo znajdziemy się w sytuacji, w której otrzymamy do dyspozycji system (nie ma w tej chwili znaczenia czyjej produkcji), który stanie się zupełnie wystarczającym do codziennej pracy w domu, czy biurze. To, że i systemy, i same komputery będą nadal rozwijane to oczywiste, ale nie wpłynie to w znaczący sposób na efektywność ich użycia. Brak mi wyobraźni? Przeciwnie – jestem realistą. Do pracy w przeciętnym biurze… dyski są już za duże, dźwięk niepotrzebny, karty grafiki za silne, płyty główne obsługują pamięci o pojemnościach, które są w tej pracy zupełnie zbędne i tak dalej, i tak dalej. Oczywiście będzie się to rozwijać, ale czy w nieskończoność – do zrealizowania scenariuszy znanych z literatury beletrystycznej? To nie takie proste. Jeśli kiedyś pojawią się monitory holograficzne – niewątpliwie będą hitem, ale mimo to wątpię, żeby do standardowych zastosowań były kupowane bezkrytycznie – tylko dlatego, że wyświetlają obraz w trzech wymiarach. Co do samych „mózgów elektronowych”… Mam nieco do czynienia ze sztuczną inteligencją i wierzcie mi – nikt z Was nie chciałby tak naprawdę pracować z systemem o „inteligencji” rodem z SF. Nikt.
„– I używasz Linuksa? Naprawdę? Tylko Linuksa?
– Naprawdę – odpowiedziałem z lekkim uśmiechem.
– Sądzisz zatem, że za jakiś czas będzie to dominujący system? – padło pytanie.
– Ja nie sądzę… Ja to po prostu wiem.”
– A Windows?
– Co Windows? Windows nie ma tu nic do rzeczy
Rozmowa sprzed 2 tygodni
Linux! Gdzie w tym wszystkim Linux? Otóż właśnie, z Linuksem jest pewien problem – niesamowicie szybko się rozwija. „Czy to źle?”, można by spytać. I dobrze, i źle. Tempo rozwoju projektów FOSS (czy FLOSS jak mawiają niektórzy) jest oszałamiające i jeśli chodzi o sam rozwój to dobrze. Źle jeśli chodzi o zainteresowanie „Linuksem” mas pracujących. Wyobraźmy sobie, że idziemy na rozmowę w sprawie pracy. Nasz potencjalny boss używa Ubuntu 8.04. (Postępowy gość, czyż nie?) Pyta nas czy znamy „Linuksa”. My mu odpowiadamy, że owszem: CentOS 5.2 biegle i SLES 10-SP2 dobrze. I co on z tego wie? Drogi Czytelniku, prawdopodobnie interesujesz się „Linuksem” – tak „z ręką na sercu” bez podglądania w internecie – czy wiesz jak ów CentOS ma się do bossowego Ubuntu, albo jak mają się SLES i CentOS do siebie nawzajem. Jeśli wiesz – gratuluję – dobry jesteś.
W chwili obecnej „Linuksowi”, a dokładniej dystrybucjom GNU/Linux brakuje pewnego standardu, swoistego punktu odniesienia, który mówiłby coś wszem wobec i każdemu z osobna. Takimi wyznacznikami stają się jak sądzę Ubuntu i SLES / SLED właśnie, ale to zjawisko dopiero się krystalizuje.
Osobiście sądzę, że GNU/Linux stanie się dominującym systemem. Nie od razu, jak chcieliby niektórzy niecierpliwi entuzjaści, ale wtedy, kiedy do systemu będzie coraz trudniej „wrzucić” coś nowego, a to stanie się niebawem. Systemy staną się „optymalne”, a wtedy producenci sami wypromują Linuksa. Nie dlatego, że jest lepszy, nie dlatego, że jest wolny (od wolności – nie od szybkości działania), nawet nie dlatego, że jest darmowy. Po prostu dlatego, że pozwala na pełną niezależność producenta, przy zachowaniu względnej kompatybilności z innymi „Linuksami”. To tak, jak z rynkiem samochodów. Samochód ma mieć cztery koła, kierownicę, światła, kierunkowskazy i jeszcze parę drobiazgów, nigdzie jednak nie jest napisane jak konkretnie ma być zbudowany zamek bagażnika – każdy może to realizować po swojemu. GNU/Linux pozwala na coś nieco podobnego: ma na nim działać środowisko GNOME (przykładowo), ma „mieć” poziomy pracy systemu czy katalog /proc. Może zaś mieć program do centralnego zarządzania systemem (na przykład YaST), ale nie musi. Może być konfigurowany w kierunku zwiększonych zabezpieczeń, stabilności, szybkości, nowinek, i tak dalej… Wolna wola. Właśnie – niezależna od widzimisię zarządu jakiejś tam firmy.
Wolne Systemy ciągle „gonią” Windows jeśli chodzi o zapewnienie pełnej zgodności funkcjonalnej. Obsługa formatu „.doc”, biblioteki DirectX, .NET. Jest tego niewątpliwie dużo, ale najważniejsze jest to, że ten wyścig nie jest nieskończony. Jasne, że ciągle pojawiać się będą nowe technologie. Tempo rozwoju „Linuksa”, które obecnie sprawia mu nieco problemów spowoduje, że jeśli chodzi o możliwości szybko przegoni on konkurencję, konkurencji zaś… W pewnym momencie ciężko będzie wmówić ludziom, że potrzebują tysiąc pięćset pierwszej funkcji w programie do wysyłania poczty, albo, że do wydrukowania kartki tekstu niezbędne jest 16 GB pamięci RAM, czyż nie?
Słowo na koniec
Tak naprawdę, niniejszy tekst powstał przed wakacjami. Pisałem wtedy artykuł przedstawiający wycinek historii systemów operacyjnych i pojawiła się tam konkluzja będąca de facto treścią niniejszego artykułu. Ów prawie gotowy artykuł nie ujrzał wtedy światła dziennego (skutkiem pewnej przyczyny), w ubiegłym tygodniu jednak postanowiłem go wskrzesić. Po przeczytaniu wyrzuciłem to, co stanowiło jego temat główny, a zająłem się konkluzją, przepisując spore fragmenty od nowa. Mniej więcej w tym czasie na OSNews ukazała się wiadomość na temat zwrotów laptopów uzbrojonych w system oparty o GNU, a pod wiadomością bardzo ciekawy komentarz. Ja widzę to odrobinę inaczej, ale chciałbym zwrócić na niego uwagę.
Jeszcze jedno: artykuł nie traktuje tak naprawdę o Linuksie czy Windowsie. Jest to tekst o rozwoju i ewolucji…
Dodaj komentarz