Czy szanse na 40-godzinną baterię do notebooka są realne?

Naukowcom z uniwersytetu w Stanford (Stanford University’s Materials Science and Engineering Department) udało się opracować sposób na 10-krotne zwiększenie pojemności standardowej baterii litowo-jonowej, którą stosuje się dziś masowo w laptopach, odtwarzaczach multimedialnych, kamerach video, telefonach komórkowych, itp.

Jak mówi sam autor odkrycia profesor Yi Cui, może ono doprowadzić do rewolucji w świecie elektroniki użytkowej. Co było jednak kluczem do sukcesu? Łatwo się domyślić, że nanotechnologia. Naukowcy użyli silikonowych nanoobwodów do stworzenia nowego typu elektrod, które w bateriach o zwiększonej pojemności zastąpić mają obecnie stosowane anody zbudowane z grafitu.

Profesor Cui złożył już wniosek patentowy i rozważa dodatkowo opcję utworzenia własnej firmy, lub co bardziej prawdopodobne, zawarcia odpowiedniej umowy z którymś z czołowych producentów baterii, który po podpisaniu takiego dokumentu w szybki sposób zyskałby nie tylko fortunę, ale i tytuł niekwestionowanego lidera swojego rynku na długie lata. Póki co trzeba jednak wszystko dopracować i znaleźć sposób na obniżenie kosztów produkcyjnych pojedynczej baterii.

żadnych reklam, sama wiedza.

Zarejestruj się na BEZPŁATNY NEWSLETTER i raz w tygodniu otrzymuj najważniejsze wiadmości
ze świata IT, nowych technologii i kryptowalut.

Bez reklam.

28 odpowiedzi na „Czy szanse na 40-godzinną baterię do notebooka są realne?”
  1. Awatar mario
    mario

    lepiej popracować nad oszczędzaniem energii w PC i laptopach. Dzisiejsze komputery to są prawdziwe żarłoki. Kiedyś w czasach C64 i Amigi taki pobór prądu był nie do pomyślenia. Teraz niestety przy wojnie na GHz producenci przestali zwracać uwagę na jeden z ważniejszych elementów, jakim jest pobór energii elektrycznej.

    1. Awatar Maciek
      Maciek

      Niestety wydaje się to być o tyle trudne, że bez GHz procesora i setek MB pamięci operacyjnej wiele niedbale napisanych programów użytkowych nie ruszy 🙁

      1. Awatar nbvcxz
        nbvcxz

        Fakt – wraz z rozwojem możliwości komputerów 'jakość' pisanych programów (nawet tych OS) spada; dawniej programiści starali się zoptymalizować i wykrzesać każdą iskierkę dla szybszego kodu – dziś niektórzy po prostu o to nie dbają. Windows jak i aplikacje na ten system jest najlepszym przykładem, niestety Linux też lekko dryfuje w tym kierunku
        A do do baterii – ideałem byłoby połączenie mocnych ogniw zasilających z mniej 'żernymi' komputerami, ale poczekajmy – prawdopodobnie dochodzimy do granic możliwości 'klasycznej' technologii krzemowej i mam nadzieję że wkrótce pojawi się kolejny przełom w ewolucji.

      2. Awatar mqkorn
        mqkorn

        Troszkę się z Tobą nie zgodzę. Teraz napiszę dla czego na prostym przykładzie z życia entuzjasty elektroniki. Przypomnij sobie kiedy został wprowadzony 1 procesor z częstotliwością 2GHz. Teraz przeanalizuj sobie, ile taki procesor potrafił 4 lata temu, a ile może dzisiaj. W ten sposób uzyskasz prostą i logiczną odpowiedź, bez kosmicznej matematyki i fizyki. Liczy się architektura i możliwość wielowątkowości. Tak na zdrowy rozsądek, żaden system nie będzie lepszy od drugiego tylko dla tego, że zajmuje więcej MB. Podobnie jest z procesorami i całymi platformami. – Takie moje spostrzeżenie, po paru ładnych latach obserwacji rynku.

  2. Awatar trasz
    trasz

    Jest pewna roznica – C64 nie bylo projektowane jako mocna maszyna, bylo projektowane jako tania maszyna. Obecne pecety – na odwrot. Popatrz na pobor mocy mocnych maszyn w czasach C64.

    1. Awatar Maciek
      Maciek

      nie da się jednak ukryć, że zachłanność komputerów na energię to też w dużym stopniu nasza – programistów – "wina".

    2. Awatar mario
      mario

      C64 był projektowany jako maszynka do gier, podobnie jak dzisiejsze komputery. Oczywiście jest ogromna różnica w zapotrzebowaniu gier na moc obliczeniową, ale czyja to wina? Problem polega na tym, że kupujący widzi jakieś parametry, kupując procesor jest to głównie częstotliwość zegara, ilość cacheu i od pewnego czasu ilość rdzeni (byli nawet mądrzy, którzy mnożyli zegar razy ilość rdzeni i podawali, że komputer ma 5GHz ;-)). W grafikach też częstotliwość CPU i VRAMu. Rynek został tak ukształtowany (głównie przez Intela), że ludzie nie potrafią ocenić tego czy dany procesor jest dobry , czyli jednocześnie oszczędny i wydajny, a nie tylko wydajny. Bo co to za postęp jak procesory teraz potrzebują prądu kilkadziesiąt razy więcej niż kiedyś? Oczywiście jest postęp, ale nie taki duży jak się to wszystkim wydaje. Można też zrobić szybszy procesor pracujący na takim samym zegarze, ale nie wystarczy do tego zmiana technologii produkcji, trzeba włożyć w to pracę inżynierów.
      :
      Cieszy mnie fakt, że aktualnie rynek powoli zaczyna to rozumieć, przy tak ogromnej ekspansji technologii mobilnej pobór prądu jest jednym z głównych kryteriów, jak widzimy Intel i AMD nie biją się już na GHz, tylko na ilość rdzeni, wydajność i jak najmniejszy pobór prądu. Dla mnie procesor, który ciągnie 60W to ogromna porażka. CPU powinien zabierać maksymalnie 10W.

      1. Awatar krzy
        krzy

        Znalazłem sobie daty wydań kolejnych procesorów Intela wraz z częstotliwościami zegarów, wrzuciłem do Excela i zrobiłem regresję. Wyszło na to, że częstotliwość zegara rosła wykładniczo — do 2002 r., po czym wzrost został zahamowany, na poziomie trochę ponad 3 GHz. Intel szybko połapał się co się święci, i zaczął robić procesory wielordzeniowe, wciskając naiwnym, że mieć 2 rdzenie po 2GHz to tak jakby mieć jeden 4GHz. (W rzeczywistości zależność czasu obliczeń od ilości dostępnych procesorów rośnie wolniej niż liniowo — patrz prawo Amdahla). Natomiast pobór mocy, i owszem, rośnie z ilością rdzeni liniowo. No to się montuje w komputerach kilowatowe zasilacze.
        .
        Z moich obliczeń wynika, że gdyby trend nie został zachowany, to w 2007 r. Intel powinien był wypuścić procesor z zegarem… 30 GHz.
        .
        Producenci softu natomiast nie połapali się w porę co się dzieje, i złożoność oprogramowania dalej rośnie wykładniczo. Podejrzewam, że to było źródłem spektakularnej klęski Windows Vista: około 2001 r. wyekstrapolowano trendy i wyspecyfikowano system pod procesor 30 GHz. A że taki nigdy nie powstał… No cóż.
        .
        Długi czas życia baterii można osiągnąć bardzo prosto: użyć starego procesora i radykalnie odchudzić oprogramowanie. No tak, tylko kto to kupi…

        1. Awatar Magnes
          Magnes

          Pytanie jak starego procesora? Eee PC używa słabiej taktowanego, a baterie i tak jakoś specjalnie długo nie trzymają.

        2. Awatar abc
          abc

          prawo Amdahla nie bardzo ma tu zastosowanie… przy odpowiedniej architekturze i dobrze napisanej aplikacji (i systemie operacyjnym) możesz przyśpieszyć nawet swoją aplikację w porównaniu z jednordzeniowym prockiem… poza tym na dwa rdzenie przekłada się choćby dwukrotnie mniejsza liczba przełączeń procesów (a to bardzo czasochłonna sprawa -trzeba wpisać prockowi np to z jakich obszarów pamięci może korzystać itp)…
          no i chyba pobór energii rośnie z kwadratem częstotliwości? chociaż tu pewności nie mam…

        3. Awatar drd
          drd

          @Magnes: eee (ogolnie laptop) to nie tylko proc! wez pod uwage wifi, usb, hdd(sdhc w eee), cd, bt., grafe no i przede wszystkim lcd (a szczeg. jasnosc lcdka). zmiana procka na jakies padelko niewiele raczej tu zmieni 🙁

        4. Awatar http://spock.openid.
          http://spock.openid.

          Doklanie. Taki PowerBook 1,5GHz z przed 3 lat ciagnie na owczesnych bateriach ~4h.
          CPU to nie wszystko. Mam lezace obok siebie PB 1,5GHz i Acera Celeron 1,6Ghz.
          Starszy wytrzymuje prawie 2xdluzej. Wydluzenie bateri to np takie drobe rzeczy jak automatyczne przyciemnianie a potem wygaszanie matrycy . Np po 30 sekundach nie uzywania sprzetu wygasza sie podswietlanie LCD, komputer usypia sie do RAM'u po 3 minutach. Wstaje z usypiania 2 sek. Wogole mam wrazenie ze architektura x86 do nie dawna wogole nie byla projektowana pod katem zuzycia energii. To widac po sprzecie mobilnym typu telefony,pda itp.
          Tam króluje MIPS,ARM. Bo te procki zostaly zaprojektowane z uwzglednieniem kompromisow wydajnosc/pobor energii.

      2. Awatar trasz
        trasz

        C64 byl projektowany jako _tania_ maszynka do gier. Rownoczesnie miales stacje robocze wielkosci szafki nocnej, ktore zarly kilkaset W. Teraz role szafek-stacji roboczych przejely pecety. I zra tyle energii, co na mocny sprzet przystalo.

        Do marzen na temat dziesieciu watow sie nie odniose, bo nie bardzo jest jak – fantazjowania szkielkiem i okiem oceniac nie ma sensu. 😉

      3. Awatar grze_S
        grze_S

        W takim razie zainteresuj się VIĄ i ich platformą Nano-ITX ;>

  3. Awatar mqkorn
    mqkorn

    Tego właśnie dotyczyła informacja o nowym procesorze i całej platformie Intel Atom, ale niektórzy uznali, że to tylko marketingowy chłam, bo to była informacja prasowa i zawierała nieścisłość w sprawie całkowicie nowej, a jednak zgodnej wstecz architektury procesora. Także odsyłam do tej wiadomości, GHz nie muszą znaczyć max, poboru energii. Z resztą do dyspozycji dla urządzeń przenośnych mamy również układ Nvidia http://www.mykomp.pl/my,komp,strona,newsy,nid,103… – uwaga dla bojaźliwych, informacja prasowa!!! Dla tego daje linka, a nie zamieszczam infrmacji bezpośrednio na OS. Mam nadzieję, że się właściciele nie obrażą:). W razie czego zawsze możecie się ze mną nie zgodzić 🙂 i tak będę lubił te strone.

  4. Awatar juckobee
    juckobee

    Fajnie, zawsze to lepiej zmodernizować już istniejącą technologię – mniejsze koszty i da się to zrobić szybciej; prawdziwym hitem jednak byłoby rozpoczęcie masowej produkcji akumulatorów opartych o nanorurkowe kondensatory:
    Parę słów tutaj.
    Cóż, to jeszcze odległa przyszłość, ale fajnie pomarzyć o dniu kiedy ładowanie "do pełna" zajmie kilkanaście sekund…

  5. Awatar Memphis
    Memphis

    "Silicon" to nie silikon, tylko krzem po angielsku.

  6. Awatar siwacki
    siwacki

    damn, sorki literowka

  7. Awatar awo
    awo

    Silikonowe to mogą być cycki a nie obwody 🙂

    1. Awatar lukasz210
      lukasz210

      Święta racja 🙂

      1. Awatar Karl
        Karl

        Naturalne są lepsze 😉

        1. Awatar Vogel
          Vogel

          Obwody?

        2. Awatar drd
          drd

          http://58651.ukrindustrial.com/pl/cat.php?oid=184…

  8. Awatar rad
    rad

    a ja czegoś tutaj nie rozumiem. Ten profesorek pracował na uniwersytecie Stanford, oni mu płacili za prowadzenie badań, a teraz gdy coś wymyślił to, patentuje to i będzie zarabiał na tym grube miliony?

    1. Awatar Budyń
      Budyń

      Konkretnie, to założy spółkę z uniwerkiem.

  9. Awatar mqkorn
    mqkorn

    Aha, dokładnie tak. Pomyśl jaką to sławę przyniesie uniwerkowi i ilu młodych będzie chciało się tam uczyć bo można na tym zbić realną i dobrą kasę. A w międzyczasie ile firm zainwestuje w takowych uczelnianych mądrali, aby patenty stały się ich własnością. 🙂 tak się tworzy dobre uczelnie, milionerów i stojące za nimi gigantyczne korporacje.

    1. Awatar Kejk
      Kejk

      Popieram. Takie myślenie wcale nie jest jakieś złe, to u nas mamy jakieś komunistyczne nastawienie, przez co uczelnie prawie nic sensownego nie wynajdują. Bo nie ma kasy.

      1. Awatar Budyń
        Budyń

        To nie w kasie jest problem. Nawet jakbyś budżet US DoD włożył w nasze uczelnie, to tam NICZEGO się nie wymyśli – co najwyżej, biurokracja wzrosnie.
        W USA mają zachowaną ciągłość technologiczną i intelektualną – w zasadzie, wiele osób z branży widziało wszystko od (prawie) początków. U nas tego nie i nie będzie. Polska spóźniła się na ten pociąg do sukcesu.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *