niedziela, 12 czerwca 2022

Dziwne losy góry Żar

Dziwne losy góry Żar


Na początku XVIII wieku stały się modne badania elektryczności. Uczeni, badacze tajemnic natury, starali się wyjaśnić zjawiska, które obserwowali. A dostrzegali już niemało. Wiedzieli, że pomiedzy ciałami naładowanymi elektrycznie (przez potarcie) mogą występować zarówno siły przyciągając, jak i odpychające; że ciało trzymane blisk ciała naładowanego również staje się naładowan; wreszcie, ze istnieją dwa rodzaje elektryczności – podobne ładunki odpychają się, zaś różne przyciągają. Daleko jeszcze było do zrozumienia istoty zjawisk, lecz każde doświadczenie przynosiło coś nowego.
Jednym z tych eksperymentatorów był profesor Musschenbroeck (wym. Muszenbrek), mieszkający w mieście Leyden, w Holandii. Pewnego dnia w 1746 roku, czcigodny frofesor próbował naładować elektrycznie wodę, którą trzymał w szklanym naczyniu. W tym celu maszynę elektrostatyczną (jaką – nie wiem, ale mogła to być na przykład osadzona na żelaznym pręcie obracanym korbą, kula siarki, która elektryzowała się przez tarcie o rękę) połączył z wodą w naczyniu za pomocą metalowego przewodu. Oczywiście połączenie z wodą polegało na zanurzeniu w niej przewodu. Kiedy już uczony uznał, że dość długo kręcił korbą, wziął naczynie z wodą do ręki i sięgnął po drut, aby go wyjąć z wody.
Nie był to krok rozważny, ale skąd Musschenbroeck miał o tym wiedzieć? W każdym razie pewne jest, że wiecej tego nie zrobił. Otrzymał bowiem tak silne uderzenie prądem, że upadł bez czucia na podłogę, a jak się potem żalił w opisie swego doświadczenia, wydawało mu się, że już nie żyje. Ale cóż, zdobywanie wiedzy nie obywa się bez pewnych ofiar. Mimo wstrząsu dzielny profesor zrozumiał co się stało – po obu stronach szklanej ścianki naczynia (w wodzie i w dłoni) nagromadziły się różnoimienne ładunki, których przepływ po dotknięciu drutu odczuł tak boleśnie.
Wynalezione przez profesora Musschenbroecka „naczynie do zbierania ładunków”, nazwane niedługo później „butelka lejdejską” na cześć miejsca, w którym dokonano odkrycia, znalazło ważne miejsce w laboratoriach ówczesnych badaczy zjawisk elektrycznych. Nawiasem mówiąc, urządzenia oparte na tej samej zasadzie zwane dziś kondensatorami, znajdują się w każdym radioodbiorniku, telewizorze itp. W owych czasach jednak pierwszy na świecie magazyn elektryczności nie znajdował praktycznego zastosowania... O przepraszam, z jednym wyjątkiem:
Abbé Nollet (wym. Nole), francuski badacz przyrody, zebrał wielką grupę mnichów z zakonu Kartuzów i ustawił ich na podparyskiej łące w koło o obwodzie długości jednej mili (ponad półtora kilometra). Mnisi utworzyli łańcuch trzymając się za ręce, a Nollet ustawił w miejscu jednego z nich potężną butelke lejdejską, silnie naładowaną. Sąsiedzi butelki wzięli prowadzące do niej przewody w rękę i wtedy... wtedy okazało się, że wszyscy mnisi na całym milowym kręgu równocześnie pisnęli i podskoczyli wysoko do góry. Pomijając niewątpliwie korzyści naukowe, jakie Nollet uzyskał z tego eksperymentu, podobno licznie zebrane znakomitości wraz ze swymi damami mieli wiele uciechy. Oto, jak należy popularyzować nauki ścisłe wśród ważnych osobistości.
Lecz dość żartów. Początki były trudne, ale wkrótce nauka o elektryczności zaczęła odnosić poważne sukcesy. Przede wszystkim czworga imion Alessandro Giuseppe Antonio Volta zbudował czy raczej wynalazł w 1800 roku ogniwo elektryczne – pierwsze źródło prądu elektrycznego płynące w sposób stały, a nie jako iskra z butelki lejdejskiej czy maszyny elektrostatycznej. Potem sformułowano prawa rządzące przepływem elektryczności, a wreszcie, jak wiemy, w 1882 roku ruszyła pierwsza elektrownia Edisona...
Proszę mi wybaczyć, że przemknąłem przez historię elektryczności w takim pośpiechu, ale ważne są dwie sprawy. Po pierwsze mamy elektrownie i to coraz więcej, a po drugie, od dawna ludzie próbowali zbudować zbiornik elektryczności. Pierwszy z takich zbiorników, czyli jak mawiamy dziś, akumulatorów, powstał na dwa lata przed elektrownią Edisona. Był nim, skonstruowany przez Francuza Faure (wym. For) i Amerykanina Brusha (wym. Brasz) w 1880 roku, tak zwany akumulator ołowiowy. Zawiera on dwie elektrody – jedną z ołowiu, a drugą z tlenku ołowiu, umieszczone w rozcieńczonym kwasie siarkowym. Po dołączeniu do elektrod akumulatora napięcia stałego zostaje on naładowany, czyli magazynuje energię elektryczną.
Po naładowaniu można z niego czerpać tę energię. Akumulatory są dziś niezastąpionymi źródłami prądu elektrycznego dla silników spalinowych (zasilają układ zapłonu mieszanki benzyny i powietrza oraz na postoju zasilają oświetlenie samochodu). Czy jednak trzeba magazynować energię elektryczną? Przecież w miastach świecą latarnie, w domach wystarczy przekręcić kontakt, by zaświeciły żarówki, więc wydawałoby się, że poza tranzystorowymi radioodbiornikami, latarkami i samochodami można sobie robienie zapasów elektryczności darować.
Jednak pogląd taki jest z gruntu błędny, bo wystarczy pomyśleć o tym, jak zużywamy energię elektryczną w ciągu doby. O świcie miliony ludzi wstają do pracy, zapalają światło, mężczyźni golą się maszynkami elektrycznymi, grzeją sobie kawę i robią śniadanie – często z grzankami z elektrycznego opiekacza. Ruszają elektryczne pociągi podmiejskie, aby dowieźć wszystkich na czas do pracy. Wcześnie rano ruszają wielkie zakłady przemysłowe – trudno znaleźć takie, które nie wykorzystywałyby energii elektrycznej do napędu maszyn. Po południu historia się powtarza, tyle że wszyscy zmierzają do domów, zapalają telewizory, gotują jedzenie, włączają pralki i inne urządzenia pobierające prąd.
Wreszcie nadchodzi późny wieczór. Kraj zasypia. Poza nielicznymi zakładami pracującymi na trzy zmiany wszystko zamiera. I wówczas mało kto korzysta z energii elektrycznej. Na dobrą sprawę, niemal jej nie potrzebujemy, można by wyłączyć większość elektrowni i zamknąć na kłódkę, aż do następnego ranka. Ale nie jest to takie proste. Elektrowni nie można wyłączyć tak jak lampki nocnej. Rozpalone paleniska pod kotłami, zgromadzona para – to majątek, z którego nie można zrezygnować lakką ręką. Zwłaszcza że rozpalenieognia i uzyskanie odpowiedniego ciśnienia wymaga sporo czasu – nawet paru godzin. Właściwie nie opłaca się więc elektrowni unieruchamiać na te parę godzin, kiedy nie potrzebujemy prądu.
Albo wyobraźmy sobie, że któregoś dnia w telewizji wczesnym popołudniem nadają sprawozdanie z ważnego międzypaństwowego meczu piłki nożnej, powiedzmy Polska-Włochy. Myślę, że niewiele telewizorów wówczas odpoczywa. Ale również pracują wszystkie zakłady przemysłowe. Okazuje się nagle, że w ciągu dwu godzin potrzeba więcej energii elektrycznej niż w zwykłe dni. I co wtedy robić? W centralnym ośrodku dyspozycyjnym krajowej sieci elektrycznej – bo niemal wszystkie elektrownie są połączone w taką sieć, by awaria jednej z nich nie spowodowała wyłączenia prądu w całym, obsługiwanym przez nią rejonie – nastaje isnty sądny dzień. Wysiadają przeciążone linie, obniża się napięcie w sieci, zmienia częstotliwość prądu (w sieci, płynie, jak już wiemy, prąd zmienny), jednym słowem następuje chaos. Gdyby tak mieć choćby mały zapas elektryczności! - wzdychają wówczas energetycy.
Trzeba od razu otwarcie powiedzieć, że do niedawna takich możliwości nie było. Po prostu, elektryczności nie można magazynować – tym różni się ona odwęgla, benzyny i gazu. Akumulator ołowiowy, o którym wspominałem, jest urządzeniem niezbyt odpowiednim. Po pierwsze, nie magazynuje on elektryczności, tylko zamienia ją na energię chemiczną, a później, gdy czerpiemy z niego prąd, znów zamienia zgromadzoną energię chemiczną na elektryczność. Przy tym dział tylko na prąd stały, więc trzeba by stosować urządzenia zamieniające prąd zmienny na stały i odwrotnie. Po drugie, jest urządzeniem ogromnie ciężkim i trzeba w niego naładować masę ołowiu, by zmagazynowana energia miała jakieś znaczenie. Co innego zasilać zapłon samochodowy, a co innego oświetlać na przykład miasto. Wreszcie, po trzecie, przy wielokrotnym ładowaniu i wyładowywaniu szybko się psuje – a przecież musimy mieć urządzeni niezawodne i działające przez dłuższy szas. Jednym słowem, akumulator się nie nadaje. A przecież w nocy, kiedy elektrownie pracują właściwie bezużytecznie, marnują się ogromne ilości energii elektrycznej.
Cóż więc można uczynić, by uchronić się przed tym, jakże kosztownym marnotrastwem? Myślało nad tym wiele tęgich głów i to przez bardzo wiele lat. Wreszcie przed kilkunastu laty znaleziono niezłe rozwiązanie. Nie idealne, ale trudno przypuścić, by kiedykolwiek udało się ten problem rozwiązać w sposób całkowicie zadowalający wszystkich malkontentów.
W odległości 18 kilometrów od Żywca, stolicy polskiego piwa, znajduje się niezbyt wielka góra Żar. Ma ona około 760 metrów wysokości, jej strome zbocza porastają świerki, tu i ówdzie wznoszą się niezbyt liczne domy. U jej stóp leży sztuczne jezioro, którego wody spiętrza zapora w Porąbce ustawiona na rzece Sole. Zapora i zbiornik mają chronić położone poniżej wsie i pola przed groźną w czasie roztopów Sołą, która powodowała nieraz poważne powodzie.
Góra Żar była przez wiele lat istną Mekką polskich szybowników. Tu bardzo często startowali oni do lotów po diamenty, tutaj uczyli się trudnej sztuki pilotażu. Zbocza Żaru nadawały się do jak mało które miejsce na uprawianie szybownictwa. Później o górze stało się głośno nie tylko wśród miłośników tego pięknego sportu. Na jej wierzchołku zbudowano obserwatorium meteorologiczne połączone z przekaźnikiem telewizyjnym nadającym programy Katowic i Krakowa. Ale to dopiero początek kariery góry Żar.
W 1969 roku, po licznych badaniach, obliczeniach i naradach, postanowiono zbudować we wnętrzu góry Żar elektrownię. Na jej wierzchołku miał znaleźć się zbiornik na wodę, połączony rurociągami z hydroelektrownią umieszczoną dosłownie we wnętrzu góry, w wykutej hali, a oda po wprowadzeniu w ruch turbin elektrowni miała wpływać do sztucznego jeziora Porąbka. Niby wszystko jak zwykłe, jak w normalnej elektrowni wodnej, a jednak niezupełnie. Bo przecież, skąd wziąć wodę, i to dużo wody na szczycie stromej góry? Odpowiedź może będzie zaskoczeniem – wpompowują ją na górę te same turbiny, wtedy gdy prądnice pobierając prąd z sieci działają jak zwykłe silniki elektryczne.
Teraz chyba wszystko jest jasne. Nocą, kiedy energia elektryczna jest tania, elektrownia wpompowuje wodę do zbiornika na szczycie góry. Później, gdy trzeba zwiększyć dostawę elektryczności dla różnych prądożerców, otwiera się zawory i woda spływa z hukiem w dół, porusza generatory hydroelektrowni, która oddaje nagromadzoną energię. Różni się to od akumulatora tylko tym, że energia elektryczna zostaje tu zmagazynowana w postaci energii mechanicznej – a jak wiadomo urządzenia mechaniczne są łatwiejsze w obsłudze od chemicznych.
Zapas wody w zbiorniku wystarcza na cztery godziny nieprzerwanej pracy elektrowni. Później, by zapas odnowić,turbiny muszą mozolnie pracować przez prawie sześć godzin. To znaczy w kolejnych operacjach pompowania i produkcji elektryczności traci się trzecią część energii, ale całe przedsięwzięcie i tak się opłaca. Elektryczność nocą jest prawie darmowa.
Budowa elektrowni Żar, rozpoczęta w 1971 roku, jest nie lada wyczynem. Mamy się czym pochwalić. Trudno w kilku słowach opisać ogrom i rozmach tego przedsięwzięcia. Ponieważ cała elektrownia jest ukryta we wnetrzu góry, zamiast budowniczych musieli działać tu górnicy, a właściwie kolejność robót była jeszcze inna – najpierw trzeba było zbudować drogę na szczyt góry, którą wjechały ciężkie maszyny i kurowały ogromne wywrotki, wywożące wydarte z wnętrza góry odłamki skalne. Na szczycie pracę rozpczęto od wydrążenia wielkiego zbiornika – ma on powierzchnię 16 hektarów i głębokość 23 metrów. Dopiero wówczas ekipa górników ruszyła w głąb góry dwiema wykuwanymi sztolniami. Równocześnie druga ekipa rozpoczęła drążenie od dołu. Najpierw ponad półkilometrowy kanał odpływowy o średnicy sześciu metrów, później komora, w której staną maszyny (to też nie bagatelka, ma rozmiary takie, że można by w niej, jak na stadionie, grać w piłkę nożną) i wreszcie stromo pnące się w górę kanały, prowadzące do górnego zbiornika.
Obie ekipy szybko zbliżały się do siebie, mimo iż praca była niezwykle trudna – górnicy pracowali na przemian to w skale, to w błocie, to w chmurach pyłu z pokruszonego piaskowca. Nie ułatwiał zadania duży spadek kanałów – podobno drążenie bardziej stromych jest już niemożliwe. Mimo to doświadczeni specjaliści z Mysłowic każdego miesiąca posuwali się o 50 metrów wydrążonych sztolni. Warto wspomnieć, że projekty przewidywały zaledwie 30 metrów miesięcznie...
Górnicy mieli do dyspozycji najlepszy sprzęt, zarówno krajowy, jak i z zagranicy. Przebijanie sztolni od obu końców było możliwe tylko dzięki zastosowaniu laserów, których promienie dokładnie wytyczały kierunek, w jakim trzeba się było posuwać. Podobno obie ekipy drążyły ostatnie metry z wielką emocją, czy aby napewno natrafią na siebie. Lecz obawy były płonne, trafili z dokładnością co do milimetrów.
W chwili gdy piszę te słowa, wszystkie prace górnicze zostały już zakończone. Oddanie elektrowni do użytku w roku 1977 będzie stanowiło nie lada rekord. Podobną elektrownię budowano na przykład w Jugosławii kilkanaście lat. naszą tylko sześć. Wysokość spadku wody we wnętrzu góry Żar też jest rekordowa, wynosi aż 440 metrów. A wysokość spadku decyduje o wydajności elektrowni. Kanały, którymi popłynie woda, zostaną zabezpieczone pancernymi rurami stalowymi o grubości ścianek przekraczającej 5 centymetrów. Nic dziwnego, ciśnienie wody w pobliżu turbin wyniesie aż ponad 60 atmosfer.
Ważne jest również to, że elektrownia będzie właściwie niewidoczna. Zbiornika wykutego w wierzchołku po prostu nie będzie widać z dołu, a niemal wszystkie pozostałe urządzenia zostaną ukryte głęboko w skałach. Ma to niemałe znaczenie, bowiem nad zalewem w Porąbce rozlokowały się liczne ośrodki wypoczynkowe i szkoda by było zeszpecić tę piękną okolicę widokiem żelbetonowych buynków i stalowych rur.
Elektrownia Żar będzie w znacznym stopniu zautomatyzowana i sterowana przez specjalny układ elektroniczny. Jeśli trzeba będzie jąuruchomić, to znaczy gdy zabraknie gdzieś energii elektrycznej, wówczas wystarczy naciśnięcie guzika w okręgowym ośrodku dyspozycyjnym w Katowicach lub w ośrodku centralnym w Warszawie. Już po trzech minutach od zdalnego uruchomienia z elektrowni popłynie prąd. I to jest jej majwiększa zaleta. Uzyskamy niezawodne źródło energii elektrycznej, które łatwo można wykorzystać, gdy tylko będzie potrzebne. Elektrownie tego typu nazwane przez specjalistów szczytowo-pompowe, są obecnie niezastąpione i buduje się je niemal we wszystkich krajach. W miarę wzrostu zużycia nergii elektrycznej stają się coraz bardziej potrzebne, bowiem bez nich stale zwiększałaby się ilość energii traconej w „normalnych” elektrowniach nocą. Elektrownie szczytowo-pompowe magazynują ją, byśmy mogli korzystać z niej w ciągu dnia.
Nic więc dziwnego, że na świecie powstaje średnio dwukrotnie więcej elektrowni szczytowo-pompowych niż zwykłych. W Polsce istnieją już takie elektrownie w Solinie i Żydowie. Budowane są elektrownie w Młotach i Żarnowcu. Elektrownia żaronowiecka powstaje nad jeziorem o tej samej nazwie, na przeciwległym brzegu do wspomnianej przeze mnie projektowanej pierwszej polskiej elektrowni jądrowej. Nocą elektrownia jądrowa będzie pompować wodę z jeziora na szczyt wzgórza, a w ciągu dnia woda spływać bedzie na dół poruszając turbiny, co zwiększy moc naszej elektrowni jądrowej w godzinach szczytu.
Lecz nie wszystkie kraje i nie wszystkie okolice mają tak korzystne ukształtowanie terenu jak Polska. Nie wszędzie występują strome pagórki, na szczycie których można budować sztuczne zbiorniki wody dla elektrowni szczytowopompowych. Czy można i tam znaleźć sposób na magazynowanie elektryczności, czy też trzeba nadmiernie rozbudowywać sieć elektrowni? Oczywiście można, na bardzo podobnej zasadzie.
Jeśli pod warstwą gleby znajduje się twarda skała, można z niej wykuć ogromny zbiornik, uszczelnić jego ściany betonem i połączyć przewodem z turbiną gazową, to znaczy taką, do której wprowadza się mieszaninę sprężonego powietrza i paliwa. Część produkowanej energii elektrycznej turbina taka zużywa na sprężanie powietrza. Ale jeśli ma zbiornik podziemny, wówczas nocą można do komory pompować powietze na zapas, a w ciągu dnia wykorzystać dużą masę sprężonego gazu. Bez większych obaw można powierze sprężać do ciśnienia aż 40 atmosfer. Jednakże po to, aby turbina pracowała równo i bez zakłóceń, ciśnienie dopływającego do niej powietrza musi być stałe, dlatego też trzeba wyposażyć komorę w urządzenie, które zapewni spełnienie tego warunku. W najprostrzym przypadku można nad zbiornikiem gazu, na powierzchni ziemi zbudowac sztuczne jezioro i połączyć szeroką rurą jego dno z dnem zbiornika powietrznego. Stałe ciśnienie słupa wody będzie wówczas, jak uczy fizyka, zależne od różnicy poziomów wody w zbiorniku górnym i pod ziemią. W miarę czerpania sprężonego powietrza, poziom wody w zbiorniku podziemnym będzie się podnosił, objętość zajmowana przez gaz będzie się zmniejszać, a jego ciśnienie niemal się nie zmieni do chwili, gdy wykorzystamy cały gaz zawarty w komorze. Oczywiście, by różnica poziomów wody nie zmieniała się w zbyt drastyczny sposób, zbiornik podziemny powinien raczej być szeroki i płaski, niż wąski i wysoki.
W ten sposób pod ziemią musi się znajdowac tylko komora gazowa, a cała elektrownia (można ją też nazwać szczytowo-pompową) znajdzie się na powierzchni ziemi. Już obecnie rozważane są plany budowy takiej elektrowni w Bretanii we Francji, a w Szwecji firma Stal-Lawal, znany producent turbin, już niedługo przystąpi do budowy pierwszego powietrznego magazynu elektryczności.
W poszukiwaniach najlepszych możliwych magazynów energii uczeni zwrócili niedawno uwagę na koła zamachowe. Nie można powiedzieć, że jest to wynalazek czy szczególna nowość, bowiem już przed tysiącami lat garncarze wykorzystywali energię zmagazynowaną przez koło zamachowe do obracania maszyny, na której formowali gliniane naczynia. Dziś koła zamachowe znajdują zastosowanie w najróżniejszych urządzeniach. Najbardziej wśród nich powszechne to silniki motocyklowe, w których koło zamachowe spełnia rolę magazynu energii mechanicznej i obraca wał silnika w przerwach między kolejnymi wybuchami mieszanki paliwowo-powietrznej.
Jednakże zwykłe koła zamachowe wykonane z metalu jako pełny krążek osadzony na osi, mają wiele wad, a główna z nich polega na tym, że nie nadają się do magazynowania większych ilości energii. Brzmi to trochę jak anegdota o Napoleonie, który zapytał: „Dlaczego nie strzelaliście?” „Z wielu powodów, Sire – odparł przerażony winowajca – przede wszystkim nie mamy armat”. „To mi wystarczy” - odpalił zirytowany cesarz.
Rozpędzone koło zamachowe gromadzi tym więcej energii, im szybciej wiruje. Ale wówczas niezmiernie wzrasta siła odśrodkowa, która przy lada przyczynie może spowodować rozerwanie koł. Taką przyczyną może być niemożliwe do wykrycia wewnętrzne osłabienie materiału. A jeśli oderwie się jeden, choćby niewielki kawałeczek, wylatuje on jak kula wystrzelona z karabinu, zresztą i całe koło może się wówczas rozpaść niszcząc wszystko dookoła. Po kilku takich wypadkach uznano na wiele lat, że koła zamachowe nie nadają się do magazynowania energii, oczywiście poza niewielkimi i mało ważnymi wyjątkami.
Tymczasem, jak w każdej zresztą dziedzinie, również i tu pojawili się entuzjaści, którzy przemyśliwali nad możliwością ulepszenia tego antycznego wynalazku. Jednym z nich jest profesor David Rabenhorst z Uniwerstytetu Johna Hopkinsa. Postanowił on zrezygnować z budowania koła w postaci pełnej tarczy i zastąpił ją jakby gigantyczną szczotką w kształcie wałka o średnicy około 8 metrów i wysokości paru metrów. Każdy z niezliczonych „włosów” tej szczotki miałby średnicę około 1 centymetra i wagę około 2 kilogramów. Należałoby je wykonać z materiałów o wysokiej wytrzymałości w kierunku ich długości, a więc ze strun stalowych, włókien szklanych czy wreszcie drewna. Można też obłożyć wewnętrzną strunę o wysokiej wytrzymałości ciężkim materiałem, który zwiększałby wagę całego koła i utrzymywany był przez tę strunę. Zresztą najważniejszy jest sam pomysł, reszta to już tylko ulepszenia techniczne.
Czy koła zamachowe znalazły już jakieś konkretne zastosowanie? To jest przecież najciekawsza dla nas sprawa. Otóż wiadomo mi o dwu próbach ich zastosowania w środkach masowego transportu – w pociągu metra i trolejbusie. Oba te pojazdy są zależne od dostawy energii elektrycznej. Gdy z jakiś przyczyn zabraknie prądu, stają niemal w tym miejscu, w którym zostały zaskoczone przez awarię. Jeśli trolejbus zatrzyma się na skrzyżowaniu, wówczas powstają gigantyczne korki uliczne, a z unieruchomionego pociągu metra w tunelu pasażerowie nie mogą się wydostać nieraz godzinami. Gdy na dokładkę zdarzy się to w godzinach szczytu i metro jest przepełnione, trudno wprost opisać sceny, jakie się wówczas rozgrywają.
Gdyby każdy trolejbus i pociąg metra zaopatrzyć w sprawne koło zamachowe, wówczas mogłyby one o własnych siłach dojechać do najbliższego przystanku. W eksperymentalnym wagonie metra koło zamachowe ma dodatkowo czerpać energię z hamowania. Wiadomo, że przy hamowaniu hamulce rozgrzewają się do wysokiej temperatury, a powstająca energia cieplna ulega bezpowrotnie straceniu. Przy pochłonięciu energii rozpędzonego pociągu przez koło zamachowe można wykorzystać zmagazynowaną energię, gdy pociąg rusza ze stacji i przyspiesza.
Ale trzeba uczciwie przyznać, że nie wyszliśmy tu poza wstępne eksperymenty i trudno na razie oceniać przydatność takich urządzeń. Zresztą w Polsce nie mamy metra, a trolejbusy kursują w niewielu tylko miastach, więc nie musimy czekać w napięciu na wyniki tych doświadczeń.
Również konstruktorzy samochodów rozpoczęli doświadczenia z kołami zamachowymi. Liczne firmy próbują zbudować samochód miejski o niewielkim zasięgu i nezbyt dużej prędkości, który nie zanieczyszczałby powietrza w miastach, gdzie obecnie na dużych skrzyżowaniach wprost nie ma czym oddychać. Istniejące akumulatory są ciężkie, drogie i wymagają wielogodzinnego ładowania. Poza tym, odpukajmy w nie malowane drewno, zawsze może się zdarzyć wypadek drogowy, a wtedy z rozbitych akumulatorów wyleje się kwas siarkowy. Poparzenia tą cieczą są niezwykle groźne dla niefortunnych pasażerów pojazdu. Gdyby udało się (a wstępne próby są zachęcające) zbudować samochód z kołem zamachowym, wówczas mieszkańcy miast odetchnęliby z ulgą (w całym tego słowa znaczeniu). Po ulicach poruszałyby się pojazdy ciche, niemal bezgłośne, niesmrodliwe i łatwe w obsłudze. Ale to chyba jeszcze dość odległa przyszłość. Na razie zresztą znacznie więcej naukowców pracuje nad ulepszeniem akumulatorów i znalezieniem nowych ich typów, zawierających lżejsze materiały i pracujących niezawodnie przez wiele lat, przy wielokrotnym ładowaniu i rozładowywaniu.
Akumulator ołowiowy, staruszek już niemal stuletni, został w ostatnich latach zagrożony przez wielu konkurentów. Pojawiły się akumulatory niklowo-kadmowe, srebrowo-cynkowe i inne jeszcze, zawierające kombinacje różnych metali. Mimo iż wydajniejsze od starych, są jednak drogie i trudno myśleć o ich powszechnym wykorzystaniu poza niewielkimi urządzeniami, takimi jak radioodbiorniki tranzystorowe. Potrzebne nam są akumulatory duże, w których można zgromadzić wiele energii elektrycznej stosunkowo tanim kosztem.
Najwięcej nadziei można chyba wiązać z akumulatorami, w których jako elektrolit stosuje się substancje stałe w temperaturze pokojowej. Stają się one w wyższej temperaturze cieczami, a więc cały akumulator musi mieć ciepłotę większą od otoczenia. Jest to pewien kłopot,ale nie tak wielki, jak mogłoby się wydawać. Po prostu część elektryczności magazynowanej w akumulatorze można wykorzystywać do ogrzewania jego wnętrza. Maksymalna temperatura, o jakiej wspominają konstruktorzy, sięga zaledwie 370 stopni Celsjusza – byłoby to wiele, gdyby taki akumulator nosić w ręku. Lecz jeśli ma spoczywać w hali, połączony w baterię z tysiącami innych, wówczas wystarczy tę halę wyłożyć izolacją cieplną i wcale nie trzeba do niej wchodzić.
Ze względu na tajemnicę, co już świadczy o zaletach nowych konstrukcji, trudno podać dokładniejsze szczegóły techniczne. Wszystki firmy prowadzące te badania chcą wyprzedzić swych konkurentów, opatentować wynalazek i czerpać ogromne korzyści, bowiem należy przypuścić, że jeśli tylko powstanie niezawodny akumulator, w którym mieści się więcej energii niż w akumulatorze ołowiowym, w ciągu paru lat wszyscy będą chcieli kupować owych pracowitych magazynierów elektryczności. Z grubsza wiadomo tylko, że jedną z elektrod będzie stanowił metal, taki jak lit lub sód, zaś drugą chlor, fluor lub siarka.
Bateria szczelnie zamknięta, tak aby nie dostała się do jej wnętrza wilgoć z powietrza, która łatwo reaguje chemicznie z użytymi substancjami, będzie miała pojemność dla elektryczności kilkanaście razy większą niż akumulator ołowiowy. A to już jest postęp.
Jak będzie wyglądał taki akumulator? Lit będzie się znajdował w ujemnej elektrodzie, wykonanej z porowatej stali nierdzewnej, zaś na przykład siarka w dodatniej elektrodzie zrobionej z porowatego węgla. Obie elektrody będą otoczone elektrolitem, którego składu dokładnie jeszcze nie znamy – na przykład może to być mieszanina chlorku sodu (soli kuchennej) i chlorku glinu. Próby takiej konstrukcji wypadły pomyślnie, teraz tylko trwają prace nad zapewnieniem jej niezawodności. Przecież po to, aby cała sprawa była opłacalna, akumulatory muszą pracować bez przerwy przynajmniej przez 5-10 lat.
Cały magazyn elektryczności będzie zawierał transformatory obniżające napięcie, połączone z układem zamieniającym prąd zmienny na stały i baterią akumulatorów. A układ zamieniający prąd zmienny na stały (i odwrotnie) to dwie prądnice, które przy zasilaniu prądem działają również jak silniki elektryczne. To znaczy, że gdy w nocy będzie płynął zmienny prąd elektryczny z sieci, prądnica prądu zmiennego będzie obracać wirnik prądnicy prądu stałego, a wytworzony przez nią prąd stały naładuje akumulatory. W ciągu dnia natomiast sytuacja się odwróci. Teraz akumulatory zasilą prądnicę prądu stałego, która obracając wirnik prądnicy prądu zmiennego, wytworzy prąd zmienny, wspomagający obiążoną sieć elektryczną.
Wszystko to brzmi prosto i nieskomplikowanie. Lecz musimy pamiętać, że upłynie jeszcze parę lat, zanim nowe akumulatory staną się niezawodne. Wtedy jeszcze trzeba będzie przekonać ewentualnych użytkowników, że opłaci się na pewno. Gdyby na przykład w dużej fabryce założyć akumulatorowy magazyn elektrycności, wówczas w nocy można by ładować akumulatory tanim prądem i korzystać z niego w godzinach pracy. Uzyska się wówczas oszczędności na cenie elektryczności, a poza tym w wyniku znacznego obniżenia ilości energii czerpanej z sieci, będzie można zbudować słabszą linię, tj. transformatory i inne elementy urządzenia. Również w wielkich biurowcach, gdzie korzysta się z elektryczności tylko w ciągu dnia (maszyny do liczenia, do pisania, klimatyzcja i inne) można podobny magazyn, tyle że nieco mniejszy, założyć w piwnicy. Czy prędko nastanie czas budowy takich magazynów? Wszelkie znaki wskazują, że wcześniej niż nam się wydaje. Przypuszczalnie w połowie lat 1980-1990 energia elektryczna stanie się tak cenna, że nikogo nie będzie stać na jej marnotrawienie.
„Sądzę, że pewnego dnia woda znajdzie zastosowanie jako paliwo, że wodór i tlen, które ją tworzą, użyte oddzielnie lub razem, staną się niewyczerpalnym źródłem światłą i ciepła, o intensywności, jakiej nigdy nie osiągnie węgiel. Pewnego dnia bunkry parowców i tendry lokomotyw zamiast węglem zostaną załadowane tymi dwoma gazami w stanie sprężonym, które spalając się wydzielają niezwykłe ilości ciepła. Tak więc nie mamy się czego obawiać. Bez względu na to ilu mieszkańców będzie liczyła Ziemia, spełni ona wszystkie ich potrzeby, tak że nie zabraknie im ani światła, ani ciepła...” - oto co napisał przed stu laty wielki wizjoner Jules Verne w swej książce „Wyspa Tajemnicza”. Co prawda nasze ambicje sięgają już dalej niż parowców i lokomotyw, światła i ciepła, ale i tak zachęcam wszystkich do czytania książek Verne'a.
To prawda, że wodór, występujący w tak wielkiej obfitości na naszej planecie jako składnik wody, jest paliwem znakomitym. Kiedyś nawet tn najlżejszy z pierwiastków był paliwem zbyt dobrym – wtedy gdy na Ziemi królowały parowce i lokomotywy, a węgiel był tani i dostępny w potrzebnych ilościach. Wówczas nikt nie myślał o spalaniu oceanów. Ponadto w roku 1937 cały świat obiegła wiadomość o tragicznej katastrofie niemieckiego sterowca pasażerskiego Hindenburg. Ten prawdziwy podniebny statek zabierający na pokład 50 pasażerów i 40 członków załogi spłonął w czasie jednego z lotów. Zginęły wówczas 34 osoby, co jak na czasy, w których latały małe samoloty, było katastrofą na ogromną skalę – dziś przywykliśmy już niestety do większych katastrof powietrznych...
Tragedia owa wryła jednak na wiele lat w pamięć ludzi, że wodór jest niesłychanie niebezpieczny. Tworzy z powietrzem mieszankę wybuchową, co przy najmniejszej nieostrożności może się zawsze przytrafić, a wtedy - „ratuj się kto może”, lada iskra powoduje groźny w skutkach wybuch. Od czego jednak postęp techniczny, a nade wszystko stale rosnące potrzeby energetyczne ludzkości. Okazuje sie, że nie taki diabeł straszny. Technicy przestali więc obawiać się do niedawna zakazanego gazu i zaczęli coraz śmielej zgłaszać różne projekty jego wykorzystania.
Ma wodór liczne zalety. Najważniejszą z nich jest to, że przy spalaniu, czyli łączeniu z tlenem, powstaje najzwyklejsza w świecie woda. Jest to, iinymi słowy, paliwo niemal idealne. Nie dymi, nie wytwarz szkodliwych substancji, a nade wszystko mamy go bardzo dużo – zresztą nawet gdybyśmy mieli mało, to i tak nie ulega on zniszczeniu w czasie spalania. To prawda. Lecz łączy się znów z tlenem w związek bardzo trwały i trzeba włożyć sporo energii, aby go z cząsteczek wody wyrwać z powrotem.
Ale nie popadajmy w pesymizm. Mamy przecież kłopoty ze znalezieniem możliwie najlepszego sposobu magazynowania energii elektrycznej. Czemu więc nie skorzystać z wodoru? Można przecież przy elektrowniach umieścić zakłady, w których dokonywano by elektrolizy wody. Uzyskane nocą wodór i tlen, w stanie skroplonym lub sprężonym można wykorzystać w ciągu dnia. A jak? Proszę bardzo, możliwości jest badzo wiele.
Przede wszystkim, od kilku lat wielką karierę robią tak zwane ogniwa paliwowe. Te zmyślne urządzenia bezpośrednio zamieniają energię chemiczną wodoru i tlenu na energię elektryczną i niezwykle czystą wodę. Warto może przypomnieć, że statki kosmiczne Apollo były wyposażone w takie właśnie ogniwa. Niestety, na razie są to urządzenia dość kosztowne – nawet ich zbiorniki trzeba było wykonywać ze złota i platyny. Nie miało to większego znaczenia w przypadku podboju Kosmosu, gdzie wszystkie części rakiet i statków były dosłownie nawagę złota, ale na Ziemi jest to nie do przyjęcia. Jednak niemal wszyscy fachowcy twierdzą, że już za kilka lat ogniwa znacznie stanieją i chyba można w to wierzyć. Znalezienie lepszych materiałów jest tylko kwestią czasu.
Jeśli zaś ogniwa paliwowe będą tanie i lekkie, zyskają wielką przyszłość jako źródła energii dla pojazdów, głównie samochodów elektrycznych, które zdaniem fachowców niedługo wyprą samochody z silnikami benzynowymi. Pomyślne doświadczenia z wodorowymi silnikami rakietowymi inspirują konstruktorów do prób zbudowania samolotu odrzutowego, którego silniki spalałyby wodór zamiast benzyny. Ba, nawet pewne projekty przewidują, że samolot taki osiągnie prędkość wielokrotnie większą od słynnego TU-144 czy Concorde. Nie są to mrzonki, bowiem wszyscy mają już dość spalin i wysokiej ceny benzyny.
W poprzednim rozdziale wspominałem o planach budowy gigantycznych elektrowni wykorzystujących różnicę temperatury w różnych warstwach wód oceanów. Projekty te pozostaną utopijne dopóty, dopóki nie znajdziemy sposobu przesyłania wytworzonej w nich elektryczności na ląd. Otóż najlepiej przesyłać ją pod postacią energii chemicznej, zmagazynowanej w wodorze, który w ogniwach paliwowych na lądzie znów zamieni się w energię elektryczną. To samo dotyczy elektrowni słonecznych budowanych na rozległych pustyniach. Trudno sobie wyobrazić inny sposób dostarczania wytworzonej przez nie energii do obszarów zamieszkanych. Kto wie, czy groźne tankowce, które krążą obecnie po oceanach, nie będą krążyły nadal, tyle że w ich zbiornikach zamiast cuchnącej ropy naftowej znajdzie się czysty wodór?
Pomysłów i projektów jest coraz więcej. Pewne z nich są nierealne, ale nie możemy jeszcze wiedzieć, które mają szanse realizacji. Jedno jest pewne, że przy obecnym zapotrzebowaniu na energię, gdy powstają coraz większe elektrownie, stale będzie wzrastała różnica między ilością energii elektrycznej zużywanej w różnych porach dnia. Tylko szeroko rozwinięty system magazynowania energii może nieco poprawić tę trudną sytuację. I znów, tak samo jak w przypadku produkcji energii, również i tu nie można ograniczać się tylko do jednego typu magazynów. Działanie nasze musi być elastyczne i dostosowane do wszelkich warunków i potrzeb. Wtedy magazyny energii staną się również jej źródłem o znaczeniu niemal takim samym jak zwykłe elektrownie.

Energia z lodówki

Niewielu chyba ludzi nie lubi siedzieć przed zapalonym kominkiem i grzejąc się w jego cieple spokojnie marzyć i wypoczywać. A są też ludzie, którym przy patrzeniu w ogień przychodzą do głowy ciekawe pomysły. Jednym z nich jest fizyk Lawrence Cranberg. Uczony ten zirytował się kiedyś, że kominek, w którym ułożył, tak jak to się zwykle czyni, trzy grube polana – dwa na dole i jedno na wierzchu – trudno się rozpalał i dawał za mało ciepła. Postanowił więc coś ulepszyć. Podszedł do zagadnienia jak prawdziwy naukowiec i uzyskał znakomite wyniki. Otóż zaproponował, by układać na ruszcie z tyłu jedno grube polano, drugie grube polano położyć na wierzchu, jak przedtem, tyle że oparte o żelazne wsporniki od przodu, a trzecie polano zastąpić drobnymi drwami. W ten sposób przy rozpalaniu ogień chwyta najpierw drobne kawałki drewna, a potem oba grube polana. Ciepło, które uciekało przedtem aż w 90 procentach do komina, teraz zostaje uwięzione w utworzonej przez grube polana wnęce i w znacznej mierze wychodzi do pokoju. Owo „w znacznej mierze” oznacza aż 30 procent. Ta niewielka innowacja daje trzykrotny wzrost wykorzystania opału.
Ciekawe, prawda? Ale jeszcze ciekawsze jest to, że nie wyczytałem tego przepisu w żadnym poradniku dla domowych majsterklepków, tylko w szanującym się amerykańskim tygodniku dla byznesmenów „Time”, również chętnie czytanym w Europie. Był to numer z dnia 22 grudnia 1975 roku, a więc informacja miała charakter poważny, a nie żartu primaaprilisowego. Tak, tak, nadeszły czasy, gdy nawet poważne gazety zaczęły zajmować się możliwościami czynienia choćby drobnych oszczędności energii. Ten, wydawałoby się, błahy przykład, odsłania jedną z najważniejszych bolączek naszej techniki, a mianowicie nikłą wydajność wszystkich niemal urządzeń służących do wytwarzania i wykorzystywania energii. Brzmi to niewiarygodnie, ale wykorzystanie aż trzeciej części ciepła wytwarzanego w kominku w trakcie spalania drewna jest poważnym osiągnięciem.
By to uzmysłowić, podam kilka przykładów. Zacznijmy od tego, co każdy z nas widzi na co dzień, to znaczy od zwykłej żarówki elektrycznej. To urządzenie, którego zadaniem jest wysyłanie światła, aż 95 procent dostarczanej energii elektrycznej zamienia na ciepło. Zaledwie dwudziesta część energii pobieranej z sieci oświetla nasze mieszkania, ulice czy inne obiekty. Co prawda w mieszkaniach tracona energia zostaje wykorzystana do ogrzewania, ale jest to zaleta tylko zimą. Latem, zwłaszcza w cieplejszych okolicach, w jasno oświetlonych pomieszczeniach trudno wytrzymać z gorąca, więc ludzie włączają klimatyzatory, co znów powoduje ogromne zużyci energii.
Czy musimy korzystać z tak niedoskonałych źródeł światła? Istnieją co prawda aż czterokrotnie bardziej wydajne lampy fluorescencyjne zwane świetlówkami, lecz ich światło jest wyjątkowo nieprzyjemne dla oka.- trudno przypuścić, by wyparły one żarówki, urządzenia na dobrą sprawę zabytkowe, bo przecież wynalezione już niemal 100 lat temu. Możemy tylko liczyć, że ktoś wynajdzie coś nowego. Ale na to potrzebne są poważne badania i przede wszystkim... pieniądze. Dotychczas wszyscy byli zadowoleni z istniejącego stanu rzeczy i nikomu nie przychodziło do głowy, by coś zmieniać. Ale już słychać o różnych nowych propozycjach i chyba coś się z nich wkrótce wykluje. Żarówka nazbyt wyraźnie odstaje od nowoczesnej techniki. Te nowe pomysły są jednak jeszcze zbyt słabo zaawansowane, by o nich opowiadać.
Zajrzyjmy teraz pod maskę samochodu. Silnik benzynowy, mimo licznych ulepszeń, jakich dokonano od czasów Otto i Benza, czyli w ciągu niemal 100 lat, ma wydajność zaledwie około 25 procent, to znaczy aż trzy czwarte ciepła uzyskiwanego przy spalaniu kosztownej benzyny ulatnia się. Nawet znakomite osiągnięcie Rudolfa Diesela, silnik wysokoprężny, zużywa na poruszanie, powiedzmy, samochodu, niespełna 40 procent ciepła spalanego oleju napędowego. A najnowsze osiągnięcie, silnik rotacyjny Wankla to już jawne marnotrastwo – jego sprawność nie sięga nawet 20 procent. Cóż, w porównaniu z najlepszą nawet lokomotywą parową i tak jest to postęp, ta bowiem wykorzystuje niespełna dziesiątą część węgla wrzucanego do paleniska.
Elektrownie parowe, opalane paliwami kopalnymi, w najlepszym przypadku przetwarzają na elektryczność zaledwie 40 procent ciepła wytwarzanego pod ich kotłami. Reszta ulatnia się przez komin, ogrzewając powietrze i wypływa wraz z gorącą wodą, powstającą ze skroplonej pary. Jeszcze gorzej przedstawia się sprawa w przypadku elektrowni jądrowych. Trzeba je łączyć z ogromnymi chłodnicami, o których zresztą już pisałem w jednym z poprzednich rozdziałów. Wniosek jest tylko jeden – wszystko, co spalamy głównie ogrzewa Ziemię – jej wody i atmosferę – a tylko w nieznacznym stopniu spełnia zamierzone zadania. Oczywiście dotyczy to w jeszcze większej mierze także elektrowni jądrowych i termojądrowych. A czym może nam to grozić?
Musimy sobie zdawać sprawę z tego, że zapotrzebowanie na energię we wszystkich jej postaciach stale wzrasta w sposób zaiste oszałamiający. Trudno snuć prognozy, bowiem jak uczy doświadczenie, nawet najznakomitsi przewidywacze przyszłości często się mylą. Nic jednak nie wskazuje na to, by ludzie zechcieli zmniejszyć swe wymagania. A poza tym jest nas coraz więcej, niedawno liczba ludności świata osiągnęła ponad cztery miliardy, co wskazuje, że być może już za lat kilkadziesiąt będzie nas 10 miliardów. Każdy z mieszkańców Ziemi zechce korzystć z udogodnień techniki, z owych mechanicznych niewolników, którzy wspomagają nas w pracy i uprzyjemniają życie. Po drugie, należy pamiętać, że większa część ludzkości dotychczas nie korzysta ze źródeł energii w takim stopniu jak mieszkańcy krajów rozwiniętych gospodarczo. Państwa rozwijjace się, w Azji, Afryce i Ameryce Południowej, muszą osiągnąć taki stopień rozwoju, jak choćby kraje Europy. Tego wymaga elementarna sprawiedliwość. Ale równocześnie oznacza to niezmierny wzrost zużycia energii. Eksperci wygłaszają różne opinie na temat tempa tego wzrostu. Można z nimi dyskutować, twierdzić, że wzrost będzie jeszcze szybszy lub nieco wolniejszy, ale zasadniczej prognozy to nie zmienia.
Obecnie około dwu trzecich całej zużywanej energii idzie na marne, czyli innymi słowy, na ogrzewanie Ziemi. Jeśli nie nastąpi jakiś wyraźny przełom technicny, po pewnym czasie (celowo używam słowa „pewnym”, bowiem w istniejącym zamęcie nie można określić dokładnie, czy będzie to 150, czy 200 lat) energia ogrzewająca Ziemię stanie się porównywalna (czyli niewiele mniejsza) z energią promieniowania słonecznego, ogrzewającego ziemskie oceany.
Wtedy może nastąpić katastrofa. Nikt nie jest w stanie przewidzieć, na ile możemy sobie pozwolić – to znaczy, kiedy sztuczne rozgrzewanie powierzchni Ziemi spowoduje poważniejsze perturbacje odwiecznego rytmu parowania wód i tworzenia chmur, z których woda w postaci deszczu lub śniegu trafia z powrotem do oceanów. Podgrzanie oceanów może także spowodować stopienie lodów Arktyki i Antarktydy, co wywołałoby groźne w skutkach podniesienie się poziomu oceanów. Gdyby niebo zasnuła dość gruba warstwa obłoków, wówczas temperatura powierzchni Ziemi zaczęłaby wzrastać coraz szybciej, jak w gigantycznej cieplarni, cały proces narastałby lawinowo i Bóg jeden wie, czym to wszystko mogłoby się skończyć.
Jak zapobiec katastrofie? Oto główne, zasadnicze pytanie dzisiejszej energetyki. W mniej lapidarnej formie pytanie to brzmi: Czy można znaleźć sposoby lepszego wykorzystania surowców energetycznych, skonstruować silniki, które nie będą marnotrawiły dostarczanej im energii i w ogóle skończyć z niegodną naszych czasów rozrzutnością? Mimo rzeczywistego, ogromnego postępu nauki i techniki wciąż korzystamy z nieznacznie tylko ulepszonych urządzeń, wynalezionych przez naszych pradziadów w epoce pary i elektryczności. Jak je ulepszyć jeszcze bardziej?
Aby to wyjaśnić, musimy cofnąć się o dwa wieki, by opowiedzieć o pewnym genialnym Francuzie, nazwiskiem Mikołaj Leonard Sadi Carnot (wym. Karno). Jego ojcem był znany matematyk i wojskowy, jeden z filarów Rewolucji Francuskiej, generał Lazare Nicolas Marguerite Carnot (cóż, liczba imion członków tej rodziny jest spora, ale i zasługi mieli tak wielkie, że warto te imiona wszystkie wymieniać). Generał Carnot, jeden z ludzi, którzy skazali na śmierć króla Ludwika XVI, przechodził zmienne koleje losu. Nawet musiał się na krótko ratować ucieczką z Francji do Niemiec, gdy jego koledzy rewolucjoniści postanowili obciąć mu głowę na skutecznym przyrządzie doktora Guillotine'a. Lecz już w niecały rok później wrócił, by swą wiedzą wojskową wesprzeć Napoleona – zyskał sobie nawet przydomek „organizatora zwycięstw”. Zorientowawszy się w zaborczych planach swego wodza, zagorzały rewolucjonista znów wycofał się z czynnego życia, lecz gdy szczęście odwróciło się od Cesarza Francuzów, objął komendę Antwerpii, której bronił jak lew. Po ostatniej klęsce opuścił Francję na zawsze – najpierw bawił w Warszawie, później osiadł w Magdeburgu.
Generał Carnot miał dwóch synów. W 1796 roku urodził się wspomniany geniusz, zwany Sadim oraz w 1801 roku - znany polityk Lazare Hipolite Carnot (jego syn został w 1887 roku prezydentem Reppubliki Francuskiej i zginął w 1894 roku, zasztyletowany w Lyonie przez anarchistę). Tak w wielkim skrócie wygląda saga rodu Carnotów.
Sadi Carnot chciał pójść w ślady ojca i zostać wojskowym, lecz po klęsce Napoleona miał niewiekie szanse na awansowanie, więc niejako z musu został naukowcem. Zresztą i tak był kapitanem saperów, czyli wojsk inżynieryjnych, skończył bowiem Szkołę Politechniczną w Paryżu, uczelnię, która kształciła zarówno inżynierów cywilnych, jak i wojskowych.
W roku 1824 Sadi Carnot opublikował jedyną w swym życiu pracę naukową – książeczkę zatytułowaną „Rozmyślanie nad siłą poruszającą ognia”. Był pierwszym, który wyjaśnił w niej teorię maszyny parowej, urządzenia, które mimo szerokiego już wówczas stosowania, działało na zasadzie nie rozumianej nawet przez najtęższe głowy. Dopiero w 10 lat później inny inżynier wojskowy, Emile Clapeyron (wym. Klapejrą) odkrył tę pracę i rozgłosił jej wyniki. Niestety, twórca nowej dziedziny fizyki, nauki o cieple, czyli termodynamiki, Sadi Carnot, nie żył już wówczas od dwóch lat – zmarł w wieku 36 lat na cholerę. Resztę pisanych przed śmiercią notatek opublikował w roku 1878 brat Sadiego, Hipolit. Okazało się wówczas, jak dobrze Sadi Carnot rozumiał zagadnienia termodynamiki. Wyprzedził on innych uczonych o całe dziesięciolecia. Jednakże miało to już znaczenie czysto historyczne, bowiem inni w ciągu tak długiego czasu doszli do podobnych wniosków.
Ale na czym polega genialność Carnota, cóż on takiego wykazał? Otóż właśnie to, że wszelkie urządzenia, które zamieniają energię cieplną na pracę mechaniczną, czyli na przykład maszyna parowa, mają ściśle ograniczoną wydajność. Innymi słowy, nienaruszalne prawa fizyki powodują, że znaczna część energii cieplnej jest w nich tracona. Wydajność maszyny nie zależy od tego, jakiej się użyje substancji, może to być para wody lub innej dowolnej cieczy, a największa możliwa do osiągnięcia wydajność i tak będzie zawsze zależeć tylko od różnicy temperatury pary wchodzącej do silnika i temperatury pary z niego wychodzącj. Fizycy powiadają, że jest to różnica temperatury kotła i chłodnicy.
Wydajność idealnej maszyny parowej można wyliczyć z bardzo prostego wzoru matematycznego, w którym występują właśnie tylko te dwie wielkości temperatury. Przy okazji warto wspomnieć, że w fizyce operuje się tak zwaną temperaturą bezwzględną, wyrażoną w stopniach Kelvina. Skala Kelvina różni się od stosowanej na co dzień skali Celsjusza tylko tym, że zero stopni Kelvina przypada przy -273,16 stopni Celsjusza. Jest to tak zwane zero bezwzględne, najniższa temperatura, jaka może w ogóle wystąpić. Zaś zero stopni Celsjusza odpowiada 273,16 stopni Kelvina. O próbach osiągnięcia zera bezwzględnego będzie jeszcze mowa, teraz jednak wróćmy do wydajności silników.
Zgodnie ze wzorem Carnota, idealny silnik parowy zasilany parą o temperaturze 200 stopni Celsjusza, czyli 247 stopni Kelvina, gdy temperatura chłodnicy (powietrza) wynosi 30 stopni Celsjusza, czyli 303 stopnie Kelvina – ma wydajność 36 procent. To znaczy, że nie można zbudować silnika parowego, który pracując przy różnicy temperatur marnowałby mniej niż niemal dwie trzecie ciepła uzyskiwanego ze spalania węgla pod kotłem. A przecież istniejące maszyny znacznie odbiegają od ideału. Po pierwsze, traci się sporo ciepła pod kotłem. Po drugie, w maszynie występują różne opory tarcia i temu podobne zjawiska. Wreszcie, temperatura wychodzącej, skroplonej pary jest zawsze wyższa niż temperatura powietrza. Dokładne obliczenia wykonane już przez Clapeyrona wykazały, że rzeczywista sprawność istniejących maszyn parowych wynosiła zaledwie nikły ułamek ich możliwości. Ale też cały postęp może doprowadzić techników do zwiększenia wydajności tylko o kilka procent. Więcej niż dziewięć dziesiątych dostarczonej energii jest przez maszynę parową bezpowrotnie tracona.
Podobne rozważania można przeprowadzić również dla silników spalinowych. Granica ich możliwości jest znacznie wyższa niż maszyn parowych, ale i tu nie można się spodziewać rewelacji. Większość ciepła spalanej benzyny czy oleju napędowego w silniku wysokoprężnym Diesela zawsze ulatuje w powietrze. Na tym tle znakomicie wypadają silniki elektryczne, które zależnie od swoich rozmiarów (im są większe, tym wydajność jest większa) osiągają sprawność od ponad 60 procent do ponad 90 procent. To już jest wynik zupełnie dobry i byłoby wspaniale, gdyby nie nikła wydajność elektrowni (przypominam, cieplnych około 40 procent, a jądrowych około 10 procent). Ale również poważne straty energii występują w liniach dostarczających elektryczność z elektrowni do odbiorców. Z jednej strony trzeba więc wkładać wysiłki w poprawę wydajności elektrowni, a z drugiej w zmniejszenie strat energii w liniach przesyłowych.
Niestety można mieć pewne obawy, czy uda się polepszyć elektrownie. Nawet przy zastosowaniu ogromnych turbin oraz generatorów i wykorzystaniu gorącej wody do ogrzewania mieszkań magiczna granica czterdziestu procent zostaje przekroczona zaledwie o dalszych kilka. Więcej niż połowa energii, czyli cennego węgla spalanego bezużytecznie wskutek ogrzewania Ziemi, przynosi nam wręcz szkody. Może tu pomóc tylko radykalne odejście od przestarzałej metody, polegającej na wykorzystywaniu pary wodnej. Jednakże, jak już pisałem w poprzednich rozdziałach, reaktory jądrowe i termojądrowe nie tylko nie poprawią tej trudnej sytuacji, lecz wręcz ją pogorszą. Kiedy zaś przekroczymy granicę bezpieczeństwa podgrzewania Ziemi – tego nie wie nikt. Wypada chyba powtórzyć jeszcze raz, że cała nasza nadzieja spoczywa w wykorzystaniu energii słonecznej. Wielu uczonych, między innymi znany profesor Błagonrawow ze Związku Radzieckiego, widzi jedyną szansę w przeniesieniu elektrowni w kosmos, czyli w realizacji projektów Glasera i O'Neilla, o których wspomniałem w jednym z rozdziałów. To, czego może nie przetrzymać krucha równowaga zjawisk na niewielkiej planecie, z pewnością nie zagrozi wielkiemu kosmosowi, w każdym razie jeszcze przez miliony lat nie uda nam się wywierać wpływu na tak wielką skalę.
Tymczasem wiele jeszcze można zrobić w dziedzinie przesyłania energii elektrycznej, choć wciągu niecałego stulecia i tak uczyniono już sporo. Kiedy Tomasz Alva Edison uruchomił swą pierwszą elektrownię, umieścił w niej prądnice wytwarzające prąd stały, taki sam, jaki płynie na przykład z bateryjki do latarki, tyle że o znacznie wyższym napięciu. Prądnice te wytwarzały prąd o napięciu takim samym, jakie dostarczano do domów, w których zainstalowano żarówki, czyli 110 woltów. Od razu też okazało się, że na dłuższych odległościach straty w przewodach były tak wielkie, iż żarówki ledwo się żarzyły. Nawet drut miedziany stawia opór przepływowi prądu elektrycznego i rozgrzewa się, a to przecież powoduje straty energii.
Prądu stałego nie można transformować, to znaczy nie można podwyższać jego napięcia, a później, po przesłaniu do odbiorcy, znów obniżyć. Takie postępowanie w pewnym stopniu zmniejszałoby straty, które przy wzroście napięcia są mniejsze. Edison, zagorzały zwolennik prądu stałego, usilnie zwalczał wszelkie próby wprowadzenia do użytku prądu zmiennego. W swoim czasie nawet zakazał prowadzenia badań nad prądem zmiennym swojemu pracownikowi Nicola Tesli, wielkiemu wynalazcy pochodzenia jugosłowiańskiego. Dopiero kiedy ci dwaj znakomici ludzie pokłócili się, zresztą o pieniądze, które Edison miał wypłacić Tesli i nie wypłacił, rozstali się jako wrogowie i do końca życia pozostali sobie niechętni.
Tesla, który opracował konstrukcję prądnic dla prądu zmiennego i transformatorów zmieniających napięcie (były to tylko dwa spośród licznych jego wynalazków), znalazł sobie protektora w osobie George'a Westinghouse'a (wym. Uestinghaus), zamożnego przemysłowca. Ten zapłacił mu ogromną sumę miliona dolarów za jego patenty i przystąpił do produkcji wszelkich urządzeń koniecznych dla wprowadzenia prądu zmiennego do powszechnego użytku. Mimo licznych przeszkód i trudnej walki z cieszącym się ogromnym autorytetem Edisonem (jeden z najciekawszych epizodów tej walki opisałem w książce „Siedem sensacji w nauce”; w wyniku głoszonej przez Edisona tezy o niebezpieczeństwie prądu zmiennego władze Nowego Jorku zastosowały ten prąd w pierwszej egzekucji skazańca na krześle elektrycznym, co znacznie zaszkodziło Westinghouse'owi w oczach opinii publicznej), zalety prądu zmiennego były na tyle oczywiste, że w ciągu niewielu lat zaczęto go stosować na całym świecie. Jeśli przesyła się przewodami prąd o napięciu podwyższonym na przykład do 5 tysięcy woltów, a później obniża jego napięcie do 220 woltów, wówczas przy przesyłaniu straty zmniejszają się aż kilkasetkrotnie w porównaniu z wynikłymi przy przekazywaniu prądu niskiego napięcia na tę samą odległość.
Już w 1891 roku, na Wszechświatowej Wystawie Elektrotechnicznej we Frankfurcie nad Menem podziw i zdumienie całego kręgu fachowców budziły urządzenia zaprezentowane przez młodego, zaledwie 29-letniego wynalazcę, Michała Doliwo-Dobrowolskiego. Ten syn urzędnika polskiego pochodzenia, zamieszkałego w Petersburgu, musiał studiować za granicami Rosji, bowiem przekonania polityczne odcięły mu drogę do nauki w kraju. Skończył więc uniwerstytet w Darmstadt w Niemczech i tam też podjął pracę. Na wystawie we Frankfurcie zaprezentował ni mniej ni więcej tylko 1000 żarówek i fontannę, której pompę obracał silnik elektryczny. Znane to już były urządzenia, więc gdzie spodziewać się zapowiadanej rewelacji? Otóż zarówno żarówki, jak i silnik pompy zasilała w prąd elektrownia, zbudowana na rzece odległej od Frankfurtu o 175 kilometrów.
Hydroelektrownia wytwarzała prąd o napięciu 95 woltów, który po przetransformowaniu na napięcie 16 tysięcy woltów docierał na teren Wystawy, a tu znów transformator zmieniał go na napięcie 110 woltów. Na całej trasie zaledwie czwarta część energii zamieniała się na ciepło. To stanowiło zarówno ogromny sukces wynalazcy, jak i dowód zalet prądu zmiennego, który wówczas właściwie opanował świat, wypierając skutecznie prąd stały – dziś stosuje się go wyłącznie w bardzo specyficznych urządzeniach, na przykład do zasilania motorów tramwajowych, bowiem łatwiej wtedy zmieniać prędkość pojazdu.
Następnym wielkim przewrotem w dziejach elektryczności stała się elektryfikacja Związku Radzieckiego. Wtedy to bowiem z inicjatywy samego Włodzimierza Ilicza Lenina zespół projektantów opracował w 1922 roku plan elektryfikacji, zawierający zupełnie nowy element. Otóż wszystkie elektrownie i odbiorców – fabryki, miasta i wsie, połączono w jeden system. Tak zresztą, jak się to obecnie wszędzie stosuje. System przede wszystkim umożliwia sterowanie dostawą energii elektrycznej z centralnego ośrodka dyspozycyjnego, tak że nawet awaria jednej elektrowni niekoniecznie powoduje brak prądu w okolicy. Linie przesyłowe dostarczają wówczas elektryczność z elektrowni dalszych, czy też z elektrowni szczytowo-pompowych. Zasadniczą częścią systemu są więc linie przesyłowe.
A któż był kierownikiem zespołu pracującego nad pierwszym w świecie systemem energetycznym? Inżynier Gleb Krzyżanowski, Polak z pochodzenia. Po przeszło pół wieku dziś już nikogo nie dziwi widok ogromnych konstrukcji stalowych masztów, na których rozpięta jest sieć grubych przewodów, jakby naczyń krwionośnych oplatających współczesne państwa. Płynie w nich prąd o napięciu znacznie większym niż w pierwszych liniach przesyłowych. Nierzadko przekracza się już 100 tysięcy woltów, a projektanci na serio mówią już o osiągnięciu 1,5 miliona woltów. Nic dziwnego, zużycie energii elektrycznej w naszych czasach osiągnęło już niesłychane rozmiary, a należy sądzić, że jeszcze znacznie wzrośnie – wymaga to znów zwiększania napięcia przesyłanego prądu.
Ale im większe napięcie, tym wyższe i potężniejsze muszą być wieże podtrzymujące przewody. Widziałem plany takiego słupa – ma on wysokość ponad 50 metrów i ramiona o szerokości około 60 metrów. Budowa wież będzie kosztowna, ale również spore sumy pochłonie wykupywanie ziemi pod budowę takiej drogi elektrycznej. Ze względów bowiem bezpieczeństwa pod przewodami tak wysokiego napięcia nie powinny znajdować się domy ani drogi. Jeśli przyjmiemy, że goły pas ziemi będzie miał szerokość taką jak ramiona wieży, czyli 60 metrów, wówczas jeden kilometr napowietrznej linii elektrycznej pochłonie aż 6 hektarów ziemi. Wydaje się, że w pewnych obszarach, zwłaszcza w pobliżu miast, gdzie ziemia jest najcenniejsza, budowa takich linii jest praktycznie niemożliwa. Wzrastające zapotrzebowanie na energię zmusi nas do budowy podziemnych linii przemysłowych, które umożliwiają prawidłowe funkcjonowanie systemów energetycznych.
Tu, niejako ubocznie, będzie można skorzystać ze wspaniałej sposobności zaoszczędzenia na dotychczasowych stratach tak wiele energii elektrycznej, ile dostarczyłoby jej wiele nowych elektrowni. Zagadnienie likwidacji strat w istniejących liniach przesyłowych to jedno z najważniejszych zadań energetyki. I to zadanie całkiem możliwe i realne. Później pozostanie już tylko zastąpienie elektrowni parowych elektrowniami słonecznymi i zniknie ze świata zmora przegrzewania Ziemi i zatruwania jej atmosfery gęstymi dymami. Optymistyczne spojrzenie na zagadnienie strat przy przesyłaniu elektryczności umożliwia cała stosunkowo nowa dziedzina fizyki, o której warto wspomnieć.
Aby uhonorować wszystkich, którzy wnieśli wkład do tej dziedziny, musimy rozpocząć od dwóch uczonych polskich, a mianowicie Zygmunta Wróblewskiego i Karola Olszewskiego. Byli oni pierwszymi ludźmi, którym powiodło się skroplenie gazów – tlenu i azotu. To ważne wydarzenie z 1883 roku stanowiło narodziny nowej dziedziny nauki i techniki, kriogeniki (po grecku krios znaczy mróz). Do skraplania gazów trzeba bowiem osiągnąć niezwykle niską temperaturę. Na przykład hel trzeba oziębić aż do 4,2 stopnia Kelvina, czyli -269 stopni Celsjusza. Ta sztuka udała się dopiero znakomitemu Holendrowi, profesorowi Haike Kamerlingh-Onnesowi i to dopiero w roku 1908. Lecz wydarzeniem, które na długo zbulwersowało świat nauki, było dokonane w trzy lata później odkrycie nadprzewodnictwa.
Kamerlingh-Onnes badał zachowanie się i właściwości fizyczne różnych ciał oziębianych do coraz niższej temperatury, aż do najniższej osiągalnej wówczas temperatury ciekłego helu. Pewnego dnia na warsztat uczonego trafiła połyskliwa rtęć. Kamerlingh-Onnes badał zmiany oporu elektrycznego rtęci przy obniżaniu jej temperatury. Ale po osiągnięciu pewnej temperatury opór wręcz znikał, przestawał istnieć. Było to prawdziwe zaskoczenie. Początkowo nikt nie chciał w to zjawisko wierzyć, nie mieściło się ono w uporządkowanym gmachu wiedzy fizycznej. A jednak była to prawda i trzeba było ów gmach niejako przebudować. Swoją drogą trochę to potrwało. Pierwszą w miarę zadawalającą teorię nadprzewodnictwa, czyli znikania oporu elektrycznego metali w bardzo niskiej temperaturze, opracowano dopiero w 46 lat po odkryciu samego zjawiska.
Wykorzystanie nadprzewodnictwa w przesyłaniu energii elektrycznej ma same zalety. Jeśli przewodnik nie ma oporu, tzn. jest nadprzewodnikiem, wówczas nie ma w nim strat energii. Okazało się, że nadprzewodników jest sporo, jednak wszystkie mają jedną wadę – trzeba je oziębić do bardzo niskiej temperatury, a to słono kosztuje. Ponadto są to najczęściej stopy, z których trudno formować druty – są kruche i niezbyt plastyczne. Ale po wielu latach uczonym udało się zbudować różne urządzenia wykorzystujące zjawisko nadprzewodnictwa. W tej chwili toczy się walka o znalezienie takiego nadprzewodnika, który uzyskiwałby swe cudowne właściwości w temperaturze ciekłego wodoru, czyli jak na nadprzewodnictwo dość wysokiej. Ale gdyby się ta sztuczka udała, wówczas można by równocześnie przesyłać do miast pojedyńczym przewodem rurowym elektryczność i wodór do spalania zamiast gazu i benzyny. Korzyści byłyby ogromne – trzeba tylko znaleźć taki materiał nadprzewodzący. A badania trwają...
Wśród licznych instytutów zajmujących się badaniami nadprzewodników szczególnie poważnymi osiągnięciami może się poszczycić Międzynarodowe Laboratorium Silnych Pól Magnetycznych i Niskich Temperatur we Wrocławiu. Jest to unikalna placówka naukowa, założona przez cztery Akademie Nauk (Bułgarii, NRD, ZSRR i Polski), dzięki staraniom profesora Włodzimierza Trzebiatowskiego, prezesa Polskiej Akademii Nauk. Od wiosny 1968 roku w laboratorium założonym w budynku dawnej zajezdni tramwajowej (dlatego w zajezdni, że można było wykorzystać przetwornice zmieniające prąd zmienny na stały, potrzebny w badaniach magnetycznych właściwości nadprzewodników) stale przebywa kilkudziesięciu uczonych z czterech krajów i razem prowadzą badania na wspólnej aparaturze. Dzięki temu nie tylko wszyscy czynią znaczne oszczędności na sprzęcie, ale możliwa jest bezpośrednia wymiana pomysłów i poglądów w czasie pracy, co w fizyce ma znaczenie zasadnicze.
We Wrocławiu działa również Instytut Niskich Temperatur, a także zakłady doświadczalne KRIOPAN. Nad wszystkim czuwa profesor Trzebiatowski, który osobiście koordynuje wszelkie prace zmierzające do opanowania technicznego ciekłego helu i wykorzystania zjawiska nadprzewodnictwa. Zresztą prace te zyskały w naszym kraju szczególną rangę - zostały włączone do tak zwanych „tematów węzłowych”, czyli znajdują się wśród kilkudziesięciu najważniejszych zadań, jakie stoją przed naszą nauką i techniką.
Czy tylko świadczy to o wysokiej randze, jaką obdarzamy oszczędności energii elektrycznej, uzyskiwane poprzez wykorzystanie zjawiska nadprzewodnictwa? Mamy wszelkie szanse, by stać się europejskim potentatem w dziedzinie techniki niskotemperaturowej, czyli kriogeniki. Przed kilkoma laty okazało się, że złoża gazu ziemnego w Odolanowie, miasteczku niezbyt oddalonym od Wrocławia, zawierają nadspodziewanie dużą domieszkę helu. Prawdę mówiąc domieszka ta nie tylko stawia pod znakiem zapytania celowość wykorzystywania gazu ziemnego – będziemy raczej wykorzystywać tę domieszkę helu – ale także stawia nasz kraj na czele Europy. Jedynie złoża amerykańskie są bogatsze. A hel to podstawowy surowiec kriogeniki. Tylko dysponując tym gazem można prowadzić badania naukowe i poważnie myśleć o zastosowaniach technicznych kriotechniki, a więc między innymi i nadprzewodnictwa.
Wydaje się, że już bardzo niedługo Odolanów stanie się głównym dostawcą helu dla całej Europy. A zapotrzebowanie na ten gaz będzie ogromne. Wszyscy chyba zechcą skorzystać z możliwości zaoszczędzenia energii elektrycznej przez ochłodzenie przewodów. Mało kto ma zatem równie poważne powody do optymizmu jak my. Dysponujemy tak wielkimi zasobami helu, że właściwie nie musimy się obawiać o przyszłość naszej energetyki.
Ale czy owa przyszłość opiera się wyłącznie na zjawisku nadprzewodnictwa, występującym przy zamrażaniu metali do temperatury bliskiej zeru bezwzględnemu? Oto pytanie, które przed niespełna 10 laty wkroczyło na łamy prasy fachowej. Najpierw znany radziecki fizyk teoretyk W. Ginzburg napisał, że w świetle istniejącej teorii nadprzewodnictwa nie można wykluczyć, iż zjawisko tobędzie występować również w wysokiej temperaturze, zbliżonej do temperatury pokojowej, jeśli tylko uda się znaleźć odpowiednią substancję. Ginzburg proponował zajęcie się cienkimi warstewkami przewodników, ciasno upakowanymi pomiędzy dwie grubsze warstwy izolatora.
Prawdziwym apostołem nadprzewodnictwa wysokotemperaturowego jest profesor W. A. Little z Uniwerstytetu Stanford w Stanach Zjednoczonych. Od dobrych dziesięciu lat walczy on z opornymi cząsteczkami chemicznymi, tak skomplikowanymi, że nawet nie będę próbował podawać ich nazw i wzorów. Profesor Little uważa, że jeśli w organizmach istot żywych, a więc na przykład człowieka, istnieje niezwykły komputer – mózg, który działa z olbrzymią sprawnością i szybkością, to najwyraźniej zawiera on elementy nadprzewodzące, skoro nie przepala się, mimo iż płynie w nim prąd wystarczający do wywołania katastrofy. Owe elementy nadprzewodzące, o nie zbadanej jeszcze dokładnie naturze, muszą chyba istnieć, a jeśli potrafiłą je skonstruować sama natura, czemu nie mielibyśmy i my skorzystać z tych wzorów. Wielu uczonych z różnych labolatoriów próbuje znaleźć owe związki chemiczne, które umożliwią przesyłanie prądu elektrycznego bez żadnych strat i bez konieczności dość kosztownego zamrażania przewodów wykonanych z dość drogich metali – najlepsze znane dziś nadprzewodniki to stopy niobu i germanu.
Wydawałoby się, że mając takie zasoby helu, czyli możliwość zamrożenia wszystkich przewodów, które oplatają nasz kraj, nie powinniśmy zwracać uwagi na możliwości dziwnych związków, których badaniem zajmuje się profesor Little czy jego koledzy ze Związku Radzieckiego, profesorowie Szczegolew, Hidekel, Larkin i wielu innych. Jednakże, jak już powiedziałem, samo zamrażanie jest procesem dość kosztownym. Trzeba zbudować skomplikowane rury, podobne do termosów, w których znalazłyby się przewody z drogich metali, zanurzone w ciekłym helu. Aczkolwiek wydaje się to dziś jedyną możliwością przesyłania energii elektrycznej, jest jednak jeszcze „w powijakach” i sporo wody czy raczej prądu upłynie, zanim zaczniemy czerpać energię z oszczędności, z zamrożenia przewodów.
Dlatego też chciałbym przedstawić w tym opowiadaniu profesora Kazimierza Antonowicza z Uniwerstytetu Mikołaja Kopernika w Toruniu. Profesor Antonowicz od paru lat zajmuje się badaniami cienkich warstewek węgla, zwykłego węgla, tyle że bardzo czystego. Wszelkie znaki wskazują na to, że udało mu się zaobserwować zjawisko nadprzewodnictwa w węglu o temperaturze pokojowej. Ciekawe, czy uda mu się to dokładnie opracować i podać receptę na produkcję nadprzewodników z węgla. To przecież jest warunek możliwości ich wykorzystania na skalę techniczną.
Możemy więc chyba spać spokojni o naszą przyszłośc energetyczną. Nie tylko mamy najkorzystniejsze w Europie warunki do zakładania elektrowni szczytowo-pompowych, magazynujących energię elektryczną, ale również możemy stać się potentatem w dziedzinie oszczędności energii. Przy wykorzystaniu naszych zasobów helu, staniemy się gigantem kriogeniki, a w zanadrzu mamy jeszcze badania profesora Antonowicza, oczywiście jeśli ich wyniki okażą się pomyślne. W każdym razie warto wspomnieć, że pierwszy artykuł profesora w słynnym angielskim czasopiśmie naukowym „Nature” wywołał niemałą sensację w światku naukowców.
Na razie, zanim to nastąpi, chciałbym, aby wszyscy zapamiętali, że każda żarówka paląca się bez potrzeby, każdy samochód, który na postoju ma włączony silnik – powoduje nadmierne zużywanie energii, a przy obecnym stanie urządzeń, które nam jej dostarczają, również podgrzanie Ziemi o jeden maleńki ułamek stopnia. Ale gdy się wszystko zsumuje, może się okazać znacznie prędzej niż dziś przypuszczamy, że trzeba ograniczać owo zużycie energii, że wymagają tego względy naszego bezpieczeństwa. Dlatego trzeba chyba zastanowić się, jak wiele energii można jeszcze uzyskać przez likwidację marnotrawstwa.

*

Dobiegliśmy więc końca przeglądu energetycznych perspektyw świata. Pora odpowiedzieć jednoznacznie na pytanie, czy możliwe będzie zaspokojenie ogromnego zapotrzebowania na energię, które stale rośnie w zawrotnym tempie. Coż, możliwości są tak bogate, że chyba nie grozi nam powrót do manufaktur, omnibusów i pochodni. Ale musimy spełnić jeden warunek, a mianowicie korzystać ze wszystkich dostępnych źródeł energii. Tam gdzie silnie operuje słońce, w pierwszym rzędzie należy budować elektrownie słoneczne; jeśli wieją silne wiatry – trzeba stawiać wiatraki; na wybrzeżach mórz i oceanów należy zaprzęgnąć do pracy pływy i prądy. Wreszcie w systemie zdobywania energii nie powinno zabraknąć elektrowni jądrowych i, jeśli to będzie możliwe, termojądrowych.
Musimy zdać sobie sprawę z nierealności wszelkich prób znalezienia pojedyńczego, uniwersalnego źródła energii - jedynie elektrownie słoneczne mogłyby pretendować do tego miana, lecz na rozwiązania w skali kosmicznej trzeba będzie jeszcze długo poczekać. Tylko wtedy będziemy mogli dalej spokojnie zużywać energię, jeśli z równą uwagą potraktujemy wszelkie, jakże liczne projekty zdobywania nowych jej źródeł.

Brak komentarzy:

Prześlij komentarz

Brytyjczycy, nic się nie stało!!!

  Brytyjczycy, nic się nie stało!!! A to gagatek ! Przecie kosher Izaak … https://geekweek.interia.pl/nauka/news-newton-jakiego-nie-znamy-zb...