Technikai fejlődés és űrkutatás

2009. 10. 12.

Lassan közeleg a 2012 Blog vége, már ami a központi témát illeti. Egy-két kirándulásunk így is volt más témákba, ha az utolsó bejegyzés is megszületett, akkor blogszerűbbé alakulunk, napi észosztó témák következnek, ha nem is napi rendszerességgel.

A most következő téma kifejtése már megint önkényesnek tűnhet: gazdasági szempontból elfogadott tényekre messzire vezető állításokat fogunk alapozni. Természetesen megintcsak nem egyik dologból következik a másik valójában, csak megpróbáljuk elfogadhatóbbá tenni az „elrugaszkodottabb” tényezőket.

Kezdjük a nyilvánvalóval: a technikai szint fejlődése nem ott tart, ahol. Amivel az emberek tömegei is tisztában vannak, hogy létezik a technológiának ún. „katonai” és „polgári” kategóriája. A katonai technológiáról pedig nagyjából olyankor szoktunk értesülni, mikor elavul s ilyenkor kezd átmenni a polgári alkalmazásba. Ennek nyilván az az oka, hogy minden nagyhatalom szeret némi meglepetést a tarsolyában tartani szükség esetére.

A valóság ennél sokkal bonyolultabb.

Egyrészt a polgári technológiában ma már sokkal több pénz van, mint a katonaiban. A játékipar egyedül annyi pénzt tud K+F-be (Kutatás és Fejlesztés) forgatni, mint a hadiipar békeidőben. A K+F húzóágazata tehát az az ágazat, amelynek a kisebbik, „magával húzott” ágazat mögött másodikként kellene kullognia. Így aztán, bár nagyon sok olyan fejlesztés van, amelyet katonai célok tettek szükségessé, később pedig megtalálták az alkalmazási módját a tömegtermelésben (pl. vadászgépek célzórendszere -> EYE Focus kereső), valójában az is előfordulhat, hogy egy technológia hamarabb jelenik meg egy személyautóban mint egy vadászrepülőgépben.

A technológia szortírozásának pontosabb módja inkábbis ez lehetne: tömeges igényeket kiszolgáló vagy nem kiszolgáló technológiák. Persze a kettő között nincs éles határ, valójában egy skálán lehetne mérni, hogy az emberiségnek hány darabra, méterre, kilóra, stb. van szüksége valamiből. Kinek kellene egy, a damilhoz képest legalább ezerszeres fajlagos szakítószilárdságú műanyag szál, pókfonal-vékonyságú kivitelben, csillogásmentes mattszürke felülettel? David Copperfieldnek. És ezért ámul a közönség, mikor a színpad felett repked: olyan technológiákat használ, melyek nem tudnak tömegigényeket kiszolgálni, a tömeges gyártás hiánya miatt drágák, és nem tudunk a létezésükről.

Ugyanígy, mind a hadiiparban, mind pedig az űrkutatásban olyan speciális technológiákra merül fel az igény, melyekhez az egyszeri amerikai háziasszony életének kényelmesebbé és unalmasabbá tevésének nemes célja nem talál alkalmazási módokat. Természetesen az elmúlt negyven évben a tömegtechnológia erőteljes fejlődése (nem elsősorban vertikálisan, inkább horizontálisan, azaz az alkalmazási és kutatási területek horizontja kiszélesedvén) egyfajta fordított gondolkodásmódot is lehetségessé tett: „barkácsoljunk” űrhajót a létező tömegtechnológiák összeválogatásával, legyen bár tízszeresen túlbonyolítva tervezésileg, azonban a kivitelezés századannyiba fog kerülni. Eléggé közismert a (valószínűleg valóságalap nélküli) történet, amely szerint kiderült, hogy a golyóstollak nem fognak súlytalanság állapotában (bár a történetnek ez a része még tény), és a NASA sok pénzből kifejlesztett egy „szupertollat”, amely minden körülmények, hőmérsékleti és nyomási szélsőségek között megállta a helyét – a szovjetek pedig ceruzát használtak.

A másik dolog, amelyet meg kell említenünk, a >nem létező verseny< a „piaci szereplők” között. Közgazdaságtanból azt tanítják, hogy minden nagy cégnek tudnia kell reagálni arra, ha egy vetélytársa valamiféle új technológiát meglepetésszerűen bedob a piacra. (Valójában erre nem csak >az Irányítók< központi koordinációs tevékenysége miatt nincs esély, hanem azért, mert nincs olyan piacvezető cég, amelynek a konkurrrenciánál ne lenne jópár beépített embere, és ez természetesen nem csak az iparban van így, hanem a médiától kezdve a különböző szolgáltatásokig mindenhol.) Ezért mindenki tíz évre előre páncélszekrényben tartja a technológiát, biztos ami biztos alapon.

De tegyük fel a kérdést, mikor válik szükségessé, hogy egy technológiát elővegyünk a mackóból? Értelemszerűen akkor, ha a versenytárs ezt szükségessé teszi. De egyik óriáscég a másiknak ikertestvére, ugyanazokat a stratégiákat alkalmazza, sőt ugyanazokon az elit-egyetemeken képezték a menedzsereit – a vetélytárs miért lépne, amíg mi nem léptünk? Hogy megelőzzön a piacon? Ennyi erővel mi is léphetnénk, amire ő is lépni fog és így tovább – így aztán a vásárlókért folytatott versenyben 1 év alatt kiürülne a széf. Akkor hogyan tudnak mégis tíz évi „biztonsági tartalékot” ott felhalmozni a technológiai óriások? Természetesen a közgázon egyetlen hallgató keze sem emelkedik a levegőbe, hogy ezt megkérdezze – a Nash-egyensúlyt matekból tanítják, az egy másik tantárgy, az ilyenkor betömörítve van elraktározva az agy hátuljában. A Nash-egyensúlytól pedig már térhetünk is vissza >a piacos bejegyzéshez<: a piaci szereplőknek az az érdekük, hogy abbahagyják a versenyt és együtt uralják a piacot, monopóliumként. „Az Irányítók, vagyis egy önmagát meg nem nevező és önnön státuszát kifelé el nem ismerő hatalom puszta létének egyik elméleti bizonyítéka az ipari forradalom eredményeként megjelenő megfékezhetetlen hatalmi centralizációs folyamat. Ha nem lennének, a gazdasági rendszer kitermelte volna őket.”

Amint egy adott iparágon belül a monopólium létrejött, a célja az, hogy hosszú távon a lehető legtöbb pénzt sápolja le a vásárlóiról. Ez pedig hogyan lehetséges? A technológia apránként történő adagolásával.

A Commodore gépekig fölösleges visszanyúlni, első PC-nk a családban egy 286-os volt, 16/20 MHz, 1 MB RAM, 40 MB HDD. Sokat „fejlődött” a technika, igaz? A 20 MHz után jött a 33, utána a 40, 50, 66, 75, 80, 100, 133, 166, 200, 233, 266, 300, 400, 450, stb. mindegyik egyenként, külön-külön, legújabb, legdrágább processzorként, és volt olyan ember, aki kis túlzással végig is zongorázta ezt a skálát, többet költve egy évben a gépére, mint a kocsijára. Természetesen ezzel tökéletes párhuzamban lett az 1 MB-ből apránként 1-2 GB, a 40 MB-ból pedig mára már 750-1200 GB.

Gondoljuk, hogy minden egyes kis lépésnél valaki feltalált valamit?

Mi volt az a lépés, amely lehetővé tette az eggyel gyorsabb processzor piacra kerülését: új ötlet, fejlesztés vagy beruházás? Nyilván, ha beruházunk az eggyel gyorsabb processzorba, az annál is eggyel gyorsabba is beruházhattunk volna, vagy akár a 3600 MHz-esbe is. Hogy az drágább? De később mi történt, ami olcsóbbá és rentábilisabbá tette?

A technológiát, amelyet a mai processzorok használnak, VLSI-nek hívják, és a ’70-es években fejlesztették ki. Nyilván nehéz elképzelni, de bizony akkor, amikor a Commodore 64-et csillagászati áron piacra dobták a maga 1 MHz órajelével és 64KB memóriájával, már réges-régen léteztek több GHz órajelű processzorok és sokszáz MB kapacitású RAM IC-k. Ezek persze nagyon „drágák” voltak, az előállításuk elég nehéz volt egyedileg, tömegtermelésről pedig szó sem lehetett: ha az Intel 1978-ban a legendás 8086 helyett a Dothan processzort dobta volna piacra, elesett volna attól a sok-sok milliárd dollártól, amelyet a világ azóta processzorokra költött.

A VLSI a MOSFET nevű 1925-ös(!) technológiára épül, amelynek feltalálójáról, Lilienfeld Edgár osztrák-magyar zsidó fizikusról soha nem is hallott senki, mint ahogy Jack Kilbyről sem, aki az IC-t találta fel. Érdemes körülnézni a wikipédián, a mindenhol jelenlevő technológiák eredetét kutatva – nem sok információt találunk. Akik a MOSFET-VLSI technológiát behatóbban ismerik, már sok évvel ezelőtt megjósolták, hogy az órajel fejlődési határa valahol 4 GHz körül van, innentől párhuzamosítani fognak inkább. Jóslatuk bejött – de ne higgyük, hogy a technológiai fejlődés „utolérte önmagát”. Gondoljunk csak arra, hogy a 2 centivel nagyobb méretű, pár százelékkal nagyobb felbontású LCD-monitorokból hány darabot adnak el a világon – miközben a SONY 1999-ben szabadalmaztatta a William Gibson által megálmodott technológiát, mellyel közvetlenül az agyba lehet vetíteni a képet, ultrahangos neuronstimuláció segítségével, azaz külső behatolás nélkül, a „csatlakozókat” a koponya hátuljára rögzítve, ahol a látókéreg van.

Végezetül megközelíthetjük az egész történetet a >multihidraulikus diktatúra< irányából is – ha a technológia felhasználható a rendszer egyik hidraulikus lábaként, miért ne tennénk azt? Számtalan előnye van annak, hogy az Irányítók olyan technológiákkal rendelkeznek, melyekről nem tudunk – nagyszerű eszközei ezek a dezinformálásnak csakúgy, mint a titkosság fenntartásának. Gondoljunk csak a „katonai titok” fogalmára – manapság egymás ellen fegyverkező nagyhatalmak nem léteznek, csupán renitens kisebb országok, népek, szellemi vagy épp gazdasági erővonalak, akik ellen mint egy rendőri erő vethető be a globális hadsereg.

A Szovjetunió és a „keleti blokk” létének egyik nagy haszna volt az Irányítók számára, hogy a valós K+F folyamatokat, tehát az igazi határtechnológia kutatását átszervezhették ide, az úgynevezett „szabad” világ számára hozzáférhetetlenül, titkos hidegháborús fegyverkezési versenynek álcázva. A Szovjetunió felbomlasztása után a kulcsfontosságú tudósokat „átmentették” Amerikába – az elhárítási technológia ekkor már olyan fejlettségű volt, hogy nem kellett aggódni egyes információk kiszivárgása miatt. Természetesen a 60-as, 70-es években a varsói szerződés keretein belül folytatott kutatásokban sok „kisebb ember” is részt vett, akik a nagy képet nem láthatták át, de jópáran tudnak érdekes dolgokat mesélni még a KFKI volt fizikusai, mérnökei közül is, nemhogy azok, akik Szibéria környékén jártak.

Visszatérve a ’80-as, ’90-es évek elhárítási technológiáihoz, ezek egyik fontos korabeli vívmánya az optikai álcázás. Ez egy olyan technika, melynek segítségével „láthatatlanná” lehet tenni álló vagy mozgó objektumokat akár légköri viszonyok között is. A „nagy UFÓ-láz” ekkor ért véget: ugyanis a korábban látott repülő csészealjak földi űrjárművek voltak, amelyeknek azért volt jellegzetes „csészealj” formájuk, mert ez a világűrben egyfajta pimitív „álcázásként” működik, az űr speciális fényviszonyai (csupa-csupa spekuláris fényforrás) között láthatatlanná válik a test a Földről nézve. Persze amikor ezek a hajók beléptek a légkörbe, a diffúz fény láthatóvá tette őket – nem úgy a mai hajókat, amelyek akár az ablakunk előtt is lebeghetnének, kicsit sem zavarva a kilátást.

A >rádió 2. adásában< már említettük, hogy az űrkutatás sok szempontból jóval előrébb tart, mint a „köznép” hiszi: mind a Holdon, mind a Marson folyamatos emberi jelenlét van. És bizony a Naprendszer elhagyásához is megvan a technológia, ezt azonban az Irányítók egyelőre nem tehetik meg. (Hogy miért nem, arról a következő bejegyzésben lesz szó.) De ez a korlátozás a számukra csak ideiglenes, hamarosan az emberiség (vagy legalábbis az Irányítók válogatott emberei) számára megnyílik az út idegen csillagvilágok felé… S (többek között) erre készülnek a Marson. A Holdon pedig pl. a RESEARCH nevű rendszer fejállomásai működnek, ez a földfelszíni HAARP rendszerrel párhuzamosan az időjárás manipulálásra szolgál. (Előre megjósoljuk, az idei tél vagy az őszhöz hasonlóan kifejezetten enyhe, mediterrán jellegű lesz, vagy legalább olyan kemény, mint a tavalyi. Ebből egyúttal kilogikázhatjuk majd azt is, hogy a Magyarországért jelenleg verekedő orosz és izraeli irányító erők közül éppen ki áll nyerésre, illetve ki nyalta be magát jobban a központi vezetésnél.)

Hogy végezetül egy kicsit jobban megvilágítsuk, hogy lehet az, hogy a NASA titkos részlegei már a szomszédos csillagrendszerekbe készülődnek: alapvető fizikai tény, hogy egy űrhajónak nincs „végsebessége”, legfeljebb a Star Trekben. Valójában közegellenállás, súrlódás, mozgó alkatrészek nélkül egy test a végtelenségig gyorsítható, de legalábbis a fénysebességig. A probléma természetesen az ehhez szükséges energia mennyiségében rejlik – amennyiben az energiát magán a hajón akarjuk szállítani. Amennyiben külső energiaforrást használunk, akár egy „kilövő” sor által, amely ágyúgolyóként gyorsítja fel a passzív járművet, akár maga a jármű állítja elő a maga számára az energiát külső forrásból, ez a probléma is elhárul – és itt jön vissza az, amit az alternatív energiaforrásokról >írtunk< és >mondtunk is<: ha a Föld felszínén egy század szaharányi napelem bőven el tudná látni energiával az egész emberiséget, vajon egy mindössze néhány futballpályányi napkollektor mit tudna produkálni a Merkur pályájának környékén önmaga és egy párszáz tonnás hajó felgyorsítása érdekében? (Fizikusok, papír, ceruza, hajrá.) Ha van elég energiánk, onnantól a fénysebesség elérése csak türelem kérdése.

A fény névleges sebessége 0.3Gm/s, amelyet elérni az utasok számára kényelmes földi gravitáció érzetét biztosítva 30.000.000 s, kb. 3472 nap, durván 9 év és 6 hónap. Nyilván ennyi ideig nem lehet körözni egy kilövő soron, de még a Nap körül is bajos, a centrifugális erő miatt. Ha elég energiánk és teljesítményünk van, egyenes pályán akár fél perc alatt is felgyorsíthatjuk az űrhajót fénysebességre: persze ennek az eredménye egy lapos űrhajó lesz, a benne ülőkről nem is beszélve. A ma ismert (közismert!) hajtóművek tolóerőt gyakorolnak a meghajtott járműre, amely tolóerő természetesen a jármű molekulái között is fellép. Ha ez az erő túl nagy, a jármű szerkezete deformálódik. Ha viszont az összes molekulát egyszerre, egymással párhuzamosan tudjuk gyorsítani, elméletben akár egyetlen másodperc alatt elérhető a fénysebesség. És a gravitáció bizony pontosan így gyorsítja a testeket, szabadeséskor nem érzünk toló- vagy húzóerőt, hanem súlytalannak érezzük magunkat, amíg földet nem érünk – a földön állva vagy akár fekve már a molekuláink egymásra nyomódnak, terhelődnek, ettől érezzük saját súlyunkat. Ezért olyan kardinális fontosságú a gravitáció-kutatás az űrutazás szempontjából, mint azt már említettük az egyik bejegyzésben, >még a kezdetekkor<. Persze végiggondolhatjuk azt is, hogy a gravitációnál több milliárdszor erősebb mágneses vonzással mit tudnánk elérni. Nyilván a szétlapulás veszélye nélkül csak olyan testet lehet így felgyorsítani, amelyben minden egyes atom azonos mértékű ferromágnesességgel rendelkezik – űrhajót nem, de egy lövedéket pl. nagyon is. És ha egy tudós nekem azt mondja, hogy még nem próbálták ki, mi történik egy vasatommal, ha fénysebességre gyorsítják, hát kiröhögöm, hiszen ehhez a kísérlethez már az évtizedekkel ezelőtti „hivatalos” technológia is elég volt. Természetesen felmerül a kérdés, hogy egymillió G körüli gyorsulásnál az atom szétesik-e, avagy voltaképpen az atomon belül mi is az, amit vonz a mágnes (megemlítve, hogy egy vasatomban semmilyen olyan komponens nincs, ami mondjuk egy neonatomban ne lenne).

Csak halkan megjegyezzük, a fénysebesség természetesen átléphető (ahogy az Einstein képleteiből is kiderül, ha nem magyarázzuk őket félre szándékosan), de a fizika törvényei egészen új értelmezést kapnak az így létrejövő relatív rendszerben. A következő bejegyzésből pedig kiderül, mi az egyetlen dolog, amely az Irányítókat a galaktikus kalandozástól visszatartja. Azt már >említettük<, hogy a bolygó elhagyárásra, sőt feladására készen állnak…