A Neumann Társaság blogja az informatika, robotika legmenőbb témaköreiről – újszerű megközelítésben.

Kvantumugrás

Kvantumugrás

Az utazó ügynök problémája

2021. november 24. - ferenck

Képzeljük el, hogy egy kereskedőnek, nevezzük értékesítő ügynöknek, több városon keresztül, a lehető leggyorsabban kell megtennie egy utat, mondjuk New Yorkból Bostonon, Chicagon, Kansas City-n, Denveren, Vancouveren, Seattle-n keresztül San Franciscoba. Az összes várost érintenie kell, egy adott városban azonban csak egyszer járhat.

Melyik a legrövidebb útvonal? – hangzik a kérdés, ami egyben egy könnyen érthető, ám annál nehezebben megoldható matematikai-logikai játék is: az utazó ügynök problémája.

tsp.jpg

Különböző tudományokban merül fel, a megoldásokat számos területen igyekeznek alkalmazni. A mesterségesintelligencia-kutatásban szintén népszerű feladat, gyakran állnak elő izgalmas javaslatokkal, például genetikus algoritmusokkal vagy rajintelligenciával többször találtak rá hatékony megoldást. 

tsp0.jpg

A genetikus algoritmusokon alapuló opcióban a változók egy bájtnyi (nyolc bit) egységekben tárolódnak, s mivel nullák és egyek lehetnek, értékük nulla és 255 [2 a nyolcadikon (256) mínusz egy] közötti. Mindkét irányban (x, y) nullától 255-ig terjedő négyszögletes területet vázol fel, 256-szor 256 egységgel. Tetszőlegesen kiválasztunk, és benépesítünk 256 párt, melyek száz karakterláncot formálnak (a nulla és 255 közötti indexek listájából). Egy láncon belüli valamennyi gén egyedi; szorosan kapcsolódik az előző generációhoz. Evolúciós folyamatokon (öröklődésen, mutáción) megy keresztül. Újabb láncok jönnek létre, a korábbiak pedig elpusztulnak.

A szülők kiválasztását, a következő generációban való túlélést rulett-kerék szelekciós algoritmus dönti el. Az alkalmasabb láncoknak törvényszerűen nagyobb az esélye. Míg a mutáció egyszerűen megy végbe, s igen ritkán (egyszázalékos gyakorisággal) alkalmazzák, az esetek hetven százalékában bekövetkező kereszteződésnél gondosan meg kell határozni, mitől erősebb egy-egy lánc alkalmazkodóképessége. Viszont, ha nincs kereszteződés, az utódok a szülők módosítás nélküli másolatai lesznek.

tsp3.jpg

Az algoritmusokat tesztelve a szemlélődő meggyőződhet, miként fejlődnek merevebbekből véletlenszerűbbekké. A populáció globális alkalmazkodóképessége minden egyes iteráció után nő, és végül megkapjuk az egyetlen legrövidebb útvonalat, amiről fogalmunk sem volt az elején.

A genetikus algoritmusok mellett, kutatók arra is rájöttek, hogy a hangyák azon képessége, hogy a lehetséges útvonalak közül (feromon-lerakódás alapján) rátalálnak a legrövidebbre, az utazó ügynök problémájára is adhat működő megoldást.

A mesterséges hangyakolónia-rendszerekből kiindulva, az utazóügynök-probléma (TSP) gráfján a hangyák városról városra mozgó ágensek. Véletlenszerűen indulnak el, virtuális feromont hagyva maguk után. Valószínűség és az információként szolgáló, korábban lerakott feromon alapján döntenek. Miután befejeztek egy-egy utat, a gráf élein hagynak nyomot, a rövidebb út mentén természetesen többet. Végül – azt az élt választva, ahol a legtöbb a speciális illatanyag – kialakul az optimális útvonal.

A folyamat sokszori lefuttatását követően egyértelmű, hogy a felhalmozott feromon mennyisége befolyásolja a hangyatársakat. A nyomok lokálisan és globálisan is változnak. A globális frissítés a rövidebb út menti él jutalmazását célozza. A lokális ellentétes előjelű; rendeltetése nyomeltüntetés, az erősebb koncentrációk elkerülése. A hangyák vagy a bejáratott ösvényen haladnak, vagy újabb megoldások, új típusú felfedező stratégiák után kutatnak.

 A számítógépes szimuláció bebizonyította, hogy a mesterséges kolóniák a TSP szimmetrikus és aszimmetrikus példáira egyaránt találnak megoldást.

A mesterséges állatkák természetben élő társaikra nem jellemző, viszont a TSP-alkalmazások során hasznos adottságokkal is rendelkeznek. Meg tudják határozni a városok távolságát, minden út előtt kiürítendő munkamemóriájuk van, amely arra szolgál, hogy emlékezetben tartsák, mely városokban jártak már.

Frissítve: 2023. december 26.

Égig érő farmok

A szolgáltatásokat, gyártást és mezőgazdálkodást a következő évtizedekben teljesen átíró ipari forradalmak (3D nyomtatás, nanotechnológia, génmódosítás, szintetikus biológia, vertikális gazdálkodás) korai napjaiban járunk. Elsőként a 3D nyomtatás vált fősodorrá, a többinek sokat kell fejlődnie a széleskörű használatig.

Az előrejelzések szerint legkésőbb elterjedő függőleges gazdálkodással (vertical farming) a mezőgazdasági termelés egy része vidékről városokba költözik. Az olaj- és a természetes édesvízforrások fokozatos kimerülésével, az éghajlatváltozással és a növekvő népességgel a jelenlegi mezőgazdasági módszerekkel Brazíliánál nagyobb új megművelhető földterület kellene az egész világ élelmezésére. Mivel ez nem fog működni, radikálisan új élelmiszergyártási megoldások kellenek.

Növények és állatok genetikai módosításával jelentősen nő a termékhozam, de hiába több az élelmiszer, ha a régi környezetben állítjuk elő, és nem tudjuk eljuttatni oda, ahol komoly szükség lenne rá. 2050-re a Föld lakosságának 80 százaléka fog városokban élni. Optimális megoldás, ha a mezőgazdaságot a fogyasztók „közelébe vinnénk”, és nagyvárosi környezetben termesztenénk például búzát. Logikus következmény, hogy a jövőbeli farmok egy részének hagyományos vidéki közeg helyett urbánus terek, felhőkarcolók adnak majd otthont.

Toronyházak és mezőgazdaság összekapcsolását a 20. században sporadikusan fel-felvetették, ám az 1990-es évekig, egy-két kísérlet kivételével inkább csak ötleteltek rajta. 

Ken Yeang, maláj ökológus-építész az 1990-es években dolgozta ki „függőleges zöld urbanizmus” elméletét. „Bioklimatikus magasházai” rengeteg növénnyel, fákkal beültetett emeletekkel, örökzöld balkonokkal, mindenféle rendezvényre alkalmas tetőkkel, „égi teraszokkal” népesülnek be. Tetői valamilyen mezőgazdasági tevékenységre mindenképp alkalmasak. Vegyes használatú felhőkarcolóiban a növénytermesztés nem hermetikusan zárt helyiségekben, hanem nyitott terekben történik. Függőleges gazdálkodása inkább egyéni és/vagy lakóközösségi vágyakat elégít, hobbitevékenységeket bontakoztat ki, és nem a nagybani mezőgazdálkodást, nem egész városok élelmezését akarja megoldani.

A városok élelmiszerellátását megoldó függőleges mezőgazdaság elméletét az ökológus Dickson Despommier modernizálta az 1990-es évek végén. Azóta világszerte dolgoznak az elmélet gyakorlattá váltásán.

Belső terekben főként paradicsomot, salátát, spenótot, borsot, epret, zöldbabot termesztenek, pedig bármit lehetne. Annak sincs akadálya, hogy felhőkarcolók emeleteit búzamezővé, krumplifölddé vagy rizsterasszá alakítsuk át. Elvileg bármilyen növényre, és egyes állatok tenyésztésére, élelmiszerek mellett bioműanyagok, biogyógyszerek és más biotermékek előállítására is alkalmasak.

vfa1.jpg

Despommier vertikális farmján mindegyik emeletnek van saját vízellátó és tápanyag-ellenőrző rendszere, de a hidropónia vagy aeropónia (gyökerek táplálása tápoldat-köddel) alapú megoldások miatt eleve sokkal kevesebb víz kell, mint a hagyományos mezőgazdaságban, és – általában fertőzésekhez vezető – túlfolyás sincs. A víztisztítás helyben történik. Szenzorok követik nyomon minden növény tápanyagfelvételét, figyelik a fertőzéseket. Kórokozó vírusok és baktériumok jelenlétét DNS-chiptechnológiával detektálják stb.

vfa2.jpg

A farmok egyik előnye, hogy a gazda nincs kitéve az időjárás szeszélyeinek, nem kell törődnie évszakokkal. Bármilyen mag bárhol és bármikor vethető. Kórházak intenzív osztályára és mikrochipgyártásra kitalált védőtechnikákkal gyomnövények, rovarok és járványok egyaránt távol tarthatók. Az ultrabiztonságos és teljesen kontrollált környezetben növényvédőszerekre és hagyományos műtrágyára sincs szükség. Csomó élelmiszert nem kell tárolni, fagyasztani, frissebben esszük meg őket, száz- és ezer kilométerek helyett helyben szállíthatók, a szállításhoz kevesebb üzemanyagot használunk.

De hiába állnak rendelkezésre a technológiák, eddig inkább csak prototípusokat építettek. Az elmélet megvalósításához komoly problémákat kell leküzdeni.

Fény nélkül elpusztulnak a növények. Toronyházban vagy a Napból, vagy mesterséges forrásokból jutnak hozzá. Nyilvánvalóan az előbbi az előnyösebb, csakhogy nem mindig elég. A problémát bonyolítja, hogy a növények szűk spektrumát használják a napenergiának, így a közönséges lámpák kiesnek.

Fényhez, hidropónia és aeropónia rendszerekhez a helyi elektromos hálózatot kihagyva, helyben, például tetőtéri szélturbinával vagy napelemekkel, esetleg a plazma gázosításával vagy még ezoterikusabb eljárásokkal kell energiát generálni. Közben a levegő folyamatos szűrésére, speciális munkaruhák viselésére, káros genetikai módosításokra időben figyelmeztető megbízható rendszerek kiépítésére sem árt odafigyelni.

Frissítve: 2023. december 26.

Hogyan teszteljük a gépi intelligenciát?

Hétköznapi ismeretekből az ember könnyen következtet, kétértelmű mondatok buktatóit ösztönösen érzékeljük. A gépek viszont egyelőre a sötétben tapogatóznak, megoldhatatlan problémákkal szembesülnek, és a statisztika sem segít rajtuk. Általában csúnyán leszerepelnek a (mesterséges) intelligenciájukat mérni hivatott teszt, az MI legendás előfutáráról, a mostoha sorsú angol matematikuszseniről,  Alan Turingról (1912-1954) elnevezett teszt legújabb változatain.

Az iPhone-segéd Siriről és társaról többször kiderült már: nem is olyan intelligensek az intelligens asszisztensek… ChatGPT-vel és a nagy nyelvmodellekkel összehasonlítva pedig pláne nem, bár az általános mesterséges intelligenciához még ők sincsenek közel.  Hiába fejlődnek dinamikusan, az emberre jellemző „józanész” (common sense) komoly problémákat okoz nekik. Nem evidens számukra, hogy a fű zöld, az ég kék, éjjel sötét van és hasonlók. Az sem, hogy következtetéseket vonjanak le belőlük.

Ezért hasalnak el az eredetinél nagyságrendekkel nehezebb teszteken, például a nyelvalapú Winograd Sémaversenyen, amelyet Hector Levesque torontói kutató talált ki, és 2014-ben valósították meg először. Az elnevezés az első számítógépes beszélgetőprogramokat kidolgozó stanfordi MI-kutatóra Terry Winogradra utal.

tut2.jpg

Amióta mérik az intelligenciájukat, csak részfeladatokban vették az akadályokat. Nyelvi feladatoknál például a szövegkörnyezettel gyűlik meg a bajuk, és mivel nem ismerik, két- és többértelmű mondatokat hajlamosak teljesen félreértelmezni.

De miről is van szó?

Turing 1950-ben dolgozta ki az alapokat jelentő úgynevezett imitációs játék módszert.

„Három ember játssza: egy férfi (A), egy nő (B) és egy kérdező (C), aki bármilyen nemű lehet. A kérdező a másik kettőtől elzárt szobában tartózkodik. A játék célja a kérdező számára az, hogy megállapítsa, a másik kettő közül melyik a férfi, melyik a nő. Hogy a hangszín se segíthesse, a válaszokat írásban, vagy még jobb, ha gépírással adják meg. Most kérdezzük meg: mi történik, ha A szerepét egy gép veszi át? Vajon a kérdező ugyanolyan gyakran fog rosszul dönteni, ha a játékot így játsszák, mint akkor, ha a játék egy férfi és egy nő között zajlik? E kérdések helyettesítik az eredeti kérdésünket: tudnak-e a gépek gondolkodni?” – írta Turing.

Évtizedekkel később a teszt népszerű lett, és az MI-k sorra megbuknak rajta. Ismert változatának lényege, hogy a tesztelő billentyűzet és monitor közvetítésével változatos kérdéseket tesz fel az általa nem látott, nem hallott két tesztalanynak. Az egyik ember, a másik gép, de mindketten ember mivoltukról próbálják meggyőzni a kérdezőt. A kérdések az élet minden területére vonatkoznak, és ha a tesztelő hosszas faggatózást követően sem tudja egyértelműen megállapítani, hogy melyik az ember, a gép átment a vizsgán.

ttut.jpg

Ezen az általános vizsgán egyetlen MI sem ment még át, amiből akár arra is következtethetnénk – valószínűleg tévesen –, hogy messze vagyunk még az emberivel azonos szintű általános mesterséges intelligenciától.

A legújabb változatokban, az optikai érzékelést vizsgálva, videojelet is használnak, és léteznek speciális, például zenei változatok is. Néhány nagyon pontosan körülhatárolható, szűk témakörre korlátozódó kérdésekkel vizsgálható szakterület legfejlettebb képviselőit kivéve, egyetlen gép sem ment még át ezeken.

A mostani Turing-teszteket, Loebner díjat és hasonlókat manapság egyre kevésbé értékelik, szinte csak a szenzációhajhász média veszi komolyan, ahol viszont tényleg kíváncsiak és számít, hogy ember vagy gép próbálkozik, más módszereket alkalmaznak, például a CAPTCHA-kat. A kognitív puzzle-szerű tesztmódszer teljesen automatizált, nyilvános, számítógépeket és embereket megkülönböztető Turing-teszt. Egyes, például Google-fejlesztésű MI-k időnként mintha átmennének valamelyik teszten, amiről aztán kiderül, hogy mégsem volt annyira átfogó.

Pedig a „józanész” ismereteken alapuló következtetésekre egyre nagyobb szükség lesz az ember-gép interakcióban. Aligha beszélhetünk „intelligens” programokról mindaddig, amíg nem javulnak látványosan ezen a területen.

Frissítve: 2023. december 26.

 

Ma már mindenhol ott vannak a drónok

Az egyik legdinamikusabban fejlődő és még annál is gyorsabban terjedő, nagyon népszerű technológia – gyerekektől idősekig, szinte mindenki élvezi, és a fényképezés miatt mind többen érezzük a sajátunknak a drónokat.

Általában magányosan repkedő, repülés közben fényképező távirányított játékok vagy pilóta nélküli katonai légi járművek jutnak eszünkbe róluk. Egyelőre és csak rövid ideig, mert a kép hamar megváltozik. Folyamatosan bővítik őket mesterséges intelligenciával, sokan miniatürizálódnak, egyesek rajokban végzik szertágazó tevékenységüket. 

dr.jpg

A drónok nem újkeletű ember nélküli légi járművek, a katonai repülésben az 1960-as évek óta használnak ön- vagy távirányítással, általában a kettő valamilyen kombinációjával működő, pilóta nélküli légi eszközöket. Eleinte ember számára nehezen megközelíthető terepek megfigyelése, túl veszélyes feladatok kivitelezése hárult rájuk, idővel viszont beszivárogtak a mindennapokba.

A 2010-es évek folyamatos drónforradalmát mi sem szemlélteti jobban, mint hogy civil célokra már sokkal többet alkalmaznak. A kereskedelmi drónok nemzetközi piacának jelentős részét a senzseni székhelyű gyártó, a DJI uralja. 

Légtereinkben egyre gyakrabban tűnnek fel, változatos érzékelőkkel felszerelve, orvosi műszerektől, gyógyszerektől az élelmiszerekig különféle, idővel bármilyen áruk szállítására, mezőgazdasági célokra és persze változó indíttatású légi felvételek készítésére alkalmazzák őket. Előbb-utóbb személyfuvarozásra is beválnak, és nagyvárosaink légterében varázsszőnyegként repkednek majd tetőről tetőre a szerencsés utasokkal.

dr2.jpg

Az élővilág egyik legkülönösebb lényétől, a denevértől ellesett lépésekkel drónok közelebb kerülnek az önnavigációhoz, azaz emberi segítség nélküli tájékozódáshoz. A visszhang alapján történő tájékozódás általában arra vonatkozik, hogy valaki kiabál egyet, aztán detektálják a hanghullámok visszafelé tartó útját, hogy megzavarta-e őket valami, vagy sem. Ha igen, a denevérek például rögtön tudják, hogy élelem vagy akadály van a közelben. Az így működő drónok a hanghullámok visszaverődési (visszhang) és minden egyes mikrofonba való „visszatérési” idejének mérésével képesek nagyjából pontos térképet készíteni környezetükről, hogy tudják, hogyan hagyjanak el zárt tereket, és közben az ütközéseket is elkerüljék.

A filmkészítésből szintén kiveszik a részüket. Légi képeket és videókat eddig is tonnaszámra készítettek, de ma már egyes algoritmusokkal a légi járművek irányítóiktól függetlenül, rendezői specifikációkat megvalósítva rögzíthetnek jelenetekről jó minőségű felvételeket. A képi paramétereket repülés előtt határozzák meg, kijelölik a pontos útvonalat, az irányváltásokat a globális helymeghatározó rendszer (GPS) szenzoradatainak felhasználásával másodpercenként sokszor újraszámolják. A laptopon futó algoritmus rádiókapcsolatban áll az akadályokat automatikusan elkerülő és azonosító drónnal. Ezek a gépek multifunkcionálisak, mert filmgyártás mellett máshol is bevethetők: sportközvetítéseknél, ipari létesítmények, például szélturbinák hibáinak kivizsgálásánál, egészségügyi eszközök biztonságos sürgősségi szállításánál stb.

Drónok egyidejű szinkronizálásával, mindegyik úgy programozható, hogy pontosan a rendezői óhajnak megfelelő felvételt készítse el.

dr0.jpg

Ezek a gépek, ha kell, rajként is funkcionálnak – mint egyes madárcsoportok –, tehát nemcsak egyénileg, hanem csapatban is elboldogulnak a világban, koordinálják cselekedeteiket és hamarosan a szabadidős tevékenységektől a gazdaságig, és természetesen a hadviselésig, a lét szinte minden szegmensére óriási hatással lesznek. Életet menthetnek, életet olthatnak ki.

A drónrajok működése az MI-ből ismert és az élővilágból ellesett mintákat (madár-, hal-, hangya-, termeszcsoportokat stb.) követő rajintelligencián alapul. A rendszerek központi irányítás nélkül működnek, az egymáshoz közeli egyedek helyi interakcióiból önszerveződő egész alakul ki. Ismerik egymás tevékenységét, és így képesek egységesen cselekedni. Mindegyik önállóan pozícionálja magát, de formációban repülnek. Érvényes rájuk a klasszikus szabály: az egész több a részek összességénél.

A számítógépek és a robotok mellett jelenleg a drónok – lényegében az első széles körben alkalmazott mobil robotok – a digitális technológiában rejlő lehetőségek legmarkánsabb fizikai megjelenítői. Viszont, mivel nem digitális, hanem nagyon is valós közegben tevékenykednek, a potenciál kiaknázása jócskán függ az örök viták tárgyát képező szabályozástól.

Frissítve: 2023. december 26.

Meddig érvényes a számítástudomány leghíresebb törvénye?

Az integrált áramkörök kapacitása kétévente megduplázódik – mondja ki a számítástudomány talán legtöbbet emlegetett, az egyik Intel-alapító, Gordon Moore 1965-ben megfogalmazott törvénye. Másik előrejelzése szerint az integrált áramkörökbe épített tranzisztorok száma évente megkétszereződik. Az első prognózisban eredetileg egy év szerepelt, Moore 1975-ben módosította kettőre, manapság 18 hónapról beszélnek.

A számítástechnikai ipar magáévá tette az 1975-ben pontosított törvényt, azt a tényt, hogy a tranzisztorok – az egyekként és nullákként ábrázolt elektromos jeleket „termelő” parányi ki-/bekapcsolók – száma két, majd másfél év alatt megkétszereződik. A komponensek az 1965-ös harmincból többmilliárdra sokasodtak. Az ipari kémia és a szilícium csodájaként az anyag kiváló félvezető (kontrollálható módon vezeti az áramot), és a kristályszerkezet a zsugorodás ellenére intakt marad.mt.jpg

A technológiai fejlődés következtében a törvény lassan (kb. tíz éve) megdőlni látszik, egyre több jel utal rá, az időpontról viszont megoszlanak a vélemények. A legáltalánosabb a maximum tíz év, de könnyen lehetséges, hogy már előbb érvényét veszti. A fejlődés örvendetes következménye, hogy másfél évente a számítógépek energiahatékonysága is megduplázódik, az informatikai eszközök működéséhez szükséges energiamennyiség a felére csökken. Például így is növelhetők a számítási kapacitások.

A törvény az áramkörök atomi szintre történő zsugorodása mellett több tényező miatt is érvényét vesztheti. Mivel egyre több szilícium áramkört tesznek ugyanabba a kicsi méretbe – vagy még kisebbe –, a generált hőt nagyon nehéz kezelni, komoly fejtörést okoz, hogy mit tegyenek vele. Másik tényező az informatika egyre mobilabbá válása, a mobilalkalmazások és az adatok számítási felhőbe költöztetése. Áthidaló megoldásként, olyan új eszközöket lehetne tervezni, amelyekbe jól ismert funkciókkal rendelkező meglévő áramkörök nagy darabjai integrálhatók.

Komoly lehetőségnek tűnik az egyetlen atomvastagságú grafitréteg grafén, amely keményebb a gyémántnál, jobb elektromos vezető a réznél, rugalmasabb a guminál. Mérete és remek vezetőképessége miatt grafén nanoszalagokból nagyon gyors, a szilíciumnál százszor, sőt, akár ezerszer sebesebb áramkörök építhetők. A méret azonban probléma is: nehéz egy atom vastagságú anyagból húsz-harminc atom széles tárgyacskákat készíteni. Ráadásul az anyag nem rendelkezik a tranzisztor kikapcsolásához szükséges kvantumjeggyel (olyan tartománnyal – tiltott sávval –, amelyben az elektronállapotok tiltottak). Ez a probléma kisebb mértékben a szintén hatékony szén nanocsöveknél is fennáll.

A már 1971-ben felvázolt, de először csak 2008-ban fejlesztett új típusú elektronikus alkatrész, a memrisztort tartalmazó chipek szintén ígéretesek. A memory (memória) és a resistor (elektromos ellenállás) szavak összetétele: passzív elektromos elem, amelynek elektromos ellenállása nem állandó, hanem a múltbeli állapotától függ. Sokak szerint felválthatja a jelenlegi Flash és más (SSD, DRAM) memóriákat megalapozó tranzisztortechnológiát.

A természetes modelleket is jobban kellene értenünk és pontosabban másolnunk. Az emberi agy szerkezete és működése teljesen más, mint a mai számítógépeké. Többen kísérleteznek ugyan nem a Homo sapiens, hanem kisebb agykapacitású állatok szintjét elérő kognitív számítógépekkel.

mt0.jpg

A Moore-törvény feltételezi, hogy az olcsó és nagyteljesítményű chipek mindig rendelkezésre állnak. Főként a koronavírus-járvány, de geopolitikai és gazdasági okok, például az amerikai-kínai chipháború és a valós háborúk hatására is, az ellátási láncok azonban már nem úgy funkcionálnak, mint korábban. Ennek egyik jele, hogy 2020 második felében beütött a máig tartó, az autóipartól az elektronikai termékekig, sok területet érintő chiphiány. Szintén nyugtalanító tény, hogy két évtizede még huszonöt cég gyártott modern chipeket, a mai csúcsminőséget viszont csak három, a tajvani TSMC, az Intel és a Samsung garantálja.

A válsággal lelassult az innováció, nem lesz már annyira egyértelmű az egyre gyorsabb, hatékonyabb és olcsóbb számítási kapacitás elérése.

Frissítve: 2023. december 26.

A számítógépes kép mindenhatósága – mesevilágok a monitortól a mozivászonig

Évtizedek óta képkorszakban élünk, reklámoktól filmekig, honlapoktól játékokig, a képek egyre markánsabban hatnak tudatunkra és tudatalattinkra; a marketingnek is fontos részei, mert szinte minden terméket álló- és mozgóképekkel adnak el.

A mai képek nagy részét kamerával, távcsővel, mikroszkóppal és természetesen számítógéppel készítjük. Egy kép – és egy képernyő – legkisebb szerkeszthető eleme a képpont (pixel).

cgr.jpg

Az infokommunikációs technológiák közül a szó szoros értelmében a számítógépes grafika (CG) fejlődése a leglátványosabb. Szinte minden idetartozik, ami a komputeren van, és nem szöveg vagy hang. Ha a rajz mértani alapelemeiből (primitívekből), mint a pontokból, egyenesekből, görbékből és sokszögekből alkotunk képet, akkor vektorgrafikát alkalmazunk. Viszont ha csak szabályosan elrendezett pontokból, akkor az ellenkezőjét, rasztergrafikát – az utóbbi a gyakoribb.

A CG több folyamatra vonatkozik: képadatok szoftverrel történő megjelenítésére, módosítására, vizuális tartalmak digitális szintézisére, manipulálására, legáltalánosabban pedig a képalkotás szerteágazó technikáira. Csak a szűkebb, nem a művészi aspektusa számítástudományi kutatások tárgya.

Digitális fényképezés, filmek, játékok, televízióműsorok, virtuális és kiterjesztett valóság, anatómiai modellezés, épülettervezés, okostelefonok és kijelzők, számos egyedi alkalmazás megkerülhetetlen része, jó ideje speciális szoftvereket, hardvereket fejlesztenek hozzá. A CG rengeteg témát lefed: felhasználói interfésztervezést, renderelést, vektoros grafikát, 3D modellezést, képfeldolgozást, de még a mesterségesintelligencia-kutatások egyik „sztárjával”, a gépi látással is sok az átfedés. Az utóbbi évtizedben olyan szakterületek alakultak ki, mint például a kortárs művészetekben is egyre népszerűbb (és nagyon látványos) adatmegjelenítés.

Az ezzel a technológiával alkotott képek több típusát különböztetjük meg: kétdimenziósokat (2D), háromdimenziósokat (3D), animált grafikát.

Egyik legkülönlegesebb ága az elsősorban hollywoodi szuperprodukciókból, animációs filmek álomvilágaiból ismert, digitális és komputeres animáció, trükkök, speciális effektusok végtelen tárháza, az általában 3D grafikás CGI (computer generated imagery). Mindegyik alkalmazási területét forradalmasította.

A CGI fejlődése az 1990-es években a virtuális filmkészítésig, a fizika törvényei által nem korlátozott szimulált kameráig vezetett. Az egyre több CGI-programmal és a gyorsabb számítógépekkel, magányos művészek, kisvállalatok is tudnak már asztali gépükön profi filmet, játékot és képet készíteni.

A CGI alapjaiban változtatta meg a filmet, és míg eleinte szakadék tátongott az animáció és a valósághű mozgóképek között, a különbség lassan eltűnik, fantázia és realitás határai mára teljesen elmosódtak.

Változatos módszerekkel kivitelezhető. Ha algoritmusokkal például fraktálokat generálunk, összetett vizuális mintázatokat alkotunk. 2D képszerkesztővel is hozhatunk létre képalkotáshoz szükséges formákat, de a 3D ma már elterjedtebb. Nagyon komplex vizualitást számítógéppel generált képek rétegekbe rendezésével érhetünk el. A technikát gyakran kombinálják zöld háttér elé helyezett színészekkel, akiket így szimulált háttér előtt jelenítünk meg.

A lehetőségek tényleg végtelenek, a fejlődés ezen a területen valóban exponenciális.

Edge computing: gyors számítások a peremen

Az utóbbi hónapokban, egy-két évben kevés infokommunikációs kifejezést hallottunk annyit, mint a magyarra leginkább peremhálózati számításokra fordított edge computingot. De mi is az?

Előrejelzések alapján 2025-ig 61 százalékkal nő a világ adatállománya (a céges adatoké 75 százalékkal). A növekedés jelentős részben a hálózatok peremén ténykedő, irdatlan mennyiségű adatot generáló dolgok internetével (IoT) magyarázható. Minden adatot a számítási felhőben lévő adatközpontok tárolnak, dolgoznak fel, amivel a hálózati sávszélesség-követelmények drasztikusan növekednek, és a lehetőségek határát közelítik. Hiába fejlődik a technológia, az adatközpontok nem garantálják a sok alkalmazás szempontjából kritikus megfelelő átviteli sebességet és válaszidőt. Ráadásul a peremen működő eszközök folyamatosan használják a felhőből jövő adatokat.

ed1.jpg

E folyamatok következtében, vállalatok kénytelenek adattárolásukat, alkalmazásaikat és szolgáltatásaikat decentralizálni, hogy a lehető legközelebb legyenek a végfelhasználókhoz. Például a hálózatok peremén, kihasználva az ottani „okos” tárgyak, mobiltelefonok, routerek, integrált hozzáférésű eszközök vagy éppen közeli mikro-adatközpontok stb. lehetőségeit.

A peremről kevesebb adatot kell mozgatni, a forgalom és a távolság mellett a költségek is csökkennek. A szolgáltatások „elköltöztetésével” elhárulnak az átviteli és válaszidős problémák, viszont új kihívások is teremtődnek.

Tehát, az elosztott számításokhoz tartozó edge computing lényege, hogy nem hagyományos adatközpontokon és nem is a felhőn alapulnak, hanem a számításokat és az adattárolást az adatforrás közelébe víve, minimálisra csökkentik a távolság miatti potenciális problémákat, például az akadozó sávszélességet. Olcsón és gyorsan működnek egy alapvetően egyszerű infrastruktúrában, és ha valami elromlik, a hibát is hamar megoldják.

A koncepció a kései 1990-es évek webes és videotartalmakat a felhasználó közelében lévő peremszerverekről közvetítő tartalomszolgáltató hálózataiig vezethető vissza. A 2000-es évek elejétől ezek a szerverek alkalmazásoknak, alkalmazásrészeknek is otthont adnak (hosztolnak), így lényegében már akkor megjelentek az első kereskedelmi peremhálózati számítások. Maga a kifejezés 2015 után terjedt el, és a fogalom nagyon fontos jellemzője még, hogy főként valósidejű adatfeldolgozást igénylő alkalmazásokban használják. A felhőszámítások a big datát, az edge computing az instant, szenzorok és felhasználók által „termelt” azonnali adatokat kezeli.

ed.jpg

A kifejezést a ködalapú számítások szinonimájaként is használják. Joggal, bár az utóbbi a „felhő” és a „perem” előnyeit ötvözve, igyekszik a hálózat élére vinni a felhőt, a helyben történő tárolás előnyeit megtartva kapcsol össze két különböző ökoszisztémát, amellyel több területen, például önvezető autóknál, játékoknál, az ipar 4.0-ban, intelligens városban, az otthon automatizálásában, valósidejű elemzésben ideális megoldásnak tűnik. „Peremhálózati számítások, kerekeken” – mondja róla több szakértő. Virtualizációt is használhat, amivel megkönnyíti egy csomó alkalmazás telepítését és futtatását a peremszerveren.

ed0.jpg

A peremhálózati számításokban hatalmas kiaknázatlan potenciál rejlik. Mivel egyre több szenzorral felszerelt, egyre több eszköz generál egyre több adatot, a központosított modelleknek, mint például a felhőnek, napról napra komolyabb kihívásoknak kell eleget tenniük. Hiába optimalizálják, a sávszélesség hátráltatja a fejlődést. Ez persze nem jelenti a felhő végét, már csak azért sem, mert a peremhálózati számításokra fejlesztett sok eszköz kapacitása eleve korlátozott. A két megoldás jól megfér egymással; alkalmazásfüggő, hogy mikor melyiket használjuk.

Frissítve: 2023. december 26.

Aktuátorok: mi a közös az automatikusan nyíló Tesco-ajtóban és egy elektromos motorban?

Amikor bemegyünk egy áruházba, az ajtó automatikusan kinyílik, vagy ha az autóülést tetszés szerint előre-, aztán visszatoljuk, aktuátorok működnek a háttérben, azok garantálják, hogy be tudunk lépni a boltba, és az ülés is pont ott van, ahol szeretnénk.

Az aktuátor a magyarul cselekvőt jelentő latin actor szóból ered, jelentése sokat elárul a funkcióiról. Elektromos motoroktól kezdve a sebészetben is alkalmazott mikroelektromechanikai rendszerekig (MIEMS) vagy az ipari robotokig, a modern élet minden területen jelen vannak.

Az infokommunikációs technológiák szédületes fejlődésével, az érzékelők (szenzorok) is döbbenetes tempóban szaporodnak, és a velük gyakran összeköttetésben lévő aktuátorok szintén megsokasodtak. De mi a különbség közöttük?

Míg egy szenzor többek között műszerek, gépek, például egy robot működési feltételeit figyeli, addig az aktuátor működésbe hozza az adott szerkezetet. Annak ellenére, hogy ipari környezetben gyakran a rendszer ugyanazon részén találhatók, és sok az interakció közöttük, képesek kiegészíteni egymást, közös munkájukkal biztosítják a gép hatékony működését, mégis teljesen más alkatrészek.

akt.jpg

A szenzor adatokat gyűjt a rendszer mozgásáról – arról a rendszer által eldöntött mozgásról, amiről az aktuátor digitális kódot kap, és a kódot jellé alakítva, a jelet az energiaforrással összekapcsolva elindítja. Ez, a gép mozgatása, mechanizmusok vezérlése, például egy szelep megnyitása a rendeltetése. Akár „mozgatónak”, „beavatkozónak” vagy éppenséggel a vezérlőrendszer „végrehajtójának” is nevezhetjük.

akt3.jpg

A vezérlőjelzés viszonylag alacsony energiájú, elektromos feszültség vagy áram, pneumatikus (sűrített levegő energiájával létrehozott nyomás), hidraulikus folyadéknyomás, vagy akár emberi erőkifejtés. Energiaforrása ezeknek megfelelően elektromos, pneumatikus és hidraulikus egyaránt lehet. Amikor megkapja a kódot, az aktuátor az általa generált jellel mechanikai mozgássá alakítja a forrás energiáját.

Az automatizáció, az automatikus vezérlés egyik hatékony formája, az irányítórendszer az aktuátor „közvetítésével” hajt végre műveleteket, feladatokat. Egy ilyen rendszer sokféle lehet – mechanikus, elektronikus, szoftveralapú (például robotvezérlő, nyomtatómeghajtó stb.), de ember is.

Az aktuátor egyenes irányú (lineáris, haladó) és forgó, körkörös mozgást is előidézhet. Csoportosításuknál ez az egyik legfontosabb szempont, vagy előre és hátra, de egyenes „vonalon” mozgatnak gépeket, vagy – egyenes nélkül – forgatják meg őket. Ezek a lineáris vagy forgó aktuátorok – de természetesen lehetnek lineáris-forgók és forgó-lineárisak is –, az energiaforrás fajtájának függvényében, változatos formákban férhetők hozzá. Kiválasztásuk az adott alkalmazástól, iparág-specifikus követelményektől függ, egészségügyi technológiákhoz például az elektromos aktuátorok a természetes választás.

Az intelligens technológiák térnyerésével a mai aktuátorok is „okosabbak”, mint például a 2000-esek. Intelligencián egyelőre főként a szenzorokkal való eredményes együttműködést értjük. Ezeket a megoldásokat, például miniatűr gyógyszeradagoló rendszereket elsősorban az egészségügyben alkalmazzák. Gyorsak, kevés energiát fogyasztanak, biológiailag kompatibilisek, azaz az emberi szervezet nem löki ki őket. Egyértelműen övék a jövő. 

Frissítve: 2023. december 26.

Mindent észlelnek és mérnek az érzékelők

Szőlészetektől az okostelefonokig, számító- és fényképezőgépektől, kórházi berendezésektől robotokig, autókig (különösen az önvezető járművekben), a mindennapok rengeteg területén működnek látható és láthatatlan, tároló- és feldolgozókapacitással rendelkező szenzorok, fáradtságot nem ismerve mérnek, gyűjtenek és továbbítanak adatokat.

A környezetbe integrálódó, annak szerves részévé váló infokommunikációs megoldások térnyerésével az érzékeléstechnika napjaink és a közeljövő egyik alaptechnológiája lett. Diadalútját társadalmilag egészségügyi és környezetvédelmi okok, gazdasági szempontból ipari és mezőgazdasági tevékenységek, valamint a közlekedés automatizálása indokolják.

A szó tágabb jelentésében, egy szenzor a környezetében történő eseményeket vagy változásokat észlelő, az információt más elektronikus készülékekre, főként számítógépes processzorra továbbító eszköz, modul, gép vagy alrendszer. Önmagában nem, hanem mindig más eszközökkel vagy azokba, például telefonokba integrálva használjuk. Általában úgy tervezik őket, hogy kis hatással legyenek az általuk mértekre.

sz1.jpg

Egyelőre a természeti jelenségeket vizsgáló, valamint a magunkon hordható, vérnyomást, testhőmérsékletet stb. rendszeresen figyelő érzékelők a legelterjedtebbek. Komoly segítséget nyújtanak egészségügyi dolgozóknak, az általuk küldött információ következtében gyorsabb az orvosi beavatkozás, rendellenes aktivitások észlelésével betegségek előzhetők meg.

A szervezet egyes aktív sejtjei képesek megakadályozni rákos daganatok növekedését. Bioérzékelők segíthetik a kezelőorvost a sejtek azonosításában, lehetővé téve, hogy a beteg immunrendszerét használja a rák elleni küzdelemben. A módszer előnye, hogy (a rákgyógyászat mellett) felettébb tág a potenciális alkalmazások köre: génterápia, bio- és zöld technológiák, ipari folyamatok.

szenzor2.jpg

Szenzorok nélkül elképzelhetetlen az intelligens otthon, de például a vezeték nélküli szőlőskertet is érzékelőhálózat figyeli, percenként méri a hőmérsékletet, majd tárolja az adatokat. A szenzorok a talaj nedvességét ellenőrizve kimutatják, mely területeket szükséges locsolni, melyeket nem.

Terjednek a kombinált megoldások is: szenzorok, funkcionális fonalak, szövetanyagok együttes alkalmazása a felhasználó alakjához igazodó ruhaszerű, magunkon viselhető egészségügyi rendszerek és más okos (smart) öltözékek. A testhőmérsékletet, szívtevékenységet monitorozó ruhadarabok mellett a miniatűr bioérzékelőkkel ellátott textíliák egyéb funkciókra, például testnedvek, veríték és vér elemzésére is képesek lehetnek.

Mikroszkopikus méretű mikroszenzorokkal gyorsabb a mérés, pontosabb a továbbított információ. Szenzorhálózat-technológiával többezer, több százezer, többmillió érzékelő állítható rendszerbe, különböző hálózataik is egyre jobban egymásba integrálhatók, szuperhálózatuk pedig a dolgok internete (Internet-of-Things, IoT).

A háttérben dolgozó, tárgyakba épített, gyakorlatilag láthatatlan parányi számítógépek, a környezet-intelligencia elterjedése egybevág a fejlett szenzorhálózat-technológiával: az érzékelők vezeték nélküli helyi hálózatot alkotnak, ahol a kommunikáció nem egy-egy érzékelő és környezete, hanem a hálózat egésze és a környezet között megy végbe. A fejlődés a hálózatok egyre nagyobb autonómiáját eredményezi; a szenzorok részfeladataikat önállóan, de a többiekkel összehangoltan végzik. A kategórianeveknél és címkéknél kitüntetett fontosságú a szabványosítás: ha az egyik szenzor melegről, a másik hidegről informál, a hálózatnak azonnal meg kellene értenie, hogy mindkét adat ugyanarra a jelenségre vonatkozik.

sz3.jpg

A hibákat és félreértelmezéseket elkerülendő, az egyre bonyolultabb rendszerek különböző szintjein lévő elemei egymás tevékenységét is vizsgálhatják, szenzor szenzort figyel. Együttműködésüket komolyan hátráltathatja, ha tévesen hatnak egymásra, például a valóságnak nem megfelelő adatokat kommunikálnak, és azok következtében megváltozik a rendszer működése. A hatékony miniatürizálás és a vezeték nélküli technológiák energiafogyasztásának kezelése mellett a stabilitás és a megbízhatóság növelése a szenzortechnológia egyik legnagyobb és komoly anyagi befektetéssel járó kihívása.

Frissítve: 2023. december 26.

Adattárolás: emlékszik még valaki a floppy lemezekre?

A big datával végérvényesen az adatközpontú számítások korába léptünk, és szerencsére a tárolás sokkal költséghatékonyabb, mint korábban bármikor, miközben a technológia az elmúlt tíz év alatt többet fejlődött, nagyobb változásokon ment keresztül, mint az azt megelőző huszonötben. Ki emlékszik még például a floppy lemezekre?

Hogyan tároljuk az adatokat, hogyan szorítsunk helyet minél nagyobb információmennyiségnek minél kisebb fizikai térben, miként mentsünk át letűnt formátumokon rögzített munkáinkat az utókornak, milyen módszerekkel és formában őrizze meg az emberiség infokommunikációs eszközökkel felvett, azokon tárolt tudományos és kultúrkincsét?

Az adattárolás, az információ valamilyen tároló-médiumon történő rögzítése és megőrzése nagyon nem újkeletű. Hogy csak néhány példát említsünk: a kézírás, a könyvszerkesztés, a lemezfelvétel, a mágneses szalag, az optikai lemezek, mind alkalmasak rá. Számos eljárással megoldható, sokak szerint – természetes médiumként – a DNS szintén képes rá, a felvétel pedig elvileg bármilyen energiával lehetséges. Az elektronikus adattároláshoz értelemszerűen elektromos áram kell. Egyes rögzítő-médiumokat, például a füstjeleket viszont vagy a természet, vagy az ember csak időlegesre tervezte.

dst1.jpg

Elektronikus dokumentumok sokkal kisebb térben tárolhatók, mint a papíralapúak. A számítógépek rendeltetéseinek egyike pontosan ezeknek a dokumentumoknak digitális formában, jövőbeli használatra történő megőrzése. A tárolórendszerek elektromágneses, optikai vagy más médiumokon alapulnak, hogy az adatokat szükség szerint őrizzük, életre keltsük. Könnyebb biztonsági másolatokat készíteni, és ha valami váratlan történik, például összeomlik a rendszer vagy egy hacker megtámadja, gyorsabban helyreállíthatók.

A digitális adattárolás vagy fizikai merevlemezen, meghajtókon, USB-vezérlőn, vagy virtuálisan, a számítási felhőben történik. Mivel a fájloknak könnyen elérhetőnek kell lenniük, és másolat is kell róluk, a rendszer megbízhatósága, biztonsága kulcsfontosságú a mai számítógépes infrastruktúrákban. Különféle tárolási lehetőségeket és alkalmazásokat összehasonlítva, választjuk ki a céljainkhoz legjobb megoldást. A számítógép memóriája és a helyi tárolás talán nem elegendő személyes adataink védelméhez, célszerű az információkat áramkimaradás után is megtartó nem illékony tárolási opciókban, hibrid megoldásokban gondolkozni.

dst3.jpg

A számítógépes memória két legfontosabb típusa, a ROM és a RAM tökéletesen kiegészítik egymást. A csak olvasható adatok tárolására alkalmas ROM tartalma nem változtatható, a beégetett adatok véglegesek. A komputer vagy más számításokat végző eszköz a benne tárolt adatokat áramtalanított állapotban is megőrzi. A tárolás korlátos és korlátlan ideig is eltarthat. A ROM biztosítja, hogy a számítógép, tablet, okostelefon stb. be tudja indítani a rendszert (bebútoljon). A RAM tetszőleges vagy közvetlen hozzáférésű memória véletlen elérésű adattároló eszköz, amely ellentétben a ROM-mal, nemcsak olvasható, hanem írható is. Az adatokat csak addig őrzi meg, amíg a gép bekapcsolt állapotban van, ha már nincs feszültség alatt (ha kikapcsoljuk), akkor elvesznek. A RAM teszi lehetővé, hogy programokat futtassunk a komputeren és más eszközökön.

Eddig csak ezekre a memóriákra volt szükségünk, most viszont megjelent egy harmadik, és mindent, sőt, még egy kicsit többet is meg tud tenni egyedül, mint a másik a kettő. Egy kínai fejlesztésű új memóriára azért van szükség, mert önmagában sem a ROM, sem a RAM nem tökéletes. A rendszer hiába fér gyorsan a RAM-hoz, ha egyszer kikapcsoljuk, vagy jön az áramszünet, azonnal elveszítjük az összes nem mentett adatot. A ROM-on pedig hiába folyamatos az adattárolás, nem írható rá adat azonnal és gyorsan. Az új memória egyrészt a két típus legjobb tulajdonságaival rendelkezik, másrészt magunk dönthetjük el, mennyi ideig tároljon adatokat.

A tárolás vagy közvetlenül, vagy hálózaton keresztül történik. Sok eszközzel mindkettő megoldható. A merevlemez, az SSD, a CD- és a DVD-, a flash-meghajtó stb. közvetlenül kapcsolódnak a komputerhez, a tárolóhoz általában csak egy gép fér hozzá. A hálózaton keresztüli, többféle merevlemezzel és más eszközökkel megvalósított tárolás az odatartozó számítógépeknek biztosít hozzáférést, az adatok egymás közötti könnyű megosztását.

A hálózati tárolás legfrissebb újításai, a kapacitás tároló szoftver és hardver szétválasztásával történő növelése, a virtualzáció, az atomi léptékű tárolás, a DNS-alapú megoldások, persze a mesterséges intelligencia területi alkalmazásai és ezek valamilyen kombinációi jelenthetik a jövőt.

Frissítve: 2023. december 26.

süti beállítások módosítása