A Neumann Társaság blogja az informatika, robotika legmenőbb témaköreiről – újszerű megközelítésben.

Kvantumugrás

Kvantumugrás

Architektúrák: hogyan épülnek fel a számítógépek?

2021. július 07. - ferenck

A 20. század végétől a számítógépek a mindennapok meghatározó részei, a mai gazdaság és társadalom, életünk elképzelhetetlen nélkülük. Komputerünket azonban főként az operációs rendszeren keresztül látjuk, érzékeljük, az által kommunikálunk vele, és a perifériákon (monitoron, billentyűzeten, egéren) kívül a hardver rejtve marad előttünk.

A rendszer sokkal összetettebb a látszatnál, bonyolultságában is kifinomult architektúrával szembesülünk nap, mint nap. Ha viszont az architektúra szóra gondolunk, computerek helyett törvényszerűen épületek jutnak eszünkbe. A párhuzam nem véletlen, mert a számítógép-architektúrában ugyanez az alapelv érvényesül – a tervezők úgy alakítanak ki egy komputert, rendszert, platformot, úgy illesztik egymásra a különböző elemeket, hozzák szinkronba őket, mint építész a ház változatos részeit. 

A kifejezés bonyolultnak hangzik, definíciója azonban sokkal egyszerűbb, mint gondolnánk: a számítógépes architektúra a szoftver és a hardver közötti illesztési felületet, interakciókat, rajtuk keresztül a számítógépet működtető szabálysorokat jelenti. A szoftver- és hardvertechnológiai szabványok kommunikációját ez a specifikáció részletezi, belőle tudjuk meg azt is, hogy az adott gép milyen technológiákkal kompatibilis.coa2.jpgAz architektúra három főbb kategóriából áll.

A rendszerterv, azaz az összes hardverrész, mint például a központi feldolgozó egység (CPU), az adat- és multiprocesszorok, a memóriakontrollerek és a memóriához közvetlen hozzáférést biztosító eszközök, a tényleges rendszer az első. Az utasítássorok architektúrája a második. A CPU funkciói és lehetőségei, programozási nyelve, az adatformátumok, a CPU és a mikroprocesszorok gyorsan írható-olvasható, ideiglenes tartalmú tárolóegységének (regiszterének) a típusai, és a programozók által használt utasítások, a rendszert működtető programok tartoznak ide. A harmadik, a mikroarchitektúra az adatfeldolgozó és -tároló elemeire, utasítássorokba történő implementálásukra vonatkozik. Ezeket a részeket együtt, meghatározott rend és minta alapján építik egymásra (mint a matrjoska babákat), hogy a rendszer pontosan és hiba nélkül működjön.

coa1.jpgA történelem első dokumentált számítógép-architektúrája a 19. századi feltaláló, Charles Babbage és Lord Byron lánya, Ada Lovelace levelezése a soha el nem készült analitikus gépről.

A 20. században elsőként Konrad Zuse írta le 1936-ban, hogy hogyan képzeli el az első programvezérlésű, kettes számrendszerben dolgozó elektromechanikus computer, a Z3 működését.

Alan Turing szintén 1936-ban dolgozta ki az „absztrakt automata”, a digitális számítógép leegyszerűsített modelljének tekinthető Turing-gép elméleti alapjait. Rendszere három hardver- (memória, vezérlő, író-olvasófej) és egy, a gép működését irányító szoftveregységből áll.    

A Neumann János nevével fémjelzett, 1945-ben publikált tárolt programú számítógép modell alapján egy digitális komputer regiszterekből (aritmetikai és logikai műveleteket végző egységekből, azaz áramkörökből), a programszámlálót és az utasításregisztert tartalmazó vezérlőegységből (CPU), a számításokhoz szükséges adatoknak és az utasításoknak helyet adó operatív tárolóból (belső memóriából), háttértárból és a periféria ki- és beviteli mechanizmusaiból (input és output perifériákból) áll.

coa6.jpg

A Neumann-architektúrától a szintén az 1940-es években, a Harvard Mark I számítógéphez kidolgozott (azonos nevű), ma főként digitális jelfeldolgozó processzorokban és mikrovezérlőkben alkalmazott architektúra abban tér el, hogy az adatmemória és a program mindig elkülönül egymástól, a gép az adatmemória-hozzáféréssel egyszerre tud gyorsítótár nélkül is utasítást beolvasni és végrehajtani.

A legkorábbi architektúrákat papíron tervezték meg, majd közvetlenül építették a hardverbe. Később fizikailag is létrehozták, tesztelték, a végleges változatig módosították a prototípusokat. Az 1990-es évektől ezeket a műveleteket általában más architektúrák belsejében, architektúraszimulátorral végzik.

Frissítve: 2025. június 8.

Mire jó az információelmélet?

Naponta óriási adatcunami zúdul ránk. Adatbázisok és adattárházak mindenhol, gépitanulás-algoritmusok monumentális adatsorokon gyakorolnak, félve őrzött titkok után koslató adathalászok keserítik az életünket. A számítástudomány, azon belül főként a mesterségesintelligencia-kutatás soha nem volt annyira adatközpontú, mint ma, a big data korában.

Az adat értékét elsősorban a belőle kinyert tartalom, információvá, tényleges ismeretté történő értelmezése, az értelmezés lehetősége adja. A digitális információ keletkezésével, szerkezetével, elérésével, tárolásával, feldolgozásával és továbbításával, információs rendszerekkel foglalkozó, több diszciplínát lefedő és azokon átívelő tudományterület az információelmélet. Alapjait, az elektronikus hírtovábbítást kutatva, az 1940-es évek végén Claude Shannon, Norbert Wiener és Andrej Nyikolajevics Kolmogorov rakta le, egymástól függetlenül. Közülük Shannon (1916-2001) munkássága a legjelentősebb.

ith1.jpg

Shannon a kommunikációs rendszerek elemeit, a közöttük lévő kapcsolatokat vizsgálta. Noha munkája túlmutat a mérnöki tudományokon, elsődlegesen praktikus célokat szolgált, például azt, hogy a telefonvonalak kevésbé legyenek zajosak. Elmélete szerint, a tervező szemszögéből nézve, a kommunikáció jelentéstani vonatkozásai lényegtelenek, az üzenet statisztikai jellemzői, és nem a tartalma a meghatározó.

A kommunikáció szimbólumtovábbítás, eszközei a (beszéd előtti) jelek, a nyelv, az írás, míg az információ digitálisan kódolt szimbólumok. A legfőbb probléma, hogy egy adott ponton hibátlanul, vagy megközelítőleg hibátlanul reprodukáljunk egy másik pontról küldött üzenetet, ugyanakkor a tényleges üzenet csak egy a lehetségesek közül. A rendszert tehát úgy kell megtervezni, hogy ne kizárólag a kiválasztott, hanem a potenciális üzeneteket is kezelje.

A kommunikáció folyamata az üzenet jelképekbe (szavakba, ikonokba, bitekbe stb.) kódolása, továbbítása, dekódolása. Az üzenet információelméleti megfelelője a jel, mely a továbbítási csatornán keresztül jut el az üzenetet generáló forrástól a rendeltetési helyig.

ith0.jpg

Fontos tényező a csatorna sávszélessége, illetve zajtelítettsége. Az eredeti üzenetet megváltoztató zaj az információ ellentéte. A fogadó természetesen a hasznos információra, a jelre, és nem a haszontalan információként definiált zajra kíváncsi.

A csatorna kapacitását az határozza meg, hogy az információ, a lehető legkisebb hibaszázalékkal és a leggyorsabban jusson el a címzetthez. A tervezett és a valós kapacitás soha nem azonos, így az outputon kimenő és az inputon bemenő jel sem lehet az. Ha az lenne, a csatornát zajtalannak tekinthetnénk. A zaj csökkentéséért a jelet többször megismételhetjük, ezzel viszont nemcsak a hibalehetőség, hanem az információ tényleges továbbítási rátája is csökken. Hibakorrigáló kódokat szintén használhatunk: minél kisebb az óhajtott hibavalószínűség, annál összetettebb eszközöket kell tervezni.

Az információ fontos tulajdonsága, hogy előzetesen inkább csak becsülni lehet, és nem kiszámolni, mert újdonságértéket tartalmazó jelképekből áll. (Ha zavarmentes, akkor pontos a becslés, ha zavar áll be, akkor nem.) E jelképek közlése a kommunikáció lényege, a többi redundáns elem. Az információ a bizonytalansággal azonos, véletlenszerűsége az entrópiával írható le, amely lehetővé teszi, hogy egy csatorna mennyire alkalmas jeltovábbításra. 

A termodinamika második törvénye a világegyetemben állandóan növekvő rendezetlenségre, az entrópiára vonatkozik. Shannon, az entrópiát az információval azonosította, így a növekedése az információ növekedését eredményezi, azaz egy bitnyi információ továbbításához meghatározott mennyiségű energia szükséges.

ith5.jpg

A telefonokra és a számítógépekre kitalált információelméletet általában hírátviteli rendszerekben alkalmazzák.

Frissítve: 2025. június 8.

Miért nem tud a mesterséges intelligencia józan ésszel gondolkozni?

Zöld a fű, kék az ég, savanyú a citrom – a végtelenig sorolhatnánk a józanész-bölcsesség gyűjtőkategóriába tartozó egyértelmű állításokat, tényeket. Persze a fű kiszáradhat, az ég elsötétedhet, a citromot megédesíthetjük, kora gyerekkorunkban viszont megkérdőjelezhetetlen alapállapotukban zöldként, kékként és savanyúként raktározódtak el tudatunk mélyén.

De mi is tulajdonképpen a mesterségesintelligencia-kutatás kezdetétől sokáig az általános MI-ig vezető út legüdvözítőbb módszerének, egyben az MI „sötét anyagának” is tartott józanész-bölcsesség, és miért nem sikerül megtanítani rá a gépeket?  Egyrészt, mert könnyebb állításokról megállapítani, hogy igazak vagy hamisak, mint magát a fogalmat definiálni. Az igazsághoz akkor járunk a legközelebb, ha egyfajta széleskörű, nem speciális területekre vonatkozó, bármikor felhasználható, kötelező háttérismeretek táraként határozzuk meg. Tehetetlenek lennénk nélkülük, mert az égvilágon semmit nem értenénk a környező valóságból.

csk3.jpg

A legtöbb józanész-bölcsességet implicit természete miatt borzasztó nehéz explicit módon megjeleníteni, a két és négyéves kor között megszerzett tudást mégsem írjuk jegyzetfüzetbe. Az MI-kutatások kezdetén viszont hasonlóval próbálkoztak, elvileg a világra vonatkozó összes ismeretet, többmillió vagy többmilliárd állítást próbálták tudásbázisokba másolni, a gépi rendszereknek pedig e bázisokra hagyatkozva kellett volna működniük. Ez lenne az első lépés a józanész-alapú következtetés automatizálása felé.

A józanész-következtetés a következő példával szemléltethető: „süteményt sütök, mert azt akarom, hogy az emberek süteményt egyenek.” Az emberek süteményt esznek a bölcsesség, és ezért sütök sütit a következtetés. (És most tekintsünk el az ilyen-olyan étrendi megfontolásoktól.)

Az ismeretbázishoz kapcsolt természetesnyelv-feldolgozással elvileg gépeknek is efféle következtetéseket kellene levonniuk. Másrészt, a mindennapi objektumokra vonatkozó tudással a hiányos információ problémáját szintén kezelniük kellene. Például, ha tudjuk, hogy „Csacsogó egy madár”, akkor anélkül, hogy bármiféle információval rendelkeznénk Csacsogóról, a madarak zömére érvényes józanész-bölcsesség alapján megállapíthatjuk: „Csacsogó tud repülni.” (Ha Csacsogó pingvin, akkor pechünk van.)

A tudásbázis mellé agyunknak ezt az adottságát kellene a gépi rendszereknek szimulálniuk. Így értenék meg az ok-okozati összefüggéseket is, és általánosabb értelemben is tudnák hasznosítani következtetőkészségüket.

Az MI-kutatás egyik úttörője, John McCarthy már 1959-ben megpróbálkozott vele, de Tanácsadója és az azóta eltelt bő hatvan év józanész-alapú mesterséges intelligenciái, ugyan eltérő mértékben, viszont egytől egyig mind kudarcnak bizonyultak. Az emberrel összehasonlítva, pocsékul teljesítenek a csak az ezeket a triviális ismereteket igénylő feladatok végrehajtásában. Az összes MI-megközelítéshez hasonlóan, a józanész-bölcsességeken alapuló rendszerek is szűkebb területeken értek csak el jó részeredményeket.

Minél szűkebb és minél inkább körülhatárolható, számszerűsíthető az adott terület, annál jobbakat (például a természetesnyelv-feldolgozásban vagy a diagnosztika automatizálásában).

Az MI-történelem legnagyobb szabású józanész-kezdeményezése Douglas Lenat 1984-ben indult – és az IBM Watson elődjének is tekintett, ellentmondásos megítélésű – Cyc-projektje. A cím a beszédes encyclopedia szóra utal, az összes hétköznapi ismeretet lefedő tudásbázis létrehozása volt az eredeti cél. Lenat átlagos szinonimaszótárhoz hasonló, fogalmakból, kategóriákból álló alap tervezésével kezdte. A fogalmak különböző tárgyakat és jelenségeket tartalmaznak. Minden egyes keretbe odaillő állítások kerültek. Az állításokat – ellentéteikkel, s az ellentéteket feloldó más állításokkal együtt – kategóriákba rendezték. Így Cyc tudja például, hogy Drakula vámpír volt, meg azt is, hogy vámpírok nincsenek. Ehhez viszont azt szintén kell tudnia, hogy az első állítás képzelt, míg a második a fizikai valóságban igaz. Hogy eljusson idáig, az összes állítást kontextusba helyezte (fikció kontra tény stb.). Első körben Cyc 400 állítást reprezentált, ma már többmillió fogalmat és gyűjteményt, valamint kb. 25 millió állítást tartalmaz.

csk4.jpg

A döbbenetes számok ellenére a Cyc minimális hatással van a jelenlegi MI-kutatásokra. Egy ilyen enciklopédia törvényszerűen rengeteg tipikus állítást tartalmaz, a potenciális kivételekkel, szokatlan helyzetekkel viszont nem foglalkozik. Például, ha azt olvassuk, hogy „egy ember étterembe ment, rendelt egy steaket, majd busás borravalót hagyott”, természetesnek vesszük, hogy megette a steaket, pedig senki nem állította. Akár hozzá is vághatta valakihez, becsomagoltathatta, ottani kutyának adhatta stb. Az MI színtisztán szimbolikus, tudásbázis-alapú megközelítései, köztük a Cyc, ezért is sikertelenségre ítélt, túl messzire nem, az általános MI-hez egész biztosan nem vezető kísérletek.

csk0.jpgMostanában többen próbálkoznak a klasszikus józanész-megközelítés és a mélytanulás fúzióján, születnek részsikerek, és bizakodnak, hogy eredményesebbek lesznek.

:Frissítve 2025. június 9.

El Salvador: van ország a világon, ahol hivatalos fizetőeszköz a bitcoin

Az utóbbi években gyakran olvastunk a bitcoin (BTC) árfolyamának meteorszerű szárnyalásáról, majd szédítő tempójú leértékelődéséről, aztán az újbóli szárnyalásról. Egy egység bitcoin a korábbi történelmi csúcson 60 ezer dollár felett árt, mozgása azonban rendkívül hektikus, utána lehanyatlott a csillaga. A kriptovaluták mögötti befektetői köröknek kedvező Donald Trump amerikai elnökké választását követően viszont minden addiginál magasabbra szárnyalt, most 2025. május 22. a "minden idők csúcsa", akkor 119 970 dollárt ért

Közben, első országként a világon, a közép-amerikai El Salvadorban 2021. június 9-én (az egyik) hivatalos fizetőeszközzé minősítették.

De mi is tulajdonképpen az a bitcoin, fizetőeszköz, fizetési hálózat, vagyontárgy vagy értékőrző? Lényegében egy szoftver, vegytiszta digitális jelenség, protokollok és folyamatok sora, és egyben az eddigi legsikeresebb kísérlet arra, hogy kriptográfiával (titkosítással) virtuális pénzt hozzanak létre. Többezer utánzót ihletett meg, a 2008. október 31-i indulás óta eltelt lassan két évtizedben mégsem tudták felülmúlni.

bct.jpg

Az elsőszámú kriptovaluta finoman szólva is megosztja a közvéleményt. Egyesek szerint a jövő pénze, mert abszolút nyilvános, nem függ központi hatóságoktól, harmadik féltől, és így szánt szándékkal nem is manipulálható, nem inflálódik, nem befolyásolható a forgalomban lévő pénzmennyiség, kívülről nem kontrollálhatók a tranzakciók. Küldése és fogadása egyszerű, biztonságosan tárolható egy pénztárcafájlban, amit egyaránt tarthatunk PC-n, mobiltelefonon vagy akár egy pendrive-on is.

Mások viszont lufinak tartják, a gazdasági hátteret hiányolják, a bitcoin értéke bírálói szerint csak a felhasználók szubjektív ítéletétől függ. Ráadásul működtetése, bányászata igen költséges, éves energia-felhasználása jelenleg meghaladja közepes méretű országok áramellátását.

Bányászatot hallva, persze ne tárnákra és vájárokra gondoljunk, hanem a kriptovalutával való tranzakcióra használt számítógépek, hálózataik számítási kapacitásának, a hálózathoz tartozó gépek gördülékeny kommunikációjának biztosítását értjük. A rendszer mégsem adatközpont, működése teljesen decentralizált, senki nem irányítja. Bárki bányászhat, ha az adott szoftvert speciális hardveren futtatja, a bányászprogram a tranzakciókat figyeli, igazolja vissza, bizonyítja matematikailag. Rengeteg számítás kell hozzá, és mivel egyre többen bányásznak, folyamatosan nő az energiafogyasztás, fokozódik a verseny. Igyekeznek környezetbarátabbá és hatékonyabbá tenni, mert hiába átlátható a használat, attól még nem lesz „zöldebb”, a látványos eredmények ezen a területen még váratnak magukra. A megoldás túlmutat a kriptovalutákon, blokkláncon, pénzügyi technológiákon.

Szintén fontos, hogy a bányászat, kereskedés, tranzakciók stb. során a csalás majdnem teljesen kizárható, mert a csomópontok elutasítják az érvénytelen adatokat tartalmazó blokkokat (ezek az egymáshoz „láncolt” blokkok alkotják a blokkláncot.) 

A mai kriptovaluta-piac kiforrottabb és valamelyest szabályozottabb, több az intézményi befektető, mint néhány éve, de teljes érettségről még nem beszélhetünk. A szabályozás terén Donald Trumptól várnak komoly előrelépést. A digitális csereeszközként, fizetőeszközként, a központosított bank- és digitális pénzrendszerekkel ellentétben, központi kibocsátó és ellenőrzés nélkül működő kriptovaluták mára elárasztották az online világot, négyezernél többet tartanak számon. Sok teljesen értéktelen, létezésükről is alig tudnak, egyesek viszont elképesztő népszerűségnek örvendenek támogatóik és a köréjük szerveződő közösségek körében.

A bitcoin mellett az ethereum, a litecoin, a cardano, a polkadot, a stellar, a chainlink, a binance coin, a tether, a monero és a 2017 augusztusában indult, az eredetitől elszakadt bitcoin cash a legismertebbek.

Frissítve: 2025. június 10.

Blokklánc, a pénzügyi forradalom

Az utóbbi két évtized efyik legnagyobb pénzügyi durranása a csere- vagy fizetőeszközként működő, bonyolult titkosítást (kriptográfiát) használó digitális pénz, a kriptovaluták családja. Legismertebb a bitcoin, zömüket a blokklánc technológia alapozza meg.

Ezt a technológiát arra találták ki, hogy egymást nem ismerő, egymásban nem feltétlenül bízó személyek biztonságosan, hitelesített módon oszthassanak meg egymás között értékes pénzügyi adatokat. Sokan ebben a méretezhető, többféleképpen alkalmazható megoldásban látják a jövőt, mások különösen a kriptovilág vaskos pénzügyi botrányai, perei miatt zsákutcának, előbb-utóbb kipukkadó lufinak vagy piramisjátéknak tartják. A blokklánc komplikáltnak tűnhet, alapötlete viszont nem az; leegyszerűsítve: egy adatbázis-típusról van szó. De mik is az adatbázisok?

bch2.jpg

Röviden: információkat számítógépes rendszeren elektronikus formában, általában adattáblákban tároló gyűjtemények. Ezeket a gyűjteményeket a hosszabb távú tárolás mellett, lekérdezésre és szerkesztésre alkalmas programok kezelik. A könnyebb használhatóság miatt az adatok strukturáltak. Míg a tipikus táblázatkezelőkben lévő adatokkal általában egy személy vagy kisebb csoport dolgozik, addig az adatbázisokban tárolt nagyobb mennyiségű információt akárhányan kezelhetik.

A komolyabb adatbázisok masszív teljesítményű, esetenként többezer számítógépből álló szervereken találhatók, így biztosított a szükséges számítási és tárolási kapacitás ahhoz, hogy egyidőben sokan tudjanak dolgozni velük. A táblázatkezelők és az adatbázisok általában vállalatok tulajdonában vannak, és az azokat kezelő személyek teljes kontrollal rendelkeznek felettük.

A blokklánc annyiban különbözik, hogy az adatokat táblák helyett láncba rendezett, titkosított tömbökben (blokkokban) tárolja – azaz minden blokklánc adatbázis, de nem minden adatbázis blokklánc. Ha friss adat érkezik, pontos időbélyeggel ellátott új blokkba kerül, és mihelyst megtelt a blokk, az előzőhöz „láncolják”, így idő szerinti, később megváltoztathatatlan kronológiai sorrendbe kerülnek, és innen ered az (angolul blockchain) elnevezés is. Minden egyes új blokk megerősíti az előzőket.

bch3.jpg

Egy blokkláncon többféle információ tárolható, leggyakrabban a pénzügyi tranzakciókat nyilvántartó főkönyvként használják. A főkönyvek a kereskedelmi könyvelésből ismert, az adott vállalkozás vagyoni helyzetére vonatkozó összes adatot tartalmazó, tartozás- és követeléslistákból, folyó- és holtszámlákból stb. álló dokumentumok, az üzleti élet megkerülhetetlen elemei.

Sok blokklánc, köztük a legismertebb kriptovaluta, a bitcoin alapja is, központ nélküli, decentralizált, egyenrangú felek közötti (peer-to-peer, p2p) rendszer. A kontroll nem egy személy vagy csoport, hanem kollektíven a felhasználók kezében van. A technológia népszerűségének a titkosítás miatti biztonság, a nyilvános főkönyv és az átláthatóság mellett, ez az egyik oka. A láncokba kerülő adatokon elvileg nem lehet, de legalábbis rendkívül nehéz változtatni, mert egy blokk utólagos módosításával a többi blokkon is, tehát az egész láncon módosítani kellene.

A tranzakciókat folyamatosan rögzítik, az összes felhasználó valós időben követheti nyomon, hogy mi történik. A rendszer másolás vagy továbbítás helyett elosztja a digitális vagyontárgyakat, blokkokat, a nyilvántartás ezért is megváltoztathatatlan. A bizalmat tovább növeli, hogy a változásokat követő átlátható főkönyvvel megmarad a dokumentumok integritása.

A kockázatokat, a csalás lehetőségét drasztikusan csökkentő technológiát 2008-ban ismertette meg a világgal egy máig ismeretlen identitású, Satoshi Nakamoto nevű személy (vagy csoport). A nyilvános főkönyvet a legismertebb kriptovalutához, a bitcoinhoz dolgozta ki, azóta viszont meghódította a világot – folyamatosan nő a kriptovaluták száma, már többezer létezik belőlük, csúcsra futott a sajnos brutálisan energiapazarló bányászatuk.

Frissítve: 2025. június 9.

Fintech: telefonunk teszi barátságosabbá az unalmas pénzügyeket

Régen az olyan hétköznapi pénzügyi műveletek elvégzéséhez, mint számlák befizetése vagy utalás, mindig fel kellett keresni a bankfiókot vagy postahivatalt. Később, az internet elterjedésével már számítógéppel is lehetett mindezt végezni, most pedig akár a buszon ülve is, az okostelefon segítségével. Ezt az angol financial technology kifejezést rövidítő fintech megoldások teszik lehetővé.

A fintech gyűjtőnéven a pénzügyi szolgáltatások minden korábbinál gördülékenyebb megvalósulását és használatát támogató, jellegzetesen 21. századi technológiákat értjük. Alapvetően a felhasználók pénzügyi tevékenységét segítő, számítógépen, tableten és okostelefonon egyaránt működő speciális szoftverekről, algoritmusokról van szó.

fint1.jpg

Ezeket a megoldásokat eredetileg bejáratott pénzügyi intézmények rendszerein használták, azóta viszont megváltozott az alkalmazásuk. A változás lényege, hogy a kizárólagos üzleti jelleg helyett, ma egyre több szektorban, például az oktatásban, a lakosság banki tranzakcióiban, az adománygyűjtésben, befektetések megvalósításában, nonprofit tevékenységekben stb. elterjedt, elsődlegesen fogyasztó-orientált szolgáltatásokként működnek. Nem túlzás azt állítani, hogy a sokmilliárd dolláros üzletté vált fintech „berobbant” a mindennapokba.

Átutalást, befektetések kezelését, hitelfelvételt és sok más pénzügyi tevékenységet, a fintechnek köszönhetően, egyre inkább ügyintézők, külső segítség nélkül végzünk. Felmérések alapján az okostelefon-felhasználók legalább harmada napi két vagy több ilyen szolgáltatást vesz igénybe.

fint3.jpg

A szolgáltatások működését olyan technológiák garantálják, mint például a mesterséges intelligencia, az adatrobbanással, a big datával kulcsfontosságúvá vált adatelemző módszerek, a robotikus folyamatautomatizálás, vagy a blokklánc.

Mesterségesintelligencia-algoritmusokkal pénzügyi intézetek jobban megértik klienseik költekezési szokásait, bankok ügyfélszolgálatain terjed a beszélgető online botok (chatbotok) és más MI-alapú technikák használata, de az MI és a gépi tanulás a hitelminősítésben, csalások felderítésében, a vagyonkezelésben, vagy a szabályoknak való megfelelés elbírálásában szintén sokat segít. Adatelemzéssel az ügyfelek befektetései, piaci változások stb. pontosabban előrejelezhetők, az előrejelzések alapján új üzleti és marketing stratégiák, portfoliók alakíthatók ki.

A robotikus folyamatautomatizálás speciális, ismétlődő feladatok automatizálására összpontosít. Pénzügyi információk, például tartozások és követelések feldolgozásában sokkal hatékonyabb, mintha hagyományosan, kézzel végeznék.

A blokklánc folyamatosan növekvő, egymáshoz biztonságos titkosítási (kriptográfiai) módszerekkel kapcsolódó blokkokból álló lista, a rajta lévő információkat központi irányítás nélküli, elosztott és rendszeresen összeegyeztetett adatbázis tárolja. Mivel a rendszer központ nélküli, pénzügyi műveletek megvalósításához nincs szükség harmadik félre. A legtöbb kriptovaluta – digitális fizető- vagy csereeszköz – ezen a technológián alapul.

fint.jpg

A fintech legismertebb alkalmazásai a mobilfizetés, a befektetéseket kezelő „robottanácsadók”, a banki szolgáltatásoknál olcsóbb előre feltöltött kártyák (Revolut stb.), a biztosítás-, az automatizált szabályozási technológiák, a virtuális pénz, például a bitcoin, vagy a projekteket közösségileg finanszírozó (crowdfunding) platformok.

Frissítve, 2025. június 9.

Katasztrofálisan felejt a gépi értelem

Emlékszünk még a szörnyű iskolai szorzótáblára? A matektanár naponta jött a számokkal és a többszörösükkel, heteken keresztül naponta újakat kellett megtanulni, idővel azt hitük,  hogy elfelejtettük az alapokat. Teljes káoszt láttunk az agyunkban, de a sokkal „borzalmasabb” újabb fogalmak bevezetésekor, valahonnan mégis előjött az egyszerűbb szorzás, hasznosítottuk a megtanultakat, majd az újabb anyagokat is.

Ugyan sokat felejtettünk, de a lényeg elraktározódott, be tudtuk építeni a gondolkodásunkba, hasznosítottuk a későbbi (akár életen keresztül tartó) tanulásnál, intelligenciánk állandó része lett. A szorzótábla emléke bennünk él, bonyolultabb feladatok megoldásában segít. Matektanárunk a korábban elsajátított ismereteken alapuló folyamatos tanulásra készített fel vele.

cfo2.jpg

A mesterséges intelligenciák elvileg az emberhez hasonló módon próbálnak tanulni, de azt a bizonyos szorzótáblát csak az adott feladat megoldásánál képesek hasznosítani, ha később egy másik feladatot bízunk rájuk, kezdhetik elölről az egyszeregyet.

A ma működő legtöbb MI-rendszer az intelligenciának valójában csak egy-egy szikráját, darabkáját villantja fel. Egyelőre és még sokáig nem attól kell tartanunk, hogy a világuralomra törő gépi értelem leigázza az embert, hanem jóval prózaibb dolgoktól: a fejlett társadalmak működése számos területen ezektől a rendszerektől függ, amelyek sajnos buták még, ráadásul a rosszul kiválasztott gyakorlóadatok miatt esetenként előítéletesek is.

cfo0.jpg

Egy kisgyerek simán felismer egy cicát, mondatokat tud formálni, és magától rájön az okostelefon alapfunkcióinak használatára. Egy mesterségesintelligencia-algoritmussal hiába próbáljuk megoldatni a három feladatot, nem fog sikerülni neki. Maximum akkor, ha külön-külön megtanítottuk neki mindhármat, de együttesen akkor sem tud nagyon mit kezdeni velük. Nem jó a folyamatos tanulásban, egymástól távoli adatfolyamok összekapcsolásában, a lényeg kiemelésében. Akadozva, vagy egyáltalán nem hasznosítja korábbi ismereteit, egyszerűen nem emlékezik rájuk.

Pedig a gépi értelemnek pontosan ez lenne a rendeltetése, enélkül soha nem fogunk az emberrel azonos szinten álló, általános mesterséges intelligenciát fejleszteni. Csak akkor lesz lehetséges, ha az MI a megtanultakra alapozva – „emlékeit felidézve”, és nem elfelejtve azokat, nem kívülről felülírva a rendszert – gond nélkül képes általánosítani.

cfo.jpg

A „katasztrofális interferencia”, közérthetőbben „katasztrofális felejtés” néven ismert jelenség az MI-rendszerek fejlődésüket hátráltató-korlátozó legrosszabb tulajdonsága. A mai csúcsalgoritmusok általában jó munkát végeznek például arcok vagy objektumok felismerésében.

Kézileg felcímkézett sokezer képből tanulnak, aztán megoldják a feladatot. Viszont ha ugyanannak az algoritmusnak következő munkájában érzelmeket kellene azonosítania, kezdhetne mindent elölről. Az addigi tudása lenullázódik, mert nem képes hasznosítani a korábban egészen más területen összeszedett ismereteit. Mihelyst befejezte a tanulást és az ahhoz kapcsolódó munkát, nem frissíthető többé, mehet minden a kukába, nincs folyamatos – „élethosszig tartó” – tanulás.

Szakemberek évek óta próbálják orvosolni a problémát, de ígéretes törekvések, projektek ellenére, egyelőre nem sikerült átfogó megoldást találniuk, és amíg nincs megoldás, az MI sem fog komolyabb szintet lépni. Általánosítás nélkül buta szakbarbár marad.

Úgy tűnik, mégsem volt hasztalan megtanulnunk azt a borzalmas szorzótáblát.

Frissítve: 2025. június 11.

Idegháló-típusok: melyik különbözteti meg a macskát a kutyától?

Amikor egy okostelefonnal készített fotót szerkesztünk, mesterséges ideghálók segítik a munkánkat. Akármennyire furcsán hangzik, jelenleg ezek az emberi agyról mintázott hálózatok a mesterséges intelligencia leghatékonyabb gyakorlati alkalmazásai közé tartoznak, az MI-alkalmazások közül, az üzleti döntéshozástól termékek ajánlásáig, elsősorban velük oldunk meg való világbeli problémákat.

Manapság már sokszáz mesterséges idegháló dolgozik különböző területeken. Funkciójuk, felépítésük, bonyolultsági szintjük alapján többféleképpen csoportosíthatók, az utóbbi években, a gépi tanulás gyors fejlődésével a mély hálózatok kerültek előtérbe, velük érhetők el kiemelkedő eredmények. Mindegyikük képes tanulni, ám tanulási képességeik mértéke eltérő. Az alábbiakban a leggyakoribb típusaikat tekintjük át.

tipusok.jpg

Az első és a legegyszerűbb gépi idegháló a klasszikus perceptron volt, Frank Rosenblatt fejlesztette 1958-ban. Eredetileg gépnek, semmint szoftvernek szánták, a koraiakat speciális hardveren, például a képfelismerésre kitalált Mark 1-en működtették. Az ígéretes kezdeményezésről azonban kiderült, hogy nem praktikus, nem tanítható be sokféle mintázat felismerésére.

Egy hagyományos perceptron, az idegsejt matematikai modellje egyetlen sejtrétegéből áll, az egynél több, manapság általában jóval több rejtett rétegből felépülők már mély ideghálók, ezeket módosítják, fejlesztik területspecifikus problémák megoldására. A súlyozott és összeadott bemeneti értékek kimenetét aktivációs függvénnyel határozzák meg. Az esetleges hibák az ismert bemenetekre adott kimenetek alapján, statisztikai módszerrel, bemenetek súlyozásával korrigálhatók. Az információ balról jobbra vándorol, innen az előrecsatolt idegháló elnevezés. Ezeknek a hálózatoknak nincs memóriájuk, így a tanításuk is bonyolultabb. Egy másik csoporttal, a visszacsatolt ideghálóknál, a neuronok viszont már figyelembe veszik a korábbi bemeneti értékeket.

A bonyolult problémák kezelésére használt moduláris ideghálók különféle, egymástól függetlenül működő hálózatokból állnak össze. Mindegyik egyedi bemenettel dolgozik, a közös kimenethez szükséges részfeladatokat old meg, de egy-egy részfeladattal akár több modul is megbirkózhat, sőt, a modulok különféle módszerekkel a teljes feladattal is próbálkozhatnak. A kimenet az együttműködés és/vagy a versengés eredménye.

tipusokcnn0.jpg

A legismertebb és a gépi látásban az embernél is jobb eredmények elérésére képes, a többi típustól jócskán, például a réteg háromdimenziós, szélesség, magasság és mélység szerinti elrendezésében különböző hálózatok az elsősorban képfeldolgozásra használt konvolúciós ideghálók (CNN), amelyek video- és hangadatokat is kezelnek. (A konvolúció átlagolás, az átlag általánosítása.)

Egy-egy réteg idegsejtjei a következő réteg összes neuronja helyett annak csak egy kis területéhez kapcsolódnak. A hálózat a bemeneti adatot nem egészében értelmezi, részleteket szkennel le helyette. Jellemzőket derít fel, osztályoz. Átlagolással, összevonással, tömörítéssel jut el például egy macska speciális jegyeinek felismeréséhez, majd a jellemzők alapján az osztályozáshoz, azaz a kép értelmezéséhez.

Képfeldolgozásnál szintén fontosak az „önmagukat kódoló” (autoencoder) hálók: a bemenetet tömörítve, tehát a legfontosabb jegyekre összpontosítva tárolják, amelyek a kimenetben hangsúlyosabbak lesznek.

tipusokgan.jpg

A generatív Mi forradalma előtt a legfontosabb kreatív szerepet betöltő, mára jelentőségéből vesztő, de változatlanul használt generatív ellenséges hálózatok (GAN) két, egymással versengő hálóból, generátorból és megkülönböztetőből állnak; közösen próbálnak élethű képeket, hangokat stb. létrehozni. A generátor megtanulja utánozni például a képen lévő arcot, a megkülönböztető, összehasonlítja az újat az eredetivel, majd visszajelez, mire a generátor korrigál, és az iterációk a hitelesnek tűnő végeredményig folytatódnak.

Frissítve: 2025. június 13.

Hogyan ismer fel a mesterséges idegháló egy papagájt?

Kevés informatikai szakkifejezést emlegetnek annyit manapság, mint az utóbbi évtized mesterséges intelligencia-, és gépitanulás-áttörésének egyik alapját, a nagy vonalakban az emberi agyról mintázott mesterséges ideghálókat, más néven neurális hálókat.

Egy háló összekapcsolt egységekbe, csomópontokba rendezett mesterséges idegsejtekből (neuronokból) áll. A biológiai agy szinapszisaihoz hasonlóan, azokat utánozva, szimulálva, minden egyes idegsejt jelzést juttat el a többinek. Az élővilágban a szinapszisok az elektromos, vegyi jelzések neuronok közötti továbbítását biztosító szerkezetek.

nne3.jpg

A mesterséges idegsejtek, a neurális hálózat elemi számítási egységei fogadják és dolgozzák fel, majd a velük kapcsolatban álló többihez továbbítják a jelzéseket, amelyek esetükben valós számok, és minden egyes kimenetet nemlineáris aktiváló függvény számol ki a bemeneti értékekből. A kapcsolódások élek, az idegsejtek és élek súllyal rendelkeznek, a súlyok pedig a tanulás függvényében változnak, növelve, illetve csökkentve a jelerősséget. A neuronok küszöbértékkel dolgozhatnak; ebben az esetben a jel csak akkor küldhető el, ha meghaladja a megadott értéket. Minden egyes kapcsolat egy idegsejt kimenetét bemenetként küldi tovább egy másik idegsejtnek. A kapcsolatok fontosságát a hozzájuk rendelt értékek jelzik, a neuronok pedig több bemenő és kimenő kapcsolattal rendelkezhetnek.

nne4.jpg

Az idegsejteket rétegekbe rendezik. Egy réteg sejtjei csak a közvetlenül előttük és utánuk lévő réteghez kapcsolódnak. Különböző rétegek különféle átalakításokat végezhetnek a bemenő jeleken, amelyek az elsőtől, a kívülről jövő jeleket megkapó input rétegtől az azokon a végső simításokat elvégző utolsóig, az output rétegig „utaznak”, miután valószínűleg többször megtették a végpontok közti szakaszt. A bemenet egyrészt külső adatok, például képek, dokumentumok értékmintázatai, másrészt más neuronokból érkező kimenetek lehetnek. Az idegháló utolsó output sejtjeinek a kimeneteivel ér véget a rendszer munkája, például papagájt ismert fel egy fényképen.

A bemeneti és a kimeneti rétegek között rejtett rétegek vannak (vagy – ritkábban – nincsenek); számuk a 2010-es évek elejétől kulcsfontosságúvá vált mélytanulással (deep learning) nőtt meg. Természetesen egyetlen rétegből álló vagy rétegek nélküli hálózatok is léteznek. Két réteg között többféle kapcsolódási minta lehetséges: mindkét réteg valamennyi idegsejtje összekapcsolódhat, egy réteg neuronjai csak a következő egyikéhez kapcsolódhatnak stb.

nne2.jpg

Az agykutatás fejlődése eredményezte a mesterséges ideghálók létrejöttét. Tudósok régóta tanulmányozzák, hogy a biológiai ideghálók hogyan működtetik az agyat. Gépi hálózatokig a bináris számokat, igeneket és nemeket feldolgozó egységekként értelmezett biológiai idegsejtektől vezetett az út az új területig, még az 1960-as években. Az USA-ban az ideghálókat számítógépesen szimulálni hivatott több laboratóriumot építettek akkoriban. A fejlesztéseket azonban több tényező hátráltatta: a szimulációra alkalmas gépek rendkívüli költségei, az emberi agy elképesztő komplexitása, a túl statikus számítógépes architektúrák.

Az első hullám lecsengésével, az ezirányú k+f tevékenység az 1980-as évek második felében, a feldolgozó kapacitások drasztikus növekedésével éledt újjá, azóta töretlen a fejlődés, amelyet a gépitanulás-reneszánsz gyorsított fel a mai szintre. A mostani mesterséges ideghálók különféle technikák egyre több területen alkalmazott családja. A legegyszerűbbek egy vagy több statikus összetevőből állnak, míg a tanulási szakaszt lerövidítő és jobb eredményekkel előálló dinamikusak jóval bonyolultabbak. Egyesek emberi felügyelet mellett, mások önállóan tanulnak. Az egyik vizuális és más kétdimenziós adatok feldolgozásában, a másik beszédfelismerésben, a harmadik képek újraalkotásában remekel, és így tovább.

Frissítve 2025. június 14.

Jönnek az élő számítógépek?

Számos sci-fi regényekben olvashattunk már „élő” számítógépekről. Vajon a való életben is létezhetnek ilyen gépek? Hogyan játszik fejlesztésükben fontos szerepet a szintetikus biológia?

Az ezredforduló környékén a biológia fordulópontjához érkezett: addig az élő szervezetek vizsgálata és működésük megértése volt a cél, 2000 után – az analízist, a részekre szedést követően – eljött az összerakás, a szintézis ideje is. Az akkor új, ma már sokmilliárd dolláros üzletet jelentő tudományághoz a biotechnológián keresztül vezetett az út, a biológiát, kémiát és számítástudományt, a tudományos és mérnöki megközelítést integráló, például szintetikus egysejtűek, programozható DNS, biokémiai memória, mesterséges anyagcsere-utak kutatásával és fejlesztésével foglalkozó szakterület annak újraértelmezéseként, bővítéseként is felfogható.

A szintetikus biológia alapvetése, hogy biológiai elemekből, „alkatrészekből”, Lego-szerűen elképzelt„építőkockákból” új, a biológiai szerkezet hierarchiájának minden szintjén (molekula, sejt, szövet, organizmus) működtethető kombinációk, élő rendszerek hozhatók létre, és ezekkel jobban kiaknázhatók az élő anyagban rejlő lehetőségek. A meglévő elemeket újratervezi, a még nem létezőket – részben – a természetben ismeretlen tervezéssel hozza létre. A szemléletváltás, és az egész szintetikus biológia átfogó trend, biológia és infokommunikációs technológiák egyre szorosabb összekapcsolódásának része.

Tudományos megalapozottságú jövőképek, előrejelzések szerint nagyon komoly lehetőségek rejlenek a főként automatizációval, robotokkal és 3D nyomtatással szemléltetett negyedik ipari forradalom gyűjtőkategóriába is besorolható diszciplínában.

A szintetikus biológia hozzájárul az ötven éve szénen és acélon, manapság szilíciumon és információn nyugvó ipari infrastruktúra átalakulásához is. Idővel a korábbiaktól drasztikusan eltérő „mezőgazdasági” érába lépünk: 2050 körül már az élő rendszerek adhatják az alapokat.

syb1.jpg

A Neumann János önreprodukáló sejtautomatájáig, a saját másolatukat elkészítő gépek elméletéig visszavezethető folyamat egyik alapelve szerint mechanikus szerkezetek helyett az élővilágban kell keresni a példákat, és be is bizonyosodott: a DNS a Neumann által felvázolt szerkezetek adottságaival rendelkezik.

Az eddigi leglátványosabb eredmények (szintetikus genom, baktériumfajták átalakítása stb.) Craig Venter és a Venter Intézet nevéhez fűződnek. Az ő és mások kísérletei bebizonyították: a szintetikus biológia megvalósítható, nem csupán sci-fi.

A legradikálisabb elképzelések a természetes evolúció anyagkészletén túllépő, teljesen új tulajdonságokkal rendelkező fehérjékkel működő rendszerek kidolgozására vonatkoznak, amelyek az élővilágban korábban ismeretlen kémiai anyagokkal hozhatók létre. Alkalmazásaikra először az energetikában, az orvostudományban, a vegyiparban és a mezőgazdaságban számíthatunk. De törvényszerűen elhangzanak a joggal kételkedő kérdések is: mik lesznek a környezeti következmények, történik-e biológiai szennyeződés, mennyire biztonságosak ezek a fejlesztések? Megfigyelhetők-e folyamatosan a szintetikus lények, és ha igen, akkor hogyan?

syb5.jpg

A szintetikus biológia a számítástudomány egyik legnagyobb kérdésére is segíthet választ adni: meddig tart a szilíciumalapú számítógépek egyeduralma, mi váltja őket, amikor már nem lesz hova miniatürizálni, és a teljesítménynövekedés sem tartható tovább?

Az egyik lehetséges megoldás a hatalmas mennyiségű kódolt információt tartalmazó DNS. A DNS-kombinációk módja elvben kiszámítható, előre jelezhető, viszont egy kávéskanál nagyjából milliárd DNS-darabkát tartalmazhat. Ha ezeket a darabkákat processzorokká alakítjuk át, elvileg többmilliárd művelet szimultán elvégzésére képes parányi, nanoszintű számítógép állítható munkába.

Az elmélet gyakorlatba ültetésétől azonban még távol vagyunk, ráadásul, minél komplexebb a DNS-szerkezet, annál több a számítási hibalehetőség. A természetben a hibák mutációt eredményeznek, az állandó javítások pedig az élő sejtekben történnek. Ezzel szemben, az elméletben felvázolt, nem általános, hanem nagyon speciális rendeltetésű DNS-alapú számítógépek egyelőre képtelenek lennének a hibák korrigálására. Első alkalmazásaik a például a környezet kórokozóit azonosító bioérzékelők mindenesetre sokkal egyszerűbb szerkezetek.

Frissítve: 2025. június 15.

süti beállítások módosítása