A Neumann Társaság blogja az informatika, robotika legmenőbb témaköreiről – újszerű megközelítésben.

Kvantumugrás

Kvantumugrás

Lehet-e kreatív egy gép?

2021. február 17. - ferenck

A számítógépes technológiák, különösen a mesterséges intelligencia jelentősen megváltoztatták az alkotás folyamatát: demokratizálták azt, illetve fontos szerepet játszva benne, minden korábbi segédeszköznél jóval hatékonyabban támogatják munkánkat. Számítógép és kreativitás viszonya azonban még magasabb szintű is lehet, mert a programok elvileg önálló alkotó entitássá válhatnak. Részben ez történik az olyan MI-alkalmazások esetében, mint a DALL-E-2, a Midjourney vagy a Stable Diffusion.

acr.jpg

Csakhogy amikor a mesterséges intelligencia látványos fejlődéséről beszélünk, és teljesítményét összehasonlítjuk az emberrel, az elemzések rendszeresen megemlítenek néhány kivételt. Ezeken a területeken az MI egyelőre nagyon távol áll tőlünk, és hosszú időbe telhet, míg utoléri a Homo sapiens szintjét, ha valaha is utoléri egyáltalán. Egyikük a számítógépes/gépi vagy mesterséges kreativitás.

  1. A kreativitás persze többféle lehet: új értelmet adva nekik,
  2. reprodukál korábbi alkotásokat, szintén meglévő műveket kapcsol össze, valamilyen plusztartalommal gazdagítva azokat,
  3. illetve (a semmiből) teljesen új világot teremt. 

Az MI egyelőre csak az első kettőben teljesít jól, és amikor MI-művészetről beszélünk, azokat értjük rajta.

A különféle tudományos diszciplínákat integráló szakterület, a számítógépes kreativitás a komputeres technológiák emberi alkotótevékenységet vizsgáló, modellező, utánzó és növelő alkalmazásaival foglalkozik. Kísérletezés innovatív képzőművészeti, irodalmi, zenei, építészeti, mérnöki, vagy éppen gasztronómiai ötletekkel, esetleg matematikai elméletek kitalálásával. Mesterséges intelligenciát használ komputerrel korábban kivitelezhetetlennek vélt munkák, például festmények, szobrok, irodalmi szövegek vagy zenedarabok létrehozására.

Az eredmények általában  távol vannak az emberi szinttől, viszont a matematikai pontosságukról és logikájukról ismert szerkezetekről évtizedekkel ezelőtt senki nem gondolta, hogy az én- és öntudattal rendelkező lények privilégiumának tartott – valamilyen szintű – kreatív tevékenységre lesznek majd képesek. Ez a tény már önmagában, az alkotások művészi értékének minősítése nélkül is óriási előrelépés.

A terület gyorsan fejlődik, ugyanakkor több alapkérdést még mindig pontosan meg kellene válaszolni. Ezek egyike maga az objektív terminológiával nehezen vagy talán sehogy sem definiálható kreativitás: mi az – elmeállapot, tehetség/adottság vagy folyamat, ezek kombináció, vagy mind együtt? A nagybetűs alkotástól hétköznapi megnyilvánulásokig, az emberi tevékenységben is számos formája létezik, de ez a sokszínűség hogyan ültethető át a programok, gépek világába? Elképzelhető-e, hogy ne a rendszer tervezőjének, működtetőjének, hanem magának a rendszernek az alkotótevékenysége válik elsődlegessé? Hogyan, milyen kritériumok alapján mérhető egy gép kreativitása?

A kimagasló alkotótevékenység szintén problémát jelent. Mivel általában a szabályok megszegéséhez, felrúgásához, a megszokások semmibevételéhez társítjuk, hogyan érjük el, hogy a működésükben szabályokhoz kötött programok, algoritmusok, bizonyos mértékben önmagukon túllépve, kreatívak legyenek?

Egyre több számítástudományi szakember szerint. pozitív és negatív példák alapján a komputerek nemcsak arra képesek, amire programozták őket. Nagyon bonyolult rendszerek működését esetenként maguk a tervezők sem látják át, és ezek a rendszerek – nem csak hibák miatt – akár előre nem jelezhető kimeneteket, például egyre minőségibb műalkotásokat generálhatnak.

Marcus du Sautoy angol matematikus Turing-teszt helyett (Ada Byronról elnevezett) Lovelace-tesztet javasol, amin egy MI akkor megy át, „ha sikerül megismételhető módon létrehoznia valamilyen műalkotást, de a programozó nem talál rá magyarázatot, hogy hogyan csinálta. Ez a gép által teljesítendő próbatétel: előállni valami újjal, meglepővel és értékessel. Többet kell hozzáadnia a végeredményhez, mint amennyit a kódoló és a kezdeti
adatokat összeállító ember kreativitásából adódna.”

A kód tanul, mutálódik és fejlődik, a folyamat végére teljesen más lesz, mint amilyenre írták, fejlesztői által elképzelhetetlen outputokkal állhat elő. Egy irodalmi párhuzam: James Joyce szülei DNS-ét örökölte, kreativitása viszont a tanulás és a környezet, a világ észlelésének eredménye volt.

acr1.jpg

Nagy kérdés, hogy képesek lesznek-e valaha is nem meglévő alkotásokat létrehozni, kreatívan módosítani rajtuk, nem modellekből kiindulni, hanem helyette a semmiből új világot teremteni?

Frissítve: 2025. június 21.

A felszín alatti mély és a sötét web

Ha keresnünk kell valamit az interneten, valószínűleg rögtön a Google-ra, esetleg a szintén mesterséges intelligenciával felerősített Bing-re megyünk, hiszen ezek használatát szoktuk meg. De mi van, ha a vágyott információt lehetetlen megtalálni a mindenki előtt ismert „felszíni weben”, és a hálózat láthatatlan világába, Mély Webre, vagy annak obskúrus bugyraiba, a Sötét Webre kell alászállnod érte?

Az internetes keresőmotorok két részből állnak: az egyik összegyűjti, a másik rendszerezi az információt. Az előbbit hiperlinkeket követő automatizált böngészőprogramok végzik. Ez a módszer a web felszínén ugyan optimális, a mélyben viszont nem hatékony. Oda általában integrált keresőkkel vagy algoritmusok helyett a kapcsolódásokat könnyebben észrevevő „humán böngészőkkel” igyekeznek eljutni.

deepw.jpg

A globális hálózat keresőmotorok előtt zárt és indexelhetetlen része az ismert keresési tartalmaknál becslések szerint akár 500-szor nagyobb Mély Web. A közhiedelemmel ellentétben, zömének semmi köze nincs a bűnözéshez, illegális tevékenységekhez. De miért is lenne például a csak előfizetéssel hozzáférhető felsőoktatási, akadémiai folyóiratok archívumainak?

Míg az elsősorban nehezen elérhető tartalmakból és szolgáltatásokból álló Mély Weben a felhasználó IP-je könnyen lekövethető, addig a nagyrészt tényleg illegális tevékenységekről – és piacterekről – szóló Sötét Weben minden anonim, bár időnként azért kiderül: mégsem teljesen az. Hackerek és kémek nem egyszer rántották le a leplet a hálózat titkairól.

Csak speciális böngészőkkel garantáltan megbízható internetkapcsolaton (például VPN-en, virtuális magánhálózatokon) keresztül tanácsos elérni, zárt és általában meghívásos, lényegében az úgynevezett Sötét Neten található honlapok gyűjteményéről van szó. Böngészni egyiken sem bűn, sötétnetes vásárlások vagy szolgáltatások igénybevétele viszont annak minősülhet. Legismertebb böngészője az adatok titkosítása helyett a felhasználói anonimitásra törekvő, ezért biztonságos Tor.

deepw4.jpg

A Mély Web kifejezést 2001-ben Mike Bergman amerikai számítástudományi szakember használta először. A rejtett adatbirodalom különböző forrásokból tevődik össze. Dinamikus tartalmakból, más oldalakhoz nem linkelt honlapokból, regisztrációt és bejelentkezést igénylő site-okból (private web), korlátozott hozzáférésű, szkriptelt, keresők által nem kezelt, specifikus formátumú – nem HTML/szöveg – kontentekből áll.

A nagy keresők mellett az internetet figyelő szervezetek átlagos látóterén is kívül eső sötétneten mindent szabad. Elnyomó politikai rendszerekben történő titkos kommunikációra hozták létre, de az évek múlásával inkább egyéb tevékenységekre (hamis okmányok, drogok, fegyverek, különféle szolgáltatások stb. adásvételére) használják. A többszörös titkosítással a Sötét Net igen népszerű lett bűnözői körökben.

A hálózatra keresőmotort is fejlesztettek, a grafikus megjelenésében a Google-keresőre emlékeztető Grams 2014-ben debütált, 2017 végén állt le. Utóda, az örökös bétateszt-állapotban lévő Kilos arculata szintén hasonlít a Google-ra. Rendeltetése ugyanaz, mint az elődé, csak modernebb technikával teszi: főként illegális javak keresésében segíti az érdeklődőket.

deepw3.jpg

A Dark Web piacterein kereskedő személyeket és hálózataikat a nemzetközi bűnüldözés kitüntetett figyelemmel kíséri. Többször röppennek fel hírek személyek őrizetbe vételéről, piacterek lekapcsolásáról. A hatóságok igyekeznek lépést tartani az ellenoldal kifinomult technológiáival, módszereivel.

Frissítve: 2025. június 13.


 

Még a keresőmotorok sem találnak meg mindent

Nem kell bemutatni a Google keresőjét, de hogyan vált ennyire fontossá ez az okos program és a hozzá hasonló technológiák? Vajon van a webnek olyan része, amely még a keresők előtt is láthatatlan?

A keresőmotorok szöveg, általában kulcsszó alapján a világhálón egyedi információ után kutakodó szoftverrendszerek, amelyek az eredményeket – találatokat – felsorolásszerűen jelenítik meg. A megjelenítés többféleképpen történhet: lehetnek weboldalakra mutató linkek, képek, videók, infografikák, cikkek, tanulmányok és más fájltípusok is. A jelen keresőmotorjai hihetetlenül komplex rendszerek, algoritmusaik a legtöbb esetben pontos és használható találatokat jelenítenek meg a felhasználónak. Hosszú út eredményeként jutottak el idáig.

sen5.jpg

A webes szoftverrobotok javulásától, a világháló kategorizálásától és indexelésétől a hangalapú keresés megjelenéséig, a keresőmotorok fejlődése különféle technikák csúcsra futtatása. Történetük még a web előtt kezdődött, az 1982-ben indult Who is volt az első, aztán jöttek a szépemlékű kilencvenes évek, felhasználók helyett tartalmat a nevével az archívumra utaló-emlékeztető Archie keresett elsőként, 1990-ben, de a korai keresők (Veronica, Jughead, Aliweb stb.) tevékenysége a címtárak felsorolásával ki is merült. Nem a mai értelemben fürkészték a webet, hanem egyszerű címjegyzékekként működtek. Az internetes keresésben a weboldalak hatékony átböngészésére, indexelésére, majd a találati relevancia optimalizálására kidolgozott megoldások hozták el a fordulatot.

Elsőként az Alta Vista tudott természetes nyelven írt lekérdezést feldolgozni, a Lycos szóközelségekkel egyeztette a kulcsszavakat, míg a beszédes nevű WebCrawler (keresőrobot) hozta létre 1994-ben a bármilyen szó bármilyen honlapon történő keresésének szabványát. Az első igazán népszerű keresőmotorokként a Yahoo! Search és az Alta Vista vonult be az internet-történelembe.

Az 1996-os fejlesztésű RankDex algoritmusa pontozta, rangsorolta a találatokat, mérte az indexelt honlapok minőségét. 2000-től belőle fejlődött ki a kínai piacon ma is szinte egyeduralkodó Baidu, és az 1998-ban ismertté vált Google is hasonlóan működik. A Google azonban mással is nagyot újított: egy kiscégtől átvette a keresési kifejezések értékesítésének ötletét, amellyel forradalmasította, bevételi problémákkal küszködő ágazatból az internet egyik legjövedelmezőbb piacává tette a szakterületet, és megalapozta a dominanciáját.

sen4.jpg

A Google keresője PageRank-algoritmusának köszönhetően már 2000-ben jobb eredményeket ért el, mint a vetélytársak, de a máig tartó diadalmenetben a minimalista felhasználói interfész is fontos szerepet játszik. Érdekesség, hogy a Microsoft is 1998-ban debütált az MSN Search-csel, majd használta az Alta Vistát is, míg többszöri megújulás után 2009-ben elindította a Bing-et.

2025--baen a mindent letoroló, egyre inkább mesterséges intelligenciának is tekinthető, a piaci bevételekközel 90 százalékát elkönyvelő Google mögött tisztes távolságban a generatív mesterségesintelligencia-forradalmát ügyesen hasznosító, az MI-t a rendszerbe integráló Bing, a Yahoo!, a Baidu, az orosz Yandex, a DuckDuck Go, az Ask, a „dél-koreai Google”, azaz a Naver, a szebb napokat is megért kövület AOL (America Online) és a Google berobbanásáig a cseh piacot uraló, helyi Seznam volt a világ tíz legnépszerűbb keresőmotorja.

sen.jpg

Rajtuk kívül is van azonban élet, fejlesztettek speciális keresőmotort kizárólag blogokra, munkakeresésre, zeneszövegekre, gyerekeknek stb. Ezek a programok azonban mind csak a világháló valamennyiünk számára „látható” oldalán tevékenykednek, a szabványindexeléssel kezelhetetlen, nagyobb „mélywebbel” és „sötét webbel” nem tudnak mit kezdeni. Szerencsére dolgoztak ki már erre is keresőket (Yippy, DeepDyve), a Google hatékonyságától azonban fényévekre járnak még.

A mesterséges intelligencia forradalma ezt a területet is alaposan átírja, a chatbotok és más nyelvtechnológiák háttérbe szoríthatják az oly jól ismert keresőket. 

Frissítve: 2025. június 13.

 

Hogyan tudja megérteni a számítógép, hogy mit mondunk neki?

Mindenki ismeri R2-D2-t, a Csillagok háborúja bohókás géphangon kommunikáló robotját, de a 2013-ban Oscar-díjat is elnyerő Her / A nő című film láthatatlan, viszont tökéletesen hallható főszereplőnője, a mesterségesintelligencia-program Samantha is sokak emlékezetében megmaradt.

De mi köti össze őket az Apple Sirivel vagy a Google Asszisztenssel? Elsősorban az, hogy mindegyik napjaink egyik legszerteágazóbb és gyorsan fejlődő infokommunikációs technológiáját, az automatikus beszédfelismerést használja.

Hiába keverik sokan a kettőt, a beszédfelismerés nem azonos a beszélő hangját azonosító hangfelismeréssel, jóval több annál: a beszélt nyelvet felismerő, szöveggé alakító megoldásokról van szó.

Az okostelefonok, okosórák, intelligens háztartási berendezések, az autonóm vezetési funkciókkal bíró járművek, és más automatizált rendszerek, ChatGPT és társai korában magától értetődőnek vesszük a beszédfelismerést, pedig a bonyolult folyamatoknak és a rengeteg számításnak csak a végeredményét érzékeljük: azt, hogy az asszisztens „megérti”, amit mondunk neki.

A technológiában rejlő potenciál ősidők óta foglalkoztatja az embert – már Krisztus előtt 1000 körül fejlesztettek eldöntendő kérdésekre igennel vagy nemmel válaszoló eszközt.  Az első komoly alkalmazásokra azonban a 20. század második feléig kellett várni. A Bell Laboratórium az 1950-es években kezdett el beszédfelismeréssel foglalkozni, az IBM 1962-ben bemutatott, Cipősdoboz nevű gépe pedig már 16 szót felismert. A cég ma is a szakterületi kutatásfejlesztések egyik élharcosa, de több infokom-óriás, például a Facebook, a Google és a Microsoft, valamint sok más vállalat is gőzerővel dolgozik beszédfelismerő megoldásokon. Az adatrobbanás, a big data, a mesterséges intelligencia és a gépi tanulás fejlődése ezen a területen is érezteti jótékony hatását, amely az évek múlásával óriási, sokmilliárd dolláros üzletté vált.

sre2.jpg

A technológia az autóipartól az egészségügyig, a marketingtől a biztonságig, különféle szektorokban hasznosul, ma már változatos alkalmazások állnak okostelefonon is rendelkezésünkre. A legfejlettebbek mesterséges intelligenciával működnek, folyamatosan és sok adaton, ember-gép interakciókon tanulnak, finomhangolják őket, és egyre jobb eredményeket produkálnak, például a Google algoritmusai az angol nyelvet már több mint 95 százalék pontossággal kezelik.

sre1.jpg

A gyakorlás úgy is történhet, hogy szöveget olvasunk fel, vagy csak szavakat mondunk a „beszélőtől függő” rendszernek. A hatékonysághoz elengedhetetlen a kontextus és a jelentéstan valamilyen szintű ismerete, például meg kell tudniuk különböztetni egymástól a hasonló alakú, de eltérő jelentésű szavakat, neveket az ugyanúgy hangzó szavaktól.

Kiértékelésük a hibásan felismert szavak mértéke és a gyorsaságuk alapján történik. A pontosságot, a program megbízhatóságát számos tényező befolyásolhatja: kiejtés, tájszólás, hangszín, hangerő, háttérzajok, többen beszélnek egyszerre stb.

Frissítve: 2025. június 12.

Miért érti nehezen az emberi nyelvet a számítógép?

Sokszor bosszankodunk (vagy nevetünk, amikor egy chatbot vagy fordítóprogram teljes sületlenségeket produkál egy megadott szövegből. Jogosan a nevetés, de azért arról se feledkezzünk meg, hogy nem egyszerű a feladata: a fordítóprogramoknak számunkra teljesen egyértelmű, számukra viszont homályos dolgokat, például többjelentésű szavakat is kell kezelniük.

Az alaktantól a mondattanon keresztül a jelentéstanig, beszédnél a hangtanig, a nyelv kérdésével komplett és szerteágazó technológiacsalád foglalkozik. Ezek a megoldások teszik lehetővé, hogy chatbotokkal cseveghetünk, fordítóprogramokat használhatunk.

nlpr3.jpg

A nyelvtechnológiák az emberi szöveget és beszédet elemző, ahhoz hasonlót mesterségesen előállító, azon módosító vagy arra reagáló számítógépes programok, elektronikus eszközök által használt módszerek gyűjtőkategóriája. Két nagyobb területből, az IT egyik legbonyolultabb részének tartott természetesnyelv-feldolgozásból és a számítógépes nyelvészetből áll. Az ezek különböző aspektusait alkalmazásként hasznosító megoldások szintén idetartoznak.

A több tudományterületen átívelő számítógépes nyelvészet a természetes nyelv gépi modellezésével, nyelvészeti kérdések informatikai módszerekkel történő vizsgálatával foglalkozik. A nyelvészet, számítástudomány, mesterséges intelligencia metszéspontjára belőhető természetesnyelv-feldolgozás az ember és a számítógép közötti nyelvi interakciókra összpontosít. A beszédfelismerés, a természetes nyelv megértése, természetes nyelvű szövegek létrehozása folyamatos kihívások. Főként komputerek nagymennyiségű nyelvi adat feldolgozására, elemzésére való programozásának mikéntjére fókuszál. Így érhető el, hogy a program a szövegkörnyezeti eltérésekkel együtt is „értse” dokumentumok tartalmát. A technológiával pontosan kivonatolható az információ, megszervezhetők és csoportosíthatók a vizsgált dokumentumok.

A szakterület kezdete a mesterségesintelligencia-történet kezdetével, az 1950-es évekkel esik egybe. Az MI-, és számítástudományi úttörő, Alan Turing (1912-1954) már 1950-ben, híres tesztjében felvetette, hogy a természetes nyelv automatizált megértése és generálása a gépi értelem egyik kritériuma.  A diszciplína Turing óta elképesztő fejlődésen ment keresztül, de az eredeti célokat még nem érte el teljesen, miközben folyamatosan teremtődnek újak.

Az 1980-as évek második feléig a kutatók az úgynevezett szimbolikus megközelítést részesítették előnyben. Lényege, a filozófus John Searle által 1980-ban megfogalmazott „kínai szoba”: ha a számítógép kap egy szabálygyűjteményt, például kínai kifejezések tárát, kérdésekkel és válaszokkal, a szabályoknak az elébe kerülő adatokra történő alkalmazásával, a program úgy tesz, mintha értené a nyelvet.

nlpr2.jpg

Az összetett adat- és kézzel írt szabálysorokon alapuló eljárás azonban túl körülményesnek és bonyolultnak bizonyult, viszonylag kevés konkrét eredménnyel. Az 1980-as években teljesen új nyelvfeldolgozó gépitanulás-algoritmusok forradalmasították a területet, és egyben az új irányt is kijelölték. Sikerük a számítási kapacitások folyamatos növekedésével, illetve az 1960-as években divatos általános nyelvészeti elméletek háttérbe szorulásával magyarázható. A világháló elterjedésével hihetetlen mennyiségű nyers nyelvi adat generálódott, és e tényezők együtthatásaként elterjedt a statisztika-alapú megközelítés. Az algoritmusok vagy az óhajtott válaszokkal egyáltalán fel nem címkézett, vagy azokkal felcímkézett és címkézetlen adatok keverékéből tanultak, az eredmények viszont gyakran nem érték el a célokat, vagy túl sokáig tartott egy-egy feladat megoldása.

A 2010-es években, a gépi mélytanulás térhódításával jött el a mély ideghálók (mesterséges neurális hálózatok) ideje, amelyek a nyelvi modellezésben és elemzésben, az optikai karakterfelismerésben, szövegek vakok és gyengénlátók számára történő beszéddé alakításában, összefoglalók készítésében is jól működnek, és a többjelentésű szavakkal is hatékonyabbak, mint a korábbi technikák.

A nagy nyelvmodellekkel, a generatív mesterséges intelligenciával, ChatGPT-vel és társaival közelebb kerültünk ahhoz az időhöz, amikor már nem nevetjük ki a chatbotot.

Frissítve: 2025. június 12.

Hogyan tud fordítani egy gép?

Míg régebben a szótárt lapozgattuk, ha egy mondat fordításakor nem jut eszünkbe egy szó, manapság már valószínűleg a Google Fordítót vagy a SZTAKI Szótárt vetjük be. Film- és olvasmányélmények is eszünkbe juthatnak ilyenkor, beugrik a sci-fi regényekből vagy a Csillagszekerekből (Star Trek) évtizedek óta ismert, Bábel zűrzavarában rendet tevő „egyetemes fordítógép.”

A valóságban ennél döcögősebben, de szerencsére azért érezhetően fejlődik a gépi fordítás technológiája, és persze a generatív MI ezen a területen is sok újdonsággal kecsegtet. Mára a hétköznapok részévé váltak az egy adott nyelvű szöveget számítógépes programmal másik nyelvre átültető, az eredeti jelentést „dekódoló” és a célnyelven „újrakódoló” automatikus eljárások: szabály-, példaalapú, statisztikai, mesterséges ideghálókkal (gépi tanulással) dolgozó, és ezeket változó mértékben kombináló megoldások.

gf.jpg

A diszciplína története a múlt század ötvenes éveiben kezdődött, a programok azonban annak ellenére még mindig elmaradnak az embertől, hogy egyrészt napi szinten használjuk őket, másrészt pontos, egyértelmű szókészlettel rendelkező, kifejezetten formális szövegeket produkáló, tehát viszonylag könnyen kezelhető területeken, például a repülőgép-gyártásban figyelemreméltó eredményeket értek el. De mivel a kétirányú (egyelőre inkább szövegről szövegre, mintsem beszédről beszédre történő) szimultán fordítás iránti igény és a keresletet kielégítő, lehetséges alkalmazások száma folyamatosan nő, előbb-utóbb valósággá válhatnak a tudományos-fantasztikus álmok.

Világnyelveknél, például spanyolból angolra és vissza, szintén működik a technológia, ritkábbaknál viszont kevésbé. Ne feledkezzünk meg arról a tényről, hogy iszonyatos mennyiségű adat és számítás kell hozzá! Gondoljunk bele, például az Európai Unióban a 24 hivatalos nyelvhez 562 fordítási lehetőség kapcsolódik, és hogy a valósidejű gépi fordítás széleskörű elterjedése milyen sokat segíthetne a fordító- és tolmácscsoportoknak. A techcégek azonban hiába mantrázzák a marketingszöveget, hogy algoritmusaik hamarosan felváltják a humán fordítókat, a technológia a közeli jövőben nem fogja helyettesíteni őket, hanem könnyebbé teszi a munkájukat, például remek vázlatokat, „first draftokat” ad a kezükbe.

Egyszerű szövegeknél, bizonyos szövegkörnyezetekben ma már nincs is probléma, többféleképpen értelmezhető bonyolultabbaknál annál inkább. Egyelőre ezek, a nyelv természetes két- és többértelműségei a megbízható fordítótechnológia legnagyobb akadályai. Egyes szavaknak eleve sok szótári jelentése van, és a szövegkörnyezet nem vagy félreértésével, a program megmosolyogtató nyelvi szörnyetegeket generál.

 A mesterségesintelligencia-fejlesztésekben élenjáró Google (vagy az OpenAI), mivel bárki másnál több adathoz fér hozzá, átfogóbb statisztikákkal rendelkezik szavakról, szókapcsolatokról, és a fordítója is egyre pontosabb. Jelenleg 109 nyelvet támogat, további hatvankettő támogatásán pedig még dolgoznak. Az elképesztő adatmennyiséggel nemcsak sok a számítás, hanem a gépi tanulás és az automatikus szótárkészítés is eredményesebb. Ezek az eredmények azonban még így sem érik el az emberi fordítás színvonalát.

gf4.jpg

A minőségibb fordítás érdekében, a cég fokozatosan az ideghálós módszerre tért át, sok nyelv esetében viszont még a hagyományosabb, statisztikai eljárást használja: előrejelző algoritmusok találják ki, hogyan fordítsanak le szövegeket, szavak helyett mondatokat.

De ez még mindig csak szövegalapú fordítás, beszédek más nyelvre ültetése hosszabb és bonyolultabb folyamat, amelyhez a munkát értelemszerűen nehezítő, több specifikumot (rétegnyelvek, argó, nyelvjárások stb.) is figyelembe kell venni.

Frissítve: 2025. június 21.

Így segíti a cégeket az üzleti intelligencia a mindennapokban

A számítógépek, okoseszközök használatakor rengeteg adattal szembesülhetünk: például online áruházi böngészéskor egy sor információt adunk ki magunkról vásárlási szokásainkról, preferenciáinkról.

Az adatkorban a vásárló is kulcsszereplővé vált, mert a vállalatok számára létfontosságú fogyasztóik ismerete, hogy tudják, mikor, hol és milyen árucikkekre költik a pénzüket. Szokásaink megértéséhez, feldolgozásához és természetesen a termékek eladásához különböző technikákat használnak, amelyeket folyamatosan optimalizálnak.

E módszerek egyike az eredetileg csak – és ma is főként – a vállalati döntéshozásra és vállalati felhasználókra kitalált üzleti intelligencia (business intelligence, BI) gyűjtőkategóriába tartozó, egyre gyakrabban mesterségesintelligencia-módszerekkel, főként gépi tanulással kombinált technológiák és alkalmazások. Nélkülük és előttük, szegényes adatsorokból kiindulva, nyers adatokat rosszul feldolgozva, inkább csak találgattak, hogy hogyan növelhető a fogyasztói élmény, és mint minden találgatásnál, sokszor mellélőttek.

A BI a találgatást teszi idejétmúlttá, használatával pontos és nagymennyiségű adatból dolgoznak ki hatékony stratégiákat ügyfelekre. Viselkedésminták elemzésével segít a fogyasztói magatartás megértésében, és a magatartáshoz passzoló, jól megalapozott döntéshozásban, például termékek elhelyezésében és árazásában.

bin4.jpg

Ezekhez a folyamatokhoz és a vállalati döntéshozáshoz szükséges adatok eléréséhez, összegyűjtéséhez, tárolásához és elemzéséhez változatos adattárolási, valósidejű lekérdezési, analitikai, adatbányászati, adatmegjelenítő (dashboard) stb. eljárásokat használnak.

Mivel a big data, a közösségi hálózatok és a számítási felhő korában az információmennyiség másfél év alatt megkétszereződik, és az adatbázisok száma, mérete még ennél is gyorsabban növekszik, egyre nagyobb kihívás a BI működőképes alkalmazásokba integrálása, a különböző forrásokban megtalálható adatok összegyűjtése egy platformon, találgatás helyett valóban adatalapú döntések meghozása.

bin1.jpg

Az alkalmazásoknak összhangban kell működniük a vállalati erőforrás-tervező, ellátási/beszerzési láncokat, ügyfélszolgálati kapcsolatokat kezelő megoldásokkal. Az információ adattárházakban történő összegyűjtéséhez és biztonságos tárolásához gondosan ki kell választani az alkalmazásintegrációs programokat és middleware-t, azaz az adott operációs rendszer és az alkalmazás közötti szoftverrétegeket is.

A BI mindig akkor a leghatékonyabb, ha a külső, piaci és az adott cég belső forrásaira vonatkozó adatokat kombinálja össze, így tud csak teljes képet kialakítani, így segít új üzleti lehetőségek feltérképezésében, a keresletnek megfelelő termékek és szolgáltatások kidolgozásában.

Az üzleti intelligenciát a bank- és általában a pénzügyi szektortól, az egészségügyön, a gyógyszeriparon keresztül a szállításig vagy a turizmusig, változatos területeken alkalmazzák, és az alkalmazások száma folyamatosan nő.

Frissítve: 2025. június 22.

Hogyan segítenek rajtunk a csevegő-fecsegő robotok?

Oktatási intézmények, hírmagazinok, áruházak honlapján többször találkozunk „beszédes” virtuális asszisztensekkel, az adott témában tájékoztatást nyújtó, hasznos adatokat szolgáltató „fecsegő robotokkal”, chatbotokkal. A generatív mesterséges intelligencia térnyerésével, különösen az OpenAI ChatGPT-je miatt ma az egyik legnépszerűbb infokom technológiának számítanak.

A chatbot az embert és a vele való közvetlen érintkezést helyettesítő, humán partnerével szöveges vagy szöveg-beszéd alapú kommunikációt folytató szoftveralkalmazás, általában szórakoztató felugró fej; olyan, mintha egy rajzfilmből bukkanna elő. A szó a ChatterBot rövidítése; először a Verbot (Verbal Robot) beszélgető-programot fejlesztő Michael Mauldin használta 1994-ben.

chat.jpg

Már a ChatGPT diadalútja előtt is, a Microsofttól a Facebookig, sok infokom cég használta a technológiát, a Skype-on botok segítettek például hotelszobát és repjegyet foglalni, mások a virágrendeléstől az időjárás-jelentésig szolgáltatnak hasznos infókat, a generatív MI-vel pedig a legáltalánosabb témákról beszélgethetünk velük. Kisebb cégek szintén fejlesztik saját botjaikat, egész iparág alakult ki körülöttük.

Egyes botok kétoldalú interakció helyett, például hírügynökségek oldalain röviden összefoglalnak történeteket. Bevásárló botok szöveg helyett inkább egy csomó terméket kínálnak fel, rájuk klikkelünk, mire opciók közül válogathatunk stb. Az interakció üzenetküldő ablakban zajlik, de beszélgetésre nem emlékeztet, és ezeknél a típusoknál nem is fontos, hogy emlékeztessen rá, mint ahogy az sem számít, hogy a beszélgető vagy nem beszélgető chatbotnak kidolgozott személyisége legyen.

Történetük a mesterségesintelligencia-kutatás korai szakaszában, az 1960-as években kezdődött. Az első, az MIT-s (Massachusetts Institute of Technology) Joseph Weizenbaum által fejlesztett ELIZA tizenkét évvel az MI-tesztet – a Turing-tesztet – kitaláló Alan Turing halála után, 1966-ban mutatkozott be a szobaméretű IBM 7094-en.

Tervezője a terápiás célokra ideálisnak tartott, pácienseit aktívan hallgató pszichoanalitikusokból kiindulva, a lélekgyógyász szerepét osztotta rá. A Doktornak hívott bot kulcsszavakat keresett partnerei mondataiban, szövegkörnyezetüket vizsgálta, és ha nem talált ilyeneket, általános töltelékszöveggel reagált, bármikor feltehető kérdésekkel felelt. Ha igen, a kijelentő mondatot alakította át kérdővé. Annyira megtévesztette pácienseit, hogy többen hitték: valódi pszichológussal konzultálnak.

chat4.jpg

Az 1980-as évektől egyre gyakrabban tűntek fel a sokáig csak a természetesnyelv-feldolgozáshoz kapcsolódó beszélgető-programok, Turing-tesztek közkedvelt vizsgaalanyai. Jellemzően egy-egy témakörre specializálódtak, az általánosabb rendeltetésűek pedig felsültek. A legátütőbb sikert a korai 2000-es években az AOL Instant Messenger és a Windows Live Messenger (a korábbi MSN) hálózatokon futó SmarterChild érte el. Gyors volt, könnyen lehetett kezelni, arányosan integrálta az emberi interakciót és a gépi pragmatizmust.

A jelen egyik felhasználói trendje, hogy sok appot letöltünk, de viszonylag keveset használunk, mert egyre kevesebben akarnak egyedi alkalmazást virágvásárlásra, hírolvasásra stb. Minél integráltabb egy app, annál többen élnek vele. Minél kevésbé „szeparált”, minél jobban integrálhatók bele botok, annál komplexebb, több problémával birkózhatunk meg egy platformon, valószínűbb a siker.

A big data, a természetesnyelv-feldolgozás és a gépi tanulás fejlődése, a nagy nyelvmodellek, a felhőszámítás-alapú adattárolás, a növekvő számítási kapacitások, a virtuális asszisztensek elterjedése, a velük folytatott kommunikáció mindennapossá válása kedvez a chatbotoknak, és mindez a mélytanulás új lehetőségeivel kiegészülve tette lehetővé a ChatGPT- vagy a Claude-szerű rendszerek létrejöttét.

Frissítve: 2025. június 22.

Mik az arcfelismerés veszélyei?

Napjainkban az arcfelismerés az egyik legközismertebb és legdinamikusabban fejlődő infokommunikációs technológia. Mindenkiről rendelkezésre áll könnyen hozzáférhető arckép (személyi igazolványban, útlevélben, munkahelyi beléptető kártyán), így forgalmi ellenőrzésnél, reptéren vagy online, okostelefon-használat engedélyezésekor, személyre szabott appoknál, a közösségi médiában mindennap használjuk a technológiát.

Nem csak sci-fikben, hanem hírekben is gyakran olvasunk róluk, mert például az Egyesült Államok kormányai a 2001. szeptember 11-ei terrortámadások óta óriási összegekkel támogatják az arcfelismeréssel kapcsolatos fejlesztésekkel, és más országok is hasonlóképp cselekszenek.

arcf.jpg

A változatos azonosítómódszerek között is kitüntetett jelentőségű és a közvéleményt mindenhol megosztó technológia beszivárgott a hétköznapokba, szaporodnak az alkalmazásai, széles körben terjed, leginkább biztonsági és megfigyelőrendszereknél, a nemzetbiztonságban és a büntetés-végrehajtásban használják.

 Eközben az egyéb biometrikus azonosítási technológiák (a szem íriszhártyája, hang, ujjlenyomat) is fejlődnek, de az arcfelismerő rendszerek hatékony működését még mindig sok tényező hátráltatja: póz, fényviszonyok, arckifejezés, öregedés, kalap. Jogosítványkép alapján személyazonosságot ellenőrizni előbb-utóbb rutin gépi faladat lesz, viszont mozgó tömegből mégis hogyan szűrjön ki valakit a szoftver?

arcf3.jpg

A digitális arcfelismerő technológiák digitális fotóról vagy video-képkockáról kiválasztott arc-karakterjegyek (orr, szem formája, mérete, relatív pozíciója) adatbázissal való összevetésével, kapcsolódó mintákra találással automatikusan azonosít, hitelesít személyeket. A geometrikus megközelítés mellett a statisztikai módszer is bevett: az algoritmus számszerűsített pixelértékekre osztja a képet, amiket sablonokkal hasonlít össze. A legkorábbi sikeres rendszerek a kettőt részben társítva, a jellegzetes arcjegyeket, az azokból „tömörített” arcokat mintasablonok összekapcsolásával azonosították.

A 3D-technológiák térnyerése az arcfelismerést is megváltoztatta. 3D-s algoritmusok az emberi arc felületén található egyedi jegyek, például a szemgödör hajlatai, az orr, az áll feltérképezésével azonosít személyeket. Az arc formáját ezúttal a világítás változásai sem befolyásolják, így a 3D-s szenzorokkal és hőkamerákkal is működő módszer sötétben, illetve különböző szögeket használva is sikeresen alkalmazható. Például akkor is működik, ha 90 fokot váltva, profilból próbálkozunk.

Az egyre jobb felbontású képek lehetővé tették egy másik módszer, a klasszikus arcfelismeréssel remekül kombinálható bőr-textúra aprólékos elemzésének elterjedését. A bőr bármely apró részéről újabb kép hozható létre, amely további kisebb részekre bontható. Az algoritmusok, az összes vonallal, pórussal, ránccal együtt, mérhető matematikai terekké alakítják át ezeket.

arcf1.jpg

A koronavírus-járvánnyal járó maszkhasználat miatt több cég igyekezett a maszkokhoz alkalmazni technológiáját, frissítették algoritmusaikat, amelyek arcokra photoshoppolt maszkokon gyakorolnak. Az igazi azonosításhoz azonban máig jobb az utcán, valósidőben készült felvételeket használni, amelyeken különféle szögekből örökítik meg például a maszkos tüntetőket. E képek nélkül rengeteg a hamis pozitív felismerés.

A hamis pozitívok miatt indult bűnvádi eljárások, a rosszul kiválasztott gyakorlóadatok okozta nem, bőrszín alapú részrehajlás, előítéletesség és elsősorban a személyes szféra (privacy) megsértése, az orwelli megfigyelőállamtól való félelem miatt a lakosság egyre bizalmatlanabb az egyébként rengeteg pozitív célra (terrorelhárítás, tömegrendezvények, kockázatos helyszínek biztosítása, kitiltott személyek azonosítása, veszélyeztetett állatok védelme stb.) is alkalmazott arcfelismeréssel. Egyes amerikai városokban (San Francisco, Boston) és máshol is betiltották a technológia közterületen történő hatósági használatát, az Amazon, az IBM és a Microsoft nem ad el több arcfelismerő rendszert a rendőrségnek.

A megoldás nyilván az arany középút lesz. Egyrészt, kár elpazarolni egy ígéretes technikát, másrészt személyi szféránkat sem tehetjük ki pluszveszélyeknek.

Frissítve: 2025. június 23.

Miért eredményesebb játszva tanulni?

A jelen és a közeljövő iskolája elképzelhetetlen számítógépes/videojátékok nélkül. Nagyon sok diák tanulmányai során valószínűleg használt már kifejezetten oktatási céllal fejlesztett játékokat, például a Minecraft speciális kiadását.  

Ősidők óta játékokon nevelkedünk, az embert öreg koráig végigkíséri játékos énje. Jó hír, hogy a számítógépes játékok sokáig elképzelhetetlennek tűnt alkalmazásokban – oktatásban, tőzsdén, kiképzésben – is hasznosulnak, miközben funkciók bővülése mellett, megőrzik eredeti szórakoztató jellegüket.

Viszonylag régóta használják őket az oktatásban és a képzésben: egyéni képességek fejlesztésében, például a figyelem fenntartásában és csoportos tevékenységek, az együttműködés megtervezésében – a valós életben is hasznosítható stratégiák kidolgozásában, a csoporthoz tartozók egyéni adottságainak optimális kihasználásában –, a közös döntéshozásban egyaránt sokat segítenek. Egyelőre azonban még mindig nem terjedtek el olyan mértékben, mint amennyire indokolt lenne.

Masszívan többszereplős oktatási játékok az ezredforduló óta léteznek, az első nagy siker a mára kissé elhalványult, oktatási oldalként funkcionáló Whyville volt. Lényege, hogy kikérdezés, unalmas könyvek helyett izgalmas kísérletek, interaktív játékok vezessék be a gyerekeket a tudomány világába. A diákok a játékbeli virtuális laboratóriumokban tanulmányozhatják például az űrhajózást, vagy ismerkedhetnek meg Newton harmadik törvényével.

oktatas3.jpg

A gamifikációhoz is kapcsolódó más játékokban és szintetikus világokban a diákok avatárjai bejárják az adott várost, könyvtári anyagokból és egyéb dokumentumokból dolgozhatnak, csapatmunkát végeznek, elmélyülnek a tantárgyakban. Komplex problémákra keresik a megoldásokat, és még a rossz tanulók is jobban teljesítenek, mint különben.

A 2009-ben indult Minecraft minden idők legsikeresebb számítógépes játéka. A felhasználó pixeles 3D-blokkokból álló világot fedezhet fel, dolgozhat az ottani nyersanyagokkal: eszközöket, építményeket hozhat létre belőlük. A játékmód függvényében, harcolhat ellenségekkel, együttműködhet más játékosokkal. A fejlesztőcéget felvásárló Microsoft és több más infokommunikációs nagyágyú ma már mind meghatározó szereplő az oktatáskutatásban és a tudásátadásban. A Microsoft rengeteget tett azért, hogy a Minecraft az iskolai oktatás egyik általános eszközévé vált.

oktatas.jpg

A Minecraft kreativitást és innovációt hangsúlyozó, speciális oktatási változatát 2016-ban adták ki, az általános iskolától a felsőoktatási intézményekig, közel 35 millió tanár használja világszerte. Annyira bevált, hogy emberi mellett gépi tanulásra is alkalmazzák, például a Facebook és más cégek tesztelik benne mesterséges intelligenciáikat.

Ezek a játékok fokozatosan épülnek be a különböző képzési formákba. A közeljövő leglátványosabb előretörése, a számos tanulási környezetben alkalmazható masszívan többszereplős oktatási játékok következtében az általános és középiskolákban (és kisebb mértékben a felsőoktatási intézményekben) várható.

A diákok egyrészt hozzászoknak ezekhez a közegekhez, majd idővel, különösen a virtuálisvalóság-technológiák fejlődésének hatására ezeket és a más jellegű szintetikus világokat teljesen rutinszerűen fogják használni, másrészt a nyílt forráskódú és olcsóbb megoldások terjedésével maguk is fejleszthetnek egyszerűbb játékokat, egyre nagyobb mennyiségben alkothatnak tartalmat.

Frissítve: 2025. július 14.

süti beállítások módosítása