Skip to main content

Vélemény

sajtó csomag

Töltse le a Clementine bemutatkozó anyagát.

SAJTÓKAPCSOLAT

E-mail: Ez az e-mail-cím a szpemrobotok elleni védelem alatt áll. Megtekintéséhez engedélyeznie kell a JavaScript használatát.
Tel: +36 1 457 0561
Fax: +36 1 457 0562
Cím: 1115 Budapest,
Bartók Béla út 105-113.

Gépi logika vs. emberi döntés

Gépi logika vs. emberi döntés

2018. július 19.

Kedves Olvasók! Jó reggelt, híreket mondunk:

  • Az USA becslések szerint közel évi 10 milliárd dollárt költ különböző mesterséges intelligenciatechnológiákkal kapcsolatos kutatásokra, az EU költése nem éri el ennek az ötödét.
  • Kína megelőzte a mélytanulás témájú publikációk számában az USA-t.
  • Az IBM rendszere az adatok értelmezése után a rákkezelés mikéntjére tesz ajánlatot, többen azzal támadják a rendszert, hogy még kiforratlan.
  • Az Amazon nemrégiben jelentette be automatikus boltját: ott a gépek döntik el, hogy tolvajok vagyunk-e vagy sem?
  • Súlyos baleset történt a Tesla/Uber/Google/… önvezető autójával.
  • Brüsszelben, az Európai Parlamentben robotok jogi személyiségével kapcsolatos szabályozást terveznek.

A felsorolt hírek sokféle érzést váltanak ki a különböző hallgatókból. A legtöbb embert lenyűgözi vagy megijeszti, hogy a gépi automaták mindennap újabb területen múlják felül az embert. Aki régóta foglalkozik az MI valamelyik részterületével, az valószínűleg leginkább bosszús lesz. Laikus, vagy éppen manipulatív hírszerkesztés, blődli, pontatlan fogalmazás. Bár az utolsó hír tulajdonképpen megmosolyogtató…
Ha az olvasónak is furcsa, hogy az EU-bürokraták is robotjogokat fogalmazgatnak, akkor joggal gyanakodott, ma még nincs olyan gép, és a közeli jövőben nem is lesz, amely képes lenne erre. Nincs egyébként valódi társalkodó robot sem, vagy munkáját magára hagyva végző recepciós robot, bár a teljesen autonóm, önvezető járművek bevezetéséhez közel kerültünk. A következő években, évtizedekben a mai folyamatokat jelentős mértékben gépi automatizmusok fogják kiváltani, és az emberi döntések helyét egyre nagyobb mértékben gépi döntések fogják átvenni. Valójában ez a folyamat már régóta zajlik, és számos döntést már ma is gépek hoznak.

Gépi döntések – gépi hibák

2010. május 6-án, a New York-i tőzsdén egy hirtelen esés következett be, amit úgy is ismernek, hogy 2.45-ös villámkrach, mindössze néhány percig tartott, és közben a tőzsdemutató 9 %-ot zuhant, majd szinte azonnal vissza is ugrott. Bár az okokat természetesen vizsgálták, de nem tisztázta azokat teljesen a SEC vizsgálata sem, így sokan az algokat gyanítják a háttérben. Az algo olyan algoritmus, amely gyors egymás utáni (magas frekvenciájú) kereskedésre alkalmas. Egyes tőzsdei kereskedési típusokban ma már meghatározó ezeknek a HFT-eszközöknek a használata. Annyira meghatározó, hogy ma már nem lehet elképzelni nélkülük a tőzsde működését. Ilyenkor néhány perc alatt hatalmas portfóliók rendeződnek át, egyesek sokat nyernek, mások vesztenek. Ki a felelős a tőzsde ilyen zuhanásáért? Ha valóban az algok, akkor az a felelős, aki programozta őket? Vagy az, aki üzemelteti? Vagy az, aki a piac működését szabályozza? Botrány alakul ki, amikor egy gép olyan döntést hoz, amely mögött valami hátsó szándékot, rejtett szándékot, előítéletet sejtünk. Ráadásul joggal sejtünk „előítéletet”, hiszen a gép valamilyen nagy mintán, statisztikai alapon hozza az ítéletet. Ilyen, amikor egy gépjármű-biztosítási modellben felbukkannak az adott ügyfél nemével, korával, vagy szociokulturális jellemzőivel kapcsolatos adatai. Vagy ilyen, amikor egy komment robot vagy a Facebook automatája olyan döntést hoz, amely előítéletesnek tűnik. Sajnos ma nagyon jellemző az a képmutató magatartás, ami a gépet hibáztatja ezekért a döntésekért, pedig a gép csak megoldotta azt a feladatot, amit adtunk neki. Az adatjogi problémák miatt mostanában komolyan megcibált Facebook az álhírgyártókkal, a félrevezető reklámokkal és a trollokkal is komolyan küzd. Ők például sikertelenül próbáltak gépi algoritmusokat használni moderálásra, ezért visszatértek az emberi cenzorokhoz, akiknek 1000 posztot kell minősíteni óránként. Az három és fél másodperc döntésenként. Biztos, hogy ezalatt jobb döntést hozunk, mint egy gép? Vagy inkább arról van szó, hogy a Facebook nem akar egy újabb konfliktust felvállalni? Várhatóan számos területen a robotok jobbak, gyorsabbak, pontosabbak lesznek, mint az ember, de nem lesznek tökéletesek, ezért senki nem akarja vállalni a ritka, de kiszámíthatatlan hibáikat.

A gépi döntések háttere

Hogyan döntenek a gépek? Hiszen minden útkereszteződésben vagy orvosi leletek kiértékelésekor is gyakorlatilag döntéseket hoznak. Gyanús eseteket vizsgálnak, és riasztanak a rendőrségen, vagy a pénzintézetekben. Mivel egyre többször hagyatkozunk rájuk, érdemes jobban értenünk a gépi döntések logikáját, hátterét. A köztudatban a gépi döntés egyfajta mechanikus ismétlődéses folyamat: a gépek ugyanabban a helyzetben ugyanolyan feltételek mentén mechanikusan ugyanazokat a „gépies” döntéseket hozzák. Valójában ez már régóta nincs így, aki egy kicsit is ismeri a gépi tanulás fogalmát, az pontosan tudja, hogy ezek az algoritmusok képesek a tapasztalati adatokra épülő tanulásra. Nincs is ebben semmi újdonság, most mégis hirtelen minden második cikk a robotokról szól. Mi változott? A számos ok felsorolása meghaladja a cikk kereteit, de a legnagyobb horderejűt kiemelnénk. Körülbelül 2012-től elméletben már régóta ismert, nagy számításigényű algoritmusok nyertek teret, mert elérhetővé váltak a hozzájuk szükséges kapacitású hardverek (GPU-k) és open source szoftver könyvtárak (pl. Tensorflow, Theano). Az új algoritmusok, amelyeket összefoglaló néven mélytanulásos, vagy mélyneurális hálós technológiáknak hívunk, szinte felboncolhatatlanul bonyolult struktúrákat tartalmaznak, hiszen a neurális háló topológiája és megannyi tulajdonsága is alkalmazkodik magukhoz a tanulóadatokhoz, és ezért olyan nagyon bonyolult az értelmezésük. Legtöbbször ezt igazából meg sem szoktuk próbálni, hanem csak fogjuk, és fekete dobozként használjuk a modellt. Szerencsére a gép is egyre nagyobb, és komplexebb feladatokat old meg magától, egyre inkább rutinszerűen, és minket is kevésbé érdekel a belseje, ha a feladatot kellően jól végzi. A legfontosabb, hogy valamilyen metodikát vagy mérőszámot alakítsunk ki ahhoz, hogy mérjük a gép teljesítményét, illetve ahhoz, hogy mérjük, hogy képes-e tanulni azok alapján a hibák alapján, amiket éppen elkövet. A szakértők számára természetes, hogy a tapasztalati adatokból tanuló gépek is hibáznak. A gond abból fakad, hogy egyre több laikus ember is használja ezeket az eszközöket, és számukra megdöbbentő módon a gépek egyre autonómabb módon tudnak viselkedni és komplexebb döntéseket tudnak hozni. Erre emberként kétféleképpen reagálhatunk rosszul: vagy túlságosan rábízzuk magunkat az imponálóan magabiztos gépekre, vagy az első pillanattól gyanakszunk, és a gép első hibája után megerősítve látjuk az előítéletünket. Talán az a baj, hogy egy nehéz döntés előtt nem látjuk emberi módra hezitálni a gépet? Lehet, hogy a jövőben az UX-tervezőknek majd erre is figyelniük kell a robotok tervezésekor.

Konklúzió

Ijesztő, hogy mennyire automatikusan várunk el a gépi logikától emberi döntéseket. Amelyek nem univerzálisan, hanem csak emberi lényként racionálisak. Az ember társas lény, a gondolkodásunk rengeteg szociális elemet tartalmaz. Minden cselekedetünk más emberek közegében, a társadalmi térben zajlik. Ezért azt várjuk az algoritmustól, hogy amikor „okos” döntést hoz, akkor automatikusan figyelembe vegyen formális logikával nehezen magyarázható szociális megfontolásokat. A gépi intelligencia tehát sok esetben pontosabban és gyorsabban dönt. Különösen akkor, ha sok, és összetett, de a gép számára mégis jobban értelmezhető információt kell feldolgozni. És ha emellett milliónyi korábbi tapasztalati adat, megtörtént esemény kimenetelével kell összevetni az eshetőségeket. Ilyen esetben a gép felülteljesíti az embert. Tehát adjuk neki át a kormányrudat? A döntés a jövőt befolyásoló cselekedet. A döntési folyamat csak egyetlen aspektusa a mérlegelés. Ebben a fázisban számos esetben jobb a gép. Azonban a felelősség fogalma ismeretlen a számára, és hosszú ideig még biztosan az lesz. Felelősséget vállalni csak az ember képes, ezért nem próbálkozhatunk annak átruházásával. Ahol a döntésnek súlya van, ott ugyan támogathat bennünket a gép, de végül az ember nem ússza meg, fognia kell a kormányt. Más esetben, ha jobban teljesítenek, akkor jöjjenek a gépek!
 
 

JÖNNEK? JÖNNEK!!! Na, de tényleg, mikor JÖNNEK?

A saját agyunk is számos megismerési hibával, torzulással csap be bennünket. Ezek közé tartozik, hogy egy komplex problémát túl egyszerűnek, vagy túl bonyolultnak látunk. Manapság sokan robotokat látnak mindenhova, és már a saját jövőjüket tervezik, amikor a robotok már elveszik a munkájukat. Ugyanakkor kezd megjelenni a szkeptikus hangok hasonlóan értelmetlen hulláma: nem lesz ebből semmi, nem teljesülnek az ígéretek! Egyet ígérhetek: a jóslatok túlnyomó többsége megbukik. Különböző becslések 15-30 évet adnak arra, hogy a mélyneurális hálók mérete elérheti az emberi agyét. Feltéve persze hogy a fejlődés a jelenlegi ütemű marad. Egyáltalán nem tudjuk azonban, hogy mekkora méretű, sebességű, és energia fogyasztású modelleket sikerül kreálni, én arra tippelek, hogy ezek a paraméterek még hosszú ideig lényegesen rosszabbak lesznek az emberénél. Valószínűleg az evolúciónak sem véletlenül telt ez ötszázmillió évébe. Ezt a cikket egy pajkos kölyökkutya lelkes asszisztálásával írom, erős a gyanúm, hogy a jövő gépi nebulói sem tanulnak majd karakterisztikusan gyorsabban az embernél, vagy ennél a blökinél, szájában a papucsommal. Az ember által végzett feladatok túlnyomó része azonban nem igényel emberi szintű intelligenciát. Egy agysebész robotnak nem kell agysebésznek lennie, a műtétet mégis emberfeletti precizitással fogja végezni. A robotok eljövetelének sebességét tehát leginkább a gazdasági racionalitás és a szervezetek adaptációs képességének az egyensúlya fogja meghatározni, és erős a gyanúm, hogy ebből a kettősből a saját képességeink meghatározta második lesz a domináns.

 

*Körmendi György és Naruto, a fekete makákó önarcképe a Google Deepdream neurális hálójával Van Gogh stílusában módosítva készültek. 
Kép: Naruto, David Slater, Google, Vincent Van Gogh, és a cikk szerzője