Skip to main content

Rendezvény

(NY)ELVI KÉRDÉS

  • Bevezető szöveg: 2019-ben ismét megrendezzük szöveganalitikai konferenciánkat, ahol a területen jelentkező legújabb alkalmazási technikákat mutatjuk be, tapasztalt, gyakorlati előadóink segítségével.
  • Iparág: Biztosítás

A szöveganalitikai és nyelvfeldolgozási módszerek láthatatlanul beszivárogtak mindennapi életünkbe: Siri, Alexa, Bixby és társaik figyelik minden szavunkat, az ügyfélszolgálati beszélgetéseknél nyomon követhető, ha dühösek, elégedetlenek vagy épp új ajánlatra nyitottak vagyunk. De vajon mit szól az átlagember, hogy adattá válik a viselkedése vagy épp kiejtett szavai? Az idei conTEXT-en erről is szó lesz!

Ízelítő a programból:

  • Kálmán László, az MTA nyelvészének keynote előadásában a nyelvészet és a mesterséges intelligencia kapcsolatáról hallhatunk
  • Molnár-Edőcs Eszter és Mészáros Evelin (Clementine) előadásában egy magyar nyelvű szöveganalitikai rendszer öntanulóvá tételének tapasztalatairól beszél a Fókusz Takarékban
  • Pázmándi Eszter, a Clementine elemzője egy magyar nyelvű tudásbázis építésének a kihívásait mutatja be
  • Huszti Dániel, az IBM közép-kelet európai régiójának adatelemzési szakértője a szöveganalitika (r)evolúció és az intelligens rendszerek kapcsolatáról beszél
  • Dr. Kmetty Zoltán és Dr. Koltai Júlia az ELTE kutatói társadalmi jelenségeket vizsgáltak szóbeágyazási modellek segítségével, erről osztják meg eredményeiket. 

További információ és regisztráció: https://clementine.hu/oktatas-es-rendezvenyek/konferenciak/context

Beszédtechnológia, beszédanalitika meetup

  • Iparág: Biztosítás

Első előadóként a SpeechTex képviseletében Fegyó Tibor interaktív előadásban mutatta be a beszédfelismerő rendszerek hatékonyságát, fejlődését a nemzetközi megoldásoktól a hazai konkrét példákon keresztül. Megfigyelhettük a televíziós műsorok, vagy éppen a szaknyelvi szövegek leiratozási lehetőségeit, nehézségeit és specifikumait, majd jelen lehettünk egy konkrét jogi szöveg leiratozási bemutatóján.

Kovács-Ördög Zita, a Clementine szakértője az ügyfélszolgálatok IVR rendszereinek fejlesztéséről, szöveganalitikai megoldásairól tartott gyakorlati bemutatót. Emília, a Clementine virtuális banki asszisztense szóban is válaszolt egyszerű banki kérdésekre és bemutatta a jövő megoldását: az „intelligens” robotok, akik prediktív modellel válaszolnak, maguktól is tanulnak – kérdésekből és válaszokból egyaránt -, NLP-t használnak, és emlékeznek a korábbi beszélgetésekre. Emília képes kiszűrni a csalás gyanús eseteket, ellenőrzi a tranzakciós protokoll lépéseit, és segít betartani az egyéb minőségbiztosítási szempontokat is.

Dr. Németh Géza, a BME docense a gépi szövegolvasás, a beszédszintetizátorok alakulását mutatta be az elmúlt 30-40 évben. A fejlődés útját a szabály-alapú modellektől a WaveNet-alapú magyar TTS-ig meg is hallgathattuk: az egyes szakaszok hangminőségét, hangsebességét is prezentálta. A történelmi áttekintés mellett a szövegolvasás területi specifikumairól is szó esett, így megismerhettük az eltérő követelményeket pl. a gyengén látók vagy éppen a vasúti pályaudvar információ között. Az egyértelműen látszik, hogy a technológiai fejlődés számtalan lehetőséget tartogat még magában a beszédszintetizálás területén, melyek biztosan segíteni fognak minket az élet minden területén.

Sztahó Dávid, a BME oktatója a Prozódiai Oktatóprogram bemutatásával egy olyan audió-vizuális CAPT szoftvert prezentált, amely a hallássérültek, kochleáris implantáltak vagy valamilyen beszéd rendellenességben szenvedő gyermekek beszédtanulásában, valamint nyelvtanulásban nyújthat segítséget a prozódia helyes elsajátításához vizuális és hallási visszacsatolással. Az előadás során a közönség megismerhette a szoftver funkcionalitását, annak elvégzett hatástanulmányát nagyothalló gyermekeknél, valamint a web-es implementációjának prototípusát.

A meetup sorozatunk hamarosan folytatódik, a következő dátumért és további információért érdemes honlapunkat figyelni.

Brüsszelben jártunk az LT-Industry Summiton

  • Bevezető szöveg: A Clementine is képviseltette magát az idei LT Innovate Summiton, amelyet a hagyományokhoz híven június 24 és 25. között rendeztek meg Brüsszelben.
  • Iparág: Biztosítás

The Language Technology Industry Summit Európa legnagyobb nyelvtechnológiai rendezvénye, amely bemutatja a szektor legújabb fejlesztési irányait, a többnyelvű kommunikáció, a szinkron fordítás, a deep-learning, a szövegbányászat és beszédszintézis területéről, hogy csak néhányat említsünk.

A csúcstalálkozó remek alkalom arra, hogy találkozzanak egymással a szakma különböző képviselői. A találkozón egyaránt megjelennek szakmai vezetők, elemzők és fejlesztők éppúgy, mint felhasználók és befektetők. Résztvevők a világ minden kontinenséről érkeznek, hogy megragadják a lehetőséget a kapcsolatépítésre, eszmecserére, inspirálódásra. Az idei volt a nyolcadik alkalom, hogy a csúcstalálkozót megrendezték, ennek megfelelően magas presztízs, kialakult résztvevői kör és kiváló előadások jellemezték a két nap programját. Az előadások két helyszínen összesen hat szekcióban zajlottak. Az első napot plenáris előadások nyitották meg, amelyeknek fő témája a mesterséges intelligencia kutatás és fejlesztés jövője volt. A két nap alatt közel 40 előadás járta körbe a nyelvtechnológia és kapcsolódó szakterületeinek legizgalmasabb szegmenseit, a felhasználói élmény valamint az ügyfél-elégedettség kiszolgálása mellett olyan területeket érintő fejlesztéseket is megismerhettünk, mint a biztonsági standardoknak való megfelelés a pénzügyi szektorban, a fordítói és tolmács szakma kapcsolata a nyelvtechnológiához vagy a mesterséges intelligencia szerepe az autógyártás jövőjében.

A Clementine legújabb fejlesztésével, a virtuális callcenter-megoldásával, Hangával mutatkozott be. Hanga, az emberi kommunikáció komplex értelmezésével képes megoldani különböző ügyfélszolgálati feladatokat, a megoldás magját pedig beszéd és szöveganalitikai fejlesztések adják. A prezentáció mellett kiállítóként is képviseltettük magunkat, a Hangát és a céget bemutató standnál számos érdeklődővel folytathattunk szakmai eszmecserét. A két napos programot egy workshop zárta, amelyen minden résztvevő szabadon megoszthatta gondolatait a szakma jelenlegi helyzetével, nemzetközi megítélésével és jövőbeli kihívásaival kapcsolatban.

Citizen Data Scientist-ek kora?

  • Bevezető szöveg: Szeptember 24-én tartjuk a következő meetup-unkat, ahol megtudhatjuk, milyen eszközöket használhat egy Citizen Data Scientist, és azt is, hogy miért hasznos vagy éppen ártalmas ez az új trend.
  • Iparág: Biztosítás

Időpont: 2019. szeptember 24. kedd, 15h-17h
Helyszín: KUBIK coworking
1137 Budapest, Jászai Mari tér 5-6.


A „hagyományos” elemző eszközök mellett egyre többször hallunk, olvasunk különféle data science platformokról. Ezek segítségével már különösebb elemzői tapasztalat vagy komolyabb statisztikai, matematikai háttér nélkül is összetett statisztikai modelleket építhet a felhasználó, a Citizen Data Scientist. Éppen emiatt sokak szerint a Citizen Data Scientist legegyszerűbb definíciója egyszerűen az, hogy nem adattudós. Inkább üzleti felhasználó, aki data science eszközöket használ prediktív modellek építésére, üzleti eredmények javítása érdekében. Nem rendelkezik tudományos ismeretekkel, és lehet, hogy nem ismeri mi a különbség a Random Forest és az SVM között - egyszerűen csak használja őket.

Hámornik Balázs PhD, BME - Mit is csinál egy Citizen Data Scientist?
Miközben az adatbányászatra, data sciencere és mesterséges intelligenciára épülő megoldásokra egyre nagyobb szükség van a piacon, az ezt megvalósítani tudó szakemberek száma továbbra is korlátozott. Ahelyett hogy még több és több adat-tudóst alkalmaznánk jobban járhatunk, ha az üzleti területünk szakértőit tesszük képessé tudással és eszközökkel, hogy adatbányászati pl. prediktív modellezési feladatokban önállóan is boldoguljanak?

Novák Márton, Clementine – Watson Studio
Minden nagy gyártó kínálatában található data science vagy machine learning platform, az IBM esetében ez a Watson Studio.
Az IBM azonban nem csak a Citizen Data Scientist kezébe ad eszközt, de egy „haladó” elemzőnek vagy elemzőcsapatnak is, hiszen integrált felületet nyújt az adatelemzési projektekhez, melyekben az adott problémát a hozzá legmegfelelőbb eszközzel hajthatják végre az elemzők, továbbá a projekthez szükséges erőforrások is könnyen kezelhetők.

Minden érdeklődőt szívesen látunk rendezvényünkön.

A  rendezvény ingyenes, de regisztrációhoz kötött. Jelentkezni a meetup.com rendszerében vagy oldalunkon lehetséges.

Clementine Oktatási Katalógus

  • Iparág: Biztosítás

Már hosszú évek óta állunk Ügyfeleink rendelkezésére széleskörű és modern oktatási tematikával rendelkező Clementine Oktatási Központunkban, ahol sokéves gyakorlattal és üzleti elemzői tapasztalattal rendelkező oktatóink tartják tudásorientált gyakorlati kurzusaikat. Egyaránt fogadunk üzleti, magán, kutatási és oktatási felhasználókat is, kezdő, haladó és professzionális szintű kurzusainkon, iparágtól függetlenül.
Igény esetén vállalatoknál, intézményeknél több fő számára a tanrendtől független időpontban, helyen tartott kurzusokat is nyújtunk. Ebben az esetben a tematika követheti a sztenderd tanfolyamokét, vagy az egyéni igényeknek megfelelően változhat.

Exkluzív vállalati tréningek:
- egyedi időpontban, egyedi szinten, egyedi terjedelemben,
- saját munkahelyen vagy más helyszínen,
- sztenderd vagy egyéni tematika alapján,
- üzleti területnek megfelelően testre szabva.

conTEXT 2017 - Sokszínű adatok

  • Bevezető szöveg: A 2017-es conTEXT konferencia a hagyományoknak megfelelően a legújabb szöveganalitikai megoldásokról és lehetőségekről szólt, a beszédtechnológia, a sportanalitika, a mesterséges intelligencia vagy éppen a kognitív alkalmazások oldaláról.
  • Iparág: Biztosítás

A teltházas rendezvény megnyitójában Körmendi György, a Clementine ügyvezetője a szöveganalitikai helyzet változásairól beszélt, mely az elmúlt egy évben is számos újdonságot tartogatott. A chatbotok működése, az interface-ek vagy éppen a teljes technológiát befolyásoló újdonságok és lehetőségek bemutatásával komplex képet kaptunk az iparág helyzetéről, a felmerülő „merre tovább?” kérdésekről.

Dévényi Edit, a K&H csoport analitikus CRM osztályvezetője 10 olyan megoldást mutatott be, amelyen keresztül a szöveganalitika támogathatja a CRM működését, illetve hozzájárulhat az ügyfélélmény javításához. Megoldásai között szerepelt a chatbotok használata, a geo- és hálózatanalitikai megoldások alkalmazása továbbá a felhasználók érzelmeinek, élményeinek és egymásra vetített hatásainak vizsgálata is. Az általa bemutatott megoldások nagyban segítik azokat az elemzési folyamatokat, amelyek az ügyfél számára legmegfelelőbb ajánlat kidolgozásra hivatottak.

Vada Gergely, a Fusion Vital alapítója előadásában strukturálatlan humán fiziológiai adatok elemzésén alapuló esettanulmányokat mutatott be a profi sport, a fegyveres erők és a civil élet területéről. Kutatásaik, projektjeik során ugyanis szívdobbanások milliárdjainak elemzésén keresztül vizsgálták, hogy mit jelentenek a gyakorlatban azok az elvont fogalmak, mint „sportolói teljesítőképesség”, „ismételt bevethetőség” a katonaságnál vagy „egészséges életvitel” a mindennapokban. Mint kiderült, a pulzusvarianca elemzésével rengeteg értékes adat kinyerhető: a fizikai terhelés, a restitúciós folyamatok eredményessége, az éjszakai regeneráció vagy a mentális felkészültség mind-mind megmutatkozik a pulzus mintázatában, amely ma már könnyen hozzáférhető. Ráadásul nem csupán sportolás vagy egyéb terhelés közben, hanem az új technológia segítségével hasznos információk gyűjthetők a sportoló mindennapjait 80%-ban kitevő, az edzők által közvetlenül kontrolálhatatlan, korábban homályban maradó időszakokról, tevékenységekről (szabadidő, alvás, étkezés, életmód, munka, pihenés, pszichés sajátosságok) is.

Boa László, az IBM cloud architect szakértője Watson chatbot implementációk tanulságairól beszélt. Olyan gyakorlati példákat mutatott be, amelyek a mindennapjainkra is nagy hatással vannak, például a vércukormérés területén. A páciensek ugyanis adataik segítségével már nem csak valós idejű betekintést kapnak állapotukba, de Watson segíthet előrejelzéseket készíteni, vagy éppen a kritikus döntések meghozatalában. Az ilyen és ehhez hasonló, személyre szabott megoldások ma már egyre szélesebb körben és egyre több szektorban elterjedtek, miközben kiválóan integrálják az analitikai, mobil, közösségi, biztonsági és felhő technológiákat.

Pancza Judit, a Clementine szöveganalitikai szakértője sorra vette az IBM SPSS Modeler valamint a Watson Explorer hasonlóságait és eltéréseit, a szótáralkotás, a vizualizáció, a felhasználók vagy éppen az alkalmazási lehetőségek szemszögéből. Az így kialakult összehasonlítás nyomán egy speciális demot mutatott be, amely - hibrid megoldásként - a két szoftver legjobb tulajdonságait ötvözve képes hatékony szöveganalitikai elemzésekre, valamint azok vizualizálására.

Fegyó Tibor, a SpeechTex ügyvezetője előadásában bemutatta, hogy hol tart jelenleg a magyar nyelvű élőbeszéd leiratozása, milyen speech-to-text eljárások léteznek, ezek milyen erősségekkel illetve hiányosságokkal bírnak. Emellett megismertette a jelenlévőkkel a speech-to-text egy érdekes és összetett fejlesztési területével, a sport közvetítések valós idejű leiratozásával. A gyakorlati életből hozott példáin keresztül láthattuk, hogy milyen komplex és egyben szakterület specifikus tudással kell rendelkeznie egy programnak már egy futballmeccs pontos leiratozásához is.

Sztahó Dávid, a BMT TMIT kutatója újra megerősített mindenkit abban, hogy a beszédünkben rejlő nem-verbális információ sok mindent elárul rólunk. A beszéd a természetes kommunikációnk egyik alapvető eszköze, ám ezen kívül a hangok képzését befolyásolja a mindenkori egészségi és érzelmi állapotunk is. Az előadás során a résztvevők megismerhették a hang-alapú érzelem azonosítás során fellépő feladatokat, a felismerés információtechnológiai folyamatát, az alkalmazás gyakorlati problémáit, valamint a jelenlegi state-of-the-art megoldásokat. A gyakorlati alkalmazási területek és a felmerülő gyakorlati problémák bemutatása betekintést nyújtott a téma iránt érdeklődők számára.

A Precognox képviseletében Ilyés Virág (Data Scientist), Katona Eszter (Junior Data Scientist) valamint Varjú Zoltán (Head of Data Science) mutatták be tartalomelemzési kutatási projektjüket. Azt mindenki tudja, hogy a sajtóban megjelenő cikkek nem csak szöveges információt tartalmaznak, egy írás nem csak nyelvi, hanem képi eszközökkel is él. De vajon ugyanolyan módon tematizálják-e az egyes híroldalak szöveges és képi tartalmai a tárgyalt témákat? Kutatásuk során a migrációs válság kapcsán a hazai online médiában megjelent több mint negyvenezer cikket és a hozzájuk tartozó majd' tízezer képet elemezték, hogy megtudják a választ az author-topic model eljárás segítségével.

A konferencia zárásaként Máté Anna, a Clementine elemzője a nyári slágerek világába kalauzolt mindenkit – természetesen a szöveganalitika irányából. Kutatásában a dalszövegekből létrehozott adatbázis az SPSS Modeler szoftverben került tisztításra, -rendszerezésre, majd a Text Analytics megoldás segítségével specifikus szótárt készített. Előadásában ezen szótár létrehozásának kihívásait részletezte a magyar nyelvben található egyalakú- és hasonló alakú szavak, a homonimák vagy éppen a több jelentés problémájának kiszűrésével. A megoldásokat három irányból is bemutatta: szinonima, kézi szabály valamint szófaj alapján. Az elemzés végére pedig az is kiderült, hogy milyen szavakat, kifejezéseket használnak a magyar könnyűzenei élet szereplői a legmenőbb nyári slágerek megalkotásához.

conTEXT 2018 - Szöveganalitika (r)evolúció

  • Iparág: Biztosítás

Körmendi György, a Clementine ügyvezetője a hagyományoknak megfelelően a „nagy kép” bemutatásával nyitotta meg a napot. Előadásában kitért a mesterséges intelligencia alkalmazási területeire, az ezzel kapcsolatos stratégiai, technikai, fejlesztési vagy akár etikai kérdésekre. Utóbbi terület kapcsán interaktív játékra is hívta a résztvevőket: négy esettanulmányon keresztül ismerhettünk meg etikai szituációkat, melyek dilemmáival kapcsolatban szavazhattak a jelenlévők. Az érdekes vélemények, kreatív válaszok végül a nap további részében is aktív beszélgetéseket generáltak.

Ezután Kovács-Ördög Zita, a Clementine szöveganalitikai tanácsadója bemutatta a cég legújabb fejlesztésű hangvezérelt hívásirányítási rendszerét, annak működési elvét. A szakmai közönség első alkalommal ismerkedhetett meg Hangával, az automatizált ügyfélszolgálati megoldással, mely azonnal kiemelkedő érdeklődést generált. Hanga képes megújítani a hagyományos hívásirányítási gyakorlatot, így az ügyfeleknek nem a bonyolult IVR menüstruktúrát hallgatva kell navigálniuk, hanem saját szavaikkal mondhatják el hívásuk célját. Hanga tudását, mechanizmusát, előnyeit videós demo segítségével követhettük nyomon, mely által láthatóvá vált, hogy az egyes helyzeteket, problémákat mely módon képes kezelni, hogyan növeli gyakorlatban az ügyfél-elégedettséget. 

Gréger Csaba, a K&H Bank analitikus CRM vezetője 2018 legtöbbször emlegetett témáját, a GDPR-t hozta el a jelenlévőknek. A K&H ugyanis az ügyféladatokkal kapcsolatos, az elvárásoknak megfelelő folyamatok biztosítása érdekében a legmodernebb szöveganalitikai megoldásokat is használni kezdte, ezáltal is védve az információkat, adatokat. Az előadás során betekintést nyerhettünk a működésbe: a koncepciótól a konkrét esetekig.

Kovács Gyula, a Fókusz Takarékszövetkezet Data Science & BI Igazgatója, valamint Molnár-Edőcs Eszter, a Clementine elemzője közösen prezentálták a pénzintézet számára fejlesztett megoldást, mely gépi intelligenciával segíti a vállalati hitelezés folyamatát. 2016-ban a Fókusz Takarékszövetkezetnél bevezetésre került egy vállalati hitelezés folyamatát támogató rendszer, melynek részeként létrejött egy Fórum, ahol a menedzsment tagok kérdéseket tehettek fel a hitellel kapcsolatban, majd a válaszok és a rendszerben tárolt hitelanyag alapján szavazhattak. Az előadás ezen rendszer továbbfejlesztését mutatja be, ahol a Fórum tagok köre bővült egy mesterséges intelligencián alapuló virtuális személlyel (Avatar) is. Az Avatar nemcsak a strukturált adatok alapján kérdez, illetve dönt, hanem a fórumon feltett kérdéseket is figyeli, értelmezi, és amennyiben számára releváns információt talál, azokat beépíti a döntésébe. Az előadás a fejlesztés fontosabb lépéseit, illetve magát a rendszert mutatta be.

A délutáni program első előadásaként Máté Anna, a Clementine szöveganalitikai tanácsadója engedett betekintést a televíziós tartalomelemzés kulisszái mögé: a szakmai prezentáció  az NMHH (Nemzeti Média- és Hírközlési Hatóság) kérésére végzett projekt előzetes eredményeit mutatta be. Egyértelműen kiderült, hogy a politikai műsorok szövegelemzése segít feltérképezni az egyes műsortípusok közötti különbségeket, a kampánytémák megjelenésének gyakoriságát, illetve komplex szentimentelemzéssel a különböző politikai aktorokhoz társított karakterisztikát, valamint az ezek közötti különbségeket.

Zárásként Orosz György, a LogMeIn szakembere tartott bemutatót a csetbotok gyakorlati  működéséről, és a náluk zajló fejlesztési irányokról. Az előadás során olyan módszerekkel is találkozhattunk, amelyek segítségével csetbotok működéséhez szükséges tudástár építhető a nyers helpdesk beszélgetésekből.

conTEXT 2021 Beszámoló

  • Iparág: Biztosítás

A rendezvényt a szokásokhoz híven Körmendi György, a Clementine ügyvezetője indította. Nyitóbeszédében kitért a konferencia egyik kulcstémájának számító transzformer modellek jelentőségére, ezek üzleti használhatóságára és a piacra gyakorolt jövőbeni hatásukra. Szó esett még a Clementine legújabb projektjeiről, többek között a heti rendszereséggel futó Láncreakció Podcast-ről is. A konferencia záró eseményeként ráadásul a nézők maguk is szemtanúi és részesei lehettek a legfrissebb adás élő felvételének.   

A szakmai előadások sorát Dr. Simonka Gábor Aurél, a Nemzeti Adó- és Vámhivatal Pénzmosás és Terrorizmusfinanszírozás Elleni Iroda főosztályvezetője kezdte, aki a PEKIR (Pénzmosás Elleni Komplex Informatikai Rendszer) bevezetésének hátterét és tapasztalatait osztotta meg. Az előadás a hazai „pénzügyi információs egység” működésének és elemző, értékelő feladatainak bemutatásával kezdődött, majd ezt követte azoknak a külső és belső indikátoroknak a felsorolása, amelyek a PEKIR rendszer létrejöttét ösztönözték. A prezentációban szó esett még a megvalósítás konkrét lépéseiről, a felmerülő kihívásokról és megoldásukról, az éles üzembe állítást követő tapasztalatokról, végezetül pedig a jövőbeli tervekről és célokról.

A következőkben Dr.Yang Zijian Győző, a Nyelvtudományi Kutatóközpont tudományos munkatársa mutatta be a nyelvtechnológia legújabb innovációjának számító transzformer modellek működését. Az előadás rögtön egy kreatív felütéssel, egy Petőfi stílusában, ugyanakkor egy GPT2 modell tollából íródott conTEXT konferenciáról szóló verssel indult. A prezentáció kitért a transzformer modell architektúrájának és részeinek definiálására. Megtudtuk, hogy az enkóder alapú modellek remekül alkalmazhatók osztályozásra (pl. tulajdonnevek felismerése, szentimentanalízis), nyelvi következtetésekre, illetve szöveghasonlóságok feltárására. A csak dekóder alapú modelleket, mint a GPT, szöveggenerálás mellett ma már kódgenerálásra is használják. Ezzel párhuzamosan pedig az enkóder-dekóder modellek a gépi fordítás robbanásszerű fejlődését hozták meg. Az előadás második fele magyar viszonylatban mutatta be a jelenleg rendelkezésre álló modellek státuszát, alkalmazhatóságát és üzleti megtérülését.   

A kávészünetet követően Molnár-Edőcs Eszter, a Clementine vezető elemzője a Dr. Simonka Gábor Aurél által is bemutatott pénzmosás elleni, azaz AML rendszer bevezetésének tapasztalatait osztotta meg fejlesztői szemszögből. A rendszer technikai felépítésének ismertetése után az előadás egy konkrét példán, egész pontosan a strómangyanú detektálásán keresztül mutatta be a pénzmosás gyanús események feltárásának menetét. A folyamat részét képezi az adatelőkészítéstől kezdve az előzménykutatáson át a kockázatértékelésig számos lépés. A rendszer bevezetése előtt ezen feladatokat az elemzők manuálisan végezték, míg az AML-nek köszönhetően ma már egy előkészített ügyet kapnak kézhez a korábbi időráfordítás töredéke alatt. Azt is megtudhattuk, hogy az AML nem egy fekete doboz, hanem egy transzparens, hosszútávon is rugalmasan alakítható és fejleszthető rendszer.

„Mit mondana erre Hanga?”, tette fel a kérdést Dr. Geszler Nikolett, a Clementineszöveganalitikai tanácsadója a cég hangalapú virtuális asszisztensére utalva. Az előadás fókuszában az olyan Voice User Interface, azaz hangalapú és párbeszédre épülő technológiák tervezési nehézségei álltak, mint a nagy tech cégek jól ismert asszisztensei, Siri vagy Alexa. A prezentáció kitért arra, hogy az emberi kommunikáció leképezése miért mutat túl a technológiai kihívásokon és a programozók mellett miért jön jól egy úgynevezett conversational designer szaktudása is a fejlesztés során. Mitől olyan egyedi az emberi kommunikáció? És milyen trükkökkel tehető gördülékenyebbé a párbeszéd ember és robot között? Megismerhettük azt is, hogy a társadalmi egyenlőtlenségek hogyan jelennek meg a technológiában és miért szükséges a kulturális szempontok figyelembevétele a tervezés során. 

Az ebédszünet előtti blokkot egy újabb Clementine előadás zárta: Kelemen Sára Bernadett, aClementine junior elemzője osztotta meg kutatásának eredményét, amelyben a férfiak és nők nyelvhasználatának különbségeit elemezte Facebook posztokat vizsgálva. A prezentáció rámutatott arra, hogy habár a szófajok gyakorisága szerint nem különböztethető meg a két nem, a leggyakrabban használt szavak sorrendjében már található differencia és az is megállapítható, hogy az emojik halmozása jobban jellemzi a nőket, mint a férfiakat. A kutatás emellett arra kereste a választ, hogy az alkalmazott klasszifikációs modellek közül melyik képes a leghatékonyabban beazonosítani a poszt írójának nemét kizárólag nyelvhasználat alapján: az eredmények tanúsága szerint a Bernoulli Naiv Bayes bizonyult a legjobb gépi tanulási módszernek.

Az ebédet követően Dr.Farkas Richárd, a Mesterséges Intelligencia Nemzeti Laboratórium nyelvtechnológiaialprojektjének vezetője a szövegelemző megoldások üzleti életbe való átültetésének nehézségeiről, valamit az emberi szakértői tudás gépi tanulási rendszerekbe való bevonásának fontosságáról beszélt. A prezentáció rámutatott arra, hogy a neurális nyelvi modellek, legyenek akármilyen fejlettek, önmagukban még nem oldják meg a nyelvtechnológiai problémákat addig, amíg a jelenlegihez hasonló szakadék tátong a kutatási terület és az üzleti igények között. A kutatók gyakran csak a reprezentációra fókuszálnak, míg a konkrét alkalmazhatóságot érintő kérdések és az adott üzleti terület megértése elmarad. Így pedig a fejlesztések csupán fekete dobozok, amiket nem lehet rugalmasan az üzleti igényekre szabni. Megtudhattuk, hogy megoldást az úgynevezett kollaboratív MI, azaz az emberi szakértő és az adatból tanuló gép együttműködése hozhatja meg. 

Végül pedig az esemény fénypontjaként a konferencia otthont adott a Láncreakció Podcast legújabb adásának felvételére. Egy kerekasztal beszélgetés formájában a nézők élőben követhették, hogy hogyan zajlik egy podcast felvétel, ráadásul többször megszólítva, interaktív módon valódi részesei lehettek az élménynek. A podcast állandó szereplői, Pohly Ferenc, Körmendi György és Kovács Gyula mellett Dr. Farkas Richárd csatlakozott a beszélgetéshez. A szakértők arra keresték a választ, hogy az NLP technológiák terén mennyire áll összhangban elmélet és gyakorlat, melyek azok a területek, ahol az elvárások megközelítik a valóságot és melyek azok, ahol az NLP nem váltotta be a hozzá fűzött reményeket.

A nem mindennapi adás ittelérhető. Ne érdemes kihagyni!

Customer Contact Week

  • Bevezető szöveg: A Clementine júniusban egy fontos nemzetközi rendezvényen is képviseltette magát, méghozzá a legnagyobb call center kiállításon és konferencián, a Customer Contact Week-en Las Vegas-ban.
  • Iparág: Biztosítás

A Customer Contact Week mondhatni a call center szakma legnagyobb és legfontosabb rendezvénye, amelyre a világ minden tájáról érkeznek résztvevők, valamint előadók és kiállítók, hogy bemutassák a szektor trendjeit, legújabb fejlesztési irányait és innovatív megoldásait.

A több, mint 2500 résztvevő az előadásokat párhuzamosan 6 különböző szekcióban hallgathatta, melyek az ügyfélszolgálat különböző területeit járták körbe, így szó volt az emberi vonatkozásokról, a folyamatokról, technológiáról, innovációról és stratégiai kérdésekről is. Az előadások közötti szünetekben a résztvevők a több, mint 100 kiállítóból álló expo-n ismerkedhettek meg a legújabb technológiákkal és megoldásokkal az intelligens hívószám felismeréstől a munkaerő optimalizáláson át a Clementine fejlesztéseihez hasonló elemző megoldásokig és virtuális asszisztensekig.

A kiállításon a Clementine legújabb fejlesztésével, Hangával mutatkozott be. 

Data science a piackutatás területén

  • Bevezető szöveg: Szeptember 26-án, kedden 16 órakor folytatódott a „Ha nagy leszek data scientist leszek! De hol?!” meetupsorozatunk, ahol ezúttal kifejezetten a piackutatás területén zajló adatelemzési gyakorlatokba tekinthettünk be.
  • Iparág: Biztosítás

Az új helyszínen, a Kaptár Budapest termében megtartott rendezvény érdekes témákat tartogatott:

  • Pancza Judit, a Clementine szöveganalitikai szakértője gyakorlati példát hozott, melyet az IBM SPSS Modeler segítségével prezentált. A FINA vizes világbajnokság alatt született bejegyzésekben szavak, kifejezések, hashtegek gyakoriságát, a tendencia alakulását vizsgálta – most pedig a meetup résztvevőinek a konkrét folyamatot mutatta be.
    Aki esetleg lemaradt az előadásról, annak ajánljuk figyelmébe a projekt rövid összefoglalóját  ITT.
  • Máté Anna, a Clementine elemzője szintén egy szöveganalitikai projekttel készült, méghozzá a rádiós slágerlisták világából. Kutatásában a dalszövegekből létrehozott adatbázis az SPSS Modeler szoftverben került tisztításra, -rendszerezésre, majd a Text Analytics megoldás segítségével specifikus szótárt készített. Az elemzés végére pedig az is kiderült, hogy milyen szavakat, kifejezéseket használnak a magyar könnyűzenei élet szereplői a legmenőbb nyári slágerek megalkotásához.
    Érdekel a téma? További információ ITT.
  • Molnár Sándor, az Ariosz energia üzletágvezetője egy nemzetközi fogyasztásváltozás-vizsgálat tapasztalatairól számolt be egy okosmérés kutatás bemutatásával. Konzorciumi vezetőként az Ariosz szakemberei a projekt során a fogyasztói szegmentációt végezték el, méghozzá metaklaszterezési eljárással. A cél az volt, hogy azonosítani tudják a tipikus fogyasztói mintázatokat, majd őket perszonalizált kommunikációval érjék el.
  • Szerencsés Tibor, az IPSOS üzletfejlesztési vezetőjeként és tapasztalt kutatóként a piackutatás egészéről, az új trendekről tartott bemutatót, konkrét példákkal színesítve: online eye tracker megoldások, vásárlási élmény a virtuális valóságban.
  • Könyves Tóth Előd, a Clementine szakértője az IBM SPSS Statistics verziófrissítése kapcsán mutatta be annak újdonságait, kifejezetten a bayes-i és hagyományos statisztikai eljárások különbségeire fókuszálva.
 
A gyakorlati bemutatók már az előadások közben kérdéseket generáltak, majd a hivatalos program végén további érdekes beszélgetésekre került sor.  A meetup sorozatunk hamarosan folytatódik, a következő dátumért és további információért érdemes honlapunkat böngészni ITT

dataSTEAM meetup márciusban: videó elemzés

  • Bevezető szöveg: Tavaszi meetupsorozatunk középpontjában a nem strukturált adatok állnak: hang, szöveg, kép, videó, azaz minden, amit hagyományos adatbányászati eszközökkel nem tudunk feldolgozni.
  • Iparág: Biztosítás

Előző meetup-unk alkalmával a hang és a beszéd feldolgozásának technológiáiról volt szó, most pedig a videoanalitika, a videók tartalmának elemzése lesz a téma.

A videó analitika célja időbeli és térbeli események azonosítása és elemzése, automatikusan videó tartalmakon. A képrögzítő technológiák fejlődésének köszönhetően egyre bővülnek az alkalmazási területek: az egészségügytől a kereskedelmen át a bűnmegelőzésig és rendvédelmi területekig számos iparágban már használnak ilyen technológiát. Legismertebb alkalmazások például a rendszámfelismerés, az arcfelismerés, tárgyak követése, viselkedés elemzés és még sorolhatnánk. Ezek közül ismerhetünk meg néhányat közelebbről.

Előadások:

  1. Watson video analitika – Németh Zoltán, Ustream, senior engineering manager
    Az IBM (jelentős részben a Ustream felvásárlásnak köszönhetően) egyre erősebben jelen van az online video piacon, kézenfekvő volt tehát a Watson AI képességeit is bevetni ezen az új területen. Ezt az új technológiát szeretném röviden bemutatni, néhány érdekes esettanulmánnyal. Például a Wimbledoni tenisz mérkőzések elemzése, vagy automatikus klipek készítése a US Openről.
  2. Utcai kamerák rögzített tartalmának elemzése – Boa László, IBM
    Autók súly és méret meghatározása az utcai kamerák képének elemzésével.
  3. Eye tracking módszerek
    Az előadások után lehetőség nyílik informális kapcsolatteremtésre az érdeklődők számára.

dataSTREAM 2018 Beszámoló

  • Bevezető szöveg: A 2018-as dataSTREAM konferencia középpontjában az „Exploring data – Inspiring business” tematikához hűen az üzleti döntéseket, folyamatokat befolyásoló adatelemzési lehetőségek és megoldások álltak.
  • Iparág: Biztosítás

Az egész napos program nyitóelőadásában Körmendi György, a konferenciát szervező Clementine ügyvezetője beszélt a legújabb, a szakmát érintő kérdésekről. Egyre jobban teret nyer ugyanis a jog, vagy éppen az adatvédelem kérdése az adatbányászat területén, hiszen a „Kié az adat?” vagy éppen „Hogyan védhetjük meg az adatokat / kié a felelősség?” napi szinten felmerülő kérdések. Ráadásul a közelmúlt adatvédelmi botrányai (pl. Facebook), vagy a robotok egyre nagyobb elterjedése új helyzeteket teremt, amelyre a szakmának (is) mielőbbi válaszokkal kell szolgálni. Az előadás második felében Körmendi György bemutatta a Clementine virtuális asszisztens és chatbot megoldásait, melyek a gyakorlatban már több vállalat mindennapi munkáját könnyítik meg az ügyfélszolgálat vagy éppen az automata szövegfeldolgozás területén.

 A dataSTREAM konferencia minden évben nagy hangsúlyt fektet arra, hogy az előadások mellett informális beszélgetésekre is lehetőséget adjon, ezáltal is biztosítva, hogy a jelenlévő szakemberek az iparág jelenét érintő kihívásokról és a várható jövőbeni trendekről is ütköztethessék véleményüket. 2018-ban hivatalos platformot biztosítottunk ezen témáknak, így egy kerekasztal beszélgetésen mondta el nézeteit három szakértő (Körmendi György, a Clementine ügyvezetője, Kovács Gyula, az Andego Kft. ügyvezető partnere és Dunai Albert, a Magyar Telekom senior data science szakértője), méghozzá Simon Krisztián, a Marketing és Média főszerkesztője, a Brandmania műsorvezetője irányításával.

A bemelegítő kérdések (Hol van az adatbányászat helye a szervezetekben?) után egyre mélyebb területeket érintve tudtuk meg a résztvevők véleményt a data science hatékonyságáról, folyamatairól, vagy éppen az üzleti hasznáról. Természetesen szóba kerültek a robotok, a jövő nagy áttörései vagy éppen a GDPR várható hatásai is.

A jó hangulatú, közel egy órás beszélgetésen komplex képet kaphattunk az adatbányászat jelenéről és jövőjéről, vállalati és elemzői oldalról is.

Dr. Reinhold Engelbrecht, az IBM Digital Business Automation európai szakértője a vállalat legújabb megoldását mutatta be. A Robotic Process Automation (RPA) egy olyan innovatív terület, mely segít a rutin feladatokat automatizálni, ezáltal időt és költséget takaríthatunk meg, miközben az emberi figyelmetlenségből adódó hibákat is elkerülhetjük. Előadásában az RPA fő előnyei mellett szó esett az IBM portfólióban található többi termékkel való kapcsolódásáról is, valamint gyakorlati példákon keresztül láthattuk ezen megoldás üzleti hasznait is.

Körmendi György, a Clementine ügyvezetője „Hogy néz ki egy robotgyár?” című előadásában azokról a vállalati robotokról beszélt, amelyek megkönnyítik a mindennapi munkavégzést, növelik a folyamatok hatékonyságát. A Clementine virtuális asszisztenseinek segítségével az emberi rutinfeladatok automatizált megoldásokra cserélhetők. Az így kiváltott ismétlődő, manuális feladatok helyett az ügyfélszolgálati munkatársak az értékteremtő folyamatokra koncentrálhatnak. A cég fejlesztésében az RPA (Robotic Process Automation) folyamatba egy mesterséges intelligencia épül be a könnyebb döntések érdekében, így bizonyos ügyfél interakciókat kiindulásként kezelve ténylegesen végig lehet vinni egy-egy tranzakciót.

Hegedüs Pál, a Clementine vezető elemzője az IBM Watson Studio működését, üzleti problémákra adott megoldásait mutatta be. Az előadásban szó esett az integrált eszközökről (pl. SPSS Modeler, open source eszközök (python, R), döntésoptimalizációs algoritmusok, képfelismerő algoritmusok, deep learning stb.), valamint ezek vizualizációiról is. Az érdekes és hasznos előadás videós tartalmai a gyakorlati használatot is prezentálták, például az arcfelismerés vagy a Phyton alapú adatfeldolgozás területén.

Máté Anna és Mészáros Evelin, a Clementine elemzőiként a World Happiness felmérés adatait vizualizálták SPSS Modelerben, Python kódok használatával, de felhasználóbarát módon. A Python programozási nyelv egyre nagyobb elterjedése és az elérhető modulok sokszínűsége egyre jobban teret enged ugyanis a kreativitásnak: egyre dinamikusabb és sokrétűbb adatmegjelenítés lehetséges. Az így kialakult boldogságtérképeken különböző színek jelzik az intenzitást, így földrajzi helyekre vetítve megtudhattuk, hogy mely országok a legnagylelkűbbek, legtehetősebbek vagy épp legboldogabbak.

Molnár Sándor, az Ariosz energia üzletágvezetője a NatConsumers, egy nemzetközi fogyasztásváltozás-vizsgálat tapasztalatairól számolt be egy okosmérés kutatás bemutatásával. Konzorciumi vezetőként az Ariosz szakemberei a projekt során a fogyasztói szegmentációt végezték el, méghozzá metaklaszterezési eljárással. A cél az volt, hogy azonosítani tudják a tipikus fogyasztói mintázatokat, majd őket perszonalizált kommunikációval érjék el. Ez az újfajta koncepcionális megközelítés elsősorban a fogyasztói magatartásváltozás motiválását segíti elő: az automatizált, egyénre szabott üzenetek segítik elérni a fogyasztás csökkenést.

Kovács Gyula, az Andego Kft. ügyvezető partnere egy érdekes kutatásról beszélt, melynek során a fiktív cégeket modellezték adatbányászati és hálózati eszközökkel. A valós gazdasági tevékenységet nem végző vállalkozások kiszűrésének módszertanát bemutató prezentáció számos meghökkentő adattal és következtetéssel szolgált, miközben megismertük a céghalmozók vagy éppen a cégtemetők világát is. A kutatás részeként az irányított tanítás során vegyítették a prediktív- és iteratív modellt, így hoztak létre egy tanító adatbázist. A kiértékelés fázisában pedig felismerték a hagyományos kiértékelés korlátait, így új módszerek kerültek bemutatásra.

Dr. Lukács András, az ELTE Matematikai Intézet Számítógéptudományi Tanszék oktatója a deep learning, magyarul „mély tanulás” technológiáját mutatta be, mely az elmúlt pár évben észrevétlenül beszivárgott mindennapjainkba is. Hatalmas adatmennységek, nagy számítási kapacitások és kifinomult algoritmusok az összetevői azoknak a sikereknek, amelyeket számos mesterséges intelligencia körébe tartozó, korábban elérhetetlennek tűnő képesség, feladat egyre precízebb, megbízhatóbb megoldása adta. Önvezető autók, ipari robotok, beszéd felismerés és generálás, gépi fordítás, tárgyak és személyek képeken való beazonosítása, IT rendszerek felügyelete, sakk és go – pár példa egy folyamatosan bővülő listából. Az előadásban áttekintettük a deep learning technológia sajátosságait, és számos hasznos és/vagy érdekes alkalmazási példát ismerhettünk meg.

A Clementine vezető szakértője, Könyves Tóth Előd hosszú évtizedek óta foglalkozik az SPSS fejlesztésével, használatával, oktatásával és népszerűsítésével. Ennek okán hitelesen prezentálta az IBM szoftverének első 50 évét, humorral és számtalan háttér információval emlékezett meg a kezdetekről, a céggé válásról, vagy éppen az egyes korszakok legfontosabb érdekességeiről. A személyes élményekkel színezett rendhagyó SPSS történelem óra nem csak méltó megemlékezés volt a jubileum kapcsán, de színes zárása is volt a dataSTREAM konferenciának. 

dataSTREAM 2018: Exploring data-inspiring business

  • Iparág: Biztosítás

Mit hozott a data science az üzletbe? Vajon a klasszikus módszerek vagy az új technológiák hatékonyabbak? Hol a data science helye a nagy szervezetekben?

Az idei dataSTREAM konferencián ezekre a kérdésekre keressük a választ, és megmutatjuk, milyen klasszikus és új elemzési módszereket használnak ma a cégek.

Ízelítő programunkból:

  • Körmendi György, a Clementine ügyvezetője idén is beszél a trendektől, újdonságokról és a jövő technológiáiról
  • Dr. Reinhold Engelbrecht, az IBM Digitial Business Automation európai szakértőjének előadásában a robotizált folyamat-automatizáció (RPA, Robotic Process Automation) jelentőségével, alkalmazási területeivel és esettanulmányokkal ismerkedhetünk meg.
  • Molnár Sándor, az Ariosz Kft. üzletágvezetője az okos technológiákon alapuló lehetőségekről fog beszélni az energetika szektorban, illetve bemutat egy újfajta koncepcionális megközelítést a energiafogyasztói magatartásváltozás motiválására
  • Bemutatkozik a Watson Studio! 
  • Az 50 éves az SPSS!  Könyves Tóth Előd, a Clementine szakértőjének előadásában
  • Érdekes esettanulmány: Fiktív cégek azonosítása cégadatok elemzésével Kovács Gyula (Andego) előadásában

dataSTREAM 2019 - PersonAI

  • Iparág: Biztosítás

A legtöbb AI alkalmazás az emberi viselkedést tekinti mintának, az emberi viselkedés alapján tanul: az önvezető autó kamerái segítségével úgy érzékeli és elemzi a környezetét, mint mi. Egy chatbottól azt várjuk, hogy úgy kommunikáljon, mint egy ember. Az okos termosztát alkalmazkodik a szokásainkhoz és előre tudja jelezni az igényeinket. Sorolhatnánk az alkalmazásokat, melyekben közös, hogy mind az emberi szokásokból, viselkedésből, kommunikációból, azaz az általunk előállított hihetetlen mennyiségű adatból tanulnak.

Az idei dataSTREAM konferencián sorra vesszük a mesterséges intelligencia életünkre gyakorolt hatását, a fejlesztéseket. 

További információ: IDE kattintva.

DATASTREAM 2019. BESZÁMOLÓ

  • Bevezető szöveg: Teltházas érdeklődés övezte az idei dataSTREAM konferenciát, melyen a PersonAI tematika kapcsán a mesterséges intelligencia rohamos fejlődését és a személyez fűződő viszonyát boncolgatták a Clementine által felkért előadók.
  • Iparág: Biztosítás

A rendezvény hagyományosan Körmendi György ügyvezető előadásával indult, melyből kiderült, hogy meglepő analógiák vannak a gépi és emberi hibák között, hiszen az egyre komplexebb algoritmusok egyre emberibben képesek hibázni. A Clementine szakértőjének prezentációjában számtalan gyakorlati példát láthattunk a hazai és nemzetközi mesterséges intelligencia helyzet kapcsán, amelyek részletesen bemutatták a személyes adatokkal való visszaélés, az arcfelismerő és a kép kategorizálási szoftverek problémáit, hibáit.

 Werschitz Ottó, a Neuron Solutions stratégiai és üzletfejlesztési vezetője a hazai mesterséges intelligencia helyzetkép ismertetését folytatta, méghozzá négy aspektusból: az állami szerepvállalás, a vállalati alkalmazások, a kutatás-fejlesztési trendek, valamint az integrátorok oldaláról. A konkrét cégek és projektek felsorolása mellett részletes információt kaptunk a Mesterséges Intelligencia Koalíció működéséről, terveiről, valamint az egyes iparágak fejlettségéről.

Molnár Sándor, az Ariosz üzletágvezetője az energetikai okosmérések elemzéseiből hozott egy konkrét, gázipari példát. A fogyasztók nagy körénél (4600 lakossági paneltag, 2400 üzleti paneltag) helyeztek fel okosmérőket, amelyek eredményeit kérdőíves adatgyűjtéssel egészítették ki, hogy megkapják a fogyasztói karakterisztikákat. Mivel az okosmérők már szinte folyamatos adatrögzítésre is képesek, hatalmas adatmennyiséget kellett feldolgozni, amely lehetővé tette, hogy a képzett profil csoportoknál vizsgálható váljon a napon belüli fogyasztás változás, így pontosabb kalkulációk, ajánlatok készíthetők. A modellalkotásban például az SPSS Statistics volt segítségükre.

Horváth Balázs, az Ultinous Zrt. Kereskedelmi igazgatója igazán Big Brother érzést keltett a résztvevőkben, amikor bemutatta a legújabb videóanalitikai megoldásokat a gyakorlatban. A technológiai alkalmas többek között mozgás követésre, életkor- és nem detekcióra, vagy akár klasszikus arcfelismerésre is. Ezek a mesterséges intelligencia megoldások már mindennapjaink részei: nézik mi köti le a figyelmünket egy kirakat megtekintésekor, azonosítják mikor lépünk be a munkahelyünkre vagy éppen ellenőrzik egy-egy veszélyes üzemre mikor kell riasztást kiadni. A technológiát már alkalmazza például a Rossmann a sorok csökkentése érdekében. A rendszer az egyébként is meglévő kamerák képén képes figyelemmel követi a belépő, benn lévő és sorban álló vásárlókat, ez alapján pedig valós időben előrejelzi, hogy szükséges-e újabb pénztár megnyitása.

Szlovák Gergely, az IBM Systems Transformation csapatának tagjaként több érdekes, jelenleg is működő IBM technológiát prezentált előadásában. A vállalat számtalan, mesterséges intelligencián alapuló fejlesztéssel rendelkezik: szoftverei képesek az arc/érzelmek felismerésére, a klasszifikációra, de az orosz leányvállalat például csontban lévő daganatos elváltozásokat detektál. A Power AI Vision már a váci gyárban is működik: az érintésvédelmi tesztek során emberi beavatkozás nélkül vizsgálja a termékeket, illetve emberek jelenlétét egy zárt térben. A Watson Knowledge Studio pedig szöveges dokumentumokat képes megtanulni, melynek köszönhetően üzleti folyamatokat segít megoldani.

A témánál maradva Novák Márton, a Clementine elemzője bemutatta, hogy az IBM Watson Studio hogyan integrálja a különböző adatelemzési környezeteket. A videós betétekkel színesített előadásban megismerhettük azokat az eszközkészleteket, melyek a leghatékonyabbak egy-egy adott probléma (képfelismerés, credit scoring, szöveganalitika, ügyfelek lemorzsolódásának előrejelzése) megoldásához.

Ebéd után az egykori Clementine társalapító, Cseh Zoltán kitekintését hallgathattuk meg, aki a dél-kelet ázsiai adatbányász helyzetképet mutatta be. A trendek és a technológiák hasonlóak, az adatmennyiség azonban drasztikusan eltérő: a legnagyobb telekommunikációs cég például 170 millió ügyfelet kezel. A Linguann Malaysia alapítója elmondta azt is, hogy a közlekedés, az e-kereskedelem és a közösségi szolgáltatások terén van a legnagyobb szükség adatelemzőkre, algoritmusok fejlesztésére. A szórakoztató prezentáció végén megismerhettük azt az új fejlesztést is, amely a kommentelők szövegeiből képes kinyerni, hogy mi kapcsolódik az adott témához és mi vonatkozik leginkább az adott személy kommunikációs stílusára vagy éppen a szlegekre.

datastream-2019

A Robert Bosch Kft. adatelemzője, Zámborszky Judit az autóiparban zajló negyedik ipari forradalom kapcsán számolt be a Bosch-nál zajló big data megoldásokról. A CRISP-DM módszertannal ma már napi szinten üzleti problémákat oldanak meg, elemzik a gyártási folyamatokat és feldolgozzák a rengeteg keletkező adatot. Az elemzési folyamatot egy konkrét, a légzsák szenzorok példáján keresztül mutatta be az előadó.

Dr. Tóth Martin az egészségügyben jelen lévő adatbányászati megoldásokat mutatta be izgalmas előadásában. A Richter Gedeon data science témafelelőse először bemutatta a társaság Ipar 4.0 stratégiáját, majd az ehhez kapcsolódó automatizálási és digitalizációs feladatokat. Szó esett a mesterséges intelligencia gyakorlati hasznáról, melyeket konkrét példákon keresztül ismerhettünk meg a gyógyszeripari óriástól.

Lajtai Péter, a PWC senior manager-e, valamint Gergely Norbert, a Clementine elemzője közösen mutatták be azon projektjeiket, melyeket a két cég együttműködésben végez a PWC partnerei számára. A speciális cégvizsgálatok, a kapcsolati hálók felderítése, a tranzakciók vizsgálata mind mind segítik az ügyfelek elemzését, esetleges partnereik minősítését. Az előadás második felében Norbert bemutatta a fiktív cégekkel kapcsolatos korábbi kutatásukat (még Andego-ként), mely rámutatott számtalan szórakoztató és elrettentő furcsaságra a magyar cégrendszerben.

A dataSTREAM záró előadása hagyományosan Könyves Tóth Elődé. A Clementine vezető szakértője idén az SPSS Statistics szoftver 26. verziójának apropóján vizsgálta az adatbányászati trendeket, a mindennapokban is fellelhető vonatkozásokat, valamint az egyén szerepét és felelősségét a mesterséges intelligenciában.

dataSTREAM meetup a beszédanalitika területén

  • Bevezető szöveg: Február 27-én, kedden délután 15 órakor folytatódik meetupsorozatunk, melyben ezúttal a data science speciális területei: a beszédtechnológia és beszédanalitika lesz a téma.
  • Iparág: Biztosítás

Február 27-én, kedden délután 15 órakor folytatódik meetupsorozatunk, melyben ezúttal a data science speciális területei: a beszédtechnológia és beszédanalitika lesz a téma.

Az előző évben sikerrel vettük sorra az egyes szektorokban rejlő adatelemzési lehetőségeket, trendeket - méghozzá neves előadók, gyakorlati szakemberek segítségével. A megismert best practice-ek, iparági megoldások rengeteg, a data science iránt nyitott érdeklődőt vonzottak, így nem volt kérdés a folytatás.

Tavaszi meetup sorozatunk középpontjában a nem strukturált adatok állnak: hang, szöveg, kép, videó, azaz minden, amit hagyományos adatbányászati eszközökkel nem tudunk feldolgozni.

Az idei első meetup témája a beszédtechnológia, a beszédanalitika.

A beszédtechnológia ugyanis egyre inkább része a mindennapjainknak: diktálunk a telefonunknak, beszélünk az autónkhoz, elemzik a call centeres beszélgetéseinket, gépi hang fogad minket a vasútállomásokon, és még sorolhatnánk.

Előadások:

  1. Gépi beszédfelismerés – Fegyó Tibor, SpeechTex
    A gépi beszédfelismerés használhatósága és ezzel együtt a használata folyamatos mértékben nő, de várhatóan messze van még az pont, mikor azt mondhatjuk, hogy megoldottuk a feladatot.
    Az előadásban olyan kérdésekre próbálok választ adni, hogy mitől lesz hatékony egy beszédfelismerő rendszer; milyen esetekben lehet és érdemes a nemzetközi piacon is elérhető megoldásoknak alternatívát nyújtani; milyen kihívásokkal kell megbirkózni új területeken történő bevezetéshez.
  2. Beszédanalitika, azaz gépi beszédfelismerés kimenetének szöveganalitikai elemzése és felhasználása – Kovács-Ördög Zita, Clementine
    Az ügyfélszolgálatok napi több száz órás beszélgetései igazi információs aranybányát jelentenek az elemzőknek. De mik is pontosan ezek az értékes információk? Milyen vállalati területeken hasznosítható ez a tudás? És egyáltalán hogyan fogjunk hozzá a feldolgozáshoz, ha hatékonyan szeretnénk mindezt csinálni? Az előadás többek között ezekre a kérdésekre keresi a választ. Megnézzük mi történik a hívással azt követően, hogy tárcsázzuk az ügyfélszolgálat telefonszámát, illetve, hogy ez a folyamat hogyan modernizálható hang és szöveganalitikai megoldások segítségével. Szó lesz hangvezérelt IVR-ról, call center asszisztens megoldásról, automatikus quality control rendszerről, és persze arról is, hogy mindezek miért hasznosak.
  3. Prozódiai Oktatóprogram – Sztahó Dávid, BME TMIT
    A természetes beszédkommunikációhoz hozzátartozik a helyes prozódia. A Prozódiai Oktatóprogram olyan audió-vizuális CAPT szoftver, amely a hallássérültek, kochleáris implantáltak vagy valamilyen beszéd rendellenességben szenvedő gyermekek beszédtanulásában valamint nyelvtanulásban nyújthat segítséget a prozódia helyes elsajátításához vizuális és hallási visszacsatolással. Az előadás során a közönség megismerheti a szoftver funkcionalitását, annak elvégzett hatástanulmányát nagyothalló gyermekeknél, valamint a web-es implementációjának prototípusát.

A rendezvény ingyenes.

Jelentkezni lehet e-mail-ben a This email address is being protected from spambots. You need JavaScript enabled to view it. e-mail címen vagy a https://www.meetup.com/Budapest-dataSTREAM-Meetup-Series/events/247732675/ oldalon.

Friss és hatékony: megújult az IBM SPSS Modeler!

  • Bevezető szöveg: Az első 2019-es Clementine meetup középpontjában a megújult SPSS Modeler állt, melynek 18.2-es verziója számos új funkciót tartogat az elemzők számára.
  • Iparág: Biztosítás

Körmendi György megnyitója után az előadók számtalan konkrét megoldással, gyakorlati példával mutatták be a jelenlegi verzió lehetőségeit:

  • Molnár-Edőcs Eszter, a Clementine elemzője az új megjelenés előnyeiről, a vizualizációs lehetőségek fejlesztéséről és az új algoritmusokról tartott előadásában részletesen bemutatta az új modern interface-t valamint a teljesen új ábrakészítő felületet. A grafikonok interaktívak lettek, letisztultabb megjelenítést kaptak az új verzióban, mely megkönnyíti az eredmények áttekinthetőségét, prezentálását.
  • Kovács-Ördög Zita, a Clementine szöveganalitikai tanácsadója az SPSS Modeler Text Analytics moduljának újdonságairól, előnyeiről, logikájáról tartott előadást. A prezentáció részletes gyakorlati példákon keresztül mutatta be a különféle szöveges állományok elemzési lehetőségeit.
  • Pázmándi Eszter és Novák Márton, a Clementine elemzői a Watson Studio áttekintésére helyezték a hangsúlyt, így megismerhettük a felhő alapú elemzőeszköz lehetőségeit is: bemutatták az automatikus adatelőkészítést, majd a machine learning modelleket és neurális hálózatokat egy-egy érdekes példán keresztül. Az új felület elősegíti a csoportokon belüli közös munkát, hiszen könnyű elérést biztosít a fájlokhoz a modellezésen dolgozó minden munkatárs számára.

Meetup sorozatunk tavasszal folytatódik!

Ilyen volt a conTEXT 2019

  • Bevezető szöveg: „Értékes gondolatokhoz minőségi forma dukál” - gondolták a Clementine munkatársai, akik idén is egy kiemelkedő helyszínre, a CEU Nádor utcai, pazar épületébe hívták a szöveganalitika iránt érdeklődőket, a 2019-es conTEXT konferenciára.
  • Iparág: Biztosítás

Az előadássorozatot ezúttal is Körmendi György, a Clementine ügyvezetője nyitotta meg, olyan kérdéseket feszegetve, mint a 2019-es év iparági tanulságai és a 2020-ban várható trendek. Előbbiek között az adatokkal gigászi méretekben dolgozó nagyvállalatok politikához való egyre feszültebb viszonyát, a kapcsolódó jogi szabályozásokat és a hibrid cloudtechnológia térnyerését említette, mig a jövővel kapcsolatosan a “mesterséges intelligencia”-sikersztori végét, az alacsony számú sikeres MI-projekt felértékelődését és az adatbiztonság szempontjából megbízható Enterprise Data Platformok térhódítását vizionálta.

 
„Van-e még szükség nyelvészekre?”, tette fel előadásában a kérdést Kálmán László, a Nyelvtudományi Intézet munkatársa. A szakértő szavaiból ítélve joggal aggódhatnak választott munkájuk miatt a területen dolgozók: a klasszikus nyelvszemlélet – szó alapelem, toldalék, mondattan –, valamint az adattudomány és technológia által a nyelvet érintő módszertani megközelítés – adathalmazok, feldolgozás, alkalmazás – valóban összeegyeztethetetlennek tűnnek. Azonban létezik egy olyan nyelvészeti irányzat, amely képes feloldani az ellentmondást, és megmutathatja a jövőt a kutatók számára: ez a ’használat alapú’ nyelvészet, amely a nyelvtudást gyakorlatilag egy velünk, a tapasztalásainkkal együtt fejlődő nyelvi emléknyomok gyűjteményének tartja. A kiutat az irányzat és a technológia által is vizsgált, értelmezett elemek – a nagy adathalmaz, az emléknyomok, a kapcsolat erőssége – jelentik, a két ág ezek mentén tud azonos, egymást segítő kutatásokat végezni. Az emberi agy által alkalmazott legrelevánsabb emlékképet viszont a gépek sok esetben nem tudják meghatározni, mert nem képesek értelmezni a lélek rezdüléseit. Talán nem véletlen fogalmazott úgy a gép a Terminátor 2-ben, hogy bár tudja, miért sírnak az emberek, de ő sosem lesz képes erre.

Dr. Mihajlik Péter, a BME oktatója a „Mesterséges Intelligencia a beszédtartalom felismerésében” címmel tartott előadásában felidézte, hogy az MI már az 1970-es évek óta szerepet játszik az automatikus beszédfelismerésben (ASR). A „jelfeldolgozás – hangmodell – kiejtési szótár – morfológia” modelljét vizsgálva érdekességként megállapítható, hogy mondatszerkezeti szempontból a magyar nyelv közelebb áll a török és arab nyelvekhez, mint a finnugor ’rokonokhoz’. Megtudtuk, hogy a technológia fejlődésével erősödő számítási lehetőségek kedveztek a Deep Learning alapú spontán szófelismerésnek. A Deep Nyelvtan módszertana szerint a kutatás során a régi szabályokra nincs szükség, ezek elhagyásával az ASR pontossági aránya fokozható. A szakember a talktotransformer.com weboldal kipróbálását javasolta a közönségnek: az online rendszer egy megadott mondat alapján megjósolja a témában következőt. A látványos bemutató mögötti technológiák kutatása manapság nagyon népszerű, azonban a rendkívüli erőforrásigény miatt ipari méretben történő gyakorlati alkalmazásuk egyelőre nem aktuális.

Mi lehet a kérdés?” – töprengett már a címben Pázmándi Eszter. A Clementine elemzője egy banki ügyfélkiszolgálás támogatást érintő probléma és az arra kialakított megoldás bemutatásával világított rá arra, hogy a szöveganalitika milyen támogatást nyújthat a területen jelentkező belső tudásmegosztással kapcsolatos kihívások kezelésében. A projekt során a Clementine a meglévő céges dokumentumokból és a beérkező levelekből gyűjtött kérdések-válasz párokból egy tudásbázist, valamint egy keresőt épített IBM SPSS Modeler alapokon. A folyamat részét képezte a szöveges források feldolgozása, a szótárépítés, a szövegelemzés, valamint a kulcsszavak azonosítása. A jelenleg tesztüzemben futó megoldás minden további, hasonló problémához reprodukálható, az érintett szervezetek humánerőforrás-állománya pedig tehermentesíthető.
 
“Ezt már mondtad?” - hangzott el egy újabb kérdés előadáscímként, a Clementine két elemzője, Molnár-Edőcs Eszter és Mészáros Evelin részéről. A hölgyek a 2018-as conTEXT során bemutatott AVATAR-rendszer továbbfejlesztését jelentő munkálatok részleteibe avatták be a közönséget. A vállalati hitelbírálati folyamatokat támogató megoldást kellett további, az egyes esetekből származó tudással gazdagítani. Az alkalmazott módszertan egy olyan specifikus, magyar nyelvű szótár létrehozását jelentette, amely beépül a már működő AVATAR-ba. A mindennapokban a rendszer egyre több kérelemnél képes lesz a bírálatokat végzők döntéseit önállóan értelmezni, illetve minden új információt megtanulni, és az így szerzett tudást a későbbiekben hasznosítani.
 
 
Az IBM képviseletében Huszti Dániel „Szöveganalitika (r)evolúció és az intelligens rendszerek kapcsolata” címmel tartott előadásában rámutatott, hogy a természetes emberi nyelv feldolgozásával lehetőség nyílik a mindennapi munka szignifikáns felgyorsítására. A jövőt egyértelműen az önkiszolgáló rendszerek széles körű nagyvállalati alkalmazásában látja az ügyfélszolgálat, a belső információmegosztás, a döntéstámogató üzleti elemzések, valamint a virtuális asszisztensek formájában. Az elképzelhető legtökéletesebb megoldást természetesen a fenti területek kombinációja jelentheti egy adott szervezet számára. Az IBM által fejlesztett Watson Discovery Platformot a Forrester idén a „Leaders in Cognitive Search” elismeréssel illette.

A kiadós ebéd után két további előadással folytatódott a program. „Kulturális jelenségek vizsgálata szóbeágyazási modellekkel” címmel Dr. Koltai Júlia és Dr. Kmetty Zoltán, az ELTE és a Boldy munkatársai konkrét, a közösségi média világában született szövegek elemzésén keresztül igazolták, hogy a nyelv utal használói kulturális rendszerére. Az általuk alkalmazott módszertan segítségével egy sokdimenziós vektortérben képesek feltárni a szavak közötti összefüggéseket. Bemutatták például, hogy egy-egy ország és annak vezetője milyen szorosan összefügg az emberek gondolatait leképező nyelvben. A felépített modell segítségével kimutatható a nemek és a társadalomban elfoglalt pozíciójuk közötti összefüggés vagy feltárhatók egy adott korra jellemző politikai diskurzusok sajátosságai is. Előadásuk végén az Instagram #-eit elemző Travelgram kutatásuk alapján érzékeltették, hogyan képesek a helyesen feldolgozott adatok támogatni akár a városmarketinget érintő döntéseket is.

A napot Bolonyai Flóra, az ELTE mesterképzésének végzős hallgatója zárta, aki a „Felhasználók profilozása – Twitter felhasználók szövegalapú nem szerinti kategorizálása” címmel készíti diplomamunkáját. Előadásából megtudtuk, hogy az ilyen jellegű kutatások – elsősorban a platform szűk hazai felhasználása miatt főleg angol nyelven zajlanak. A módszertan alkalmazható a marketing, a véleménybányászat, a bűnügyi nyelvészet, de akár a szociológia területén is, ahol a szövegek (tweetek) elemzésével vizsgálható többek között a nők társadalmi alárendeltsége is. Megtudtuk, hogy a közösségi médiában nemcsak a leírt szavak, mondatok segítik az elemzők munkáját, hanem sok alkalommal az emojik is, bár ez utóbbiak nem minden esetben igazodnak az adott kontextushoz, így inkább zavarják a kutatók tisztánlátását.

Ismét SPSS Nyári iskola!

  • Bevezető szöveg: 2019. július 8 és 12. között várja a data science, az adatbányászat, a szöveganalitika és a statisztika iránt érdeklődőket az SPSS Nyári Iskola!
  • Iparág: Biztosítás

Az egyhetes program az előző évekhez hasonlóan elmélet és gyakorlat ötvözete, így a résztvevők a hét első felében megismert alapokat szerdától péntekig workshopokon mélyíthetik el.

2019-ben a Clementine tapasztalt adatelemzői a következő témákkal készülnek:

  • SPSS Statistics használata kezdőknek és haladóknak
  • SPSS Modeler kezdőknek
  • Adatvizualizáció SPSS Modelerben
  • Haladó modellezés SPSS Modelerben
  • R és Python kezdőknek
  • Szöveganalitika Modelerben, R-ben és Pythonban
  • Deep learning elméletben és gyakorlatban

Bővebb információ az esemény oldalán: SPSS Nyári Iskola 2019

Kutatók Éjszakája 2019

  • Iparág: Biztosítás

Az előadáson az érdeklődők megismerhették, hogy mivel foglalkozunk a mindennapi munka során, valamint, hogy matematikusként milyen feladatokkal foglalkozhatnának, milyen eszközöket használhatnának.

Az előadás fő témája a data scientist munkakör volt. A szakemberek kompetenciája a szakterület-specifikus tudás, a matematikai (statisztika, valószínűségszámítás) ismeretek, valamint a programozói képesség metszetében áll: nem véletlenül, az adattudósnak szerteágazó és komplex tudással kell rendelkeznie. Kitértünk a Gartner által a 2018-as évben definiált, de a területen már régóta jelenlévő citizen data scientist munkakörre: ezek azok a szakemberek, akik eredetileg más területen dolgoztak, de a munkájukból kifolyólag mégis szükséges különböző modelleket építeniük, az adatokkal foglalkozniuk, ám az algoritmusok megértése, valamint a mély statisztikai elemzés nem elsődleges feladatuk.
Az előadás résztvevői megismerhették az adattudósok feladatait, kompetenciáit. Bemutatásra került a Watson Studio, amely azon felül, hogy egy tipikus adatelemzős/gépi tanulásos/deep learninges projekt minden erőforrását és feladatát egy egységes, könnyen kezelhető felületbe integrálja, a data scientistek számára rengeteg kényelmesen használható modellépítési, illetve adattisztítási megoldást kínál. Ezek használatát különböző adatelemzési feladatokon keresztül mutattuk be. A Watson Studio használatával egy citizen data scientist is képes gyors adattisztításra, hatékony prototipizálásra, valamint a modelleit könnyedén production környezetbe helyezheti.

Megújult a Clementine DiplomaKupa

  • Iparág: Biztosítás

Az elmúlt közel hat évben a DiplomaKupa Program keretében konzultációs lehetőséggel, szoftverrel segítettük a felsőoktatási hallgatók diplomamunka készítését, hogy a szakértőink segítségével tudjanak komplex adatelemzési folyamatokat végezni. 2018 második felében merült fel a program átdolgozásának, kibővítésének lehetősége: több napos, díjmentes workshop keretében is megismerkedhetnek a hallgatók a szöveganalitika, a modellezés módszereivel.

A Clementine komplex együttműködésben áll az ELTE Társadalomtudományi Karral (TáTK), közreműködünk a Tudományos Diákköri Konferencia szervezésben, a kar hallgatói pedig rendszeresen vesznek részt az SPSS Nyári Iskolán vagy éppen a DiplomaKupán. A TáTK hallgatói 2019. februárban háromnapos workshopon vehettek részt, melyen Máté Anna, a Clementine elemzője, a Program felelőse tartott gyakorlati előadásokat a 20 jelentkező számára. „Nagyon jó látni, hogy mindannyian nagyon lelkesek és felkészültek voltak. Érezhetően érdekli őket az elemzői szakma, jókat kérdeznek, motiváltak.”

A DiplomaKupa Programban részt vevő hallgatók számára a Clementine rendszeresen ajánl gyakornoki lehetőséget vagy állást. 

Mesterséges Intelligencia Kiállítás

  • Iparág: Biztosítás

Segítségével többé nem szükséges a bonyolult IVR menüstruktúrát hallgatva telefonos nyomógombokkal navigálnunk, hiszen Hangának elég a saját szavainkkal megfogalmazni hívásunk célját. Próbáld ki Te is, ahogy hang- és szöveganalitikai megoldásaink legjava értünk dolgozik! Hanga azonnal kapcsol!

Időpont: 2019. május 9. 10:00-17:00
Helyszín: BME Q épület, Infopark

További információ az esemény hivatalos honlapján.

MI koalíció workshop

  • Iparág: Biztosítás

Jelenleg már 193 szervezet, több mint 700 fős delegált képviselője dolgozik azon, hogy a mesterséges intelligencia fejlesztések és alkalmazások terén országunk az európai élvonalba kerülhessen.

Az MI Koalíció augusztus 29-én tartotta az elsősorban technológiai fejlesztő szervezeteket megszólító idei őszindító információmegosztó workshopját, amelyen bemutatásra kerültek az elmúlt 1 év eredményei, valamint a jövőbeni fontosabb célkitűzések. Elsőként a Koalíció szervezeti struktúráját érintő változások kerültek ismertetésre, amellyel kapcsolatban örömmel osztjuk meg, hogy Hans Zoltán kollégánk társelnökként került kinevezésre az Adatipar és Adatvagyon munkacsoport élére, míg Kovács-Ördög Zita kollégánk továbbra is a közvetlenül a Koalíció szakmai vezetése alá tartozó kommunikációért felelős csapatának munkáját segíti. Mindemellett fő intézményi akciótervként került megfogalmazásra a Nemzeti Adatvagyon Ügynökség, az MI Kiválósági Központ, valamint a Felhő és Alkalmazásfejlesztési Központ felállítása, amelyek a jövőben sokkal strukturáltabb és standardizáltabb intézményi kereteket fognak biztosítani a jelenlegi, és a jövőben alakuló projektcsapatoknak munkájának támogatására.

A rendezvény további részében a hangsúly a mesterséges intelligencia témakörét érintő szakmai munkára, és azok eredményességére helyeződött. Így a résztvevők bepillantást kaphattak az MI hazai helyzetképébe, a készülő MI Magyarország térképbe, valamint az AI-Hungary weboldalba. Megismerkedhettek továbbá az EU más országainak MI stratégiáival, valamit az ezekben az országokban létrejött kezdeményezésekkel, emellett a rendezvény széleskörű információval szolgált az aktuális nemzetközi együttműködésekbe való bekapcsolódási lehetőségekről, illetve a Magyarországon és az EU-ban jelenleg elérhető, és a következő ciklusra tervezett pályázatokról is.

Milyen a Citizen Data Scientist? Megváltoztatja-e a folyamatokat?

  • Bevezető szöveg: Folytatódott a Clementine meetupsorozata, melynek első őszi témáját a Citizen Data Scientist jelenség adta.
  • Iparág: Biztosítás

A szeptember 24-én, a Kubik Coworking Irodában megtartott eseményt Körmendi György, a Clementine ügyvezetője nyitotta meg. A jelenlévők rögtön megtudhatták, hogy a Citizen Data Scientist feladata az adatok elemzése, valamint a kapcsolódó elemző eszközök és modellek működtetése, ugyanakkor nem kell feltétlenül a matematikai statisztika, az adattudomány vagy üzleti intelligencia szakértőinek lenniük. Citizen Data Scientist tulajdonképpen abból a munkavállalóból válik, aki ismerik a big data elemzésekhez szükséges eljárásokat, szoftvereket és azokat üzleti tudással kiegészítve a vállalat fejlesztésére alkalmas tudást hoz létre.

Második előadóként Hámornik Balázs – PhD, BME – is hangsúlyozta az üzleti hozzáértés és iparági szakterület specifikus tudás fontosságát a Citizen Data Scientistek szempontjából. Emellett bemutatta, hogy melyek azok az elemző programok, amelyeket legnagyobb hatékonysággal használhatnak a Citizen Data Scientistek. A bemutatottprogramok közül kiemelte az IBM szoftvercsalád tagjait, amelyek grafikus, felhasználóbarát felületei akár programozási ismeretek nélkül is könnyen használhatóak.

Ezt követően Novák Márton mutatta be az IBM egyik legmodernebb elemző rendszerét a Watson Studiot.

A meetupot a Könyves Tóth Előd által felvezetett kötetlen beszélgetés zárta, ahol a jelenlévők megvitatták nézeteiket a Citizen Data Scientistekről.

Vigyázat! Jönnek a polgári adattudósok!

...avagy Könyves Tóth Előd reagálása a Citizen Data Scientist-ek korát firtató meetup előadások kapcsán:

Veszélyes lehet-e a CDS-ek (Citizen Data Scientist), illetve a nem hagyományos elméleti és statisztikai képzésben részesült, mégis praktikusan prediktív statisztikai szoftvert használók felbukkanása?
Elsőre legtöbbeknek a statisztika klasszikus buktató jelenségei jutnak eszükbe, mint például az álkorrelációk, ritka véletlenek, optikai csalódásokhoz hasonlítható statisztikai félreértelmezési lehetőségek, a szignifikancia és a szubsztanciális jelenségek összekeverése vagy jogtalan statisztikák alkalmazása. Másrészt manapság fókuszban van a szignifikancia fogalom válsága, aminek oka nem feltétlen a dilattantizmus, hanem esetleg a publikációs kényszer, illetve a tudományos teljesítmény mérésénél alkalmazott impakt faktor metrikák, ami miatt a kutatók hajlamosok a szignifikancia vadászatra vagy a p-haching-re.
Számtalan történet tanúsítja, hogy ezek a veszélyek ugyanúgy leselkednek a képzett tudósokra, akár a matematikusokra is. Gondoljunk csak a következő hírhedt ügyekre: Paul Kammerer koincidencia gyűjteménye, Simpson paradoxon, Marilyn vos Savant esete a matematikusokkal a Monty Hall probléma kapcsán, Sir Cyril Burt csalása az intelligencia öröklődésével kapcsolatban, Wansink dosszié a profi p-hacking technikát módszeresen alkalmazó kutatásokról táplálkozási szokásokkal kapcsolatban, stb. Bőséges szakirodalom áll rendelkezésre ebben a témában, például „A tojást rakó kutya” című könyv.
Mégis, akkor miben bízhatunk. Talán a magasabb szintű programnyelvek értelmében magasabb szintű statisztikai szoftverek fejlesztése és alkalmazása, újfajta didaktika kidolgozásával lehetővé teheti a statisztikai műveletek praktikus alkalmazásának oktatását nem matematikusok számára is.
Egy meetup résztvevő kérdése volt, vajon egy hasonló praktikus értelemben tanult orvos vagy egy hagyományosan képzett orvosra bíznánk-e elvégezni magunkon egy súlyos orvosi műtétet. A kérdésre kérdés: tapasztalt sofőrrel vagy autószerelővel fuvaroztatnánk magunkat veszélyes utakon, vagy – kinek a koncertjére mennénk szívesebben: Antonio Stradivari vagy Yehudi Menuhin? Az én szavazatom – Stradivari-hegedűn játszó Yehudi Menuhin (ha még élne).

Milyen egy data scientist munkája a pénzügyi szektorban?

  • Iparág: Biztosítás

Rekordszámú jelentkező és négy érdekes és hasznos előadás – ez a meetup mérlege, melyen a következő témákat hallhatták a résztvevők:

  1. Máté Anna, a Clementine elemzője a biztosítási csalások hatásaira hívta fel a hallgatóság figyelmét. Az elemző a gépjármű-biztosítási csalásokkal foglalkozott részletesebben: ezeknek egy részét egyedül követik el, azonban a nagy horderejű csalás-sorozatokat csoportosan hajtják végre. Ezen csoportok jó eséllyel felderíthetők kapcsolatiháló-elemzéssel, melynek felderítésére konkrét példát láthattunk az előadásban.
  2. György Ádám, az OTP Bank elemzési szakértője előadásban ismertetett egy rövid és tanulságos üzleti esetet, amely többek között arról szól, hogy milyen adatelemzési és feldolgozási szolgáltatók vannak jelen a globális piacon; mit kezdhetünk az ilyen szolgáltatásokkal; milyen típusú adatelemzési projekteknél érdemes külső partnert bevonni, valamint, hogy hol tart most az OTP Bank a nemzetközi benchmarkhoz képest elemzői kompetenciában és kapacitásban.
  3. Farkas Bálint, a Microsoft képviseletében az AI, vagyis a mesterséges intelligencia felhasználását mutatta be a bankszektorban: kifejezetten az automatizált ügyintézés, valamint a személyre szabott felhasználói élmény területein. Kitért a hitelesítetten biztonságos felhő alapú megoldásokra, azok előnyeire, lehetőségeire. Bemutatójában prezentálta a cég Azure platformján futó adatbányász alkalmazásait.
  4. Az IBM adatbányász, üzleti elemző és alkalmazás fejlesztésért felelős szakemberek véleményei alapján készítette legújabb platformját, mely a valós életbeli munkafolyamatok jelentős felgyorsítását célozza meg – ezt mutatta be a cég képviseletében Huszti Dániel. A felület legfőbb ereje a kollaboratív tevékenységben és a fejlett analitikai eszközök egyetlen platformba történő integrálásában rejlik. Az előadás során a résztvevők megismerkedhettek az IBM Watson Data Platform ökoszisztémájával és a pénzügyi szektor számára releváns megoldásaival.

Az előadások különlegességét az is biztosította, hogy merőben eltérő megoldásokat láthattunk a data science területén, akár konkurens cégektől is. Mindegyik előadás további beszélgetéseket generált, melyekre a hivatalos program végeztével került sor. 

A meetupsorozatunk hamarosan folytatódik, a következő dátumért és további információért érdemes honlapunkat böngészni: clementine.hu/datastream

SPSS 29.0 verziójának bemutatója – röviden összefoglalva

  • Iparág: Biztosítás
  • Letölthető dokumentumok:
    • Dokumentum címe: SPSS Statistics 2.90 brosúra, Fájl:

December 6-án tartottuk a BME Ergonómia és Pszichológia Tanszék és a Clementine által közösen szervezett IBM SPSS Statistics 29.0 verziójának bemutatóját, amelynek az eddigiekhez megszokottan a BME Q épülete adott helyet.

SPSS 29.0 verziójának bemutatása

Az első előadó, Dr. Kelemen Rita, vezető elemző egy izgalmas tudáselméleti kutatáson keresztül mutatott a lineáris regresszió klasszikus alkalmazására példát. A meetup résztvevői többek között megtudhatták, hogy regresszió-analízis segítségünkre lehet annak kiszámításában is, hogy a különböző korosztályokban az egyes szűrőknek (szóolvasás, szövegértés, számolás) mekkora a magyarázóereje a matematikai szövegesfeladat-megoldó képesség fejlettségében.

Ezt követően Könyves-Tóth Előd, senior szakértő az új Statistics verzió statisztikai modelljeit érintő fejlesztésekről beszélt. A lineáris regresszió regularizált típusairól tartott átfogó előadást többféle platformon is szemléltetve, hogy hogyan működik a lasso és ridge regresszió, valamint az elastic net.

Az előadások sorát Molnár Anna, junior elemző zárta, aki a felhasználói felületet érintő újdonságokról számolt be. Prezentációjában bemutatta többek között, hogy milyen új funkciókat kapott a Workbook mód, hogy milyen új modellel egészültek ki a túlélésvizsgálattal kapcsolatos eljárások, valamint, hogy milyen új mutatókkal bővült a lineáris vegyes modellek és általánosított lineáris vegyes modellek outputja. Az előadás zárásaként az új verzió vizualizációs újdonságát, az úgynevezett hegedű diagramot (violin plot) szemléltette.

SPSS Nyári iskola 2019. letölthető előadások

  • Iparág: Biztosítás

A Nyári Iskola helyszíneit a Pannon Egyetem Mérnöki Kara biztosította számunkra, a szervezésben nyújtott segítségüket ezúton is nagyon köszönjük!

Az idei évben a Nyári Iskola első két napja kissé rendhagyó volt, mivel a „hagyományos” statisztikai és oktatási témák mellett minden eddiginél nagyobb hangsúlyt kapott a data science, a szövegbányászat, valamint az open source elemző eszközök.

A hét második felében is hasonló témákkal ismerkedhettek a résztvevők: szerdán, csütörtökön és pénteken a Clementine szakértői által tartott rövid tanfolyamokon vehettek részt, melyeken részletesen is megismerkedhettek az SPSS termékek - Modeler, Text Analytics és Statistics -, valamint open source elemző eszközök, mint az R és Python használatával, és betekintést kaphattak a Deep Learning világába is.

Köszönjük minden résztvevőnek a részvételt, reméljük hasznosnak találták a programot.

Találkozunk 2020-ban a XII. Nyári Iskolán!

SPSS Nyári Iskola Letölthető előadások

  • Bevezető szöveg: Köszönjük, hogy részt vett az idei SPSS Nyári Iskolán, reméljük hasznosnak találta a programokat!
  • Iparág: Biztosítás

Alább elérhetők és letölthetők a Nyári Iskolán elhangzott előadások, illetve a wokshopok anyagai.

Workshop anyagok: https://goo.gl/J3oaaX

Új verzió - SPSS Modeler 18.2

  • Iparág: Biztosítás

Időpont: 2019. február 18. 15.00
Helyszín: LOFFICE (Budapest, Paulay Ede u. 55, 1061)

Témáink:
1. SPSS Modeler újdonságai: új kinézet, új vizualizáció, új node-ok
2. Szöveganalitikai újítások, érdekességek
3. Elemzés a felhőben

A rendezvény keretében mindazok figyelmére számítunk, akik már ismerik termékeinket, esetleg használják valamelyik korábbi verziójukat, de kíváncsiak az újdonságokra, valamint azokéra, akik most szeretnék megismerni, hogy hogyan is tudnák hasznosítani a termékek széleskörű funkcionalitását.

Ízelítő az új verzió újdonságaiból:

  • Look and feel: új, modern felhasználói felület a választható témák között
  • Data view: új adatvizualizációs lehetősek, teljesen új diagrammok
  • Új modellek: Hierarchical Densitiy-Based Spatial Clustering klaszterező eljárás, Gaussian Mixture valószínűségi modell, Kernel Density Estimation
  • Új node-ok: JSON import és export, open source algoritmusok a python node-okhoz, Gaussian Mixture, HDBSCAN, KDE, MultiLayerPercetron-AS Python node
  • AIX és Mac támogatás
  • Szöveganalitikai újítások
  • Együttműködés: magasabb szintű kollaborációs lehetőségek az SPSS-en belül és a nyílt forráskódú rendszerekkel

A 18.2-es verzió tehát számtalan újdonsággal és frissítéssel rendelkezik, melyek hasznos segítséget nyújtanak a mindennapi munkában!

A rendezvény ingyenes, de regisztrációhoz kötött. Jelentkezni a meetup.com rendszerében vagy az esemény oldalán: https://clementine.hu/oktatas-es-rendezvenyek/bemutato-szeminariumok/uj-verzio lehet.

Videóanalitika és az adatbányászat

  • Bevezető szöveg: A márciusi Clementine dataStream meetup középpontjában a videóanalitika, az így rögzített nem strukturált adatok feldolgozási lehetősége állt.
  • Iparág: Biztosítás

Az előadók számtalan konkrét megoldással, gyakorlati példával mutatták be a jelenlegi technológia lehetőségeit.

  1. Németh Zoltán, a Ustream senior engineering managere a videó analitika jelen fejlettségi szintjét sporteseményeken készült felvételekkel mutatta be: Wimbledoni tenisz mérkőzések, a US Open vagy éppen egy golf mérkőzés elemzésén keresztül. A gyakorlati példákon keresztül fény derült a broadcasting cégek iránti elvárásokra, valamint a jövő fejlődési lehetőségeire is.

  2. Boa László, az IBM képviseletében az utcai kamerák által rögzített tartalmakat elemezte, méghozzá kiemelten a brazíliai Rio de Janeiróban megrendezett 2016. évi nyári olimpiai játékok segítségével. Az ott működő kamerarendszert és a képekből levont következtetéseket ugyanis az IBM szakértői működtették, és a videó analitika segítségével vontak le következtetéseket: hány fő tartózkodik egy-egy helyszínen, milyen csoportosulások várhatóak, vagy éppen hogyan lehet valakit azonosítani anélkül, hogy látszódna az arca. Szó esett még a közlekedésben rögzített felvételek feldolgozási lehetőségeiről, az ezekből levont következtetések feldolgozásáról. Az ilyen és ehhez hasonló közbiztonsági megoldások ma már egyre elterjedtebbek, aktívan segítik a bűnmegelőzést.

  3. Fülöp Péter Gergely, az NRC marketingkutató cég UX kutatója a szemmozgás-követéssel foglalkozó kutatásuk eredményeit mutatta be. A hirdetéseken vagy éppen a honlapokon elhelyezett információk hatását szemkamerával mérték, így derült ki, hogy hova néznek a fogyasztók, hol találhatóak az ún. vakfoltok stb. Példát láthattunk arra is, hogy hogyan változik az eltelt másodpercek alatt az információ befogadása, valamint mit nézünk meg egy-egy videós tartalomban. Utóbbit maguk az NRC munkatársai prezentálták egy szemmozgást mutató videóban: Magyarország image filmjét nézték végig, majd elemezték Spotlight Plus szoftveres megoldásuk segítségével.