sajtó csomag
SAJTÓKAPCSOLAT
Tel: +36 1 457 0561
Fax: +36 1 457 0562
Cím: 1115 Budapest,
Bartók Béla út 105-113.
Értjük egymást?
Értjük egymást?
Az európai kultúrában kitüntetett szerep jutott a bibliai Bábel történetének. Eszerint maga Isten zavarta össze a nyelveket, hogy az emberek ne értsék meg egymást, és ezzel gonosz szándékú együttműködésük meghiúsuljon. Napjainkban, különösen a mélytanulási technikák, a jobb algoritmusok, a még több adat korában a bábeli átok megszűnése felé tartunk. Az ember közbeiktatása nélküli, bármilyen nyelvről bármilyen nyelvre történő azonnali fordítás ma már kézzelfogható közelségbe került. Különösen két cégre érdemes odafigyelnünk, ha a gépi fordítás jelenlegi helyzetére vagyunk kíváncsiak.
Úton az 1000. felé
A Google Fordító mind a mai napig talán a legismertebb, ingyenességének és a böngészőbe való beépülésének köszönhetően pedig a legelterjedtebb gépi fordítási szolgáltatás. Éppen emiatt is elképesztő bejelentést tettek 2024 júniusában: újabb 110 nyelvvel bővítették a fordítójuk tudását, amellyel 600 millió, kevésbé használt nyelvet beszélő fedezheti fel a Fordítót (például olyan igazán egzotikus nyelvpárokon, mint a latin-kikongo). A Google célja továbbra is ambiciózus: az 1000 legbeszéltebb nyelvet kívánja elérhetővé tenni a Fordítóban.
Statisztikai megközelítésről a mélytanulásig
A 2006 áprilisa óta ingyenesen használható Google Translate eredetileg a statisztikai gépi fordítást alkalmazott, és a következőképp működött: a kívánt szöveget először angolra, mint közvetítő nyelvre, majd a célnyelvre fordította. A fejlesztéshez szükséges nyelvi forrásokat az ENSZ és az Európai Parlament többnyelvű hivatalos dokumentumai adták.. Az eredeti fordítások elkerülhetetlenül tökéletlenek voltak, de annak a célnak megfeleltek, hogy feltárják az eredeti szöveg általános szándékát, még akkor is, ha a Google Fordító nem tudott olyan hibátlan, gördülékeny fordítást készíteni, mint amit egy emberi szakértőtől elvárnánk. 2016 novemberében a Google bejelentette, hogy áttért a neurális gépi fordításra NMT), , amelynek során a szolgáltatás már nem csak szövegrészeket, hanem egyszerre egész mondatokat fordított.
Mit tud az NMT?
Az NMT modell alapja az encoder-decoder architektúra. Az encoder fázisban a forrásszöveg egy vektortérbe kerül átkódolásra, ami numerikus reprezentációként a szöveg összes jellemzőjét tartalmazza. Ezt követően a decoder fázisban a rendszer ezt a numerikus vektort visszaalakítja a célnyelvi szöveggé. Ez az architektúra lehetővé teszi, hogy a rendszer jobban megértse és kezelje a hosszabb, bonyolultabb mondatokat is.
Ez nagyobb pontosságot biztosított, hiszen a teljes kontextust adta meg, nem pedig csak az elszigetelt mondatrészeket. Másik jó példája a fejlődésének, hogy a japán-angol fordítások koreai-angol fordításokkal való összehasonlítása révén a szolgáltatás képes levezetni és feltérképezni a japán és a koreai nyelv közötti kapcsolatot, és ennek megfelelően fordításokat készíteni oda-visszaF, ami nagy előrelépés a számítógépek szemantikai megértésében egy olyan folyamatban, amelyet még mindig megzavarnak a metaforikus kifejezések és a furcsa idiómák. Ezeknek a számításoknak az újra és újra történő feldolgozása lehetővé teszi a Google számára, hogy felismerje a különböző nyelvek szavai között ismétlődő mintákat, és ezzel a pontosság elérésének esélye folyamatosan javul.
Attention is All You Need
A Google Fordító NMT rendszere emellett használja az "attention" mechanizmust, amelyet eredetileg a Google kutatói fejlesztettek ki. Az attention mechanizmus lehetővé teszi, hogy a modell fordításkor figyelemmel kísérje a beviteli szöveg különböző részeit, így biztosítva, hogy a fordítás pontosabb és kontextusérzékenyebb legyen. Ezt azzal éri el, hogy a releváns információkra összpontosít, a modell pedig szelektíven kezeli a bemeneti adatok különböző részeit, és különböző fokú fontosságot vagy súlyt rendel a különböző elemekhez.
Ennél is nagyobb lépésnek számított a ma már informatikatörténeti jelentőségű, 2017-es kutatási dokumentum, a Beatles híres dalának címére utaló Attention is All You Need. Az ebben felvázolt Transformer architektúra a szöveg minden részére egy időben fókuszál. Ez növeli a fordítás pontosságát és jelentősen javítja a hosszabb szövegek kezelését.
De minden elméleti megalapozottsága ellenére nem a Google, hanem egy kisebb német cég fordítója viszi el a pálmát (egyelőre).
Aprólékosabb megközelítés
A DeepL egy kölni startup, amely mind a benchmarkokban, mind a visszajelzésekben mérhető elsöprő sikerét több tényezőnek köszönheti.
Az eredetileg a Linguee fordítóeszköz spin-offjának induló vállalkozás a Google-höz hasonlóan neurális gépi fordítást alkalmaz, és használja a Transofrmer modellt is – a hasonlóság azonban itt véget ér az amerikai techóriással. A DeepL ugyanis alkalmazza a megerősítő tanulást (reinforcement learning), amely lehetővé teszi a modell számára, hogy saját hibáiból tanulva folyamatosan fejlődjön. A rendszer a felhasználói visszajelzések és az új adatok alapján képes jobban összpontosítani a tipikus fordítási hibák kiküszöbölésére. A kölniek ráadásul saját nagy teljesítményű adatközpontokat üzemeltetnek, amelyek kifejezetten a neurális hálózatok futtatására vannak optimalizálva. Így a DeepL rendszere hatékonyabb és gyorsabb, a felhasználók számára a lehető legjobb élményt biztosítva.
Mindez azt eredményezi, hogy – különösen az európai nyelveket tekintve – a DeepL képes a legjobb fordításokra. Mivel a megerősítő tanulással sok visszajelzést kap, sokkal hatékonyabb a szövegkontextus megértésében is.
Természetesen a többi infotechnológiában utazó cég is folyamatosan fejleszti fordítási eszközeit. Ilyen például a Microsoft Translator, az Amazon Translate vagy az IBM Watson is. A jövő emellett minden bizonnyal a multimodális megközelítésé, vagyis a szövegből, képből, élő felvételből képzett fordításoké.
Ebben az a jó hír, hogy a magyar nyelv elszigeteltsége is véget érhet.
-
RÖVIDHÍR KOMMENTÁRRAL – A világmodell építése jól halad
-
Grok: Musk mesterterve a generatív MI-re