Skip to main content

Vélemény

sajtó csomag

Töltse le a Clementine bemutatkozó anyagát.

SAJTÓKAPCSOLAT

E-mail: Ez az e-mail-cím a szpemrobotok elleni védelem alatt áll. Megtekintéséhez engedélyeznie kell a JavaScript használatát.
Tel: +36 1 457 0561
Fax: +36 1 457 0562
Cím: 1115 Budapest,
Bartók Béla út 105-113.

Küszöbön áll-e az AGI (az általános célú mesterséges intelligencia) megjelenése?

Küszöbön áll-e az AGI (az általános célú mesterséges intelligencia) megjelenése?

2025. január 22.

Ez a nagy kérdés, és ez minden, MI-vel kapcsolatos filozofálgatás ősatyja. A válasz nem egyszerű, és mint látni fogjuk, maguk a szakma világszerte legelismertebb kutatói, követők ezreivel rendelkező szakemberei sem egyeznek meg ebben a kérdésben. Ez a cikkünk pillanatképp arról, hogy az általunk szubjektívan kiválasztott MI-hozzáértők mit gondolnak: vajon a közelben döngenek-e már Terminátor súlyos léptei, vagy a derűlátóbbak reménykedhetnek-e az utópisztikus elképzelések gyors megvalósulásában?

Csak ne olyan hevesen

Két Princetonban tanuló PhD hallgató, Arvin Narayanan és Sayash Kapoor 2024 decemberében az amerikaiakra jellemző elfogult tudatlanságot ostorozta. Ennek hátterében az a jelenség áll, hogy a nagyközönség az úgynevezett „bennfentesek” optimista előrejelzéseit kritikátlanul elfogadja. A két szerző leírta, hogy a nagy nyelvi modellek skálázási problémákkal küzdenek (magyarán lassan elfogy a használható adatkészlet, és/vagy a nagyobb paraméter nem feltétlenül jelent jobb nyelvi modellt). A cikkük címében feltett kérdésre, hogy „lassul-e az AI fejlesztése?” kitérő választ adnak maguk is. A határozott IGEN hiánya viszont egyértelműsíti, hogy az AGI szerintük még távoli lehetőség. Írásuk nagy visszhangot vert MI-körökben.

AGI mint közeli végcél

Ilya Sutskever, a legendás kutató 2024 májusában hagyta ott az OpenAI-t, hogy – azóta közel egymilliárd dollár tőke bevonásával – megalapítsa az SSI-t, vagyis a Safe Superintelligence Inc.-et. A 2024 júniusában publikált manifesztója szerint a szuperintelligencia elérhető távolságban van. Az ő és társai célja azóta nem az, hogy meggyőzze az embereket a szuperintelligencia elkerülhetetlen megjelenéséről, hanem hogy az új entitás biztonságos legyen. Ahogy írta az egyik posztjában: „hogy az AGI úgy szeresse az embereket, ahogy a szülők a gyermekeiket.”

A CEO-k becslései

Az OpenAI igazgatója, Sam Altman egy tavalyi megjegyzése szerint „néhány ezer napra vagyunk” az AGI-tól, míg a sokak szerint legjobb LLM-terméket, a Claude-ot fejlesztő Anthropic vezetője, Dario Amodei ezt közelebbre teszi, 2026/7-re. Nyilvánvaló, hogy ők a befektetőik felé (is) kommunikálnak, de az ilyen kijelentésekkel saját reputációjukat/hírnevüket is kockára tehetik.

Az utóbbi hetekben, különösen az OpenAI logikai érvelésre és értelmezésre képes modellje, az o3 decemberi megjelenése után az OpenAI néhány munkatársa sokkal erősebben kezdte el verni az AGI hájpdobját. Közéjük tartozik Vahid Kazemi is, aki nemes egyszerűséggel ezt írta: „Véleményem szerint már elértük az AGI-t, és ez még egyértelműbb az o1-nél. Nem értünk el <<jobbat, mint bármely ember bármely feladatban>>, de amink van, az „a legtöbb feladat teljesítésében jobb, mint a legtöbb ember”.

Az USA-ban, a technológiai szektor magasabb szintjein uralkodó, lassan általánosan elterjedt nézetet jól illusztrálja Michael Dell egy posztja. A Dell Technologies világhírű alapítója szerint a „szuperintelligencia felé tartunk”, erre pedig Logan Kilpatrick, a legújabb Alphabet-modelleket ingyen elérhetővé tevő Google Ai Studio vezetője csak annyit válaszolt: „Korrekt.” Ugyancsak az utóbbi szakember azt írta egy álláshirdetésben: „Gyere hozzánk AGI-t építeni!”

Csak ne olyan hevesen, 2. felvonás

Gary Marcus, amerikai kognitív tudós, neuro- és MI-kutató, többszörös MI-startupalapító több kételyt is megfogalmaz az AGI közeli eljövetelével kapcsolatban. Először is a jelenlegi nagy nyelvi modellek (LLM-ek), mint például a GPT-4 képességeit és korlátait ostorozza, különös tekintettel a megértés és a világ modellezésének hiányára. Szerinte az LLM-ek nem "értenek", csak mintákat ismernek fel és reprodukálnak, anélkül, hogy valódi kognitív folyamatok zajlanának le bennük. Nem rendelkeznek belső modellel a világról.

Marcus szerint a valós világ tele van váratlan helyzetekkel és összetett összefüggésekkel, amelyek megértéséhez az LLM-ek jelenlegi módszerei nem elegendőek. Elutasítja azt a nézetet, hogy a modellek egyszerűen méretbeli növelésével a megértés is megjelenik. Szerinte az LLM-ek alapvető korlátai strukturálisak, és nem pusztán a számítási kapacitás hiányából adódnak.

Gary Marcus szerint mindezek fényében szükség van egy radikálisan más megközelítésre a mesterséges intelligencia fejlesztésében. Olyan kutatások kellenek, amelyek a megértés, a reprezentáció és a következtetés mélyebb megértésére fókuszálnak, és nem csak a mintázatfelismerésre – ő a szimbolikus MI-t és a hibrid megközelítéseket említi alternatívaként.

De most, állítja a szakember, a szingularitás és az általános célú mesterséges intelligencia még jó messze van.