Skip to main content

Vélemény

sajtó csomag

Töltse le a Clementine bemutatkozó anyagát.

SAJTÓKAPCSOLAT

E-mail: Ez az e-mail-cím a szpemrobotok elleni védelem alatt áll. Megtekintéséhez engedélyeznie kell a JavaScript használatát.
Tel: +36 1 457 0561
Fax: +36 1 457 0562
Cím: 1115 Budapest,
Bartók Béla út 105-113.

MI és az etika

MI és az etika

2023. március 17.

2021-ben a nem szakmai közvélemény is megdöbbenéssel fogadta a hírt: a Google anyavállalata, az Alphabet viszonylag rövid időn belül két vezetőjétől is megvált. Ez így, önmagában, a gyorsan mozgó üzleti világban még nem meglepő. Azonban a két kutató, először Timnit Gebru, majd Margaret Mitchell a vállalat etikus MI-kutatásaival foglalkozó csapatának élén állt. A Google dolgozói ezres nagyságrendben tiltakoztak az idő előtti elbocsátás miatt. 

MI és az etika

Új terület, új problémák

A mesterséges intelligencia a fenti esetekig a legtöbb ember számára pusztán technológiai vetületben jelent meg. Eszerint arra kell a cégeknek, kutatóknak választ adniuk: mikor lesznek önvezető autók, mikor jön el az öntudatra ébredt MI ideje, és hogyan lehetne a mindennapi életet automatizálva könnyebbé tenni?

A megfigyelésre épülő közbiztonság, a nagy adatmennyiségek begyűjtésére és elemzésére épülő nyelvi rendszerek – mint például a ChatGPT – megjelenésével új, a személyes jogainkat is érintő kérdésekkel szembesülünk. Az „AI Ethics”, vagyis a mesterséges intelligencia etikai aspektusai éppen ezért kapnak mind nagyobb nyilvánosságot, és vonják maguk után az átlagemberek érdeklődését is. Ez a terület sok témát ölel fel, melyekből most néhányat kiemelnénk.

Az első parancsolat: ne árts az embernek!

Az MI etika egyik legfontosabb területe e kőbe (még) nem vésett törvény megvalósítása, kikényszerítése. Idetartozik például a gyűlöletbeszéd tilalma. A probléma régebbi, mint gondolnánk: 2016-ban a Microsoft ráengedte a Twitterre a Tay nevű, MI alapú chatbotját, mely az emberekkel való párbeszéd során viszonylag hamar eljutott Hitler éltetéséig, úgyhogy le kellett kapcsolni. Most, a ChatGPT kapcsán sokan felvetik, hogy a nagyon intelligens beszélgetőpartnernek tűnő chatbot vajon nem okoz-e mentális kárt azokban az emberekben, akik tényleg komolyan veszik egy-egy emberinek tűnő válaszát? 2023 februárjában a New York Times technológiai újságírójának pont a Bing okozott – szó szerint! – álmatlan éjszakákat. A Microsoft keresőjébe kerülő ChatGPT ugyanis egy kétórás beszélgetésben azt tanácsolta a boldog házasságban élő férfinak: váljon el, hiszen úgysem szeretik egymást a párjával. Az ilyen kijelentéseknek felmérhetetlen következményei lehetnek a párkapcsolatokban szegény, rendkívül elmagányosodott, fejlett, nyugati világban.

Felelősség

Érdekes, hogy bár még nincs teljesen önvezető autó, mégis, a morális kérdések már itt is felvetődnek: például egy balesetben ki haljon meg, ha mindenképp döntenie kell a rendszernek: jobbra rántott kormánynál egy idős ember, balra rántott kormánynál pedig egy terhes anya lesz a baleset áldozata. Hogy döntsön az autó? Ki a felelős a döntésért? 

De akár katonai példát is említhetnénk: Tegyük fel, hogy egy tökéletes arcfelismeréssel rendelkező drón parancsot kap egy terrorista kiiktatására. De helyette a megadott területen felbukkanó, civil ikertestvér lesz az áldozat – kié lesz a felelősség? Kit lehet később perbe fogni az ártatlan meggyilkolásáért? 

Az ilyen és ehhez hasonló feltevések jól mutatják, hogy az etikai megfontolásoknak kimondottan fontos szerepe van már az MI-rendszerek fejlesztésénél is. 

Elfogultság

Az MI-k nem légüres térben léteznek: mi, emberek szolgáltatjuk a működésük alapját jelentő adatmennyiséget. Ahol pedig emberi tényező létezik, ott megnő a hibázás lehetősége is. Így járt az Amazon is 2018-ban, amikor automatizálni akarta a munkaerő-toborzás, -felvétel folyamatát. Az MI-rendszernek megadta, hogy milyen típusú szakembereket vett fel eddig. A rendszer pontosan ezt is csinálta, azaz főleg férfiakat részesített előnyben a kiválasztás során. Az MI tehát, ahelyett, hogy az emberi elfogultságtól mentesen ítélt volna, felhasználta a cégnél már kialakult, nem egyenlőségpárti gyakorlatot.

Hasonló a helyzet akkor, amikor bűnügyi előrejelző rendszereket működtetünk. Ha a statisztikai adatokban valamelyik kisebbséghez tartozók felülreprezentáltak, akkor várható, hogy az MI-rendszer is így fog működni, vagyis újratermeli az előítéletet, de már technikai-tudományos alapokra helyezve. Erre már több példa is volt az Egyesült Államokban.

Ezeket a társadalmi folyamatokat, elvárásokat érintő gyakorlatokat csak emberi beavatkozással lehet a fair eljáráshoz hozzáigazítani. 

Adatvédelem

Nemcsak Európában, de a demokratikus világban is kiemelt szerepet kap a személyes adatok védelme. (A korábban bevezetett GDPR rendelkezésnek is ez volt a célja.) Az arcfelismerő rendszerek elterjedésével felvetődik a kérdés, hogy mit tehetünk integritásunk és magánéletünk védelmében. Kié lesz, hol tárolódik a velünk kapcsolatos adat? 

Az európai szabályozás

Az Európai Bizottság 2018 júniusában létrehozott egy, a mesterséges intelligenciával foglalkozó, magas szintű független szakértői csoportot a megbízható MI-re vonatkozó etikai iránymutatások összeállítására. A magyarul is 55 oldalas dokumentum legfontosabb iránymutatásai, amelyet az MI-rendszerek kifejlesztése, elterjesztése és használata során tiszteletben kell tartani, a következők:

  • meg kell felelniük a következő elveknek: az emberek autonómiájának tiszteletben tartása, kármegelőzés, méltányosság és megmagyarázhatóság,
  • különösen oda kell figyelni a hátrányos helyzetű, kirekesztés veszélyének kitett csoportokra vagy személyekre (például a gyermekekre),
  • az MI-rendszerek tervezésekor az az előre nem modellezhető veszélyeket szem előtt kell tartani (például a demokráciára, a jogállamiságra és az igazságos tehermegosztásravagy magára az emberi elmére gyakorolt hatásokat).

Kockázatok és mellékhatások

A cikk megírásakor érkezett a hír: a Microsoft, amely a rendkívüli népszerű ChatGPT anyagi és erőforrás-támogatója, elbocsátotta a teljes „mesterséges intelligencia etikai és társadalmi hatásával” foglalkozó részlegét. A szakmai közvélemény – hasonlóan a cikk elején említett Timnit Gebru esetéhez – felhördüléssel fogadta a hírt. Az elmúlt években a Microsoftnak ez a csapata ugyanis egy olyan, Judgment Call nevű szerepjátékot tervezett, amely segített a tervezőknek elképzelni a mesterséges intelligencia által okozott lehetséges károkat. Ez egy nagyobb "felelős innovációs eszköztár" része volt, amelyet a csapat nyilvánosan közzétett. A közelmúltban ráadásul a csapat azon dolgozott, hogy azonosítsa azokat a kockázatokat, amelyeket az OpenAI technológiájának a Microsoft által a termékcsaládjában történő átvétele jelent.
Úgy tűnik, hogy a céges MI-k „hidegháborújában” az etikai megfontolások háttérbe szorulnak, és a tervezés során ezeket már nem veszik olyan hangsúllyal számításba, mint előtte.

Valószínű, hogy egyre többet fogunk mi is találkozni a mesterséges intelligencia, az etikusan kezelt MI fontosságával.