Szinoptika

Névtelen

Bevezetés

A XX. Század elején végbement tudományos forradalom alapjaiban megváltoztatta az uralkodó paradigmát, és az emberiség történelmében addig sosem látott ütemű technológiai fejlődéshez vezetett. Közel fél évszázad alatt a repülőgépektől eljutottunk a számítógépekhez, néhány évtized alatt pedig az internethez, mobiltelefonokhoz, és a modern számítástechnika csúcstechnológiáihoz. Ebbe a sorba tartozik tulajdonképpen a lassan minden felhasználási területre bekúszó, mindennapjaink beszédtémájává váló mesterséges intelligencia is. A rohamosan fejlődő ipar serkentette géptechnológia hatására már Alan Turing 1950-es cikke[1] óta foglalkoztatta a tudósokat egy gondolkodó gép koncepciója. Eleinte persze csak gondolatban létezett, puszta sci-fi jellegű volt. Azonban ahogyan egyre fejlődött a tudomány, napjainkra már teljes valójukban állnak rendelkezésünkre az egyre fejlettebb, intelligensebb mesterséges intelligenciák. Minden területen alkalmazhatóak már egészen a legegyszerűbb mindennapoktól a törvényszéki ítélkezésig és a kutatásig. Rengeteg különböző felhasználásuk létezik: vannak olyanok, amelyek képesek minden kérdésünkre válaszolni, amelyek beszélgetésre, sőt hosszabb szövegek generálására is képesek, mások művészeti feladatokat is ellátnak, festenek, zenét szereznek.[2],[3]

Mint a legtöbb nagy technológiai áttörésnek, a mesterséges intelligenciának is két oldala van: a pozitív hozadékai mellett egyre több embernek ad félelemre okot. Éppen ebből kifolyólag a filozófia számára is érdekes kérdéseket vet fel, amelyek tisztázása kitüntetett jelentőséggel bír. Ahhoz, hogy megfelelően tudjunk integrálni a társadalomba bármilyen találmányt, használatát, hatásait szigorú elemzés alá kell vetnünk, és ez alapján mérlegelni. Ez az analízis azonban szignifikánsan eltér a korábbiaktól. A filozófiai kérdések még mélyrehatóbbak, hiszen jelen esetben az intelligenciát mint eredendően antropocentrikus fenomént kihelyeztünk egy pusztán materiális gépbe, ami kérdések tömkelegét veti fel. Felmerülhetnek episztemológiai problémák (hogyan ismer meg a gép, ha megismer?), a test-lélek probléma is új megvilágítást kaphat (van-e lelke a gépnek?), de mindközül legjelentősebbek a fellépő morális aggályok. Ekképpen a következőkben a mesterséges intelligencia etikai kihívásaira fogok reflektálni.

A tézis önmagában igen nehéz értelmezni. Két kérdés merülhet fel a téma adekvát tárgyalása előtt: (1) mi az a mesterséges intelligencia, illetve (2) mit jelent az etikai kihívás kifejezés. Mindenekelőtt e két kérdésre keressük a választ. Ezek után megmutatom a legjelentősebb etikai problémákat amik fellépnek, majd igyekszem ezek okát is kimutatni, és végül kísérletet teszek annak bizonyítására, hogy a problémakör eredete az etika felfogásában és a tudományos paradigma hibájában rejlik. Az értekezés első fele nagyban ihletődött kollégámmal, Gazdag Ferenccel folytatott beszélgetések közepette. 

Definíció

A ‘mesterséges intelligencia’ kifejezés  mesterséges komponense igen magától értetődő, ellentétben az intelligenciával. Jól lehet, több ezer éve használjuk ezt a fogalmat, ha nem is tudatosan, de még máig nem tudjuk a pontos meghatározását. Turing úgy fogta meg a problémát, hogy egy olyan eljárást dolgozott ki, amelyben eldönthető, hogy mennyire tudja utánozni az emberi intelligenciát egy gép, habár ezt kritikusai következőképpen utasították vissza: úgy gondolták, hogy az intelligenciának egy külső definíciót kell találni, hiszen a gépek esetén a belső szerkezetről nem tudunk nyilatkozni, illetve nem mérhetjük az emberéhez, mint ahogy a rakétamérnökök sem mérhetik rakétáikat a madarakhoz. John McCarthy hozta először azt a definíciót aminek egy kissé eltérő változatát fogom használni a továbbiakban. Ez úgy szól, hogy a “a számítási része annak a képességnek, hogy célokat érjünk el a világban”.[4]

René Descartes és Baruch Spinoza óta tudjuk, hogy a természet esetében nem lehet célokságot definiálni. Ez azt jelenti, hogy minden természeti történés valamilyen okra, és annak hatására redukálható, viszont értelmetlen természeti történések célját definiálni. Ennek a bizonyítása azon alapszik, hogy megvizsgálva a fizikai rendszereket, nem tapasztalunk olyan viselkedést, ami feltételezné, hogy a történés rendelkezik céllal, azonban ok-hatás szerint analizálva a természettudományos elméletekhez jutunk, amelyek eddig helyes leírásnak tűnnek.[5] Ezzel ellentétben igenis léteznek olyan alrendszerei az univerzumunknak, ahol a célokság felállítható, és jól elkülönülő cél felé haladó fejlődés látható.

Ilyen például az evolúció, és annak termékeként az ember. Megfigyelve az evolúciót, azt tapasztaljuk, hogy az egy olyan rendszer, aminek célja olyan alrendszereket készíteni, amelyek önfentartásukra nézve a legoptimálisabbak. Ehhez nagyon sok variációt kipróbál, és a törzsfejlődés során egyre hatékonyabb, és a környezetükhöz adaptálódó organizmusokat ‘gyárt’. Nem is kell ilyen messziről néznünk: az embert értelmezhetjük az univerzum olyan alrendszereként, amelynek célja a saját létfentartása, és a környezetének ehhez való módosítása. Ha a McCarthy-féle definícióhoz ragaszkodunk, akkor ebből már szükségszerűen következik, hogy az ember ‘intelligens lény’, mert célorientáltságú. Az univerzumra ritkán mondjuk, hogy intelligens, és még ha a legantropocentrikusabb teleológiával nézzük sem megszokott kijelentés az, hogy ‘nagyon intelligens húzás volt az univerzum részéről az ember megteremtése’.

Az előzőek alapján így kell a mesterséges intelligánciára is vonatkoztatnunk a definíciót. Kiválasztunk egy végső célt, amelyet szeretnénk, ha a mesterséges intelligencia elérne, és azt vizsgáljuk, hogy mennyire hatékonyan éri el azt. Ennek számítástechnikai hátterébe nem bocsátkozom, és a neurális hálókról, és egyéb matematikai konstrukciókról és kivitelezési módokról nem beszélek részletesen. A lényeg tehát az, hogy mesterséges intelligencia alatt olyan rendszereket értünk, amelyek képesek egy cél eléréséhez variációk és optimalizálás segítségével hatékonyan eljutni, bármi is legyen ez a cél.

Ennél talán sokkal nehezebb megfogni az etikai dilemmák mibenlétét, nem véletlenül foglalkoztatta oly hosszú évezredekig filozófusok sokaságát. Amikor morálfilozófiáról beszélünk igen sok elgondolás született már. Az eredete az ókori görög poliszokból származik: a filozófusokat elkezdte az érdekelni, hogy vajon azért alakult-e ki annyi hasonlóság városaik jogi intézményei között, mert létezik valami eredendő jó, amelynek elérésére törekszünk. Erre a Platonista gondolotra támaszkodva keletkezett a keresztény teológia, majd annak megkérdőjelezése Nietzsche filozófiájában. A kanti morális lény világméretű erkölcsi törvényeitől kezdve a 20. Század McIntyre narratív etikáin át igen sok elgondolás alakult ki az emberekben arról hogyan éljék jól az életüket. A moralitás legszignifikánsabb kimutatkozása az erkölcsi kérdésekben van jelen, melyekkel nem feltétlenül találkozunk a mindennapjainkban. A klasszikus vágány-dilemmán (Trolley problem)[6] kívül a hirtelen nagy hatású döntésekkel, és a felelősség kérdéseivel is igen gyakran találkozunk. Ilyenkor több rossz válasz is van, a döntéshez pedig egy erős elköteleződés kell egy etikai rendszer mellett. 

Példák

A mesterséges intelligenciával kapcsolatban is felmerülnek a fentebb taglalt problémákhoz hasonló etikai kérdések. Ezeknek két csoportja van: az MI kutatásában felmerülő kérdések, illetve az MI implementációja során, cselekvése nyomán felbukkanó dilemmák. [7]

A jelentősebb kutatást érintő kérdések a munkahelyek felváltása, és a kontrollálhatóságuk. Mindezekmellett fontos még azt is megemlíteni, amint azt legjelentősebb problémának számítja az UNESCO is[8], miszerint az AI képes előítéletes döntéseket hozni. Amint az pusztán a tanítására adott mintákból táplálkozhat, így képes tökéletlen, avagy részrehajló eredményeket adni, nem beszélve a társadalomba beleágyazódott sztereotípiákról. Ezt nem tartom a témához túl releváns problémának, hiszen ez az emberben is hasonlóképpen zajlik le, és ekképp nem unikális az MI-ra. Az egyetlen eltérés az emberek belé vetett hitében van. Mivel az emberek okosnak gondolják őket, ezért inkább fognak nekik hinni. Mellesleg ez az alapja a tekintélyre hivatkozó érvelésnek is. Ezzel szemben a kontrollálhatóság kérdése igen fontos: amennyiben hosszú távon sikerül olyan szerkezeteket fabrikálnunk, melyek az emberi intelligencián túltesznek, hogy tudjuk őket kordában tartani, s egy ilyen esetben a természetes szelekció következményeként nem kéne-e a ‘tápláléklánc’ csúcsára kerülniük? Amennyiben igen, mi célból készítünk a saját céljainkat szolgáló eszközöket, melyek végül átveszik felettünk az uralmat? Hiszen gondoljunk bele, ha egy szuperintelligens számítógép elkészülne, nem tartaná e optimálisabbnak az evolúció végbemenetelét az emberi jelenlét nélkül? Ezek a kérdések persze csak puszta spekulációk volnának. 

A munkahelyek felváltása azonban egy ma is kifejezetten vitatott terület. Utoljára az ipari forradalmak során láttunk arra példát, hogy egy szerkezet képes helyettesíteni az emberek munkáját, és ez akkor a gépromboló mozgalmakhoz vezetett. Ekkor az a kérdés merül fel, amelyet a social mediák kapcsán a Social Dilemma című film is feszeget. Nem lehet, hogy csak mi használjuk rosszul a technika vívmányait? Az ipari forradalmak esetében azt láttuk, hogy a tőkés gyártulajdonosok célja pusztán a profitjuk maximalizálása, és ennek érdekében a termelés optimalizálása volt. Ennek elérése képpen természetesen racionális döntés a gépek megjelenésekor azonnal az emberek elbocsátása, és ezzel nyomorba taszítása mellett dönteni. Ami ebben az esetben hiányzik, az az empátia. Az embereknek két választási lehetőségük volt: a tőkést, vagy a gépeket pusztítják el félelmükben. Hasonlóképpen a mesterséges intelligencia esetében is. Az MI egy lehetőséget ad a közös fejlődésre. Ennek a fejlődésnek a zálloga a szerkezetváltás. Mint ahogyan az később az ipar gépesítése után is történt, a humán erőforrás a kvaterner szektorba került át, ezzel tovább növelve a fejlődés mértékét. Ezen szerkezetváltás természetesen igen nehéz, és valóban jelent erkölcsi dilemmákat, megoldása azonban a gazdasági fejlődés zálloga.

Ezeknél sokkal jelentősebb problémák jelennek meg azonban amikor az MI cselekvéseinek moralitását vizsgáljuk: a felelősség és az erkölcs legmélyebb kérdéskörébe kerülünk. Vegyünk egy önvezető autót. Az önvezető autót egy mesterséges intelligencia vezeti, és tegyük fel, hogy éppen egy akadály felé száguld rossz fékekkel. Az akadály mellett van három gyalogos, és választhat, hogy elüsse őket, vagy a mi életünket áldozza fel. Az itt fellépő morális dilemma a következő: beülnénk-e egy olyan autóba, amelynek a több ember megvédése a célja, és képes minket is eltenni láb alól ezért? Milyen társadalmi hatása lenne az olyan autóknak, amelyek célja a ‘vezetőjük’ megvédése minden áron? Ki válallja a felelősséget egy ilyen esetben?

Erkölcsi rendszerek sikertelensége

Egy hasonló erkölcsi kérdés esetén el kell gondolkoznunk azon, hogy milyen morális rendszerek alkalmazhatóak a mesterséges intelligenciákra. Tegyük fel, hogy a morál mint társadalmi mechanizmus azért alakult ki, hogy egyfajta kohéziós erőként hasson az emberekre. A keresztény morál fő hatása is az egység volt Európára. A különböző barbár népek lakta Európában az egységes szeretetre alapozó erkölcsi rendszer képes volt egy kohéziót teremteni, és ezzel jól lehet az egyéni érdeket nem minden esetben volt képes háttérbe szorítani, de ez esetben beszélhetünk immoralitásról. 

Ha meg akarjuk vizsgálni azt, hogy mi a moralitás ideája, mi az elvont célja, akkor azt találjuk, hogy minden esetben egy közösség kohéziója. Ez eleinte a törzset, családot, később a nemzetet és országot, vallási, kultúrális közösséget jelentette. A mai globalizált világban ez a közösségfogalom kiterjedni látszik: európaiak segítik az afrikaiakat és az egész világ kiáll az emberi jogok mellett. Végsősoron tehát a moralitás végcélja az emberiség védelme. Ez persze nem érhető el. Legtöbbször megfelelő információ se áll a cselekvő rendelkezésére egy ilyen hatás megítélésére. Ennek megközelítésére alakultak ki társadalmi mechanizmusok, amelyek általában kisebb közösségek szintjén törekedtek a kohézióra. Kant mégis megpróbálja elérni a kategorikus imperativusával: ‘cselekedj úgy, hogy cselekvésed maximája világérvényű törvénnyé válhassson’, azaz minden cselekvésedre úgy gondolj, hogy élnél-e egy olyan világban, ahol mindenki ezt teszi, eképpen egy normatív etikát, egy világméretű erkölcsöt dolgozott ki.

Egy effajta normatív etika nem működhet azonban az MIken. Ha a célja az emberiség védelme, akkor el fogja végezni az ‘öngyilkosságot’, ha úgy ítéli meg hatalmas adatsokaság feldolgozása után, hogy ez a jobb az emberiségnek, ebben az esetben pedig ismét visszatértünk a fentebbi problémára.

A kategorikus imperativus markáns problémája, a maximák meghatározásának nehézsége lehetetlenné teszi ennek értelmezését az AI számára is, ekképpen ez sem működhet rá. Ahhoz, hogy meghatározza mit cselekszik, Kant értelmezésében morális lénynek kéne lennie, vagy ha ettől eltekintünk, a maximák kétértelműsége még mindig problémás.

Ha esetleg erkölcsi kérdésekben a kanti elgondolást továbbvivő Hans Jonas utódaink érdekét is figyelembe vevő etikája hasonló érvek miatt szintén nem állja meg a helyét. Ha az AI úgy hoz döntést, hogy az emberiség következő generációinak az érdekét is nézi, akkor  a fentebbi probléma nem tűnik el, hiszen azt fogja mérlegelni, hogy az elütendő emberek, vagy a vezető jelent e potenciálisabb jólétet a jövőnek.

Léteznek még Arisztotelésztől eredeztetettt erényetikák is, amelyek megoldást nyújthatnak ezen dilemmákra. Arisztotelész úgy gondolta el, hogy léteznek az erények, amelyek gyakorlása egy boldog élethez, eudaimoniahoz vezet. Ezek az erények azonban lokálisak, és nehezen projektálhatók az egész emberiségre, és minden területére a Földnek,  így a globalizált társadalomban ez sem nyújthat teljes megoldást.

A legizgalmasabb kérdést a mesterséges intelligenciával kapcsolatban a McIntyre-féle narratív etikai rendszerek vetik fel. Az eszerint cselekvő egy élettörténetet képzel el, és azt nézi, hogy abban a történetben az ő cselekvése helytáll-e. Amikor ebben gondolkozunk, szükségszerűen kell posztulálni a) önreflexiót, és b) konzisztens én képet. Tekintve, hogy a modern mesterséges intelligencia kutatók álláspontja, hogy őket csak a külső működése, a belső történései nem érdeklik, egy ilyen morálnak feltételeznie kell egy öntudatot, amelynek léte igen problémás, hiszen míg az ember esetében egyértelmű, a mesterséges intelligenciáéban még több kérdést nyit ki. Ez vezet majd át az utolsó pontra azonban előbb összefoglalom a fentebb leírtakat. 

Észrevettük tehát, hogy a jelenleg létező morálfilozófiák mindegyikének alkalmazása a mesterséges intelligencia erkölcsössé varázsolására nyitva hagyja az etikai kihívásokat. Ennek legfőbb hibája az univerzalizmus hiánya, és a normatív konszenzus hiánya.

A probléma gyökere

Hogyan dolgozik a természettudományos pszichológia? ‘Felnyitja’ az ember fejét, belenéz, alkalmaz egy csomó általános, rigorózus eljárást, és végül megállapít dolgokat. Ez a fajta természettudományos szemlélet két filozófus ellenszenvét váltotta ki: Edmund Husserl, és Martin Heidegger. Husserl[9] ezt a naturalisztikus felfogást, és egy belső megismerés szükségét hirdette. Heidegger azt hangsúlyozta, hogy a létfelejtésünkben elfelejtünk a létezőre fókuszálni, és csak a módszert éltetjük. Eképpen az ember belső szerkezetét nem ismerjük meg, külső materiális létéről szerzünk ismereteket. A fenomenológia szükséget a mindennapokban is tapasztaljuk: valóban nagyon más egy jelenség, és annak érzékelése, például az érzelmeink, és biológiai leírásuk. Az erkölcs éppen ilyen dolog. Amikor azt vizsgáljuk, hogy hogyan kell erkölcsösen cselekednünk, akkor ahhoz nem elég kívülről vizsgálnunk a rendszert. 

Eképpen továbbmegyek, és azt is kijelentem, hogy a mesterséges intelligencia jelenlegi etikai kihívásai az ember etikaidefiníciójának hiányosságán alapul. Tulajdonképpen az önvezető autó példaproblémáján láttuk, hogy tulajdonképpen az erkölcsös cselekvés kivitelezhető, azonban az eredménnyel elégedetlenek vagyunk. Szükség van tehát egy általános erkölcsdefinícióra, amely képes kielégíteni a felé támasztott elvárásainkat, és mindenki univerzálisan elfogad.

Az általam mutatott erkölcsdefiníció sem áll meg. Egy olyan világban, ahol az emberiség érdekei felé történő cselekvésen nyugszik a moralitás, akkor és csak akkor egyezhet meg az elvárásainkkal, ha határértékben kizárólagos érvényű lett. Ebben az esetben az emberiség nem sokban tér el az emberi testtől, egy hatalmas ‘Leviatánban’ egyesül. Ekkor az apoptózis jelensége is megengedett, és konzisztens választ adtunk a kérdésre.

Ez persze valószínűleg sosem fog bekövetkezni, hiszen az önérdek, és a közérdek folyton egymásba folyó, váltakozó előtérbe helyezése csak kis valószínűséget támaszt ennek. Egy olyan normatív etikai rendszer, amely tehát képes a mesterséges intelligencia nyújtotta kihívásokat eltüntetni, emberi konszenzuson kell alapulnia. Ennek eléréséhez pedig szükséges az agnosztikus, a belső működéssel szemben közömbösen fellépő rideg tudományos paradigmát egy olyan eljárással felváltani, amely képes az emberi tapasztalásokon alapuló erkölcs fogalmát felderíteni.

Egyelőre beérhetjük, egy ennél földhözragadtabb megoldási móddal is: egy társadalmi kerekasztal keretein belül, egy globális méretű vitán az emberiség dönthet, mit tart helyesnek, és adott kérdésekben hogyan dönt. A filozófia egy ponton túl tehetetlen. A filozófus pusztán a probléma szétszálazását biztosíthatja. Megmutatja milyen érvek állnak a különböző döntési lehetőségek mellett és ellen, de a döntést magunknak kell meghoznunk. 

Konklúzió

A mesterséges intelligencia etikai kihívásai már a mindennapjaink szerves részévé váltak. Az egyre nagyobb felhasználási területet felölelő technológiát filozófiai kritika alá kell venni. Beláttuk, hogy az intelligencia a célokság definiálhatóságának mértéke, illetve, hogy az etikai dilemmák hogyan léphetnek fel a mesterséges intelligencia kutatásában és alkalmazásában.

A legrelevánsabb problémákon keresztül reflektáltam arra, hogy a felelősség és az erkölcs milyen fontos az MI kapcsán. 

Miután megmutattam, hogy az egyes erkölcsi rendszerek miért vallanak kudarcot vagy alkalmazhatóságuk, vagy emberi elégedetlenség miatt, áttértem a probléma eredendő okának feltárására. Az erkölcsről alkotott hiányos felfogásunk szüli ezen problémákat. Az alkalmazhatóság és a további kutatás folyamán azonban kiemelt fontosságú, hogy további kutatások, és elmélkedések történjenek a mesterséges intelligencia etikai kihívásairól.


[1] Turing, A.M., ’Mind’, a quarterly review of psychology and philosophy Vol. LIX. NO.236, 1950 

[2] Többek között az OpenAI cég nagy nyelvi modellén alapuló beszélgető alkalmauás: https://openai.com/index/chatgpt/

[3] Szintén az OpenAI fejlesztett ‘festő’ MI-je: https://openai.com/index/dall-e-2/

[4] McCarthy, J., ‘What is AI?‘, 1999 

[5] Fontos megjegyezni, hogy a teleológiának vannak kortárs képviselői is, például a nem tomista/arisztoteliánus Bernáth László

[6] Merriam Webster dictionary, ‘Trolley Problem’, https://www.merriam-webster.com/wordplay/trolley-problem-moral-philosophy-ethics#:~:text=The%20trolley%20problem%20is%20a,to%20kill%20just%201%20person., accessed: 09.08.2024

[7] Amdur, E., ‘6 Critical – And Urgent – Ethics Issues With AI’, https://www.forbes.com/sites/eliamdur/2024/01/24/6-critical–and-urgent–ethics-issues-with-ai/#:~:text=One%20of%20the%20foremost%20ethical,rigorous%20testing%20and%20continuous%20monitoring., 24.01.2024

[8] UNESCO, ’Artificial Intelligence: examples of ethical dilemmas’, https://www.unesco.org/en/artificial-intelligence/recommendation-ethics/cases, 21.04.2023

[9] Husserl, E., ‘A filozófia mint szigorú tudomány’,

Borítókép forrása: https://www.google.com/url?sa=i&url=https%3A%2F%2F150sec.com%2Fthe-fast-adoption-of-ai-a-close-look-at-regulation-in-europe%2F19149%2F&psig=AOvVaw32afu5u1SwRLWbLfMtuCiW&ust=1723308675057000&source=images&cd=vfe&opi=89978449&ved=0CBEQjRxqFwoTCLC3gqav6IcDFQAAAAAdAAAAABAE