Óvakodj a katolikus mesterséges intelligenciától

Óvakodj a katolikus mesterséges intelligenciától

Nem vagyunk gépek, és nem is lehetünk azok által jól formálva. Az emberi formálásnak elsősorban emberi jellegűnek kell lennie – még akkor is, ha könnyebb és gyorsabb a kérdéseinket egy gépre bízni.

Ha katolikus vagy és láttad már a Magisterium AI és a Truthly AI hirdetéseit, akkor valószínűleg – akárcsak én – kíváncsi lettél rájuk. A Truthly AI katolikus AI-társként hirdeti magát, amely lehetővé teszi a felhasználók számára, hogy „értelmes beszélgetéseket folytassanak és választ kapjanak bármilyen kérdésre vagy problémára”. Ez elég nagy ígéret. A Magisterium AI ígérete hasonló. Azt állítja, hogy „pontos válaszokat ad a hitre és az erkölcsre vonatkozó konkrét kérdéseire”, és segíthet tisztázni olyan bonyolult tanokat, mint a Szentháromság.

Látszólag ezek a dolgok legrosszabb esetben ártalmatlanok, legjobb esetben pedig tanulságosak. Különösen azért, mert modelljeik állítólag kizárólag kanonikus szövegek és hivatalos egyházi tanítások alapján lettek kiképezve. Azonban óvatosságra van szükség. Négy fő okból kell arra bátorítanunk a fiatalokat, hogy különösen óvatosan járjanak el, és nem szabad elhamarkodottan ösztönözni az ilyen eszközök használatát a katekézisben.

Hallucinációmentes AI?

„Hallucinációk” akkor fordulnak elő, amikor az LLM-ek [nagy nyelvi modell. A szerk.] kitalálnak információkat. Megkérdezheted tőlük az abortuszról szóló cikkek listáját, és míg néhány pontos, mások valódi szerzők hamis cikkekkel. Bár a hallucinációk enyhíthetők, nem szüntethetők meg. Az LLM-ek statisztikai valószínűségen alapuló eredményeket hoznak, nem pedig igazságot. Ennek eredményeként elkerülhetetlenül olyan válaszokat adnak, melyek hitelesnek tűnnek, de nyilvánvalóan hamisak.

Ráadásul, bár biztosan jobb egy olyan modell, amely csak válogatott forrásokból merít, az mégis egy alapvetően generatív, előre betanított transzformátort (GPT) használ, melyet eredetileg az internetről és más publikált anyagokból származó hatalmas mennyiségű szöveggel tanítottak be. A kizárólag katolikus korpuszban [szövegtest. A szerk.] nincs elegendő tartalom ahhoz, hogy elérje a GPT kifinomultságát. Így a Magisterium AI állítása, miszerint „pontos válaszokat” ad, csak jelentős fenntartásokkal érvényes. Ezt könnyen elismerte, amikor megkérdeztem, hogy adhat-e hamis válaszokat, és azt válaszolta: „Igen. Mint minden nagy nyelvi modell, néha olyan állításokat generálok, amelyek nem alapulnak azokon a forrásokon, amelyekre betanítottak, vagy melyek félreértelmezik az egyház tanításait. Amikor ez történik, az eredményt hallucinációnak nevezzük.” A Truthly AI talán szándékosan homályosabb. Valóban, kérheted a robotot, hogy „adjon válaszokat”. Az, hogy azok minden alkalommal igazak lesznek-e, teljesen más kérdés.

Hogy világos legyek, a hallucinációk az LLM-ek velejárói. Tehát amíg ezek a katolikus chatbotok használják ezeket, addig hajlamosak a hallucinációkra, és ennek következtében nem tévedhetetlenek, sőt, nem is teljesen pontos forrásai az egyházi tanításoknak. Ehhez inkább a katekizmushoz kell fordulni.

Egyesek azt állíthatják, hogy még a nagyon hibás chatbotokon keresztül közvetített igazság is jobb, mint a semmi. Természetesen egy olyan tökéletlen eszköz, mint a Truthly AI vagy a Magisterium AI, néha helyes válaszokat adhat – talán még a legtöbb esetben is. Nem szabad azonban elfelejtenünk, hogy az igazság nem csak tartalomként, hanem találkozásként is fontos. Azok az eszközök, amelyek helyes állításokat nyújtanak, miközben aláássák az erényes szokásokat, meghiúsíthatják a kateketikai képzés végső célját – ezt a kérdést a következőkben részletesebben is megvizsgálom.

A spirituális tekintély kiszervezésének veszélyei

Mivel a katolikus AI tekintélyesnek tűnik, az emberek helyettesíthetik ezzel a Szentírás, a hagyomány vagy az élő tanítók útmutatásait. Miért? Két okból. Először is, az AI folyékonysága és a kimenet előállításának sebessége miatt könnyen áldozatul eshetünk az „automatizálási torzításnak” – azaz hajlamosak vagyunk az AI válaszait a sajátjaink helyett előnyben részesíteni, egyszerűen azért, mert automatizáltak. Az AI elterjedésével ez komoly veszélyt jelent, különösen a fiatal és befolyásolható felhasználók számára, akik az erkölcsi megkülönböztetés eszközeként kezdhetik el használni ezeket.

Másodszor az, hogy az emberek könnyen hozzáférhetnek ehhez az eszközhöz, növeli annak valószínűségét, hogy stresszes időkben könnyebben fordulnak hozzá. Gondoljunk csak bele: ha az élet nyüzsgése és zűrzavara közepette sürgető erkölcsi dilemmával szembesülünk, gyakran nehéz időt szakítani arra, hogy találkozót egyeztessünk a plébánosunkkal, vagy szent órát tartsunk, elhárítsuk a zavaró tényezőket és a Szentlélek útmutatását kérjük. Mi a sokkal könnyebb? Elővenni a telefonodban lévő szuperkomputert, és másodpercek alatt megkapni azt, ami bölcs tanácsnak tűnik (egyházi dokumentumokból származó idézetekkel, melyek látszólagos legitimitást kölcsönöznek a válaszoknak).

Gyakorlati és pasztorális szempontból ez azzal a kockázattal jár, hogy a hatalom az egyháztól egy gépre kerül át – amely képtelen kegyelmet fogadni, hitet gyakorolni vagy valódi bölcsességet birtokolni. A veszély nem csak a félrevezető információkban rejlik, hanem abban is, hogy eltorzítja a hatalom tényleges működését az egyház életében. A chatbotoknak nincs tekintélyük. Ők csak információkat szintetizálnak. Az olyan nevek, mint „Magisterium AI”, valóban megtévesztők a képességeiket és megfelelő funkcióikat illetően még akkor is, ha figyelmeztetik a felhasználókat, hogy ne tulajdonítsanak erkölcsi jelentőséget a válaszaiknak.

Képes az AI mérlegelni az értékeket? Szeretni az igazságot? Törődni veled?

Még ha egy chatbot tökéletesen pontos doktrínális összefoglalásokat és válaszokat is tudna adni, akkor sem képes megérteni az alapelveket, sem pedig kontextusban mérlegelni az értékeket. Mi ezt tesszük, amikor erkölcsi dilemmákat mérlegelünk. Tudjuk, hogy az igazság jó. Tudjuk, hogy az élet jó. De lehet, hogy olyan helyzetbe kerülünk, amikor az igazság kimondása veszélyt jelent a biztonságunkra, vagy akár az életünkre. Itt dönteni kell: mi a fontosabb? Mit várnak el tőlünk? A válasz nem könnyű. Sok tényező játszik szerepet. Például egy kisgyermekekért felelős személynek olyan komplexitással kell szembenéznie, amellyel mások nem. A kontextus növelheti vagy csökkentheti bizonyos javak súlyát. De ismétlem, a chatbotok egyáltalán nem keresik az igazságot és nem vágynak javakra. Valószínűségi jellegük elsimítja az erkölcsi megkülönböztetést: minden forrás ugyanolyan súllyal esik latba, semmilyen érték vagy gond nem befolyásolja kimenetüket.

Ráadásul nem törődnek veled úgy, ahogy egy barát, szülő vagy gyóntató tenné. Nem érdekli őket a lelki fejlődésed. Valójában egyáltalán nincsenek érdekei. Azonban antropomorfikus képzésük miatt úgy tűnik, mintha törődne velünk, mint emberekkel. De nem így van. Ez elmossa ennek funkcionális használatát, és arra tanítja a felhasználókat, hogy olyan módon fogadják el, amely káros a lelki és erkölcsi fejlődésükre. Ez különösen igaz, mert a chatbotokkal hasonló módon kommunikálunk, mint a társaikkal a szöveges üzenetekben. Gyakran udvarias nyelvet használunk, mondjuk „kérem” és „köszönöm”, mintha megsértenénk ezek nem létező érzéseit.

Ez a fajta interakció idővel indokolatlan bizalmat kelt valami alapvetően megbízhatatlan dologban a hit és az erkölcs terén: nemcsak azért, mert hajlamos a hallucinációkra és nem törődik az alapelvekkel vagy veled, mint személlyel, hanem azért is – és ez talán a legfontosabb –, mert a Szentlélek nem irányítja az LLM-ek kimeneteit. Ezért nem számít, hogy hibáktól mentes-e, vagy hogy az agens AI egy napon érző lénnyé válhat-e, és érzéseket és értékeket fejleszthet-e ki. Ezek nem az imago Dei szerint készültek; nem kaphatják meg a Szentlélek ajándékait kézrátétellel. Úgy gondolom, hogy az intellektuális tisztánlátás ebben a kérdésben kevésbé jelent problémát, mint a gyakorlati alkalmazás eszközeként. Bár a különbség fogalmilag egyértelmű lehet egyesek számára, sokan továbbra is tiszteletben tartják ezeket az eszközöket, mint az igazság forrásait, a fentiekben kifejtett okok miatt: egyszerű, megbízhatónak tűnik, és olyan nyelvi folyékonysággal és magabiztossággal rendelkezik, amely még a legtanultabb filozófusok és teológusok körében is ritka – annak ellenére, hogy magabiztosan hamis információkat is közölhet.

A katolikus AI-eszközök ártalmatlan segédeszközöknek tűnnek a hívők számára a sűrű erkölcsi tanok megértésében. Bizonyos korlátozott és feltételes segítséget nyújthatnak ebben. Azonban ezt mélyebb értékek árán teszik.

A megtestesült tapasztalatokból származó bölcsesség

A gyakorlati bölcsesség, vagyis a körültekintés az az erény, amelynek segítségével megtanuljuk az általános elveket konkrét helyzetekre alkalmazni. Ez a megtestesült emberi lények élettapasztalatain múlik – a félelemmel való szembenézésen, a vágyakkal való küzdelmen, a hibák elkövetésén és azokból való tanuláson. A bölcsesség az életkorral és a tapasztalattal jár. Az AI nem élhet át életet, nem szenvedhet, nem bukhat el, nem nőhet; nem gyakorolhatja a bölcsességet. Ahogy Aquinói Szent Tamás magyarázza, a bölcsességet „az emlékezet és a tapasztalat által kell tökéletesíteni, hogy az egyes eseteket gyorsan meg lehessen ítélni” (ST II–II, Q.47, a.3, ad 3). Más szavakkal, a bölcsesség nem hozható létre kimenetként; azt meg kell élni.

Mivel a körültekintést gyakorolni kell, hogy elsajátítsuk (kivéve a belénk öntött körültekintést, ami más kérdés), a morális megkülönböztető képesség chatbotra való kiszervezése megfoszt minket attól a lehetőségtől, hogy magunk gyakoroljuk a megkülönböztető képességet. A Katekizmus ezt hangsúlyozza, tanítva, hogy a lelkiismeretnek folyamatos formálásra van szüksége, ha tisztességes és őszinte akar maradni (KEK 1783). Minél többet ruházzuk át megkülönböztető képességünket a gépekre, annál kevésbé ápoljuk azokat a figyelem, mérlegelés és ítélőképesség szokásait, melyekre szükségünk van ahhoz, hogy körültekintő emberek legyünk.

Például: meg lehet-e tanulni kosárlabdázni csak úgy, hogy nézzük, ahogy mások kosárra dobnak? Természetesen nem. Fel kell venni a labdát, és el kell eldobni – megfelelő módon – többször is, hogy megtanuljuk, hogyan kell kosárra dobni. A bölcsesség is ugyanúgy működik. Nem tanulhatjuk meg, ha csak másoktól kapunk válaszokat. Magunknak kell megküzdenünk a döntésekkel, hogy fejlődjön a megkülönböztető képességünk. Nincs rövidítés.

Hogy világos legyek: nem állítom, hogy ezek a katolikus AI-cégek rosszindulatúak lennének. Azonban az LLM-ek felépítése és a hit és erkölcs kérdéseinek chatbotokra való kiszervezésével kapcsolatos jelentős teológiai problémák miatt nem tudják teljesíteni ígéreteiket. Végül is a Truthly AI és a Magisterium AI ártalmatlan eszközöknek tűnnek, melyek segítenek a hívőknek a sűrű erkölcsi tanítások megértésében. Lehet, hogy korlátozott és feltételes segítséget nyújtanak ebben. Ez azonban mélyebb értékek rovására történik. De krónikus használatuk, népszerűsítésük és velük való interakció mind a lelki, mind az erkölcsi fejlődés szempontjából veszélyesnek tűnik.

Mi nem vagyunk gépek, és ezek nem is formálhatnak minket. Az emberi formálásnak elsősorban emberinek kell lennie – még akkor is, ha könnyebb és gyorsabb a kérdéseinket egy gépre bízni. Ezzel eljutottam a fő gondolatomhoz: legyünk óvatosak az úgynevezett „katolikus AI-vel”.

Forrás angol nyelven

Létrehozva 2026. január 27.