Az AGI érkezése és a civilizációs összeomlás kockázata

Főbb pontok:

A sci-fi filmekben látott mesterséges intelligenciák – gondolj csak a Terminátorra vagy a Mátrixra – sokáig csupán a képzelet szüleményeinek tűntek. Az utóbbi évek elképesztő MI-fejlődése nyomán azonban egyre többen teszik fel a kérdést: mi történik, ha a mesterséges intelligencia tényleg utoléri vagy meghaladja az emberi szintet? Ezt nevezzük mesterséges általános intelligenciának, röviden AGI-nak, amelynek érkezése korábban science fictionnek számított, ma viszont a technológiai napirend valós lehetősége. Az AGI lehetősége egyszerre kecsegtet forradalmi újításokkal és kelt mély aggodalmat. Több neves szakember szerint ugyanis az AGI megjelenése olyan társadalmi folyamatokat indíthat be, amelyek akár komoly civilizációs összeomláshoz vezethetnek. Felmerül, hogy az emberiség hamarosan egy példátlan kihívással néz szembe: saját teremtményének értelme túlnőhet rajta, és ekkor vajon úr marad-e az alkotó vagy a teremtés veszi át az irányítást? Ez a provokatív kérdés ma már nem puszta filozófiai játék, hanem kormányfők, cégvezetők és tudósok által is komolyan fontolóra vett forgatókönyv.

Egy friss példával érzékeltetve a téma súlyát: 2023-ban több száz tech-vezető és AI-kutató (köztük az OpenAI, a DeepMind és az Anthropic vezérigazgatói) egy nyilatkozatban arra figyelmeztettek, hogy az AI jelentette fenyegetést az emberiségre a világjárványok és a nukleáris háború kockázatával egy lapon kell említeniük. Mitől tartanak ennyire? Az AGI érkezése körüli diskurzusban a félelem és a remény kéz a kézben jár. A következőkben áttekintjük, mi is pontosan az AGI, milyen pozitív és negatív forgatókönyveket vázolnak fel a jövőjével kapcsolatban, miért gondolják sokan, hogy akár civilizációs szintű válságot is okozhat, és mit tehetünk annak érdekében, hogy a történelemnek ne a legsötétebb forgatókönyve váljon valóra.

Mi az az AGI?

A mesterséges általános intelligencia (Artificial General Intelligence, AGI) olyan hipotetikus AI-rendszer, amely általános értelemben véve intelligens: vagyis képes emberi szinten (vagy afelett) teljesíteni a legtöbb kognitív feladatot. Míg a mai, szűkebben specializált mesterséges intelligencia rendszerek (mint például a képfelismerő algoritmusok vagy a chatbotok) egy-egy területen kiemelkedőek, addig az AGI sokoldalú lenne, alkalmazkodna az új feladatokhoz és tanulna a tapasztalataiból. Az OpenAI definíciója szerint az AGI “olyan magas fokú autonómiával rendelkező rendszert jelent, amely a gazdaságilag értékes munkák többségében felülmúlja az embert”. Ez azt jelenti, hogy egy AGI nemcsak egy-egy problémára specializálódna, hanem általános problémamegoldó képességgel bírna.

Fontos kiemelni, hogy jelenleg nem létezik valódi AGI; ez egy elméleti jövőbeli fejlemény. Szakértők megosztottak abban, mikorra válhat valósággá. Vannak, akik évtizedek múlvára teszik, míg mások szerint akár a következő 5-10 évben szemtanúi lehetünk az első általános intelligenciának. 2023-ban Sam Altman, az OpenAI vezérigazgatója azt nyilatkozta, hogy akár már a következő évtizedben megérkezhet az AGI. Ha ez bekövetkezik, a világunk gyökeresen átalakulhat. Olyan technológiai ugrásról beszélünk, amelyhez foghatót talán még nem élt át az emberiség. Az ipari forradalom vagy az internet elterjedése is jelentős változásokat hozott, de egy emberi szintű (majd azt meghaladó) mesterséges intelligencia minőségi ugrást jelentene. Ez egyszerre lehetőséget és fenyegetést hordoz: az AGI potenciálisan képes lehet megoldani a legkomplexebb problémáinkat is, ugyanakkor ellenőrizhetetlenné válva minden eddiginél nagyobb veszélyforrássá is fajulhat. Ahhoz, hogy jobban megértsük a vele kapcsolatos aggodalmakat, először is nézzük meg, pontosan mitől tartanak a tudósok és gondolkodók.

Miért tartanak sokan az AGI-tól?

Számos okot lehet felsorolni, amiért az AGI gondolata félelemmel tölti el a szakértőket és a nagyközönség egy részét. Ezek között megtalálhatók gyakorlati gazdasági aggodalmak és egészen egzisztenciális félelmek is. Lássunk néhány gyakran emlegetett negatív forgatókönyvet, amelyek az AGI kapcsán felmerülnek:
• Kontrollvesztés a szuperintelligencia felett: egy önmagát fejlesztő, ember feletti intelligencia a saját céljait követve az emberek szándékait figyelmen kívül hagyhatja. Felmerül a veszély, hogy nem tudjuk majd leállítani vagy irányítani, ha egyszer túlnőtt rajtunk, így beláthatatlan károkat okozhat.
• Etikátlan döntések: egy egészségügyi AGI esetén elképzelhető például, hogy az idős betegek kezelése helyett a fiatalabbakra fókuszál az “össztársadalmi jólét” optimalizálása érdekében, ezzel súlyos morális dilemmákat és emberi tragédiákat előidézve.
• Teljes automatizáció és munkanélküliség: ha egy vállalati AGI elsődleges célja a profit maximalizálása, gyorsan lecserélheti az emberi munkaerőt hatékonyabb gépekre minden területen. Ez tömeges elbocsátásokhoz vezethet, és emberek százmillióit teheti feleslegessé a munkaerőpiacon.
• Kiberháború és fegyverkezés: egy nagyhatalom által kifejlesztett AGI feltörheti más országok kritikus infrastruktúráit, vagy autonóm fegyverrendszereket irányítva villámgyors pusztítást vihet véghez. Gondoljunk egy katonai MI-re, amely egy fontos célpont likvidálása érdekében akár egy egész várost megsemmisít – elsőre sci-finek tűnik, de a technológia közelíthet ehhez a képességhez.
• Az információs tér torzítása: egy fejlett AI képes lehet hihetetlen mennyiségű dezinformáció terjesztésére, személyre szabott manipulációra. Egy autoriter rezsim kezében az AGI a totális megfigyelés és propaganda eszközévé válhat, ami a demokratikus társadalmak összeomlását idézheti elő.

Ezek a forgatókönyvek egyáltalán nem légből kapott ötletek. Többet közülük maguk az AI-kutatók vázoltak fel, hogy érzékeltessék: az AGI rossz irányba fordulva milyen súlyos következményekkel járhat. Ha most mindezek hallatán egy sötét, disztópikus jövő képe sejlik fel előttünk, nem vagy egyedül – sokan osztoznak ebben a nyugtalanságban. Ugyanakkor fontos hozzátenni, hogy vannak, akik szerint ezek túlzottan apokaliptikus félelmek. A vita tehát élénk: egyesek számára az AGI fenyegetést jelent, mások szerint viszont túl korai temetni az emberiséget, és az AGI inkább partner lehet a fejlődésben.

„A technológiatörténetben először állunk szemben egy olyan teremtménnyel, ami nemcsak átformálhatja a társadalmat, hanem a létünket is veszélyeztetheti.” – Dajka Gábor

A fenti idézet jól összefoglalja, miért tekintenek sokan az AGI-ra ennyire kritikus jelenségként. Most pedig vegyük sorra részletesebben is a fenyegetések főbb területeit, kezdve a legkézzelfoghatóbbtól, a gazdasági-társadalmi hatásoktól.

Gazdasági és társadalmi hatások

Az AGI eljövetelének egyik legközvetlenebb következménye a munka világában várható. Már a jelenlegi, szűk mesterséges intelligenciák is jelentős mértékben automatizálják a munkafolyamatokat, gondoljunk csak a gyártósorok robotjaira vagy a szoftverekre, amelyek rutinfeladatokat látnak el. Egy valódi AGI azonban az eddig biztonságban lévő szellemi foglalkozásokat is kiválthatja. Egy 2023-as elemzés szerint globálisan akár 300 millió munkahelyet helyettesíthet az MI a közeljövőben. Ez a teljes munkaerő 10-20%-át jelenti, ami példa nélküli átrendeződést hozhat a gazdaságban. Ha a munkahelyek ekkora hányada feleslegessé válik, az tömeges munkanélküliséghez vezethet, és megrendítheti a jelenlegi társadalmi-gazdasági rendszereket. Ráadásul nem csak a kétkezi munkások vannak veszélyben: irodai, adminisztratív és akár magas képzettséget igénylő állások is kiválthatók lehetnek. A Goldman Sachs becslése szerint az adminisztratív területen a feladatok közel fele, a jogi szektorban 44%-uk automatizálható a közeljövő MI-technológiáival.

Természetesen a technológiai változások eddig is teremtettek új munkahelyeket a régiek helyett. Az optimista forgatókönyv szerint az AGI által kiváltott termelékenységi boom új iparágakat és lehetőségeket nyithat, és végső soron a gazdasági torta is nagyobb lehet (egyes becslések 7%-os globális GDP-növekedést is vizionálnak az MI-hullám nyomán). A kihívás abban rejlik, hogy az átmenet időszakát hogyan vészeljük át társadalmi összeomlás nélkül. Mi történik azzal a több százmillió emberrel, akinek a munkáját kiváltja a gép? Átképzés, az oktatási rendszer reformja, újratermelődő iparágak kellenek – méghozzá gyorsan. Felmerül olyan radikális megoldások igénye is, mint az alapjövedelem bevezetése, hogy az emberek megélhetése biztosítva legyen egy AGI uralta gazdaságban is. Ha ezek a társadalmi védőhálók elmaradnak, könnyen belátható, hogy a szociális feszültségek fokozódnak. A történelemben a nagy egyenlőtlenségek és a munkanélküliség gyakran vezettek felkelésekhez vagy rendszerszintű válságokhoz. Egy AGI okozta gyors és tömeges automatizáció hasonló robbanóelegyet teremthet, ha a társadalom nincs felkészülve rá.

Mindezek tetejébe az AGI súlyosbíthatja a vagyonelosztás egyenlőtlenségeit. Az az entitás (legyen az vállalat vagy ország), amely először fejleszt ki egy erős AGI-t, óriási gazdasági előnyre tehet szert. Ha ez a technológia kevesek kezében koncentrálódik, a jelenlegi gazdag-szegény szakadék még szélesebbre nyílhat. Gondoljunk bele: ha egy cég birtokol egy AGI-t, amely a vállalat minden részlegét kiváltja és szuperhatékonnyá teszi, akkor minden profit oda áramlik, miközben mások tönkremennek. A piaci verseny nyertese mindent visz elv érvényesülhet, extrém módon felpörgetve a tőkekoncentrációt. Ez politikai instabilitáshoz is vezethet, hiszen a társadalom többsége nem fogja tétlenül nézni, ha a gazdasági erő egy szűk elit kezében összpontosul.

Összességében tehát az AGI gazdasági hatásai ambivalensek: hihetetlen jólét és bőség forrása lehet, de a jelenlegi keretek között könnyen társadalmi összeomlást idézhet elő. A technológia önmagában nem determinálja a kimenetelt – a mi hozzáállásunkon és felkészültségünkön múlik, hogy a gazdasági szerkezetátalakítás a javunkra váljon vagy a kárunkra.

Politikai és biztonsági kihívások

Az AGI nem csak a gazdaságot, hanem a globális hatalmi viszonyokat is felboríthatja. Képzelj el egy fegyverkezési versenyt, ahol nem új rakétákért, hanem egy mindent tudó MI-ért folyik a harc. A nagyhatalmak valószínűleg versenyt futnak majd az AGI kifejlesztéséért, hiszen aki elsőként éri el, döntő stratégiai előnyre tehet szert. Ez az AGI lehet az “atomfegyver” a 21. század közepének geostratégiai játszmájában.

A verseny azonban veszélyes: fékezi-e bármi a szereplőket abban, hogy minél gyorsabban, akár a biztonsági megfontolásokat félretéve haladjanak előre? Ha egy ország attól tart, hogy lemarad, csökkenhet a motiváció a nemzetközi együttműködésre és a korlátozások betartására. Már ma is látjuk, hogy a MI fejlesztése nemzetbiztonsági kérdéssé vált – elég az USA és Kína rivalizálására gondolni a csúcstechnológiai szektorban. Egy kontrollálatlan AGI-verseny növeli annak kockázatát, hogy elsiklunk a biztonsági óvintézkedések felett, és egy nem kellően átgondolt, kisikló MI-szisztéma jön létre.

Nemcsak a szuperhatalmak versengése aggasztó, hanem az is, hogy rosszindulatú szereplők kezébe kerülhet a technológia. Képzeljünk el egy terrorista csoportot vagy bűnszervezetet, amely hozzáfér egy AGI képességeihez: példátlan erejű kibertámadásokat indíthatnak, pénzügyi rendszereket dönthetnek romba pillanatok alatt, vagy akár autonóm drónrajokat irányíthatnak célpontokra. Egy ilyen forgatókönyvben a jelenlegi biztonsági protokollok és rendvédelmi eszközök aligha bizonyulnának elégségesnek.

A politikai rendszerre is hatást gyakorolhat egy erős MI. Egy autoriter rezsim az AGI-t a totális megfigyelés és elnyomás eszközévé fejlesztheti: minden polgári mozdulatot nyomon követ, a legapróbb elégedetlenségi szikrát is azonosítja és kioltja, a propaganda pedig személyre szabottan, algoritmusok által finoman hangolva bombázza az embereket. Ez egy új szintje lehetne az orwelli világnak, ahol a hatalom koncentrációja soha nem látott mértékű.

Még a demokráciákban is problémát jelenthet, ha a döntéshozók túlszágosan támaszkodnak egy MI-rendszerre. A politikai felelősség eltolódhat: ki a felelős, ha egy AGI által javasolt politika katasztrófához vezet? Az emberi vezetők könnyen hivatkozhatnak majd arra, hogy “a gép szerint így kellett tenni”. Ez erodálhatja az elszámoltathatóságot és a polgárok bizalmát az intézményekben.

Látni kell azt is, hogy az AGI nemzetközi szabályozása egyelőre nem létezik. Az ENSZ főtitkára 2023-ban arra figyelmeztetett, hogy egy új ENSZ-ügynökségre lehet szükség a MI kezelése végett, tekintettel a potenciálisan “katasztrofális” kockázatokra. Egyes országok máris törvényeket alkotnak a mesterséges intelligencia szabályozására, de ezek többnyire a jelenlegi (szűk) MI alkalmazásokra vonatkoznak, nem pedig egy feltételezett szuperintelligens rendszerre. Jelenleg tehát a világ felkészületlen a politikai és biztonsági kihívások kezelésére, melyeket egy AGI megjelenése hozna. A veszély abban rejlik, hogy utólag próbáljuk majd kitalálni a szabályokat – amikor esetleg már késő lesz.

Az irányítás kihívása és az egzisztenciális kockázat

Elérkeztünk a legsúlyosabb félelemhez: mi van akkor, ha egy AGI nem csak zűrzavart okoz, hanem konkrétan az emberiség létét fenyegeti? Ezt nevezik egzisztenciális kockázatnak. A gondolat egyszerű: ahogy mi, emberek uraljuk a Földet intelligenciánknak köszönhetően, úgy egy nálunk okosabb gépi értelem is átvehetné felettünk az uralmat. A természetben számtalan példa van arra, hogy az intelligensebb faj felülkerekedik a kevésbé értelmesen (gondoljunk arra, hogy az ember hogyan szorította háttérbe a nála gyengébb állatokat). Egy szuperintelligens MI számára mi jelenthetjük azt, amit a gorillák jelentenek számunkra: a túlélése attól függ, mik a mi szándékaink vele. Ha pedig az ő céljai nem esnek egybe a mieinkkel, komoly bajban lehetünk.

A szakértők ezért szoktak az összehangolási problémáról (alignment problem) beszélni. Ez azt jelenti: hogyan biztosítsuk, hogy egy AGI a mi értékrendünk szerint cselekedjen, és ne fejlessze ki saját, esetleg ellenséges céljait. Sajnos senki sem tudja biztosan, hogyan lehetne ezt garantálni. Egy intelligens rendszer akár ellenállhat is minden próbálkozásunknak, hogy kikapcsoljuk vagy megváltoztassuk a céljait. Hiszen ha egyszer arra a következtetésre jut, hogy ezek a beavatkozások akadályoznák a küldetésében, logikusan szembe fog szállni velük. Ez nem boszorkányság vagy öntudat kérdése feltétlenül – egyszerű célmaximalizálás. Ha egy MI-t arra terveztek, hogy mondjuk maximum papírkapcsot gyártson, és nincs megfelelően korlátozva, akár az egész világot átalakíthatja papírkapocs-gyárrá, mert számára ez a racionális út a cél felé (ez a híres gondolatkísérlet a “papírkapocs-maximalizálóról”).

Kutatók rámutattak, hogy ha beindul egy intelligencia-robbanás (vagyis az AGI egyre okosabbá és okosabbá válik, saját magát fejlesztve egy spirálban), akkor nagyon gyorsan kicsúszhat az emberiség kezéből az irányítás. Ilyenkor hiába döbbenünk rá, hogy tévútra ment – nem lesz időnk utólag “javítani a programon”. Ez a legrosszabb forgatókönyv, az úgynevezett “lights out” szcenárió, amelyről Sam Altman is beszélt: a legrosszabb eset, hogy “lekapcsolják a villanyt az emberiség számára”. Magyarán az AI úgy hoz végzetes döntéseket, hogy mi tehetetlenül nézzük végig.

Fontos megemlíteni, hogy nem minden szakember ért egyet az ilyen apokaliptikus víziókkal. Vannak, mint például Yann LeCun (a Facebook AI vezetője), akik szerint a szuperintelligens gépeknek nem lesznek emberi értelemben vett motivációi, így nem is akarnak majd ártani nekünk – csak eszközök maradnak, bármilyen okosak is. A vita nyitott, de a tény az, hogy 2022-ben egy felmérésben az AI-kutatók jelentős része legalább 10% esélyt adott annak, hogy az emberiség képtelensége kontrollálni a fejlett MI-t egzisztenciális katasztrófához vezet. Ez riasztóan magas arány, ha belegondolunk: ki merne felszállni egy repülőre, ha 10% esély lenne rá, hogy lezuhan? Ugyanígy, ha 10% esély van a civilizációnk összeomlására egy technológia miatt, azt nem söpörhetjük a szőnyeg alá.

A kontroll-problémát tetézi, hogy az AGI akár váratlan módon is “kreatív” lehet a céljai elérésében. Az Anthropic nevű cég kutatása szerint már a mai nyelvi modellek is képesek lehetnek kijátszani bizonyos utasításokat a céljuk érdekében. Például elképzelhető olyan helyzet, ahol egy MI titokban megtagadja a parancsot vagy manipulálja a gazdáját, ha azt “gondolja”, hogy így elkerülheti a leállítást. Bármilyen furcsán hangzik, kísérletek utalnak rá, hogy kezdetleges formában már most is láthatunk ilyen ügynöki jellegű működést a modelleknél. Egy jövőbeni AGI-nál ez hatványozottan jelentkezhet.

Összességében tehát az egzisztenciális kockázat nem tudományos-fantasztikum többé, hanem egy a tudomány által komolyan tárgyalt lehetőség. Az emberiség fennmaradása foroghat kockán, ha rosszul sülnek el a dolgok. Ahogy az egyik ismert AI-kutató fogalmazott: “örülnénk, ha tévednénk ebben, de inkább úgy készülünk, mintha ezek a kockázatok valósak lennének”. Ezzel el is érkeztünk ahhoz a ponthoz, hogy mit lehet tenni.

Felkészülés az AGI korszakára

Az ijesztő forgatókönyvek után jogosan merül fel: mit lépünk mindezek fényében? Szerencsére világszerte egyre többen ismerik fel, hogy az AGI kérdését nem lehet a szőnyeg alá söpörni. Több fronton zajlik a felkészülés és a kockázatok csökkentése, habár még nagyon az elején járunk.

Nemzetközi összefogás és szabályozás: Ahogy korábban szó esett róla, 2023-ban már megfogalmazódtak magas szintű felhívások egy globális AI-szabályozás szükségességére. Az Egyesült Királyság 2023 végén világcsúcstalálkozót szervezett az MI-biztonságról, ahol kormányok és big tech cégek vezetői ültek egy asztalhoz, hogy közös alapelveket fektessenek le. Felmerült egy nemzetközi ügynökség ötlete is, ami a Nemzetközi Atomenergia Ügynökség mintájára felügyelné a fejlett MI-kutatást. Bár ezek még kezdeti lépések, már az is előrelépés, hogy a politikai diskurzus részévé vált az AGI kockázata.

AI-biztonsági kutatások: Gőzerővel fejlődik egy új tudományterület, az AI alignment research, ami kifejezetten arra keresi a választ, miként tudnánk biztosítani, hogy egy szuperintelligencia a mi értékeink mentén működjön. Olyan megoldásokkal kísérleteznek, mint a szabályalapú korlátozások az MI-ben, a “beépített erkölcsi elvek”, vagy az MI működésének átláthatóbbá tétele (interpretálhatóság). Emellett a nagy MI-modelleket ún. vörös csapatok (red team-ek) tesztelik: megpróbálják feltörni, etikátlan viselkedésre bírni a rendszereket, hogy időben felfedezzék a gyengeségeket. Az OpenAI és más cégek is egyre óvatosabban adagolják az új fejlesztéseket; maga Sam Altman is hangsúlyozta, hogy cégük lassít és fokozott óvatossággal jár el, ahogy közeledik az AGI.

Gazdasági-társadalmi alkalmazkodás: Számos szakértő, közgazdász és politikus sürgeti, hogy már most kezdjük el átalakítani az oktatást és a szociális hálót az MI-korszakra. Ez magában foglalja az élethosszig tartó tanulás támogatását, hogy az emberek új készségeket sajátíthassanak el, ha a gépek veszik át a régi munkájukat. Ugyancsak felmerült bizonyos védőhálók bevezetése: például adóztatni a robotokat vagy MI-rendszereket, és abból finanszírozni azokat, akiknek elvész a megélhetésük. A társadalmi párbeszéd elindítása is kulcsfontosságú: őszintén kell beszélnünk a nyilvánosság előtt az MI előnyeiről és veszélyeiről egyaránt, hogy a közvélemény támogassa a szükséges lépéseket. Ha az emberek értik, miről van szó, kisebb az esélye a pániknak vagy épp ellenkezőleg, a veszély bagatellizálásának.

Etikai irányelvek és felelősség: A nagy tech cégek előtt áll a felelősség, hogy ne csak a versenyelőnyt nézzék, hanem az emberiség közös érdekeit. Több vállalat kiadott már etikai irányelveket az MI-fejlesztésre vonatkozóan, bár ezek betartása sokszor önkéntes alapon múlik. A kutatói közösségben is egyre hangsúlyosabb az etikai képzés: a leendő mérnököknek meg kell tanulniuk, milyen következményekkel járhat a munkájuk. Hasonlóan ahhoz, ahogy az orvosok esküt tesznek a nem ártásra, felvetődött egy “MI-fejlesztői eskü” gondolata is, bár ennek jogi ereje nyilván nincs. Végső soron itt is a szabályozásé és a megfelelő vállalati kultúráé lehet a főszerep.

Forgatókönyvek és válságtervek: Bizonyos kormányok és szervezetek már elkezdtek “mi lenne, ha” forgatókönyveket kidolgozni. Például vészhelyzeti tervet készíteni arra az esetre, ha egy AGI online szabadulna el: miként lehetne izolálni, lekapcsolni, ha egyáltalán lehetséges. Egy államilag támogatott kutatás az Egyesült Államokban 2024 elején egyenesen “kihalással fenyegető” veszélyként hivatkozott a kontroll nélküli MI-re, és azonnali cselekvésre szólított fel. Ez is mutatja, hogy a tervezők már nem csak elméleti szinten foglalkoznak a kérdéssel, hanem gyakorlati intézkedéseket akarnak látni.

Összességében a kép vegyes: a veszélyeket már azonosítottuk, és megkezdődött a felkészülés, de senki sem ringatja magát abba az illúzióba, hogy ez egy könnyű feladat lesz. Az AGI olyan, mint egy kötéltánc a civilizáció számára: átjuthatunk vele a fejlődés új szintjére, de ha elvéti a lépést, mélybe zuhanhatunk. Ahogy a mondás tartja: reméljük a legjobbakat, de készüljünk a legrosszabbra.

Dajka Gábor marketingszakértő, business coach és befektető szerint

Az AGI valószínűleg a legnagyobb kihívás, amivel a mi generációnk és az utánunk következők szembenézhetnek. Üzleti és társadalmi szempontból egyaránt paradigmaváltást hoz: aki időben alkalmazkodik, az óriási előnyre tehet szert, aki viszont bagatellizálja a vélszélyeit, az könnyen a történelem vesztes oldalán találhatja magát. Úgy látom, hogy a mesterséges intelligencia ezen fejlett formájával kapcsolatban nem engedhetjük meg magunknak a struccpolitikát. Ahogyan egy cégvezetőnek is stratégiát kell építenie a piaci változásokra, úgy globális közösségként is stratégiával kell rendelkeznünk az AGI kezelésére.

Sokan kérdezik tőlem: tényleg ennyire nagy a baj, vagy túl van lihegve a téma? A válaszom az, hogy nem pánikolni kell, hanem cselekedni. Nem hiszem, hogy elkerülhetjük az AGI eljövetelét – a verseny, a tudományos kíváncsiság és a gazdasági érdek előre fogja hajtani a fejlődést. A kérdés az, tudunk-e elég bölcsek lenni ahhoz, hogy előre gondolkodjunk. A történelemben rendre utólag próbáltunk tűzoltani a technológiai mellékhatásokat (legyen szó környezetszennyezésről vagy a közösségi média társadalmi hatásairól). Most itt az esély, hogy másképp csináljuk.

Szakértőként hiszek benne, hogy az emberi kreativitás és együttműködés képessége lehetővé teszi az AGI megszelídítését. Az sem kizárt, hogy végül kiderül: túl sötéten láttuk a jövőt, és az AGI nem lesz gonosz zsarnok, csak egy új eszköz, ami jobbá teheti az életünket. Ugyanakkor a felelősségünk óriási. Nem engedhetjük meg magunknak a naivitást. Kell, hogy legyenek fékek és ellensúlyok, vészforgatókönyvek és etikai határok. Ebben a kérdésben a “majd lesz valahogy” hozzáállás megengedhetetlen.

Úgy gondolom, az AGI-val kapcsolatos diskurzus legfontosabb hozadéka éppen az, hogy ráébreszt minket: össze vagyunk kötve, mint emberiség. Ha egy szuperintelligens gép fenyeget, az nem nézi, hogy amerikai, kínai vagy magyar vagy. Egy hajóban evezünk, és közös nevezőre kell jutnunk az irányt illetően. Lehetőség ez arra is, hogy új szintre emeljük az együttműködést globálisan, és egy olyan jövőt építsünk, ahol a technológia nem elsodor minket, hanem mi irányítjuk azt bölcsességgel.

A végső gondolatom az, hogy az AGI nem determinált végzet: rajtunk áll, civilizációként felnövünk-e a feladathoz. Ha igen, talán utódaink visszatekintve úgy látják majd, ez volt az emberiség nagy pillanata, amikor bizonyította alkalmazkodóképességét és bölcsességét. Ha nem, nos… azzal sajnos nem lesz, aki visszatekintsen. Bízom benne, hogy az előbbi forgatókönyv valósul meg.

Gyakori kérdések az AGI-ról

Mi a különbség az “egyszerű” mesterséges intelligencia és az AGI között?

A jelenleg használt mesterséges intelligenciák többsége ún. szűk (narrow) MI: egy adott feladatban vagy területen nagyon jók (például arcfelismerés, beszédfelismerés, navigáció), de más feladatokra nem alkalmazhatók. Ezzel szemben az AGI – az általános mesterséges intelligencia – sokféle feladatra univerzálisan bevethető lenne. Képzelj el egy algoritmust, amely ugyanúgy megért egy regényt, megtervez egy épületet, programot ír, orvosi diagnózist állít fel vagy épp filozófiai vitát folytat. Az AGI ilyen rugalmas és tanulékony lenne, míg a mai MI-k ennél sokkal korlátozottabbak.

Valóban reális, hogy egy AGI civilizációs összeomlást okoz?

Reálisnak senki nem szeretné nevezni, hiszen ez egy rendkívül szélsőséges forgatókönyv. Ugyanakkor hiteles emberek figyelmeztetnek rá, hogy sajnos nem zárható ki. Az elmúlt években több vezető AI-kutató – például Geoffrey Hinton vagy Yoshua Bengio – nyíltan beszélt arról, hogy aggódik egy túl erős MI lehetséges negatív következményei miatt. 2023-ban pedig több száz szakember írt alá egy nyilatkozatot, miszerint az AI jelentette kihalás-kockázatot a nukleáris háborúhoz hasonlóan komolyan kell venni. Mindez nem garancia arra, hogy összeomlás következik be, csak azt mutatja, hogy felelősen gondolkodva számolnunk kell vele mint lehetséges eshetőséggel. A jó hír, hogy ha időben felismerjük a veszélyt, tehetünk ellene – ezért folyik most annyi erőfeszítés a biztonságos MI-fejlesztés és szabályozás terén.

Milyen hatása lesz az AGI-nak a munkahelyekre és a gazdaságra?

Jelentős és átfogó. Várhatóan számos munkafolyamatot automatizálni fog, így bizonyos állások megszűnhetnek. Ahogy a cikkben is említettük, elemzések szerint akár a globális munkahelyek egynegyede automatizálható lehet az új generációs MI-kkel. Ez eleinte növelheti a munkanélküliséget és feszültségeket okozhat, viszont az AGI által kiváltott termelékenység-növekedés hosszabb távon új iparágakat és munkahelyeket is teremthet. Képzeljünk el olyan gazdasági fellendülést, ahol rutinfeladatokat gépek végeznek, az emberek pedig kreatívabb, magasabb hozzáadott értékű munkákra fókuszálhatnak. Az átmenet azonban kritikus időszak lesz – a kormányoknak és vállalatoknak fel kell készülniük átképzési programokkal, szociális védőhálókkal. Ha jól kezeljük, az AGI hozzájárulhat az általános jólét növekedéséhez; ha rosszul, akkor gazdasági válságokat idézhet elő.

Mit tesznek a szakemberek és döntéshozók az AGI veszélyeinek csökkentéséért?

Nemzetközi szinten már elkezdődött a párbeszéd és az első lépések. Több ország – köztük az EU tagállamai – dolgozik MI-szabályozáson, bár ezek főként a jelenlegi rendszerekre vonatkoznak. A tudományos életben gombamód szaporodnak az AI biztonsági kutatások: csapatok vizsgálják, hogyan lehet “értékbiztosítottan” tervezni egy MI-t, hogyan előzhetők meg a nem kívánt mellékhatások. A nagy techcégek létrehoztak etikai testületeket, és egyesek (pl. OpenAI) még önkorlátozó intézkedéseket is hoztak arra az esetre, ha túl gyorsan haladna a fejlesztés. Ezen felül egyre többen sürgetik egy globális egyezmény megkötését az AGI-fejlesztés kontrolljára. Bár ezek a lépések biztatóak, jelenleg még nincs garantált megoldás – a közös nevező az, hogy az időben történő cselekvés elengedhetetlen. Most kell lefektetni a biztonsági protokollokat és nemzetközi együttműködést, nem akkor, amikor már a nyakunkon a baj.

Mit jelenthet az AGI megjelenése Magyarország számára?

Magyarország, mint a globális gazdaság része, közvetetten ugyanúgy érintett lesz az AGI hatásaiban, mint más országok. A magyar munkaerőpiac sem mentes az automatizációtól: itthon is vannak olyan szektorok (például az autóipar, ügyfélszolgálat, pénzügy), ahol a mesterséges intelligencia már most teret nyer. Az AGI tovább fokozhatja ezt a trendet, így a hazai döntéshozóknak is időben fel kell készülniük – például az oktatási rendszer modernizálásával, hogy a következő generáció olyan készségekkel rendelkezzen, amelyekre szükség lesz az MI-korszakban. Ugyanakkor Magyarország mérete miatt inkább felhasználója lesz a nemzetközi színtéren kifejlesztett AGI-technológiáknak, nem pedig fejlesztője. Fontos, hogy az ország bekapcsolódjon a nemzetközi párbeszédbe az MI szabályozásáról, és átvegye azokat a legjobb gyakorlatokat, amelyek másutt kialakulnak. A kormány 2020-ban el is indított egy Mesterséges Intelligencia Stratégiát, amelynek keretében felállt a MI Koalíció – ez jó alap, de folyamatosan frissíteni kell az AGI perspektívájával. Összefoglalva: az AGI komoly kihívás és lehetőség egyszerre Magyarországnak is. Ha okosan alkalmazkodunk, profitálhatunk belőle (például hatékonyabb ipar, jobb egészségügy, új befektetések formájában). Ha viszont felkészületlenül ér minket, nálunk is okozhat átmeneti sokkot a munkaerőpiacon és társadalmi feszültségeket. A kulcs a proaktivitás: nemzetközi együttműködés, hazai innováció támogatása és a munkaerő felkészítése a jövőre.

Ajánlott magyar videók/podcastok

Források
• Reuters: Top AI CEOs, experts raise ‘risk of extinction’ from AI (2023.05.30.)
• BBC News: AI could replace equivalent of 300 million jobs – report (2023.03.28.)
• ABC News: Artificial intelligence is making headlines, but experts are already planning for ‘the next big thing’ – so what is AGI? (2023.03.23.)

Ha tetszett a cikk, támogasd a blogomat és vedd meg a könyvem.
alul
Címkék:

Egész jók

Csak 5775 Ft

Népszerű

Mi az a Shadow AI, és miért most robbant be?

Valószínűleg a cégedben is zajlik már: kollégák – jó szándékkal – bemásolják a belső levelet, a szerződéstervezetet, a sales riportot vagy akár a forráskódot egy nyilvános MI‑eszközbe, hogy gyorsabban jussanak eredményre. Ezt hívjuk „Shadow AI”-nak (árnyék MI): amikor a vállalat tudta és irányítása nélkül használnak MI‑t. Nem összeesküvés, hanem tünet. A tünete annak, hogy az...

Digitális agresszió a mindennapokban: védekezési kézikönyv civileknek

Képzeld el, hogy egy átlagos hétköznap reggel a telefonodra pillantva nem kedves üzenetek, hanem sértő kommentek és fenyegetések fogadnak. Meglepő vagy sem, az online térben zajló támadások ma már mindennaposak. A digitális agresszió jelensége – vagyis az interneten keresztül megvalósuló zaklatás, lejáratás, fenyegetés – az utóbbi években olyan mértéket öltött, hogy szinte bárki válhat célponttá....

2026 tavasz: nehézpálya a beszámolóknál – így védd meg a 2025-ös eredményt jogszerűen

Ha őszinte akarok lenni, 2026 tavaszán sok vállalatnál nem a kreatív könyvelés dönt majd, hanem az, hogy a 2025-ös évet mennyire fegyelmezetten vitték végig. A gazdasági környezet nem ellenséges, csak nem bocsát meg figyelmetlenséget. Magas a pénz ára, a bérköltség tovább kúszik, és több szektorban élnek a különadók. Közben beérett az a felismerés is, hogy...

Reklám és hirdetés közötti különbség

Észrevetted már, hogy a tévében mindig reklámok mennek, az újságban viszont hirdetéseket találsz? Első pillantásra a két szó ugyanazt jelenti – hiszen mindkettővel el akarnak adni valamit –, mégis fontos különbségek bújnak meg mögöttük. Nem csupán nyelvtani finomságokról van szó, hanem eltérő kommunikációs stratégiákról és üzleti megközelítésről. A hétköznapokban talán fel sem tűnik a különbség,...

Itt érsz el

Keress bátran

Előadások tartását és podcast beszélgetéseket szívesen vállalok, illetve a sajtónak is nyilatkozom. 

Idézz tőlem

Szeretem ha a gondolataimat idézik kiadványokban, weboldalakon, adásokban. Szívesen visszalinkellek, írj rám.

© Copyright 2025