Mi rejlik a chatbotok „fejében”? – A mesterséges intelligencia rejtett működése
2025. március 13.
A mesterséges intelligencia (MI) egyre több feladatban segít a mindennapjainkban, de vajon mi történik egy chatbot „fejében”, amikor válaszol egy kérdésre vagy végrehajt egy utasítást? Többek között erre a kérdésre keres választ a Szegedi Tudományegyetem Mesterséges Intelligencia Kompetencia Központjának kutatása, amely áprilisban indul az amerikai Rutgers Egyetem és a német Ludwig-Maximilians-Universität közreműködésével. A kutatás célja, hogy jobban megértsük a generatív nyelvi modellek működését, és ezzel hozzájáruljunk a technológia biztonságosabb és hatékonyabb alkalmazásához.
A generatív MI modellek működésének megértése
A mesterséges intelligencia képes utánzani az emberi gondolkodást, de vajon tényleg érti a döntéseit? A generatív modellek – amelyek különféle algoritmusok és gépi tanulási módszerek segítségével új tartalmakat hoznak létre adott utasítások alapján – akár sakkot is játszhatnak, de vajon valóban értik a játékszabályokat, vagy csak mintákat követnek, anélkül, hogy tudnák, hogyan működik a játék?
A RAItHMA projekt keretében végzett kutatás egyik fontos témája annak feltárása, hogyan reprezentálják a generatív MI modellek az egyes fogalmakat, és milyen kapcsolatban állnak ezek egymással. Például ha egy chatbot igaznak talál egy állítást, akkor vajon automatikusan hamisnak tekinti-e annak tagadását? Az emberi gondolkodás számára ez magától értetődő, de a nyelvi modellek esetében nem mindig ez a helyzet.
A chatbotok korlátai
„A nagy nyelvi modellek nem a valódi tudást vagy a szabályok megértését sajátítják el, hanem csupán a szövegek folytatására alapoznak. Emiatt a chatbotok néha olyan alapvető kérdésekben is tévednek, amelyeket egy kisgyerek is képes megválaszolni. Ha például felsoroljuk a hét törpe nevét, majd megkérdezzük, hogy egy adott név szerepelt-e a listán, a modell nem mindig tudja a helyes választ. Az MI képes akár összetett matematikai feladatok megoldására is, viszont a halmaz fogalmával és néhány egyszerű feladvánnyal is nehezen birkózik meg. Ha sikerül megérteni ennek okait, nagy lépést tehetünk előre a mesterséges intelligencia jobb megértésében és biztonságosabb alkalmazásában” – mondta Dr. Jelasity Márk, az Interdiszciplináris Kutatásfejlesztési és Innovációs Kiválósági Központ Mesterséges Intelligencia Kompetenciaközpontjának vezetője.
A kutatók arra is kíváncsiak, mi áll ezeknek a zűrzavaroknak a hátterében, milyen belső tudással rendelkeznek a modellek, és hogyan csökkenthető a kommunikációs zűrzavar az emberek és a gépek között. A kutatás nemcsak a generatív MI megbízhatóságának javítását célozza, hanem új lehetőségeket is teremthet a modellek alkalmazásában számos területen.
Bízhatunk a mesterséges intelligenciában?
Ahogy a mesterséges intelligencia egyre több területen nyer alkalmazást, egyre nagyobb kockázatot jelent, ha nem értjük pontosan, hogyan működnek ezek a rendszerek. Egy önvezető autó például képes felismerni az előtte haladó járműveket és a közlekedési táblákat, de nem tudja megérteni a közlekedési helyzetek összefüggéseit. Egy ember tudja, hogy ha egy labda gurul az útra, akkor valószínűleg egy gyerek fog utána szaladni – a mesterséges intelligencia viszont ezt a kontextust jelenleg nem képes érzékelni.
A problémát az jelenti, hogy a modellek nem alakítanak ki stabil világmodellt, amely kulcsfontosságú lenne a megbízható működéshez. A Szegedi Tudományegyetem kutatói nemzetközi partnereikkel együtt azon dolgoznak, hogy feltárják a generatív MI modellek korlátait és jobban megértsék a működésüket. Az első lépés az, hogy pontosabb képet kapjunk arról, hogyan „gondolkodnak” ezek a rendszerek és milyen hibákkal küzdenek, ami hosszú távon segíthet új megközelítéseket kidolgozni. Az így szerzett tudás hozzájárulhat a jövő MI-rendszereinek fejlesztéséhez, biztosítva azok hatékonyabb és megbízhatóbb működését. A mesterséges intelligencia nem csupán egy technológiai eszköz, hanem egy tudományos terület, amelynek alaposabb megértése elengedhetetlen a jövőbeli fejlődéshez.
English Summary
Artificial intelligence (AI) is increasingly assisting in everyday tasks, but how do generative language models like chatbots work? A research project starting in April at the University of Szeged, in collaboration with Rutgers University and Ludwig-Maximilians-University, aims to explore how these models process information and represent concepts. The goal is to understand their limitations and improve their reliability and efficiency, ensuring safer AI applications. The research will focus on the inner workings of generative models and how they sometimes struggle with basic reasoning, despite their advanced capabilities.
Kapcsolódó cikkek
- A jövő technológiája, amely már ma is formálja életünket
- Okosotthon, okos döntés?
- Bosch: A magyarokat is megkérdezték a MI-ről
- Fel fog-e lépni Zámbó Jimmy saját emlékkoncertjén?
- Új AI kurzus a Debreceni Egyetemen
- Hogyan vált a mesterséges intelligencia és egy magyar bankszámla egy csalás főszereplőjévé?
- Akár 12 000 tesztabroncs gyártását spórolhatja meg a Bridgestone új virtuális szimulátorával
- A Bridgestone integrálja a mesterséges intelligenciát a gumiabroncs-fejlesztésbe
- Ez lesz a következő évtized meghatározó technológiája
- Egyre inkább elfogadott a mesterséges intelligencia Németországban