Felelősségteljes mesterséges intelligencia fejlesztés – jó úton járunk?
2023. április 24.
Az utóbbi időszakban különösen nagy figyelmet kapott a különféle mesterséges intelligencia modellek nagyközönség számára való elindítása. A generatív mesterséges intelligencia használatával kapcsolatos potenciális kockázatok megnövekedtek, különösen a szerzői jogi kérdések területén, de az ilyen eszközöket alkalmazó vállalatoknak olyan kockázatokra is komoly figyelmet kell fordítaniuk, mint a rendszer-kimenetek helyessége és megmagyarázhatósága, vagy a negatív előítéletek kiszűrése.
A ChatGPT (társalgási nyelvi-rendszer) és a DALL-E (szöveget képpé alakító alkalmazás) elindításával a generatív mesterséges intelligencia (MI) különösen nagy figyelmet kap, és egyre népszerűbb. A generatív MI gépi tanulást használ új tartalmak, pl. szövegek, képek, programkódok, költemények vagy grafikák, előállításához. A legtöbb munkavállaló attól tart, hogy a DALL-E átalakíthatja a hirdetések, a filmkészítés, valamint a játékok világát, a ChatGPT pedig munkahelyeket válthat ki tartalom- és szöveggyártás, oktatás, szoftverfejlesztés és újságírás bizonyos területein.
„Ezek az aggodalmak nem alaptalanok, de nem is ennyire fekete-fehér a történet: a munkahelyek biztosan átalakulóban vannak, azonban továbbra is versenyben marad az, aki megtanulja az MI eszközöket jól és az előnyére használni, együtt élni velük, jól alkalmazni azokat munkájában, saját területén – aki az új eszközökkel együtt tud dolgozni, nem nélkülözhetetlen, hanem keresett szakember lesz.” – mondta Dr. Barta Gergő, a Deloitte Vezető MI szakértője.
Vannak vállalatok, melyek a szerzői jogok megsértésével kapcsolatos aggályok és felelősségek miatt nem engedélyezik az MI által létrehozott tartalmak felhasználását. Számos, stock-fotót gyűjtő platform pedig a művészek és fotósok kérésére MI által létrehozott képek használatát tiltotta be. A ChatGPT alkalmazásának terjedésével megnőtt az oktatásban a plágium kockázata, ezért bizonyos városok állami iskoláiban tilos a nyelvi modell használata.
Bizonytalanság az MI-ben: mennyire lehetünk benne biztosak, hogy helyes a kimenet?
Mit nevezünk kimenetnek? Amikor egy feltett kérdésre választ adunk, gyakran kezdjük mondatunkat azzal, hogy „Nem vagyok biztos benne, de…”, vagy „Ez csak egy sejtés, de…” – attól függően, hogy mennyire vagyunk biztosak válaszunk helyességében. Ezzel szemben a ChatGPT gyakran szabadkozás nélkül kimenetet produkál. A ChatGPT korlátait sorolva az Open AI így fogalmaz: „A ChatGPT néha hihetően hangzó, ugyanakkor helytelen válaszokat ad.” Egy kódolással foglalkozó Q&A platform éppen ezért tiltotta be a ChatGPT használatát: „A ChatGPT által generált válaszok közzététele kifejezetten káros az oldalra nézve… mivel ezen válaszok jónak tűnhetnek, mégis nagy arányban tévesek”. Több olyan esetről is tudunk, amikor a ChatGPT nevetséges hibát vétett a matematika és a logika területein, előfordult, hogy az algebrai jelöléseket használta rosszul, illetve olyan területeken, amilyen pl. a sakk is, ahol a számítógépek köztudottan képesek felülmúlni az emberi teljesítményt, a ChatGPT irracionális lépéseket hajtott végre, tökéletes pókerarccal.
A chatbot hamis önbizalmán keresztül megnő a téves információ terjesztésének, a félretájékoztatásnak a kockázata. A ChatGPT információs oldala kifejti, hogy ez kihívást jelent, mivel „jelenleg a biztonságos információforrás nem áll rendelkezésre” és „ha a modellt nagyobb óvatosságra tanítják, elutasíthatja azoknak a kérdések megválaszolását, amelyekre egyébként helyesen tudna válaszolni”.
„Ugyan tesztelési célokból érdemes lehet inkább helytelenül megválaszolni egy kérdést, mint a választ megtagadni, valós helyzetben történő alkalmazás esetén a rossz válasz nagyobb károkkal és költségekkel járhat, mint a semmilyen válasz. Az elővigyázatosság szükséges mértéke téma- és feladatkörönként eltérő lehet. Annak érdekében, hogy a felhasználók megbízhassanak a generált szöveg tartalmában, a létrehozott szöveg nem lehet egyformán magabiztos minden témában. Az olyan nagy nyelvi modelleknek – Large Language Models, LLM – , amilyen a ChatGPT is, jelenlegi formájukban fontolóra kellene venniük, hogy tisztázó kérdéseket tegyenek fel, ismerjék fel a tudásbázisuk korlátait, kis mértékű bizonyossággal adják meg a válaszokat és adott esetben egy egyszerű „nem tudom a választ” szöveggel térjenek vissza.” – mondta Barta Gergő.
Megmagyarázhatóság: honnan származik a generált információ?
A fő kihívás a ChatGPT kimenetelének azonosításában az, hogy nem rendelkezik egy egyértelmű információforrással. Ellentétben más MI alapú személyi asszisztensekkel, amilyen a Siri vagy az Alexa, melyek internetes keresőmotorok segítségével keresik a választ, a ChatGPT-t úgy tanították, hogy a mondatokat a következő, statisztikailag valószínű nyelvi egységre vonatkozó találgatások sorozatával alkossa meg. Emiatt nevezik az LLM-eket néha „sztochasztikus papagájoknak” is.
A tudományos kutatások során minden információ megbízhatóságát annak forrása alapján határozzák meg. Egyes nyelvi modellek, több különböző forrást szintetizálnak annak érdekében, hogy megadjanak egyetlen választ. Ezek a rendszerek különböző megbízhatósági szinteket rendelhetnek a különböző forrásokhoz azok reputációja alapján. Például, ha az információ megkérdőjelezhető forrásból származik módosíthatják válaszukat oly módon, hogy a felmerült kételyt kifejezzék, vagy több lehetséges választ is bemutathatnak, ha a különböző források nem értenek egyet egy bizonyos témában. Érdemes lehet megfontolni ezeknek a típusú modelleknek a használatát egy-egy speciálisabb téma során.
„A megmagyarázhatóság kritériuma nélkülözhetetlen lesz, hiszen abban az esetben, ha az eredmény megkérdőjelezhető, az lehetővé teszi az információ befogadója számára, hogy felmérje a kontextust, és betekintést nyerjen a további feltételezésekbe, vagy az alkalmazott logikába.” – mondta Puskás Attila, a Deloitte Kockázatkezelési Tanácsadás Vezető Tanácsadója.
Ennek hiánya többek között a képgenerátorokat is érinti. A szintetikus, szöveget képpé alakító programok az interneten elérhető képekből tanulnak. Egy vizuális médiával foglalkozó cég beperelte az egyik MI eszköz létrehozóit, amiért megfelelő engedély nélkül használták fel képeiket. Művészek egy csoportja korábban a szerzői jogok megsértéseként értékelt, ezért bojkottált egy MI által generált képeket tartalmazó alkalmazást, mivel az MI egy valós művész stílusát utánzó képeket generált. Bár a jogi kihívások összetettek, az MI által generált műalkotások inspirációforrásának azonosítása – tehát annak a forrásnak, ahonnan az MI nagyrészben másolta a meglévő műalkotást, lehetővé teszi a pénzügyi kompenzációt és elszámolást.
Előítélet: mi történik, ha „rossz” forrásból tanul a rendszer?
Ha a modellt nagy volumenű, szöveget és képeket tartalmazó adathalmazon tanítják, akkor a modell természetesen megismétli a forrásban található torzításokat. Ez gyakorlatban azt jelenti, ha a felhasznált tanító adathalmaz pl. egy arcfelismerő rendszer esetében felül-reprezentált egy adott etnikai csoport tekintetében, akkor megvan a kockázata annak, hogy más csoportokat nem fog sikeresen felismerni, tehát elfogult lesz a tanító adatban szignifikánsan megjelenő mintákkal szemben – ez pedig igazságtalan kimenetet eredményezhet.
Bár a ChatGPT tartalommoderálási korlátokat alkalmaz a szexuális, gyűlöletkeltő, erőszakos vagy káros tartalmak generálásának megelőzése érdekében, ezeket a beépített szűrőket könnyű megkerülni az utasítások átfogalmazásával. A Galactica, a ChatGPT elődje pl. 3 nap után állt le, mert hamis és rasszista tartalmakat generált. Sok munkát kell még elvégezni ahhoz, hogy a tanításra használt adatokban a torzításokat azonosítani és csökkenteni lehessen – nemcsak a generatív MI esetében, hanem az MI összességében. Egyes tudósok a tanításhoz használt adatok gondos összegyűjtése mellett érveltek a hatalmas mennyiségű és könnyen elérhető internetes források használata helyett.
Összességében a generatív MI népszerűségének növekedése következtében jelentkező potenciális kockázatokat és etikai megfontolásokat teljes mértékben figyelembe kell vennie az ilyen modellt implementálni kívánó vállalkozásnak. Ezeknek a technológiáknak új, izgalmas alkalmazási lehetőségei vannak, fontos azonban ezeket a lépéseket összhangba hozni és arányosan mérlegelni a felmerült kockázatokkal, elszámoltathatósággal és az esetleges visszaélésekkel, mert így lehet korlátozni az előre nem látható negatív hatásokat.
„Átgondolt kockázatkezelésre és irányításra van szükség ahhoz, hogy biztonságosan és magabiztosan lehessen használni a generatív MI innovációit. A generatív MI kockázatait az olyan klasszikus vállalati kockázati tényezőkkel, amilyen a működési, adatvédelmi, jogi, vagy technológiai kockázat is, együtt kell azonosítani és értékelni, annak biztosítása érdekében, hogy a maradványkockázatok ne jelentsenek fenyegetést se a vállalati működésre, se a társadalomra vagy a környezetre.” – mondta Barta Gergő.
Kapcsolódó cikkek
- Erre használják a magyarok a ChatGPT-t
- Brutális üzlet lehet a jövőben a mesterséges intelligencia manipulálása
- Félünk az AI-tól, pedig magunktól kellene
- Félelmek és aggályok az emberek közé kieresztett technológiai hype körül
- ChatGPT és rossz kistestvére a ChaosGPT
- Így látja a mesterséges intelligencia a magyar népbetegséget
- Az EU átfogó rendeletben szabályozná a MI használatát
- A mesterséges intelligencia szabad múltja és korlátozott jövője
- Húsvéti locsolókölni a mesterséges intelligencia közreműködésével
- Locsolókölnit készített a mesterséges intelligencia