Segíti a tudósok munkáját, de ronthatja eredményeik hitelességét

 HVG  |   2022. július 03., vasárnap
NAGY NYELVI MODELL  SLENDRIÁN ALGORITMUS  MÁS OLVASAT

Rizikós rezümé

Segíti a tudósok munkáját, de ronthatja eredményeik hitelességét az az egyre gyakrabban alkalmazott technológia, mely képes hatalmas mennyiségű szövegből egy rövid összefoglalót generálni.

Papp Petra Anna

Nagy nyelvi modelleknek (large language models) hívják azt a mesterséges intelligencval dolgozó gépi segítséget, amely órsi mennyiségű, emberek által létrehozott szövegeken gyakorolja be a feladatát. Később „élesben” alkalmazza a kitanult algoritmusokat, például arra, hogy akár több ezer oldalas szövegmennyiséget átböngészve adjon rövid kivonatot annak tartalmáról. Emellett az angol nyelvvel kapcsolatos fordítási feladatokra is jól használható, de már programkódot is képes írni, a techórsok – a Google, a Facebook és a Microsoft – pedig chatbotokhoz, keresőmotorokhoz használnak ilyen megoldásokat.

Előszeretettel alkalmazzák a technológt a tudományos publikáckkal foglalkozó kiadók is – ennek veszélyeire hívta fel a figyelmet a minap Shobita Parthasarathy, a Michigani Egyetem feltörekvő technológkkal foglalkozó szakértője a Nature című folyóiratban. A kiadóknál rengeteg terjedelmes kézirat fordul meg jól körülhatárolható szakterületeken belül, így nagy segítség lehet az emberi munkaerőnél jóval gyorsabban dolgozó nagy nyelvi modell alkalmazása. A mesterséges intelligencia azonban jelenleg nem annyira megbízható, mint gondolják – állítja a területet kutatócsoportjával aktívan vizsgáló Parthasarathy. Egy algoritmus nem képes javítani sem a bemeneti szövegek minőségét, sem a szakmai tévedéseket – így ha azok sztereotípkra alapuló megfogalmazásokkal, hibás vagy elavult informácval dolgoznak, akkor ezeket a végeredmény is kritika nélkül átveszi.

meginoghat a tudományba vetett köz­bizalom

A hosszú szöveg túlzott lerövidítése – amikor ráadásul valaminek a betűjét, nem pedig a „szellemét” adja vissza a summázat – egyébként is rejt magában veszélyt. Megesik, hogy az algoritmus túlságosan leegyszerűsíti a mondanivalót, eltünteti az árnyalatokat és a – tudományos szövegekben előszeretettel használt – bizonytalan, óvatos megfogalmazást is. Parthasarathy szerint abból is gond lehet, hogy a laikus olvasók az ilyen, gép által összeszerkesztett – elsősorban angol nyelvű – szöveget nem tudják megkülönböztetni az emberi tudósok által írttól. A leegyszerűsítő kép a tudományról pedig aláássa a professzionalizmust és a tekintélyt, s így meginoghat a tudományba vetett közbizalom.

A tudós úgy gondolja, szigorú szabályozásra van szükség a nagy nyelvi modellekkel kapcsolatban. Óvakodni kell attól, hogy ezek a szakmai lektorokat helyettesítsék, sőt a gépi eredmények ellenőrzésére sokkal több lektor szükséges a jövőben, hogy az amúgy hasznos fejlesztés biztonsággal és bizalommal használható legyen.