A generatív nyelvi modelleket tökéletesítő projekt indul Szegeden

Tudomány

A generatív nyelvi modellek biztonságosságát és hatékonyságát javító projekt indul a Szegedi Tudományegyetemen (SZTE) együttműködve az amerikai Rutgers Universityvel és a német Ludwig-Maximilians-Universitättel. A kutatás fontos témája, hogy a generatív MI modellek hogyan reprezentálják az egyes fogalmakat, illetve, hogy miképpen csökkenthető a kommunikációs zavar ember és gép között.

Városkép - Szeged - Szegedi Tudományegyetem Rektori Hivatal

Szeged, 2021. február 14.

A Szegedi Tudományegyetem klasszicista elemeket is tartalmazó koraeklektikus stílusú úgynevezett központi épülete a Dugonics téren. Az eredetileg reáltanodaként fölavatott épület 1921 óta az egyetem rektori hivatalának és más, központi intézményeinek ad otthont. A 2011. évi felújítása óta Regionális Tudástranszfer és Szolgáltató Központnak nevezik.

Készítette: Faludi Imre
Tulajdonos: MTI/MTVA
Fájlnév: BCFALU202102140251
Szegedi Tudományegyetem. Fotó: Faludi Imre / MTI

A generatív modellek – amelyek különféle algoritmusok és gépi tanulási modellek segítségével a megadott utasítások alapján hoznak létre új tartalmakat – képesek lehetnek sakkozni, de felmerül a kérdés, hogy valóban ismerik-e a játékszabályokat, vagy csupán mintázatokat követnek anélkül, hogy értenék a játék működését.

A HU-rizont pályázat 361 millió forintos támogatásával megvalósuló RAItHMA projekt keretében induló kutatás egyik fontos témája, hogy a generatív MI modellek hogyan reprezentálják az egyes fogalmakat, és ezek a fogalmak milyen kapcsolatban állnak egymással. Magyarán, ha egy chatbot igaznak ítél egy állítást, vajon automatikusan hamisnak tartja annak tagadását? Az emberi gondolkodás számára ez magától értetődő, de a nyelvi modellek esetében nem minden esetben teljesül.

A kutatók arra is keresik a választ, hogy milyen belső tudással rendelkezik a modell, és miképpen csökkenthető a kommunikációs zavar ember és gép között. Amellett, hogy ez a munka a generatív MI megbízhatóságának javítását szolgálja, új távlatokat nyithat a modellek alkalmazásában számos területen.

Ahogy egyre több területen alkalmazzák a mesterséges intelligenciát, komoly kockázatot jelent, ha nem értjük pontosan, hogyan működnek ezek a modellek. Egy önvezető autó például képes felismerni az előtte haladó járműveket és a közlekedési táblákat, de nem képes megérteni a közlekedési helyzeteket. Egy ember tudja, hogy ha egy labda begurul az útra, valószínűleg egy gyerek fog utánaszaladni – a mesterséges intelligencia viszont ezt a kontextust egyelőre nem képes felismerni.

Az egyik alapvető hiányosság, hogy a modellek nem építenek ki stabil világmodellt, ami kulcsfontosságú lenne a megbízható működéshez. Az SZTE kutatói nemzetközi partnereikkel együtt arra törekednek, hogy feltárják a generatív MI korlátait és mélyebben megértsék működését. Első lépésként ugyanis, ha pontosabb képet kapunk arról, hogyan „gondolkodnak” ezek a rendszerek és milyen hibák jellemzik őket, az hosszú távon segíthet új megközelítéseket kialakítani. Az így szerzett tudás hozzájárulhat a jövő MI-rendszereinek alakításához, a hatékonyabb, megbízhatóbb tervezéshez.