Minél okosabb a mesterséges intelligencia, annál többet hallucinál

Tudomány

A legújabb MI-modellek kreatívabbak, de egyre gyakrabban gyártanak téves, valótlan információkat, ezért kritikával kell kezelni a válaszokat.

Stockphoto - Illusztráció - érzékcsalódás - érzékelési zavar - hallucináció  - AI - mesterséges intelligencia - MI. Fotó: Shutterstock
A kép illusztráció. Fotó: Shutterstock

A mesterséges intelligencia fejlődésével párhuzamosan egyre gyakrabban fordul elő az úgynevezett hallucináció jelensége, amikor az MI-rendszerek valótlan, pontatlan információkat generálnak - írja a Lifescience. Az OpenAI kutatásai szerint a legújabb, fejlett modellek – mint az o3 és az o4-mini – jóval gyakrabban hallucinálnak (33 és 48 százalékos arányban), mint korábbi változatuk, az o1. Bár ezek a modellek összetettebb feladatokat képesek megoldani és pontosabb eredményeket is adhatnak, az ezzel járó félrevezető tartalom mennyisége aggodalomra ad okot.

A probléma azért különösen jelentős, mert a felhasználók sokszor teljesen megbíznak az MI által közölt információkban, ez pedig különösen kritikus olyan területeken, mint a jog, az orvostudomány vagy a pénzügy.

A hallucináció valójában az MI-rendszerek kreativitásának alapja is: ha csak a tanított adatokból másolna, nem tudna új ötleteket, szövegeket, megoldásokat alkotni, azaz hasonlóan működik, mint az emberi képzelet vagy álmodás.

A szakértők szerint a hibák csökkentésének egyik lehetséges módja a visszakereséssel bővített szöveggenerálás módszer, amikor a modell külső, hiteles adatforrásokkal támasztja alá válaszait. Más megközelítés a logikai lépések követésének kényszerítése, önellenőrzésre ösztönzés vagy a bizonytalanság felismerése, amikor a modell inkább emberi beavatkozást javasol. Ám teljesen megszüntetni valószínűleg sosem lehet a jelenséget – ezért a szakértők azt tanácsolják, hogy a MI válaszait ugyanazzal a kritikával kezeljük, mint egy emberi forrásét.