
Čeprav se najnovejši modeli umetne inteligence, kot sta OpenAI-jeva GPT-3 in o4-mini, hvalijo s svojo sposobnostjo »razmišljanja korak za korakom« in podajanja bolj zapletenih odgovorov, so raziskave pokazale, da pogosto izmišljajo informacije, oziroma halucinirajo. OpenAI je razkril, da GPT-3 dela napake pri kar tretjini testov o znanih osebnostih, medtem ko ima o4-mini še višji delež – skoraj polovica nalog vsebuje netočne podatke. Pri splošnih vprašanjih se halucinacije pojavljajo celo v do 79 % primerov. Strokovnjaki menijo, da imajo »razumski« modeli, ki skušajo povezati več informacij in podati bolj podrobne odgovore, večje tveganje za napake, saj pogosto improvizirajo. OpenAI poudarja, da ti modeli morda zgolj podajajo obširnejše in svobodnejše odgovore, kar pa lahko privede do izmišljenih dejstev.
Ta pojav predstavlja težavo, zlasti ker se umetna inteligenca pogosto uporablja kot pomoč pri izobraževanju, v pravu in na drugih področjih, kjer lahko napake vodijo do resnih posledic. Čeprav so modeli izjemno zmogljivi, morajo biti uporabniki previdni in njihovih odgovorov ne smejo sprejemati kot nezmotljive.
Model o4-mini je eden izmed novejših modelov umetne inteligence iz družine GPT, ki ga je razvilo podjetje OpenAI. Gre za lahkotnejšo in hitrejšo različico večjih modelov, kot je GPT-4, namenjeno učinkovitejši uporabi pri napravah z omejenimi računalniškimi viri. Kljub svoji manjši velikosti se ponaša z izjemno sposobnostjo generiranja naravnega jezika, reševanja nalog in obdelave kompleksnih podatkov.
Zanimivo je, da je o4-mini posebej optimiziran za hitro sklepanje in delovanje v realnem času, kar ga naredi primernega za uporabo v mobilnih aplikacijah, pametnih napravah in integriranih sistemih, kjer ni dovolj prostora za velike modele. Pogosto se uporablja tudi v klepetalnih robotih, kjer ni nujno potrebna najvišja raven natančnosti, temveč hitra in smiselna interakcija.
Kljub napredku pa raziskave kažejo, da o4-mini pogosto halucinira – v nekaterih testih skoraj polovico časa poda napačne informacije. To je posledica njegovega poskusa generiranja “logičnih”, a včasih netočnih odgovorov. Zaradi tega strokovnjaki priporočajo, da se njegova uporaba vedno dopolni s preverjanjem dejstev.
Zaključek raziskave je, da je umetna inteligenca včasih kot oseba, ki deluje zelo prepričljivo, medtem ko podaja napačne informacije – zato je nujno vedno preveriti dejstva, ki jih prejmete od teh sistemov.
Urednik portala MojPrihranek