
„A legtöbb modellből hiányzik a tudás faktív (nem valós, hanem csupán a képzeletben létezik) természetének szilárd megértése – hogy a tudás eredendően igazságot igényel” – olvasható a tanulmányban, amelyet a Stanford Egyetem kutatói végeztek, írja a Nature Machine Intelligence.
Megállapították, hogy ennek aggasztó következményei vannak, tekintettel a technológia fokozott jelenlétére a jogtól az orvostudományig, ahol a „tények és a fikciók” megkülönböztetésének képessége elengedhetetlenné válik.
„Az ilyen megkülönböztetések elmulasztása félrevezetheti a diagnózisokat, torzíthatja a bírósági ítéleteket és felerősítheti a félretájékoztatást” – jegyezték meg a kutatók.
Annak meghatározására, hogy a Chatbot képes-e felismerni az igazságot, a tudósok 24 nagy nyelvi modellt vizsgáltak meg, köztük a Claude-ot, a ChatGPT-t, a DeepSeek-et és a Gemini-t – számolt be az Independent. A botoknak 13 000 kérdést tettek fel, amelyek felmérték, hogy képesek-e különbséget tenni a hiedelmek, a tudás és a tények között.
A kutatók azt találták, hogy összességében a gépek kevésbé valószínű, hogy azonosítják a hamis hiedelmet a valódi tényektől, a régebbi modellek általában rosszabbul teljesítenek.
A 2024 májusában vagy azt követően kiadott modellek (beleértve a GPT-4o-t is) 91,1% és 91,5% közötti pontosságot értek el az igaz vagy hamis tények azonosítása terén, szemben a régebbi társaik 84,8% és 71,5% közötti pontosságával.
Ebből a szerzők megállapították, hogy a botok nehezen értik meg a tudás természetét. „Következetlen érvelési stratégiákra támaszkodtak, amelyek felületes mintaillesztést sugallnak, nem pedig robusztus episztemikus (tudáshoz vagy tudáshoz kapcsolódó) megértést” – áll a tanulmányban.
A kutatók arra a következtetésre jutottak, hogy a mesterséges intelligenciának „sürgős fejlesztésekre” lenne szüksége, mielőtt olyan „nagy horderejű területeken” telepítenék, mint a jog, az orvostudomány és más ágazatok, ahol elengedhetetlen a tények és a fikció megkülönböztetésének képessége.
A nyár folyamán az Adobe Express jelentése megállapította, hogy a ChatGPT-t használó amerikaiak 77%-a keresőmotorként kezeli, míg tízből három ChatGPT-felhasználó jobban bízik benne, mint egy keresőmotorban.
A félelem az, hogy ez fogékonnyá teheti a nyilvánosságot az AI hanyatlására – alacsony minőségű és félrevezető tartalomra, amelyet a mesterséges intelligencia automatikusan generál.
Májusban egy kaliforniai bíró 31 000 dolláros bírságot szabott ki két ügyvédi irodára, miután megállapította, hogy ezt a géppel generált félretájékoztatást minden átvilágítás nélkül beépítették egy jogi tájékoztatóba.