Steve Eisman na svém kanále The Real Eisman Playbook zpovídal Garyho Marcuse, kterým je předním odborníkem na umělou inteligenci. Ten nejdříve popisoval svou kariéru, během které se zaměřoval jak na počítače a programování, tak na lidskou inteligenci a související témata. Pak přešel k řadě dalších témat včetně halucinací umělé inteligence, jejího firemního využití a celkovému dalšímu vývoji.
Marcus popisoval, že o halucinaci umělé inteligence se hovoří ve chvíli, kdy AI prezentuje nějaké informace jako zaručeně správné, ale ony správné nejsou. Příčina je v tom, že i když jsou velké jazykové modely nazývány inteligencí, stále jde pouze o statistické zpracování dat a práci s pravděpodobnostmi. To znamená, že velké jazykové modely LLM se mohou mýlit. „Takové halucinace probíhají neustále, uvedl vědec s příklady z právní praxe, kdy právníci používají LLM pro soudní případy a ukáže se, že informace generované LLM jsou mylné.
Marcus dodal, že informace a práce od LLM vypadají často dobře, jsou správně gramaticky zpracované, ale to neznamená, že informace v nich jsou skutečně pravdivé. To může mít rozsáhlé důsledky. Vědec v této souvislosti například řekl, že „demokracie funguje, pokud lidé vědí, co se skutečně děje.“ „Glorifikované stroje na memorování“ ukázaly podle experta své limity i v souvislosti s autonomním řízením, když testovací vůz Tesly naboural do letadla. Příčinou bylo přitom to, že systém tohoto vozu běžně pracoval s tím, že je třeba se vyhnout jízdním kolům či chodcům, ale koncept letadla neznal.
Co to v praxi znamená, když lidé hovoří třeba o tom, že nový model je lepší než ChatGPT? Marcus na tuto otázku řekl, že třeba automobily se porovnávají dobře. Lze například sledovat jejich chování na mokré vozovce, na sněhu, jejich celkové jízdní vlastnosti a tak dále. Pak tu jsou produkty jako třeba kalkulačky, kde porovnávání v principu není potřeba, protože kalkulačky prostě nedělají chyby. U umělé inteligence a LLM je ale situace jiná.
„Lidé mohou od LLM chtít cokoliv a také to chtějí.“ Neexistuje tedy nějaká jasná množina parametrů, podle kterých by se nějaký LLM dal srovnat s jiným modelem s tím, že je lepší nebo horší. „Každý má svůj názor na to, který model je lepší. Pokud někdo říká, že je lepší než ChatGPT, fakticky tím říká, že tento model je lepší pro něj, pro to, co on konkrétně dělá,“ řekl vědec.
Eisman již dříve zmiňoval Marcuse jako jednoho z mála, kdo tvrdí, že zvyšování výkonu LLM bude stále menší a menší. Marcus na toto téma zmínil, že když porovnával první ChatGPT s druhou verzí, bylo po hodině práce s modelem zřejmé, že druhá verze je výrazně lepší. Mezi ChatGPT 5 a 4 už ale takový rozdíl není, a to ukazuje, že mezní zefektivnění modelů se snižuje, místo aby jejich každá další verze přinášela zvětšující se skoky v efektivitě a výkonu. Co by se stalo, kdyby se Marcusův pohled stal „středním proudem“? Eisman se domnívá, že velké technologické společnosti by mohly výrazně přehodnotit své investiční plány.