Přemýšlí AI, nebo to jen předstírá?
V AI komunitě se neustále mluví o nových modelech, parametrech a pokrocích. Ale kdy jste naposledy slyšeli debatu o tom, jak vlastně AI „přemýšlí“?
I přesto, že to není něco, co by obsazovalo titulky novin, tak existuje stále rostoucí množství výzkumů na toto téma. Spousta z nich pochází i od velkých hráčů a často jsou mnohem upřímnější než overhypovaná technická dema.
V tomhle shrnutí se podíváme pod pokličku velkých jazykových modelů (LLM) a přiblížíme si, co o jejich „inteligenci“ opravdu víme.
AI jako iluze myšlení
Jeden z nejznámějších výzkumů v této oblasti se objevil na nedávné Apple Developer Conference pod názvem: „The Illusion of Thinking„. Shrnuje jeden klíčový poznatek: AI není inteligentní bytost, jen se naučila působit dojmem, že přemýšlí.
Apple ukazuje, že důležité koncepty jako generalizace v jejím chování často chybí. Modely se sice trefují do správných odpovědí, ale jakmile narazí na komplikovanější úlohu nebo nový kontext, iluze rychle mizí. Nejsou schopné problém rozdělit a jen obtížně aplikují své další znalosti.
Co říká věda?
Těchto studií je celá řada:
- Anthropic v publikaci On the Biology of a Large Language Model ukazuje, že v modelu Claude existují vnitřní „obvody“ pro plánování, rozhodování i překlad. Neznamená to ale, že model rozumí tomu, co dělá. Naopak: často volí neintuitivní nebo zbytečně složité postupy.
- Apple před rokem publikoval Understanding the Limitations of Mathematical Reasoning…, kde ukazuje, že AI selhává i při malých změnách v zadání matematických úloh. Proč? Protože bez schopnosti generalizace se každý dotaz četl jako nový případ.
- Autoři studie Stop Anthropomorphizing Intermediate Tokens… varují, že „myšlenkové stopy“ generované AI nejsou důkazem uvažování. Jsou to jen elegantní větné konstrukce.
- Bender & Koller už v roce 2019 ve studii Climbing Towards NLU vysvětlují, že model trénovaný jen na textech nemůže porozumět obsahu slov. Navazující Stochastic Parrots (2020) pak tvrdí, že LLM umí pouze napodobovat formální vzorce myšlení.
Od „myšlení“ AI k jejímu nasazení
Téma „přemýšlení“ AI úzce souvisí i s tím, jak v praxi tyto technologie nasazujeme. V našem druhém článku Nezačíná být označení AI agent trochu bolehlav? se zamýšlíme nad tím, co vlastně od inteligentních agentů očekáváme – a jak rychle může dojít k nedorozumění mezi tím, co AI „umí“ a co si o ní myslíme. I proto v dolphin consulting pracujeme s nástroji jako Microsoft Copilot, Power BI s integrovanou AI, nebo custom chatboty na míru, které propojují lidské know-how s datovou silou modelů – ale vždy s důrazem na transparentnost a smysluplné využití. Jen tak dokáže AI skutečně pomáhat a ne klamat.
Co z toho plyne?
Znamená to, že jsou jazykové modely k ničemu? Vůbec ne.
Podívejte se znovu na tento výzkum. Na jedné straně je to brzda na rostoucí AI hype, ale na druhé také extrémně užitečný návod na to, jak s ní zacházet.
Pokud od AI chceme spolehlivý výstup, musíme vědět, co dokáže a kde jsou její limity. Tato znalost je klíčová nejen pro zadávání promptů, ale i pro celkové vyhodnocení schopností modelů ve firemních projektech.
AI sice nepřemýšlí jako člověk – její schopnosti jsou výsledkem statistických vzorců, ne porozumění. Přesto může být neuvěřitelně užitečná, pokud víme, jak s ní pracovat. Klíčem je nepodlehnout iluzi inteligence, ale porozumět tomu, co opravdu umí a kde naráží na své limity. Když se na AI díváme realisticky a zároveň ji vedeme chytře, může se stát silným nástrojem, který rozšiřuje možnosti lidského myšlení – ne ho nahrazuje.
Zajímají vás takové vhledy do fungování AI? Dejte vědět – příště můžeme navázat hlouběji nebo se podívat na konkrétní dopady do datových projektů.
Autor: Ondřej Bronec, Data science konzultant
Tento článek nevygenerovala generativní AI, ale napsal jej člověk na základě svých znalostí a zkušeností z praxe.


