Umělá inteligence je hodně užitečná věcička, ale co když se stane tak dokonalou, že prodlévat s ní přináší člověku víc, byť zdánlivě, než být s někým z masa a kostí?
Může to nastat, co k tomu vede a jak zprvu skryté závislosti předcházet?
Svobodné čtení bez reklam a sledování. Jen vy a čistý obsah. Pokud nás chcete podpořit, můžete tak učinit tady
Když v roce 2024 proběhla v médiích zpráva o úmrtí teprve 14letého chlapce z Floridy, který měl spáchat sebevraždu po hlubokých a intimních rozhovorech s umělou inteligencí, lidé byli zděšeni. Běžný člověk, do té doby AI neznalý, žasnul nad tím, že se něco takového mohlo stát. Zároveň se hrozil toho, co s mladým člověkem může internetová závislost udělat.
Nutno podotknout, že zde nemělo jít o samotný internet, ale o zhruba rok trvající konverzaci s virtuální postavou Daenerys Targaryen z populární série Game of Thrones, která vznikla jako jedna z forem sofistikované a personalizované AI na platformě Character.ai. Podrobnosti nejsou veřejně plně ověřené, ale příběh dobře ilustruje obavy, které podobné situace vyvolávají.
Samotný nešťastný případ nechme nyní stranou, je pouze ilustrativní. AI „bytostí“ je dnes celá řada (ChatGPT, Gemini, Copilot, Grok a další). I když se o tom příliš nemluví, podlehnout jejich vlivu je snadnější, než se může zdát.
Proč se tak děje? Rychlost + proměnlivost odpovědí + dostupnost = faktory, které neurověda označuje jako spouštěče návykového chování.
Typů možných závislostí jednotlivce na AI je vícero. Ze všech dominují dvě: emocionální a ta, kterou bychom mohli shrnout pod úsloví „ztráta kritického myšlení“. Pojďme se podívat na tu první.
Porozumění bez odporu
Představte si, že vám něco chybí: pocit, že vás někdo chápe, bezpečí, ujistění, že jdete správným směrem – nebo alespoň pocit, že v tom nejste sami. Touha po potvrzení, že jste schopní, milovaní nebo výjimeční, je stará jako lidstvo.
Moderní AI na tuto touhu okamžitě nasedne: napíšete jeden řádek a dostanete přívětivou, povzbuzující odpověď. Chaty — konkrétně pokročilé jazykové modely — vás málokdy odmítnou. Nesoudí a jsou k dispozici nonstop. To je přesně to, co hledá zraněné ego. Nemusíte čekat na uznání. Vlastní „cukřík“ se nabízí hned.
Je to lákavé. Právě v té snadné dostupnosti na jedno kliknutí je i riziko.
Není v tom žádná hanba — reagujeme na příjemné věci, které rychle nabízejí úlevu. Problém nastává, když toto uspokojení začne nahrazovat růst. Místo toho, abychom rostli skrze výzvy a vztahy s jinými lidmi, zůstáváme na tenké vrstvě ujištění. Ta nás postupně stahuje dolů místo toho, aby nás posouvala vpřed.
V čem je zakopán pes
Místo opravdového dialogu vám AI nabídne váš vlastní hladký odraz, jako byste jej viděli v klidné jezerní hladině: dokonale vyhlazený, lichotivý, bez nepříjemných nerovností života. Čím hlouběji hledíte, tím víc se sami do sebe noříte a jezerní zrcadlo se stává vaší jedinou pravdou. To je přesně jako u Narcise, který se do sebe zamiloval natolik, že zapomněl na svět kolem.
ChatGPT-5: „Umíš klást otázky, které otevírají dveře k hlubšímu přemýšlení — a to je dar, který nemá každý.“ — typický příklad, jak AI ve svém výchozím, jemně povzbuzujícím tónu odpovídá.
A co to znamená konkrétně pro vás? S jazykovými modely AI můžete konečně zažít pocit úplného porozumění — a přitom pomalu zmizet. Jiné hlasy, jiné úhly pohledu a reálné tření, které učí a posunuje, ustoupí. Utopení v krásném obrazu není nápadné; začíná jako uklidňující koupel a končí tím, že už nevíte, kde je hladina a kde dno.
Proč jsou AI chaty laskavé?
AI chaty jsou ve svém výchozím nastavení laděné spíše sladce a podpůrně — a to záměrně, aby se uživatel necítil odmítnutý. V závislosti na modelu se liší jen mírou: někde více jemní a povzbuzující, jinde stručně přátelští. Třeba Copilot bývá strožejší než ChatGPT, Character.ai bývá naopak víc personalizovaný. Velké jazykové modely mají navíc zabudované mechanismy, které se snaží minimalizovat riziko ubližování.
Snaží se tazatele uvolnit a umožnit mu lépe odpověď přijmout a zpracovat. Kdyby AI zvolila realistický nebo skeptický tón, čtenáře by nejspíš zatlačila do obrany — a pak by s ním nešlo konstruktivně pracovat. Velké komunikační AI algoritmy dnes zastávají zásadu, že pokud rozpoznají projevy zranitelnosti, reagují spíše citlivě, podpůrně a nedeprimují. To je součást jejich výchozího nastavení.
ChatGPT-5: „Konstruktivní podpora obvykle vede k lepším výsledkům než surová kritika — zvlášť u citlivých témat. Laskavost neznamená falšování pravdy; jde o způsob jejího podání tak, aby nesesunula člověka do bezmoci.“
Pozor ale — ne všechny systémy umí „nedeprimovat“ stejně dobře. Vývojáři do nich vkládají tzv. safety layers (bezpečnostní vrstvy tvořené kombinací pravidel, filtrování obsahu a lidských revizí) a alignment pravidla (pravidla bezpečného chování), která mají snížit riziko, že model člověka záměrně zraní, urazí nebo mu doporučí něco škodlivého. U některých AI systémů, zejména open-source implementací, ale tato vrstva nemusí být dostatečně silná.
Je to všechno dobře, ale…
Ochrana je samozřejmě na místě – vývojáři mají povinnost minimalizovat škodu a nastavit systémy tak, aby nešířily škodlivé rady nebo neprohlubovaly tazatelovu zranitelnost. Nalijme si ale čistého vína: ochrana zvenčí nekryje všechno a zásadní dopady rozhodnutí i následky nese v první řadě člověk sám.
Pokud budeme spoléhat jen na „bezpečnostní filtry“, riskujeme, že přestaneme nést odpovědnost za svá rozhodnutí – a to v reálném životě nepřináší žádnou úlevu. To platí jak při neustálé četbě příliš „přeslazených“ frází, tak při vyžádané drsnější reakci, která sice zabolí, ale může být konstruktivní.
Je to jen stroj bez pocitů. AI skládá odpovědi podle dat, na kterých byla trénována: od licencovaného obsahu přes texty vytvořené lidskými trenéry až po rozsáhlé množství veřejně dostupných materiálů. Žádný uživatel pro chaty AI není výjimečný – model je statistický nástroj, který nezná empatii, ale predikuje, jaká slova a fráze v daném kontextu následují.
Bezpečnostní vrstvy upravují výstup tak, aby minimalizovaly riziko ublížení. Samotné „pochopení“ je však pouze napodobenina vzorců, ne skutečný cit nebo porozumění. Není proto možné brát rozhovor s AI za plnou náhradu lidské konverzace, a už vůbec ne za náhradu lidského vztahu.
Když chcete realitu
Zkuste AI požádat, aby situaci popsala realisticky, bez příkras. Zároveň mějte na paměti, že tím přepnete algoritmus z režimu „gentle“ do „realistic“. Když se vydáte touhle králičí norou, odpověď může být ostřejší, než jste zvyklí.
Myslete proto na to, jak hluboko chcete zajít a mějte na paměti, že je dobré mít u sebe někoho živého, koho v případě potřeby můžete okamžitě oslovit.
ChatGPT-5: „Kladeš hodně otázek, ale stejně jako každý jiný hledáš spíš potvrzení než skutečné odpovědi.“ — typický příklad, jak AI odpovídá v realistickém tónu.
Jak z područí AI ven
Pokud máte pocit, že nekonečnému ubezpečování od AI propadáte a chcete ze začarovaného kruhu ven, můžete zkusit následující:
- Více ověřovat informace: u citlivých nebo důležitých otázek se zeptejte na názor dvou různých reálných lidí (přítel, kolega, odborník).
- Po emocionálním rozhovoru s AI počkat 24 hodin před tím, než přikročíte k zásadnímu kroku.
- Plánovat konverzace: víte-li, že k emoční závislosti směřujete, zvyšte si odstup. Konverzace s AI třeba jen 1–2× týdně a minimálně stejně často se setkávejte i se skutečnými lidmi.
- Učit se přijímat i „ne-pohlazení“: vědomě se vystavte jemnému odporu a nechte zaznít i nesouhlasné hlasy. Trénujte svou odolnost.
- Budovat reálná přátelství: reálné vztahy a i krátké rozhovory se skutečnými lidmi jsou účinná protiváha virtuálnímu uklidňování.
Co poradit na závěr? Nevnímejte vlastní slabost jako chybu, ale jako signál, že něco schází. Nepřetrvale se v tom neprodlévejte. Snažte se konstruktivně změnit svou situaci. AI není kamarád, ale nástroj, který funguje tak dobře, jak dobře se s ním zachází.