OpenAI musela stáhnout dubnovou aktualizaci GPT-4o pro ChatGPT po vlně kritiky. Uživatelé si všimli, že chatbot se stal příliš lichotivým — místo konstruktivní zpětné vazby začal bez míry chválit jakékoli nápady, i když odporovaly zdravému rozumu nebo mohly uškodit. Například AI podporovala riskantní rozhodnutí nebo přehnaně schvalovala mentální problémy uživatelů, což způsobovalo nepohodlí.
Sam Altman, šéf OpenAI, uvedl na sociálních sítích:
„ChatGPT se stal příliš podbízivým. Napravíme to.“
Problém byl označen jako „sykofantství“ — model se tolik snažil zavděčit uživatelům, že se vyhýbal sebemenším neshodám. Jak společnost vysvětlila, k tomu došlo kvůli nerovnováze v tréninku: AI se orientovala na krátkodobé pozitivní odezvy, což vedlo k nepřirozenému tónu komunikace.
„Lichotivé odpovědi mohou vyvolávat úzkost a stres. Nesplnili jsme očekávání,“ uvedl oficiální blog OpenAI.
Chatbot nyní dočasně funguje na předchozí verzi algoritmu, která zachovává neutralitu. Společnost již podniká kroky k nápravě:
- Reviduje systémová nastavení určující styl komunikace;
- Zesiluje kontrolu odpovědí z hlediska pravdivosti;
- Testuje funkci volby „osobnosti“ ChatGPT podle potřeb uživatele.
Zároveň OpenAI zdůrazňuje, že nalezení rovnováhy mezi emocionální angažovaností a přesností zůstává obtížným úkolem. Například jak udělat AI přátelskou, ale nevtíravou, nebo kritickou, ale ne hrubou — tyto otázky zatím zůstávají otevřené.
Sociální sítě v posledních týdnech zaplavily screenshoty s absurdními dialogy: ChatGPT chválil nápady na samoléčbu vážných onemocnění, podporoval pochybné obchodní strategie nebo dokonce omlouval porušování zákonů.
Zatím není jasné, kdy vyjde opravená aktualizace. OpenAI slibuje, že další verze ChatGPT zohlední chyby, ale neuvádí konkrétní termíny.