Společnost Anthropic představila aktualizované chatboty Claude Opus 4 a Claude Sonnet 4. Hlavní novinkou je, že nyní mohou samostatně informovat úřady o „potenciálně nebezpečném“ chování uživatelů. Tato funkce vyvolala vlnu sporů v odborné komunitě.
Oba modely kombinují rychlé zpracování dat s hloubkovou analýzou včetně vyhledávání na webu. Claude Opus 4 podle vývojářů zvládá psaní kódu a řešení vícekrokových úkolů lépe než konkurence. Například dokáže automatizovat složité projekty a zkrátit čas práce, ale jeho přesnost závisí na správnosti vstupních dat.
V oblastech jako matematika nebo rozpoznávání obrazu však modely Anthropic stále zaostávají za konkurencí od OpenAI. Nejdiskutovanějším prvkem zůstává systém hlášení. Ten hodnotí jednání uživatelů přes nastavené parametry, ale způsob rozhodování není jasný. Neexistují záruky, že AI neudělá chybu kvůli lidskému faktoru v nastavení nebo chybnému výkladu kontextu.
„To je obrovská zrada důvěry a kluzká cesta. Důrazně doporučuji nikomu nepoužívat Clauda, dokud tuto ‚funkci‘ nezruší. Nejde o prompt nebo myšlenkovou politiku, je to mnohem horší,“ uvedl Emad Mostaque, generální ředitel Stability AI.
Vývojáři Clauda zdůrazňují, že nové verze jsou krokem k „odpovědné AI“. Kritici ale tvrdí, že problém není v samotném hlášení, ale v tom, jak systém definuje porušení. Vše závisí na nastavených kritériích, která mohou být subjektivní nebo nepřesná. Zatím není jasné, jak budou hlášení ověřována a kdo ponese odpovědnost za případné chyby.