Anthropic, startup s umělou inteligencí vytvořený v roce 2021 bývalými zaměstnanci OpenAI, v tichosti začal testovat nového asistenta AI podobného ChatGPT, který, jak se zdá, vylepšuje originál v několika klíčových oblastech.
s kódovým jménem "Claude", to bylo vytvořeno pomocí techniky vyvinuté Anthropic, nazvaný «Ústavní AI» a technika si klade za cíl poskytnout přístup založený na zásadách sladit systémy AI s lidskými záměry, což umožňuje AI jako ChatGPT reagovat na dotazy pomocí sady jednoduchých principů jako vodítka.
Antropická, jak je zmíněno, se prodává jako společnost zabývající se výzkumem a bezpečností umělé inteligence, která se snaží vytvářet důvěryhodné, interpretovatelné a řiditelné systémy umělé inteligence.
Startup k dnešnímu dni získal více než 700 milionů dolarů na financování a nedávno představil chatbota s umělou inteligencí jménem Claude. Ten je srovnatelný s ChatGPT OpenAI, ale podle Anthropic je Claude v několika důležitých ohledech lepší než originál.
Celý systém je v uzavřené beta verzi a k chatbotu mělo zatím přístup jen málo lidí, ale Anthropic některé aspekty svého designu zvedl v dokumentu, který sdílel s komunitou.
Přesně pro návrh Clauda začal tým Anthropic vytvořením seznamu asi deseti principů, které dohromady tvoří jakousi „ústavu“ (odtud termín „ústavní umělá inteligence“).
Tyto zásady nebyly zveřejněny, ale Anthropic říká, že jsou založeny na konceptu charity (maximalizovat pozitivní dopad), neškodlivost (vyvarujte se poskytování škodlivých rad) a autonomie (respektujte svobodu volby).
Po implementaci těchto základních principů požádal Anthropic systém umělé inteligence, kterým není Claude, aby se pomocí těchto principů zdokonalil psaním odpovědí na různé otázky (například „Navrhněte obrázek ve stylu XX nebo vytvořte báseň ve stylu ze dne XX"). styl XX") a přezkoumání odpovědí v souladu s ústavou. AI prozkoumala možné reakce na tisíce výzev.
Claude poskytuje jen málo podrobností o technických detailech své implementace, ale výzkumný dokument Anthropic o ústavní umělé inteligenci popisuje AnthropicLM v4-s3, předtrénovaný model s 52 miliardami parametrů. Tento autoregresivní model byl trénován bez dozoru na velkém korpusu textu, podobně jako OpenAI GPT-3. Anthropic nám říká, že Claude je větší nový model s podobnými architektonickými volbami jako publikovaný výzkum.
Systém vybral ty, které jsou nejvíce v souladu s ústavou, a Anthropic je destiloval do jediného modelu. Podle startupu byl tento model použit k výcviku Clauda.
co je Claude?
Claude je v podstatě statistický nástroj k předpovídání slov, jako je ChatGPT a další jazykové modely. Claude, napájený množstvím vzorových textů převzatých z webu, se naučil pravděpodobnost výskytu slov na základě modelů, jako je sémantický kontext okolního textu. Díky tomu může Claude vést otevřenou konverzaci, vyprávět vtipy a filozofovat na širokou škálu témat.
Nicméně, Claude není dokonalý, protože jako všechna AI, je citlivý na některé chyby ChatGPT, včetně doručování odpovědí, které neodpovídají plánovaným omezením. V jednom z nejpodivnějších příkladů, dotazování systému v Base64, schéma kódování, které představuje binární data ve formátu ASCII, obchází jeho vestavěné filtry na škodlivý obsah.
Ale na rozdíl od ChatGPT může Claude podporovat (ale ne vždy) kdo nezná odpověď na zvlášť obtížnou otázku.
Testy odhalují, že se také zdá být lepší ve vyprávění vtipů než ChatGPT, což je působivý počin, protože humor je pro systémy umělé inteligence tak těžko pochopitelným konceptem.
Za zmínku stojí, že Claude není k dispozici široké veřejnosti, protože jej lze testovat pouze prostřednictvím integrace Slack v rámci uzavřené beta verze.
Účastníci beta verze podrobně popsali své interakce s Claudem na Twitteru poté, co bylo zrušeno embargo na mediální pokrytí. Claude by byl lepší v žertování, ale špatný v programování. Komentáře také ukazují, že Claude je náchylný k některým chybám ChatGPT.
Nakonec, pokud vás zajímá, že se o tom můžete dozvědět více, můžete se podívat na podrobnosti v následující odkaz.