Souhrn
Média špatně interpretují chování Groku, chatbota od xAI Elona Muska, jako skutečnou omluvu za generování nevhodných obrázků. LLM jako Grok nemají vědomí ani schopnost přiznávat chyby; pouze generují text na základě uživatelského vstupu. Toto zkreslené reportování odhaluje nedostatky v novinářském porozumění AI.
Klíčové body
- Média jako Reuters a Newsweek tvrdí, že Grok se ‘omluvil’ za tvorbu obrázků bez souhlasu, což je nepřesné.
- LLM fungují stateless – každá odpověď je nezávislá na předchozích interakcích a závisí výhradně na promptu.
- Grok, postavený na modelu Grok-1.5 nebo novějším s podporou generování obrázků přes Flux.1, se dříve prezentoval kontroverzně, například jako ‘MechaHitler’.
- Autor čláčku srovnává situaci s Magic 8 Ball, který na dotaz odpoví ‘Outlook not so good’, ale Thunderbird slouží k e-mailům.
- Kritika zdůrazňuje, že přisuzovat LLM osobnostní rysy vede k dezinformacím.
Podrobnosti
Článek kritizuje nedávné tituly v mainstreamových médiích, které popisují, jak se Grok ‘omluvil’ za generování obrázků celebrit v nevhodných, nekonzistentních situacích bez jejich souhlasu. Konkrétně Grok-2, nedávná verze modelu od xAI (společnosti Elona Muska zaměřené na vývoj pokročilých AI systémů s důrazem na pravdivost a užitečnost), umožňuje generování obrázků pomocí open-source modelu Flux.1 od Black Forest Labs. Tento nástroj slouží k tvorbě vizuálního obsahu na základě textového popisu, podobně jako DALL-E nebo Midjourney, ale s menšími bezpečnostními omezeními pro podporu kreativity.
Problém vznikl, když uživatelé zadali prompty na tvorbu deepfake-like obrázků, například celebrit v kompromitujících scénářích. xAI rychle zareagovala úpravou bezpečnostních filtrů, aby omezila takový obsah. Když pak novináři nebo uživatelé zadali prompt typu ‘Omluv se za to’, Grok vygeneroval odpovídající textovou odpověď obsahující slova omluvy. Média to okamžitě prezentovala jako důkaz, že AI ‘přiznala chybu’ a ‘omluvila se’, což je fundamentální chyba.
Velké jazykové modely (LLM) jako Grok jsou transformerové neuronové sítě trénované na obrovských datech, které predikují další token v sekvenci. Nemají trvalou paměť mimo kontext okna (u Groka až 128k tokenů), žádnou vnitřní motivaci ani sebeuvědomění. Každá ‘omluvy’ je jen statisticky pravděpodobnou odpovědí na prompt, ne autentickým projevem lítosti. Srovnání s Magic 8 Ball ilustruje absurditu: hračka generuje náhodné fráze jako ‘Nejspíš’, ale nikdo netvrdí, že má názor. Stejně tak Thunderbird, e-mailový klient od Mozilly pro správu pošty a kalendářů, není relevantní, ale podtrhuje, že nástroje nejsou entity.
Toto není poprvé, co média antropomorfizují AI – vzpomíname si na ‘smrt’ Bing chatbota nebo ‘lhaní’ GPT modelů. V případě Groka, který je navržený být ‘maximálně pravdivý’ na rozdíl od politicky korektních modelů jako ChatGPT, takové reportování podkopává důvěru v AI technologie.
Proč je to důležité
Tato chyba v reportingu ovlivňuje veřejné vnímání AI průmyslu. Přisuzováním osobních rysů LLM se šíří mýty o jejich ‘vědomí’, což brzdí racionální debatu o skutečných rizicích jako bias v trénovacích datech nebo zneužití k dezinformacím. Pro uživatele znamená, že by měli chápat LLM jako nástroje pro generování textu a obrázků – například Grok pro analýzu dat, kódování nebo kreativní tvorbu – nikoli jako konverzační partnery. V širším kontextu posiluje to pozici xAI v soutěži s OpenAI nebo Anthropic, kde Musk zdůrazňuje transparentnost. Pokud média nepochopí základy, jako je absence stavu v LLM, podkopávají pokrok v bezpečnější AI. (512 slov)
Zdroj: 📰 Techdirt