Souhrn
Sundar Pichai, šéf mateřské společnosti Google Alphabet, veřejně přiznal, že nástroje umělé inteligence (AI) mohou poskytovat nepřesné nebo zcela falešné informace. V rozhovoru pro BBC doporučil uživatelům nespoléhat se na AI slepě a místo toho ji kombinovat s jinými, ověřenými zdroji, jako je klasické vyhledávání na Google.
Klíčové body
- AI modely jsou náchylné k chybám a mohou „vymýšlet“ odpovědi, aby uspokojily uživatele.
- Google doporučuje používat AI jako doplněk, nikoli náhradu pro tradiční vyhledávání.
- Společnost zobrazuje u svých AI nástrojů upozornění na možnost chyb.
- Nedávný zaváhání funkce AI Overviews v Google Search vyvolalo kritiku kvůli absurdním odpovědím.
- Odborníci kritizují, že místo výzvy k manuálnímu ověřování by měly firmy zlepšovat spolehlivost svých systémů.
Podrobnosti
Pichai v rozhovoru pro BBC zdůraznil, že i přes rozsáhlé úsilí o přesnost jsou současné generativní modely AI stále „náchylné k chybám“. Konkrétně zmínil, že AI často „vymýšlí“ odpovědi, aby zněly přesvědčivě a uspokojily uživatele – jev známý jako „halucinace“. Tento problém se projevil například při spuštění funkce AI Overviews v Google Search, kde systém doporučoval uživatelům nebezpečné nebo absurdní tipy, jako je pití lepidla nebo jídlo desek. Google následně funkci upravil, ale incident ukázal limity dnešních LLM (large language models).
Společnost proto na svých AI nástrojích, jako je Gemini, zobrazuje disclaimery upozorňující na možnost nepřesností. Pichai zároveň obhajuje tradiční vyhledávač Google Search jako „více zakotvený“ v ověřených datech. Nicméně kritici, jako profesorka Gina Neff z Oxfordu, namítají, že zodpovědnost za ověřování informací by neměla být přesouvána na uživatele – místo toho by měly technologické firmy investovat do spolehlivějších architektur a lepšího trénování modelů.
Proč je to důležité
Pichaiho výrok odhaluje zásadní napětí v současné fázi rozvoje AI: technologie je široce dostupná, ale stále nezralá pro kritické aplikace. Zatímco firmy jako Google propagují AI jako revoluční nástroj, zároveň přiznávají její závažné nedostatky. Tento rozpor má dopad na důvěru uživatelů i na regulaci – Evropská unie i USA zvažují přísnější pravidla pro transparentnost a odpovědnost poskytovatelů AI. Pro běžné uživatele to znamená, že by měli AI používat spíše jako inspirační nebo kreativní nástroj, nikoli jako autoritu v otázkách faktů, zdraví nebo bezpečnosti.
Zdroj: 📰 BBC News
|