Souhrn
Vedoucí americké pojišťovny požádaly regulátory o možnost vyloučit rizika spojená s umělou inteligencí z firemních pojistných smluv. Důvodem jsou rostoucí obavy z nepředvídatelných chyb generativní AI, jako jsou „halucinace“, které mohou způsobit finanční nebo reputační škody.
Klíčové body
- Společnosti AIG, Great American a WR Berkley podaly návrhy na vyloučení AI rizik u amerických pojišťovacích úřadů.
- WR Berkley chce odmítnout nároky týkající se „jakéhokoli skutečného či údajného použití“ AI, včetně produktů a služeb, které AI využívají.
- AIG označila generativní AI za „široce působící technologii“ s rostoucím potenciálem škod, ale zatím nemá v plánu vyloučení uplatnit.
- Pojišťovna Mosaic odmítá pojistit rizika spojená s velkými jazykovými modely (LLM), protože jejich chování je příliš neprůhledné.
Podrobnosti
Pojišťovny čelí rostoucímu tlaku kvůli masivnímu nasazování generativní AI v podnicích. Technologie jako chatboti nebo AI agenty často produkují neověřené nebo zcela falešné informace – tzv. „halucinace“ – které mohou vést k právním sporům, ztrátám zákazníků nebo regulačním pokutám. Například WR Berkley chce vyloučit jakékoli nároky související s AI, i když je daná technologie pouze součástí širšího produktu. AIG v podání u pojišťovného úřadu v Illinois uvedla, že rizika generativní AI se budou s časem pravděpodobně zvyšovat, a proto chce mít možnost vyloučení v budoucnu použít – i když aktuálně k tomu nedochází. Dennis Bertram, vedoucí kybernetického pojištění u evropské pobočky pojišťovny Mosaic, uvedl, že výstupy AI jsou „příliš černou skříňkou“ pro spolehlivé pojistné modelování. Mosaic sice pojišťuje některý software vylepšený o AI, ale odmítá kryt rizika spojená s LLM, jako jsou modely od OpenAI nebo Anthropic.
Proč je to důležité
Tento vývoj signalizuje, že trh s pojištěním začíná vnímat AI jako zásadně odlišnou kategorii rizika, kterou nelze snadno kvantifikovat ani modelovat tradičními metodami. Pokud pojišťovny odmítnou kryt AI rizika, firmy budou muset nést plnou odpovědnost za chyby svých AI systémů – což může brzdit inovace nebo vést k větší opatrnosti při nasazování LLM v kritických oblastech, jako je právo, zdravotnictví nebo finanční poradenství. Zároveň to ukazuje, že regulační rámec pro AI stále zaostává za tempem jejího nasazování v praxi.
Zdroj: 📰 pymnts.com
|