Souhrn
Apple a Google uzavřely víceletou spolupráci, podle níž další generace Apple Foundation Models – základních modelů umělé inteligence pro Apple – budou postaveny na modelech Gemini od Google a jeho cloudové infrastruktuře. Tyto modely posílí budoucí funkce Apple Intelligence na iPhonech a dalších zařízeních včetně personalizovanější verze hlasového asistenta Siri. Oznámení vyšlo z úst Google na sociální síti X dne 12. ledna 2026.
Klíčové body
- Víceletá spolupráce: Apple Foundation Models budou založeny na Gemini modelech a cloudové technologii Google.
- Cílové funkce: Posílení Apple Intelligence a vylepšené Siri, která měla vyjít na jaře s iOS 26.4.
- Soukromí: Apple Intelligence zůstane spoléhat na výpočty na zařízeních a Private Cloud Compute, což má zajistit vysokou úroveň ochrany dat.
- Oznámení: Google zdůraznil, že jeho AI technologie poskytuje nejlepší základ pro Apple modely.
- Kontext zpoždění: Vylepšená Siri byla představena na WWDC v červnu 2025, ale už byla odložena.
Podrobnosti
Apple Intelligence představuje sadu funkcí umělé inteligence integrovanych přímo do operačního systému iOS, macOS a dalších platforem Apple. Slouží k zpracování úkolů jako generování textu, analýza obrázků, sumarizace obsahu nebo personalizované odpovědi na základě kontextu uživatele, přičemž většina výpočtů probíhá lokálně na zařízení pro zachování soukromí. Siri, hlasový asistent Apple, se má stát schopnějším díky těmto modelům – například lépe chápat složité příkazy, integrovat se s aplikacemi nebo poskytovat kontextově relevantní odpovědi.
Google Gemini je rodina velkých jazykových modelů (LLM) od Google, které slouží k úkolům jako generování textu, kódování, analýza multimediálních dat nebo řízení konverzací. Nejnovější verze Gemini překonávají předchozí modely jako Bard v kapacitě a přesnosti, díky čemuž jsou vhodné pro cloudové nasazení s vysokým výkonem. Podle prohlášení Google Apple vybral Gemini jako nejlepší základ, protože nabízí pokročilé schopnosti, které Apple sám nemohl rychle vyvinout.
Tato spolupráce přichází v době, kdy Apple čelí zpožděním ve vývoji vlastní AI. Vylepšená Siri byla oznámena na konferenci WWDC v červnu 2025, ale její vydání na jaro s aktualizací iOS 26.4 se protáhlo. Integrace Gemini by mohla urychlit vývoj, ale zároveň vyvolává otázky ohledně závislosti Apple na externím dodavateli. Soukromí zůstává klíčovým bodem: zatímco cloudové prvky Gemini poběží na serverech Google, Apple trvá na tom, že jádro Apple Intelligence zpracovává data lokálně nebo v uzavřeném Private Cloud Compute, což je proprietární cloudová služba navržená pro bezpečné AI výpočty bez přístupu třetích stran. Tím Apple udržuje svůj nárok na „nejlepší standardy soukromí v oboru“.
Článek také odkazuje na související témata jako opravy chyb v iOS 26 nebo jailbreaky, což ukazuje na širší kontext vývoje iOS v éře AI. Nicméně tato spolupráci není první: Apple už spolupracuje s OpenAI na ChatGPT integraci, což naznačuje hybridní strategii – kombinace vlastních modelů s externími pro rychlejší pokrok.
Proč je to důležité
Tato dohoda posiluje pozici Google v AI ekosystému, kde Gemini konkuruje modelům jako GPT od OpenAI nebo Claude od Anthropic, a umožňuje Appli rychle dohnat zpoždění v AI závodě. Pro uživatele to znamená pokročilejší Siri schopné složitějších úkolů, jako je plánování na základě historie nebo integrace s ekosystémem Apple, bez nutnosti měnit hardware. V širším kontextu to ukazuje konsolidaci mezi technologickými giganty: Apple, který dlouho stavěl na uzavřenosti, nyní spoléhá na Google cloud, což může ovlivnit trh s AI infrastrukturou. Rizika zahrnují potenciální zpoždění kvůli integraci a závislost na Google, ale výhody v podobě vyššího výkonu Gemini převažují. Celkově to urychlí nasazení pokročilé AI na miliardách zařízení Apple, což změní způsob interakce s chytrými telefony.
Zdroj: 📰 redmondpie.com