Microsoft Copilot je chatbot, který aspiruje na to být jedním z nejvýkonnějších nástrojů pro zvýšení produktivity uživatelů aplikací od firmy Microsoft. Copilot má ovšem přístup ke všem citlivým datům, ke kterým má přístup uživatel, což je často nežádoucí stav. Jak bezpečně zajistit zavedení systému Copilot?
Copilot je asistent s umělou inteligencí, který je přítomen v každé z aplikací Microsoft 365 – Word, Excel, PowerPoint, Teams, Outlook atd. Jeho posláním je zbavit každodenní práci nutné neproduktivní rutiny a umožnit uživatelům soustředit se jak na efektivní řešení zásadních problémů, tak na kreativní činnost.
Copilot je jiná úroveň využití umělé inteligence než například ChatGPT a další podobné produkty, protože má přístup ke všemu, na čem kdy uživatel v 365 pracoval. Copilot dokáže okamžitě vyhledávat a sestavovat data z dokumentů, prezentací, e-mailů, kalendáře, poznámek a kontaktů.
Copilot má přístup ke všem citlivým datům, ke kterým má přístup uživatel
V tom ale zároveň spočívá velký problém pro týmy starající se o informační bezpečnost ve firmách. Copilot má přístup ke všem citlivým datům, ke kterým má přístup uživatel, což je často nežádoucí stav. V průměru je 10 % dat společnosti uložených v Microsoft Ofice 365 přístupných všem zaměstnancům.
Copilot může také velmi rychle generovat nové výstupy citlivých dat, která je třeba chránit. Před revolucí v oblasti umělé inteligence schopnost lidí vytvářet a sdílet data výrazně převyšovala možnosti jejich ochrany. Stačí se podívat na trendy v oblasti narušení dat. Generativní AI nepřilévá do tohoto pomyslného ohýnku olej, ale doslova explozivní směs. Rizika rostou exponenciálně.
Jak bezpečně zajistit zavedení systému Copilot?
Pokud jde o generativní umělou inteligenci jako celek, je toho hodně, co je třeba v oblasti bezpečnosti zohlednit: obcházení modelů, generování halucinačních výstupů, deepfakes atd. Jak konkrétně na zabezpečení dat a jak může váš tým zajistit bezpečné zavedení systému Copilot?
Případy použití systému Microsoft 365 Copilot
Možnosti použití generativní umělé inteligence se sadou pro spolupráci, jako je Microsoft Office 365, jsou neomezené. Je snadné pochopit, proč se tolik týmů IT a bezpečnosti dožaduje včasného přístupu a připravuje své plány na zavedení. Zvýšení produktivity bude obrovské.
Můžete například otevřít prázdný dokument aplikace Word a požádat Copilota, aby vypracoval návrh pro klienta na základě cílové sady dat, která může zahrnovat stránky OneNote, balíčky PowerPoint a další kancelářské dokumenty. Během několika sekund máte k dispozici plnohodnotný návrh.
Zde je několik dalších příkladů, které společnost Microsoft představila při svém uvedení na trh:
- Copilot se může připojit k vašim schůzkám v Teams a v reálném čase shrnout, o čem se diskutuje, zachytit akční body a říct vám, které otázky nebyly na schůzce vyřešeny.
- Copilot v Outlooku vám pomůže třídit doručenou poštu, určovat priority e-mailů, shrnovat vlákna a generovat za vás odpovědi.
- Copilot v aplikaci Excel dokáže analyzovat nezpracovaná data a poskytnout vám přehled, trendy a návrhy.
Jak funguje Microsoft 365 Copilot
Toto je jednoduchý přehled, jak se zpracovává požadavek pro Copilota:
- Uživatel zadá požadavek v aplikaci, jako je Word, Outlook nebo PowerPoint.
- Společnost Microsoft shromáždí odpovídající kontext uživatele na základě jeho oprávnění v Microsoft Office 365.
- Požadavek je odeslán do LLM (jako GPT4) k vygenerování odpovědi.
- Společnost Microsoft provede následné zpracování odpovědi AI.
- Společnost Microsoft vygeneruje odpověď a příkazy zpět do aplikace Microsoft Office 365.
Model zabezpečení Microsoft 365 Copilot
Není to poprvé, co u společnosti Microsoft existuje extrémní rozpor mezi produktivitou a zabezpečením dat. To se projevilo třeba i během koronaviru, kdy týmy IT rychle nasazovaly Microsoft Teams, aniž by nejprve plně pochopily, jak funguje základní model zabezpečení nebo jestli jsou v pořádku nastavená oprávnění, skupiny a zásady propojení jejich organizace s Microsoft Office 365. Podívejme se na Copilot z hlediska jeho pozitiv a rizik.
Pozitiva
- Izolace tenantu
Copilot používá pouze data z aktuálního uživatele v rámci jeho M365 tenantu. Nástroj AI nezobrazí data z jiných tenantů, ve kterých může být uživatel hostem, ani z tenantů, u kterých může být nastavena synchronizace mezi tenanty.
- Hranice učení
K trénování základních LLM, které Copilot používá pro všechny nájemce, nepoužívá žádná vaše firemní data. Neměli byste se obávat, že se vaše vlastní data objeví v odpovědích jiných uživatelů v jiných tenantech.
Rizika
- Oprávnění
Copilot zobrazuje všechna organizační data, ke kterým mají jednotliví uživatelé alespoň oprávnění k prohlížení. - Štítky
Obsah generovaný Copilotem nezdědí štítky MPIP souborů, ze kterých Copilot čerpal svou odpověď. - Odpovědnost za obsah
U odpovědí systému Copilot není zaručena stoprocentní věcnost a bezpečnost; za kontrolu obsahu generovaného umělou inteligencí musí nést odpovědnost lidé.
Rozeberme si rizika podrobněji:
Oprávnění
Udělení přístupu Copilotu pouze k tomu, k čemu má uživatel přístup, by bylo vynikající nápad, kdyby společnosti mohly v systému Microsoft 365 snadno prosadit nejmenší oprávnění. Společnost Microsoft ve své dokumentaci k zabezpečení dat systému Copilot uvádí následující:
„Je důležité, abyste používali modely oprávnění, které jsou dostupné ve službách Microsoft 365, jako je SharePoint, a pomohli tak zajistit to, že správní uživatelé nebo skupiny budou mít správný přístup ke správnému obsahu ve vaší organizaci.”
Zdroj: Data, soukromí a zabezpečení pro Microsoft 365 Copilot
Empiricky však víme, že většina organizací má k nejmenším oprávněním tak daleko, jak si jen dokážeme představit. Stačí se podívat na některé statistiky z vlastní zprávy společnosti Microsoft State of Cloud Permissions Risk.
Rizika
- více než 40 milionů jedinečných oprávnění
- 113K+ citlivých záznamů sdílených veřejně
- 27K+ odkazů na sdílení
Proč k tomu dochází? Oprávnění Microsoft 365 jsou extrémně složitá. Stačí se zamyslet nad všemi způsoby, jakými může uživatel získat přístup k datům:
- Přímá oprávnění uživatele
- Oprávnění skupiny Microsoft 365
- Místní oprávnění služby SharePoint (s vlastními úrovněmi)
- Přístup pro hosty
- Externí přístup
- Veřejný přístup
- Přístup k odkazům (kdokoli, celá organizace, přímo, host)
Zásadním problémem je skutečnost, že oprávnění jsou většinou v rukou koncových uživatelů, nikoli týmů IT nebo bezpečnostních expertů.
Štítky
Společnost Microsoft se při prosazování zásad DLP, používání šifrování a široké prevenci úniku dat do značné míry spoléhá na štítky citlivosti. V praxi je však zprovoznění štítků obtížné, zejména pokud se při aplikaci štítků citlivosti spoléháte na zaměstnance. Microsoft vykresluje ideální obrázek štítkování a blokování jako dokonalé bezpečnostní sítě pro vaše data. Skutečnost ale ukazuje horší scénář. Vzhledem k tomu, že data vytvářejí lidé, označování často zaostává nebo zastarává.
Blokování nebo šifrování dat může způsobit další potíže v pracovních postupech a technologie označování jsou omezeny na konkrétní typy souborů. Čím více štítků organizace má, tím více může být pro uživatele matoucí. To je zvláště intenzivní u větších organizací.
Účinnost ochrany dat na základě štítků se jistě sníží, až budeme mít umělou inteligenci generující řádově více dat vyžadujících přesné a automaticky aktualizované štítky.
Jsou mé štítky v pořádku?
Je možné to zjistit například prostřednictvím společnosti, která vytváří řešení k ověření a zlepšení štítkování v organizaci pomocí skenování a následných oprav:
- Citlivých souborů bez štítku
- Citlivých souborů s nesprávným štítkem
- Necitlivých souborů s citlivým štítkem
Odpovědnost za obsah
Umělá inteligence může uživatele v jistém smyslu naučit lenošit. Obsah generovaný LLM, jako je GPT4, je skvělý. V mnoha případech rychlostí a kvalitou daleko předčí to, co dokáže člověk. Výsledkem je, že lidé začínají slepě důvěřovat AI, že vytvoří bezpečné a přesné odpovědi.
Už jsme viděli reálné scénáře, kdy Copilot vypracoval návrh pro klienta a zahrnul do něj citlivé údaje patřící úplně jinému klientovi. Uživatel po nepozorném (nebo spíše žádném) pohledu stiskne tlačítko „odeslat“ a spustí se scénář narušení soukromí nebo dat.
Před zavedením systému Copilot je velmi důležité mít přehled o stavu zabezpečení dat. Nyní, když je systém Copilot všeobecně dostupný, je vhodná doba pro zavedení kontrolních mechanismů zabezpečení.
Co musíte jako vedoucí bezpečnostního týmu udělat?
- Odhalit a klasifikovat veškerý citlivý obsah generovaný umělou inteligencí.
- Zajistit správné použití štítků MPIP.
- Vynutit oprávnění s nejmenším oprávněním.
- Průběžně monitorovat citlivá data v M365 a upozorňovat a reagovat na neobvyklé chování.
Petr Plíšek
Specialista zabývající se ochranou dat a s ní související právní a technickou problematikou
Vysvětlivky:
Co je to tenant?
Slovo tenant se objevuje v mnoha článcích o Office/Microsoft 365. Tenant je označení identity firmy/organizace v cloudových službách společnosti Microsoft. Při zakládání cloudové služby Microsoftu si vytvoříte tenant (účet organizace). Tímto účtem se pak přihlašujete do prostředí, ve kterém spravujete své cloudové služby. S účtem organizace jsou pak spojené veškeré informace, jako jsou domény, uživatelé, zakoupená předplatná ke službám a další.
Globální administrátor
Člověk, který zakládá tenant, se automaticky stává tzv. globálním správcem (Global administrator). Tato role umožňuje nastavovat všechny parametry služeb a také přidávat další uživatele, včetně definování jejich rolí. Jedná se o důležitou roli. Naše doporučení je, aby v rámci větších organizací existovalo více lidí s rolí globálního administrátora. Jedná se zejména o možnost zastoupení v případě nepřítomnosti.