Prezentace: AI a (kyber)bezpečnost (Synology days 2025). Plus malý AI experiment
Ve čtvrtek jsem měl povídání na Synology days o bezpečnosti/nebezpečnosti umělých inteligencí. Máte-li chuť, zde je prezentace.
Kompendium vychází dvakrát týdně, ve středu a v neděli. Je zdarma, stejně jako 365tipů. Zde je ale mimořádně obsah navíc. Tak si ho užijte, stejně jako blížící se víkend. A uvidíme se v nedělním newsletteru.
Bohužel Substack neumí “embed”, tedy něco co se dá prohlížeč, takže náže ke stažení. Chcete-li prohlížet tak AI a (kyber)bezpečnost v Google dokumentech.
A aby toho nebylo až tak málo, tak jsem požádal Claude AI o článek (pokladem je jen prezentace výše, žádné další informce, pokyny ani záznam z přednášky). Já bych ho takhle dohromady nedal, ale špatné to není.
AI a kybernetická bezpečnost: Co by měla vědět každá firma
V letošním roce si už nedokážeme představit svět bez umělé inteligence. ChatGPT, Copilot a další asistenti jsou součástí běžné práce, stejně jako generování obrázků a videa. Jenže spolu s příležitostmi přichází i nová rizika. Jak se chránit?
Jak AI mění hru útočníků
Kyberšikany dnes nemusí být geniální hackeři. S pomocí AI mohou za pár minut vytvořit naprosto věrohodný phishing email tailovaný právě pro vaši firmu. Jen si vezmi představu: šéf vám zatelefonuje a urgentně žádá, aby jste poslali peníze na konkrétní účet. Akorát to není opravdový šéf – je to deepfake jeho hlasu, který AI generovala.
Falešné chatboty se zdají naprosto legitimní. Automatizovaný sběr informací o tvé firmě (tzv. OSINT) trvá teď místo hodin už jen minuty. A pokud někdo ovlivní znalostní bázi, kterou si tvoje AI asistentka načítá z interních dokumentů, bude si sebevědomě vymýšlet informace a ty jim věřiš.
To, co bylo dříve doménou špičkových kyberútočníků, se stalo dostupné pro kohokoli s internetem.
Nejčastější chyby, kterých se firmy dopouštějí
Řekl bych, že vidím tři základní problémy. Za prvé – zaměstnanci (a někdy i vedení) beztrestně kopírují citlivá data do veřejných chatbotů. Když si nadiktuju do ChatGPT smlouvu se zákazníkem nebo údaje o mzdách, je to tam navěky. OpenAI, Microsoft nebo Google si tyto data mohou archivovat, a když se podívám na jejich podmínky, občas tam slibují, že nepoužívají data k trénování. Ale není to nikde napsáno pevně.
Za druhé – přílišná důvěra AI výstupům bez ověření. AI hallucuje, vymýšlí si citáty a zdroje. Když si ji vezmeš jako zdroj pro důležité rozhodnutí, můžeš skončit špatně. Třetí problém je pak technický: rozšíření a pluginy v Microsoft 365 nebo Google Workspace mají často příliš širokých práv a nikdo je nehlídá.
Konkrétní příklady? Plugin integrovaný do Teams má přístup k e-mailům, kalendáři, dokumentům – a ty si ho ani neuvědomuješ. Nebo když ti AI asistent pomáhá psát kód, ale nikdo neověří, co tam AI napsal. Nebo se výstupy z AI nekontrolovaně kopírují dál mezi kolegy a nikdo neví, kde data skončila.
Co ty a tvůj tým můžete dělat hned
Začni s jednoduchými pravidly: Nikdy do AI nedávej osobní, smluvní nebo tajné údaje. Opravdu žádná data – ne jména a příjmení zákazníků, ne interní směrnice, ne zdravotní údaje, ne firemní finance. To není součást paranoie, je to zdravý rozum.
Druhé pravidlo: „AI řekla” není automaticky pravda. Vždy se zeptej někoho druhého, zkontroluj si to, nebo si ulož jako nepsané pravidlo, že u důležitých věcí se podívá víc lidí. A zvol si správný model – ChatGPT 4 je lepší než 3.5, ale i tak tě občas zklamou.
Třetí pravidlo: Buď skeptický k urgenci a emocím. Maily nebo hlasové hovory, kde vás někdo za každou cenu tlačí na něco nebo vzbuzují strach – to je klasický útok. Zastaví se na chvíli a zavolej si tu osobu na číslo, které si sám vyhledáš.
Technické řešení: Jak to zvládat na úrovni IT
Na straně techniky je potřeba několik kroků. Nejdůležitější: Zapni dvoustupňové ověření (2FA) nebo ještě lépe passkeys. Všechny role a přístupy musí následovat princip nejmenších práv – každý by měl mít jen to, co opravdu potřebuje.
Sleduj a hlídej, co data AI nástrojů opouštějí tvou síť (egress kontrola). Výstupy z AI asistentů by měly být segmentovány – testovací prostředí odděleno od produkčního, přístupy jasně nastaveny. Ideálně si IT nastaví automatickou redakci citlivých dat (DLP – Data Loss Prevention) předtím, než jsou odeslána.
Secrety a API klíče nesmí být v kódech – mají být v bezpečném trezoru a pravidelně se měnit. Bez výjimky.
Zálohování: Tvá poslední linie obrany
Právě teď se ransomware útoky stávají stále sofistikovanější. Podle průzkumu od CSO a CrowdStrike 78 procent organizací zažilo ransomware útok v posledním roce a 38 procent vedení vidí AI-poháněné ransomware jako hlavní hrozbu.
Proto ať tě nebudou nudit osvědčená pravidla: Pravidlo 3-2-1 – minimálně tři kopie dat, na dvou různých typech úložišť, jedna mimo budovu. Používej snapshoty a nejlépe imutabilní zálohy, kterým nikdo nemůže poškodit. A co je nejdůležitější – pravidelně si ověř, že obnova opravdu funguje. Zálohování bez testu je jako se nechat pojistit a pak zjistit, že pojistka není platná.
Měj také jasný plán na krizové situaci (runbook), kde je napsáno, kdo co dělá, když se něco stane.
Dnes to udělej
Pokud chceš začít, tady je konkrétní checklist na zítra:
Vydej jednoduchou AI politiku (1 strana stačí) s tím, které AI nástroje mohou lidé používat a které ne. Do allowlistu si přidej něco obecného (ChatGPT Enterprise, Claude for Work, Microsoft 365 Copilot) a konkrétních služeb podle potřeby. Výslovně zakáž podezřelé či neznámé věci jako Grok nebo DeepSeek.
Vypni shadow IT cesty – seznam všechny pluginy v Teams a Google Workspace, ověř jejich práva, vypni ty, které nepotřebuješ. Vyměň si API klíče a zapni všude 2FA.
Nastav snapshoty a imutabilní zálohování, pak si ověř, že obnova funguje.
Vezmi si na serio DPIA – posouzení rizik, které data posíláš do AI a jaký to má dopad. Sepíši DPA (Data Processing Agreement) s těmi službami, kterým data svěřuješ.
Zkraťte uchovávání logů AI služeb na 7-30 dní a nech si tam automaticky mazat osobní údaje.
Zavěď pravidlo „call-back” – když někdo žádá peníze, hesla nebo citlivá data, vždy se zavolej na číslo, které si sám vyhledáš.
Spusť školení – není to potřeba být těžké, ale lidi musejí vědět, jaké jsou rizika.
Kterým AI nástrojům věřit?
Pokud si chceš vybrat v poli AI asistentů, tady je základní mapa. Pro obecnou práci je bezpečné Claude for Work či Enterprise (Anthropic), ChatGPT Enterprise (OpenAI) nebo Microsoft 365 Copilot. Google Gemini for Workspace je také ok.
Pokud chceš data, aby neopustila síť, existují varianty na vlastních serverech: Ollama s Open WebUI, PrivateGPT nebo lokální Whisper pro přepisy audia.
Na speciality – kódování má smysl GitHub Copilot Business, texty lze překládat přes DeepL Pro. Obrázky si vezmi z Adobe Firefly nebo Getty Images. A pokud ti chybí videa nebo hlasové hovory – Azure AI Speech, Google Cloud Speech-to-Text nebo ElevenLabs mají enterprise verze.
Když to shrnu: AI není nepřítel, je to prostředek. Stejně jako každý prostředek, musí se používat zodpovědně a s vědomím rizik. Začni malými kroky, nastav jasná pravidla a během času si vytvořiš kulturu, kde AI pomáhá bez toho, aby ohrožovala tvou firmu.
Článek vychází z přednášky Daniela Bradburyho Dočekala. Více tipů k Microsoft 365 a AI najdeš na 365tipu.cz a v odborném newsletteru #TYDEN.


