Mnoho firem nadšených z možností generativní umělé inteligence zapomíná na jeden klíčový aspekt: kam putují data zadaná do okna chatu?
Problém "Trénování" Modelů
Většina bezplatných, veřejně dostupných nástrojů AI nabízených globálními operátory cloudu si v pravidlech vyhrazuje právo na využití konverzací s uživateli k "zlepšení kvality služeb". V praxi to znamená trénování budoucích verzí modelů na vašich datech.
⭐ Příklad: Pokud vložíte do chatu fragment smlouvy s klauzulí omluvy (NDA) nebo osobní údaje klienta, tyto informace jsou odesílány na servery mimo Evropský hospodářský prostor (nejčastěji do USA) a mohou se stát součástí znalostí modelu.
Co na to GDPR?
Podle GDPR musí správce dat vědět, kde data jsou zpracovávána a kdo k nim má přístup. Používání veřejných jazykových modelů bez podepsané smlouvy o zpracování dat (DPA) je podle českého práva rizikové a může vést k uložení pokut od ÚOOÚ.
Řešení: Soukromé Instance
Alternativou pro firmy jsou řešení jako ⭐ Soukromý model aikeep.io, které běží na lokálních, izolovaných serverech nebo v soukromé cloudu. V tomto modelu poskytovatel služby nemá právo využívat data klienta k trénování svých modelů a data zůstávají pod vaší plnou kontrolou.
✨ Chcete bezpečně využívat AI ve firmě?
Neriskujte únik dat do veřejné cloudu. Otestujte bezpečné prostředí AI v souladu s GDPR.