Molte aziende affascinate dalle possibilità dell'intelligenza artificiale generativa dimenticano un aspetto chiave: dove vanno a finire i dati inseriti nella finestra di chat?
Il Problema del "Trenamento" dei Modelli
La maggior parte degli strumenti AI gratuiti e pubblicamente disponibili offerti da operatori globali del cloud, si riserva nel regolamento il diritto di utilizzare le conversazioni con gli utenti per "migliorare la qualità del servizio". In pratica, ciò significa addestrare le future versioni dei modelli con i tuoi dati.
⭐ Esempio: Se incolli nella chat un frammento di contratto con una clausola di riservatezza (NDA) o dati personali di un cliente, queste informazioni vengono inviate a server al di fuori dello Spazio Economico Europeo (più spesso negli USA) e potrebbero diventare parte della conoscenza del modello.
Cosa dice il GDPR?
Secondo il GDPR, il titolare del trattamento deve sapere dove i dati vengono elaborati e chi vi ha accesso. L'uso di modelli linguistici pubblici senza un accordo di trattamento dei dati (DPA) firmato è, alla luce della legge polacca, rischioso e potrebbe comportare sanzioni da parte del Garante.
Soluzione: Istanze Private
Un'alternativa per le aziende sono soluzioni come ⭐ Modello privato aikeep.io, che operano su server locali, isolati o in una cloud privata. In questo modello, il fornitore del servizio non ha il diritto di utilizzare i dati del cliente per addestrare i propri modelli, e i dati rimangono sotto il tuo pieno controllo.
✨ Vuoi usare l'AI in modo sicuro in azienda?
Non rischiare di far trapelare i dati nella cloud pubblica. Prova un ambiente AI sicuro conforme al GDPR.