Non seulement les entreprises créent des chatbots, mais de nombreux employés les utilisent quotidiennement – avec ou sans autorisation. Mais ChatGPT et ses consorts peuvent causer de lourdes violations de données. Comment s’en prémunir ?
Souvent interdit
Quels profils de clients achètent dans votre magasin ? Où faut-il encore effectuer des livraisons ? Comment préparer un devis en polonais ? Autant de questions auxquelles les chatbots d’IA comme ChatGPT peuvent répondre en un instant. Il vous suffit de télécharger vos documents et l’assistant numérique les résume soigneusement. Il est donc logique que de nombreux employés utilisent des assistants numériques sur leur lieu de travail, que ce soit pour gagner du temps ou pour faciliter des tâches moins amusantes.
Toutefois, l’utilisation est souvent interdite : dès que des données personnelles sont saisies, il s’agit d’une fuite de données. En effet, toutes les données qu’un tel outil d’IA en ligne reçoit sont stockées et utilisées pour former le modèle. « Une fuite de données implique l’accès à des données personnelles sans y être autorisé ou sans en avoir l’intention », précise l’Autorité néerlandaise des données personnelles (AP).