Une donnée personnelle est une information se rapportant à une personne physique identifiée ou identifiable. Si la loi protège ainsi la vie privée et les libertés individuelles, chez Golem.ai la confiance est clé, on ne capte aucune donnée personnelle dans la configuration de l’IA. Contrairement aux solutions de machine learning. Avec Golem.ai les seules données qui sont stockées pendant l’utilisation le sont à des fins d’historique optionnellement. Pour en savoir plus, découvrez l’interview de Marie-Justine Chassagne, Business Analyst & DPO chez Golem.ai.
Quelles sont les exigences des entreprises en termes de protection des données ?
Chaque entreprise est concernée par la protection des données, et ce, peu importe leur taille. C’est d’abord un enjeu législatif car en cas de non-respect des règles établies l’entreprise peut subir jusqu’à 4% de pénalités sur le chiffre d’affaires annuel. Évidemment c’est aussi un enjeu de confiance vis-à-vis des clients.
L’explosion des outils monitorant la data (veille, rapport de performance…) impose un nouveau cadre de travail avec des contrôles plus stricts. Pour les secteurs où la donnée a toujours été sensible, certains process existaient déjà comme la défense, la banque ou encore l’assurance, mais d’autres ne l’étaient pas comme le secteur de la santé par exemple.
De plus, l’arrivée de nouvelles technologies et notamment de l’artificial intelligence, repose bon nombre de questions quant à la gestion de la data, son stockage, son utilisation, son exploitation pour développer le business tout en répondant aux exigences éthiques.
Qu’est ce qu’une intelligence artificielle respectueuse des données ?
Une IA respectueuse des données doit permettre deux choses : être explicable dans chacune de ses décisions, et frugale en fonctionnant avec peu voire pas de données personnelles. Ainsi, pas d’effet boîte noire, et moins de complexité pour intégrer un projet d’IA en entreprise.
C’est pourquoi nous avons fait le choix d’une technologie d’intelligence artificielle dite symbolique, qui fonctionne sans entraînement, indépendamment des technologies machine learning, deep learning. L’IA symbolique permet la frugalité des données. Cette technologie n’a pas besoin d’aller chercher des données en masse pour construire un projet ou une configuration. Plus de données ne permettra d’être plus performant. On peut se baser sur un set limité pour configurer une solution, cela suffira pour atteindre une bonne performance. La qualité reste plus importante que la quantité !
Par exemple, notre produit DocuChecker a pour objectif d’extraire les informations dans les documents (appels d’offres, rapports…) selon certains critères comme le prix, la date, la quantité de produits, la marge… Choisir une technologie explicable permet en cas d’erreur de trouver le passage textuel pour justifier une décision, puis l’améliorer. Chose impossible avec des techniques statistiques, nous n’aurions qu’une valeur de réussite.
Faire le bon choix technologique est déterminant pour garantir la protection des données.
Quel est ton rôle en tant que DPO chez Golem.ai ?
Le DPO (délégué à la protection des données) est le garant de la protection des données d’une entreprise. Ce rôle, mi technique mi juridique, est obligatoire depuis la loi RGPD de 2018 pour les tous les organismes et entreprises publics, ou dès lors que le traitement de la data est l’activité de base d’une entreprise privée.
Chez Golem.ai je suis donc la représentante de la protection des données personnelles, ce qui signifie que j’ai un rôle d’information, de conseil et de recommandation auprès des parties prenantes de nos projets clients, et ce dès la phase d’onbording.
En somme, être DPO c’est avant tout avoir une excellente connaissance des projets clients et de leurs besoins (stockage des données, connectors, sous traitants…), et réaliser une veille réglementaire régulière sur les sujets RGPD.
Découvrez les autres sujets de notre série sur l’IA Ethique :
- Intelligence artificielle et explicabilité
- Frugalité, le chemin vers une green IA
- Intelligence artificielle : savoir expliquer les biais
- Intelligence artificielle et souveraineté
Pour en savoir plus sur l’explicabilité dans l’intelligence artificielle, découvrez l’interview de notre CTO. Découvrez comment notre technologie permet d’améliorer la compliance et de simplifier le traitement des appels d’offres pour les entreprises. N’hésitez pas à contacter nos équipes si vous avez la moindre question.