• Blogs

L’IA conversationnelle sera-t-elle conforme ?

By Sylvia van Hoorne | 23 février 2023

Seul le temps nous dira si et comment #ChatGPT ou d’autres outils émergents d’IA révolutionneront nos industries et nos emplois. La vérité est que nous sommes face à une technologie qui émerge à peine et qui aura un grand impact sur notre vie. Peut-on vraiment se fier à ces outils d’IA et sont-ils conformes ?

Parfois, une innovation technologique se développe apparemment du jour au lendemain, devient virale et tout le monde en parle. Cependant, la vitesse à laquelle ChatGPT est passé d’inconnu à un phénomène mondial est inouïe.

En novembre 2022, OpenAI a lancé ChatGPT, un chatbot d’intelligence artificielle gratuit avec des compétences de communication incroyablement proches de celles des humains. Après quelques semaines, la recherche sur Google du terme « ChatGPT » donnait près de 280 millions de résultats indiquant la possibilité de rédiger des articles, des blogs, de passer des tests ou même de coder des sites web. Google n’est pas seul à parler de cet outil, les réseaux sociaux sont inondés de messages expliquant pourquoi ChatGPT est ou n’est pas l’outil le plus puissant au monde.

Cependant, nous ne débattrons pas ici du potentiel de l’outil en tant que générateur de contenu, mais nous tenterons de déterminer si les outils d’IA respectent la conformité réglementaire. En tant que prestataires de services de gestion d’information, nous croyons aux modèles d’intelligence artificielle et aux nouvelles technologies. Mais si nous choisissons d’utiliser ces outils, nous devons nous assurer qu’ils sont réglementés et conformes avant de les utiliser.

Il est important que les outils d’IA couvrent les risques liés à la diffusion de données inexactes dans le monde entier et garantissent la confidentialité des données des utilisateurs. Nous pensons qu’avant d’utiliser un outil d’IA, il est important de vérifier si une politique a été mise en place qui donne le droit à l’utilisateur de corriger ses données inexactes. Il s’agit d’une exigence en vertu du règlement général de l’UE sur la protection des données (RGPD) et d’autres lois sur la protection des données.

Les outils d’IA étant utilisés partout dans le monde, il est nécessaire d’avoir plus de transparence sur l’utilisation des données personnelles des utilisateurs. Il faudra également vérifier si les données ne sont pas partagées avec des tiers.

À l’heure actuelle, il n’est pas certain que ChatGPT ou d’autres outils d’IA émergents soient conformes au RGPD. Si ces outils vont être utilisés à grande échelle, une législation doit être en place garantissant la protection des données personnelles dans le cadre de l’utilisation des modèles d’IA.  En attendant, il convient d’examiner comment ils sont conçus et utilisés, et de déterminer s’ils collectent, traitent ou stockent les données personnelles de personnes situées dans l’UE.

Pour en savoir plus sur la façon dont OASIS utilise l’IA et automatise les processus en respectant la conformité réglementaire, contactez-nous.

< Back to news & blog