III. Une protection juridique perfectible
Tout d’abord, la base juridique de la protection des données dans l’Union européenne est issue de l’article 16 du TFUE qui dispose que « toute personne a droit à la protection des données à caractère personnel la concernant ».
Dans un premier temps, le projet de réglementation envisage la création de bacs à sable réglementaires.
Les bacs à sable réglementaires de l’IA fournissent un environnement contrôlé pour le développement, les tests et la validation de systèmes d’IA novateurs avant leur mise sur le marché ou leur utilisation, conformément à un plan spécifique. Ce processus est surveillé et contrôlé directement par les autorités compétentes pour garantir la conformité aux exigences du règlement en vigueur, ainsi qu’à d’autres dispositions législatives de l’Union et des États membres. Cependant, cela pose un problème, car la législation intervient après l’implémentation de l’IA. Donc, comment pouvons-nous effectuer des vérifications ultérieures concernant le système de ChatGPT, par exemple ?
Le respect de la vie privée et la protection des données personnelles doivent être garantis tout au long du cycle de vie des systèmes d’IA. Cela nécessite l’application des principes de minimisation et de protection des données dès la conception, ainsi que la mise en place de mesures techniques et organisationnelles conformes à l’état actuel de la technologie. Ces mesures visent à préserver les droits fondamentaux des individus en matière de confidentialité.
Ensuite, le projet de règlement européen propose un système de quatre paliers pour évaluer les risques des intelligences artificielles. Selon, le comité national pilote d’éthique du numérique qui a publié un avis consultatif, les IA génératives accessibles au grand public sont des systèmes à haut risque. Les entreprises mettant en œuvre les intelligences génératives - comme Open AI - militent pour qu’elles ne soient pas catégorisées de cette façon.
Cependant, il est important de noter que, en dépit de ces catégorisations, il est nécessaire de souligner l’impact des groupes de pression sur la législation européenne, étant donné son importance économique.
En effet, l’influence des lobbies est notable, lorsque l’on lit certains morceaux de textes de lois comme dans le chapitre IV du DGA (loi européenne sur la gouvernance des données), qui adopte plutôt un caractère de recommandation que d’impérativité en encourageant l’utilisation de données pour des motifs « altruistes », suivant une perspective non marchande, afin de permettre le partage des données au service de l’innovation sociale.
De toute manière, il convient de noter que la politique européenne en matière de protection des données adopte une approche davantage orientée vers la régulation que vers la législation, car la majorité de ses actions se manifestent par des avis consultatifs publiés sous forme de communiqués de presse de la Commission européenne.
Cette approche découle du fait que le processus de législation au sein de l’Union européenne est un processus long, impliquant de longues négociations entre le Conseil européen et le Parlement. Ainsi, afin de réguler rapidement en réponse à l’émergence rapide de technologies telles que les intelligences artificielles génératives, la voie de la régulation consultative apparaît comme une option préférable.
Cependant, bien que ChatGPT enfreigne de nombreuses dispositions du RGPD, il est remarquable que la France ne se montre pas particulièrement sévère, malgré le nombre considérable de plaintes déposées auprès de la CNIL (Commission nationale de l’informatique et des libertés).
De plus, le système judiciaire montre des signes de faiblesse, particulièrement face aux nouvelles technologies, car ces dernières évoluent rapidement au sein de la société, tandis qu’une décision de justice prend souvent plusieurs années avant d’être conclue. La politique de confidentialité d’OpenAI ne fait aucune référence explicite au RGPD, mais elle souligne la conformité du ChatGPT avec les « California privacy rights ». Elle énumère les droits dont disposent les utilisateurs résidant en Californie, notamment le droit de savoir quelles informations personnelles ont été collectées, utilisées et divulguées.