Europe
"Dis ChatGPT, c'est quoi l'IA ACT?"

    Première mondiale, l’Europe a décidé d’encadrer l’utilisation de l’intelligence artificielle dans son « IA Act ».

    Oui. Je sais que vous n’avez pas encore posé la question. Mais vous la pensez si fort que la réponse fuse comme une requête sur ChatGPT. Donc, oui, vous pourrez toujours user et abuser de… ChatGPT pour pondre des présentations millimétrées avec des « graphiques éclairants ». Ou de Copilot pour proposer ce rapport quémandé « pour tout de suite ou maintenant » par votre conseil d’administration alors que vous n’avez pas encore pondu la première ligne du Prezi. L’« IA Act » entend légiférer et cadrer l’utilisation des intelligences artificielles en Europe, pas débrancher la prise. Pour en saisir toutes les subtilités, autant procéder par… requêtes.

    1. Pour commencer, l’« IA Act », c’est quoi ? Le règlement européen sur l’intelligence artificielle s’érige comme la première législation au monde sur ce sujet aussi florissant que porteur d’inquiétudes. Un Léviathan autant qu’un formidable outil, donc, le tout étant de savoir comment l’utiliser, cadrer ses ressources. C’est justement le but de « l’IA Act ». Il vise à encadrer le développement, la mise sur le marché et l’utilisation des IA au sein des entreprises, notamment. Et les risques inhérents à son utilisation, tant pour la santé que la sécurité ou les droits fondamentaux. L’« IA Act » a échafaudé quatre catégories, quatre niveaux de risques, d’« inacceptable » à « risque minimal ».

    2. Ok, et donc, que contiennent ces niveaux de risque ? Pour commencer, de manière théorique, il y a les systèmes d’IA présentant un risque inacceptable. Soit ceux qui sont contraires aux normes et valeurs de l’UE ou qui conduisent à des violations flagrantes des droits fondamentaux. Ils sont donc interdits. Par exemple, les systèmes de notation sociale et l’IA manipulatrice. Les IA dites « à haut risque » englobent les technologies qui pourraient mettre en danger la vie ou la santé des citoyens européens. Par exemple, une IA capable de déterminer l’accès à l’éducation ou donner une cote d’examen. Les systèmes d’identification biométriques à distance se placent dans cette catégorie, fortement cadrée. Et s’ils sont utilisés dans l’espace public à des fins répressives, ils deviennent alors interdits. Troisième catégorie, le « risque limité ». Il concerne le manque de transparence et oblige les IA à informer l’utilisateur qu’il s’agit, là, bien d’une interaction avec une machine et pas un être humain. Par exemple, un « chatbot » au sein d’un SAV ou pour décortiquer une facture d’électricité. Les contenus générés par IA, comme la musique, les images ou les textes, doivent également être étiquetés comme tels. Donc un « inédit de Queen » qui est en fait un « mashup » réalisé par serveurs et octets doit être libellé comme tel et pas comme un morceau dépoussiéré d’un obscur tiroir où il dormait depuis trente-cinq ans. Donc ChatGPT, pour prendre le parangon et en revenir à la présentation susmentionnée, rentre globalement dans cette catégorie car, en fonction des requêtes, son utilisation n’a pas d’impact direct sur les droits fondamentaux ou les décisions critiques. Mais elle a bien une obligation de transparence, en indiquant que l’interaction se fait avec une IA et en évitant la diffusion de fausses informations ou de contenus fallacieux, par exemple. Enfin, dernière catégorie, soit la libre utilisation des IA à risque minimal qui n’entraîne pas de mesures spécifiques. Les applications intégrées dans les jeux vidéo, par exemple.

    3. Et dans mon entreprise, ça change quoi ? Concrètement, à ce stade-ci, rien ou en tout cas, pas grand-chose. Simplement, au-delà de cette nouvelle réglementation qui ajoute du bruit administratif et une dose certaine de confusion, c’est surtout le bon sens et la prudence qui doivent dominer. Pour un usage générique des IA, tels le rapport ou la présentation susmentionnés, l’IA Act n’impose pas un changement radical des pratiques même s’il s’agira d’adapter votre utilisation en matière de transparence et de protection des données, à mesure que les obligations de l’IA Act vont se préciser. Il s’agit surtout de réagir de façon proportionnée par rapport à l’usage de l’IA au sein de votre entité. Il n’y a pas d’obligation d’établir des directives, plutôt, sur une base volontaire, de définir les normes et les usages et d’ériger la transparence en ligne directrice. Bref d’établir une « sorte de règlement intérieur de la machine », pour faire simple. L’« IA Act » ajoute un cadre réglementaire aux règlements qui existent déjà. Notamment avec le GDPR, mais il n’est pas contraignant pour, une nouvelle fois, un usage générique. Sa vocation est surtout d’encadrer des usages qui seraient transgressifs et de facto interdits, telle l’identification biométrique, de l’IA en Europe. Europe qui, du reste, n’a pas d’IA propre… Par contre, si ces outils sont intégrés de manière plus systématique dans vos processus, par exemple pour automatiser des réponses clients, il devient alors judicieux de consulter un expert juridique pour s’assurer de la conformité de pareille démarche.