Ce texte a été traduit automatiquement, elle peut contenir des erreurs ou des inexactitudes.
Intelligence artificielle
Garder
Supprimer de ma liste

L'AA interprète déjà les émotions, mais la loi n'a pas encore été adaptée, avertit une étude de l'UPV

Ces systèmes fonctionnent de manière continue en analysant ce que nous faisons à tout moment et en tirant des conclusions sur notre comportement, ce qui rend difficile leur classement par catégories actuelles. L "étude a reçu le prix de l'Agence espagnole de protection des données et la chercheuse et professeur de droit constitutionnel de l'UPV/EHU Leire Escajedo a souligné « le décalage entre la rapidité avec laquelle la technologie progresse et la capacité d'adaptation du droit à cela ».

Leire Escajedo_EHU
Leire Escajedo San Epifanio. Photo : Egoi Markaida (EHU).

L'intelligence artificielle (AA) interprète déjà les émotions et les comportements des gens, mais la législation actuelle ne répond pas encore correctement à ce type de technologie.

Dans son ouvrage Accésit au Prix Emilio Aced 2025 de l'Agence Espagnolede Protection des Données (AEPD), intitulé   Traitements biométriques non identifiables par intelligence artificielle, Escajedo analyse un phénomène de plus en plus visible :  l'utilisation de technologies capables d'interpréter ce que nous ressentons ou comment nous agissons à partir des signaux de notre corps.

L'étude met en garde contre le fait que la législation actuelle ne répond pas correctement à ce type de technologie, conçue pour des cas plus longs de collecte de données ou pour prendre des décisions automatisées à tout moment.

Cependant, ces systèmes fonctionnent de manière continue en analysant ce que nous faisons à chaque instant et en tirant des conclusions sur notre comportement, ce qui rend difficile la classification selon les catégories actuelles.

C'est pourquoi le professeur de l'UPV souligne qu '« il y aun décalage entre la rapidité avec laquelle la technologie progresse et la capacité du droit à s'y adapter ».

De nombreux appareils et applications utilisés quotidiennement disposent de systèmes d'intelligence artificielle qui permettent d'obtenir et d'analyser les informations obtenues à partir du visage, de la voix, du regard ou de notre façon d'interagir avec eux.  

Ainsi, ce système peut détecter , par exemple, si une personne prête attention, exprime de l'intérêt ou de la fatigue, combien de temps elle reste ou réagit à un contenu, puis utiliser ces informations pour ajuster ce qui lui est montré , des vidéos   aux publicités ou messages conçus pour attirer l'attention ou influencer le comportement.

Pour ce faire, ils utilisent des technologies liées à la biométrie, telles que la reconnaissance des empreintes digitales ou le déblocage du visage, mais dans ce cas ils ne sont pas utilisés pour identifier la personne, mais pour interpréter son comportement et sa situation à tout moment.

« Nous sommes passés de la collecte des données fournies directement par l'utilisateur à la déduction d'informations plus intimes, sans que la personne ne s'exprime. »

"Nous sommes passés de la collecte des données fournies directement par l'utilisateur à la conclusion d'informations plus intimes, sans que les gens s'expriment ", a constaté Escajedo." Ces outils, en plus d'enregistrer ce que nous faisons, tentent d'interpréter ce que nous ressentons ou comment nous pouvons agir et sont capables de moduler notre comportement ", a-t-il averti.

L'un des principaux risquesidentifiés par l'étude concerne la liberté personnelle, car ces systèmes risquent d '"influencer les décisions" en adaptant l'environnement numérique au comportement observé, et met en garde contrele "manque de transparence sur les données générées et les objectifs de leur utilisation ".

"Le problème n'est pas seulement résolu en informant l'utilisateur : accepter les conditions ou" cliquer "ne signifie pas que nous comprenons quel type d'information est généré, comment il est utilisé ou comment il peut finalement conditionner nos décisions", a déclaré Escajedo.

L "étude rappelle que le Règlement Général sur la Protection des Données a été adopté en 2016, lorsque les biométries étaient principalement utilisées pour identifier les personnes, alors qu'aujourd'hui elles sont de plus en plus utilisées pour interpréter le comportement des personnes.  

De plus, selon le chercheur, le règlement européen sur l'intelligence artificielle "n'a pas accordé suffisamment d'importance à ces utilisations, malgré leur impact réel".

Ça pourrait t'intéresser

Load more