Entra en vigor en la UE la primera Ley de Inteligencia Artificial del mundo: claves y objetivos
Desde hoy, está en vigor en la Unión Europea la Ley de Inteligencia Artificial (IA), la primera del mundo para regular unos sistemas que permiten actuar de manera más precisa y eficiente que los humanos en muchos ámbitos e impulsar la innovación, pero que a la vez plantean importantes riesgos que el nuevo marco común trata de evitar. La norma busca impulsar la excelencia y la innovación tecnológica asegurando la protección de los derechos humanos.
Estas son las cinco claves principales de la nueva norma:
Objetivos
Los principales objetivos son establecer un marco jurídico armonizado en la Unión Europea para el desarrollo, la comercialización, la puesta en marcha y el uso de los sistemas de Inteligencia Artificial (IA), un área que puede generar muchos beneficios pero que conlleva riesgos. Asimismo, se pretende impulsar la innovación y erigir a Europa en líder del sector.
A quién se aplica
Las normas se aplican a los proveedores de sistemas de IA que se pongan en servicio o comercialicen dentro de la UE o cuya salida se utilice en la UE, con independencia de su origen. También a usuarios de los mismos, considerando usuarios a quienes explotan esos sistemas.
No se aplica a las autoridades públicas de terceros países ni a organizaciones internacionales cuando utilicen sistemas IA en el ámbito de la cooperación policial o judicial con la UE, y tampoco a los sistemas de uso militar o utilizados en el contexto de la seguridad nacional, ni a los usados con el solo propósito de la investigación y el desarrollo científico.
La nueva ley pone un énfasis significativo en la transparencia. Las empresas deben informar a los usuarios cuando estén interactuando con un sistema de IA, ya sea en llamadas telefónicas o en chats donde interfieran chatbots.
Tipos de sistemas de IA
La ley establece cuatro tipo de sistemas de IA: prohibidos, de alto riesgo, con requisitos de transparencia y de propósito general.
En el bloque de los prohibidos se incluyen los que desplieguen técnicas subliminales para distorsionar el comportamiento de una persona de manera que pueda causarle daños físicos o psicológicos a él o a otros, los sistemas de categorización biométrica, la captura indiscriminada de imágenes faciales de internet, el reconocimiento de emociones en el lugar de trabajo y en las escuelas, los sistemas de "puntuación" de las personas en función de su comportamiento o características, la actuación policial predictiva y la IA que manipule el comportamiento humano o explote las vulnerabilidades de las personas.
No obstante, la normativa permite excepciones. Los sistemas de identificación biométrica "en tiempo real" solo se podrán emplear si se cumplen una serie de salvaguardias. Entre estos casos pueden figurar la búsqueda selectiva de una persona desaparecida o la prevención de un atentado terrorista.
Multas
Las multas se modularán según las circunstancias y valorarán el tamaño del proveedor. Para quienes incumplan la normativa se prevén multas con un rango que va desde los 35 millones de euros o el 7% del volumen global de negocio de las empresas hasta los 7,5 millones de euros o el 1,5% del volumen global de negocio.
Fases en la aplicación de la nueva ley
Tras su entrada en vigor este 1 de agosto, será de plena aplicación veinticuatro meses después, con excepción de las prohibiciones de prácticas, que se aplicarán seis meses después de la fecha de entrada en vigor, es decir, en febrero de 2025.
En agosto de 2025 empezarán a aplicarse las normas para los modelos de uso generalista, como ChatGPT, y un año después, en agosto de 2026, se aplicará la ley de manera general, salvo algunas disposiciones.
Las obligaciones para los sistemas de alto riesgo comenzarán a aplicarse 36 meses después, en agosto de 2027.
Te puede interesar
Australia y Francia marcan el camino para la regulación de redes sociales a menores
Australia y Francia se convirtieron en los primeros países del mundo en limitar el acceso de adolescentes a las redes sociales, estableciendo precedentes que podrían inspirar al Gobierno español a adoptar una medida similar.
La Comisión Europea abre expediente sancionador a X por las imágenes sexualizadas de Grok
Bruselas evaluará si X ha examinado y mitigado los riesgos asociados con la puesta en marcha de las funciones de su inteligencia artificial, Grok, en la Unión Europea.
Investigan nuevas filtraciones de datos de Pradales, Chivite y otros presidentes autonómicos
El 'hacker' de sobrenombre Eurogosth ha difundido el DNI, direcciones o teléfonos de responsables autonómicos, mientras que el 'hacker' con el alias Vindex, ha difundido en dos fases información de carácter personal del ministro Puente y otros altos cargos de Transportes.
TikTok crea una empresa conjunta bajo control estadounidense para esquivar el veto de la app en EEUU
El presidente estadounidense, Donald Trump, principal impulsor del acuerdo, ha celebrado en redes sociales la confirmación de la noticia, adelantada por la prensa hace un mes, destacando la importancia de la app en el apoyo de los jóvenes en su triunfo electoral de 2024.
Caída de X a nivel global por segunda vez esta semana
La red social, así como su IA, Grok, han dejado de funcionar con normalidad esta tarde en todo el planeta. El pasado martes también estuvo caída durante una hora.
X bloqueará la generación de imágenes sexualizadas con Grok
La red social amplía las restricciones de su inteligencia artificial tras la polémica por la creación de imágenes de personas reales con ropa íntima, incluidas menores de edad. La medida se aplica también a los suscriptores de pago.
Grok, la inteligencia artificial de X, se convierte en una herramienta para la violencia machista
Miles de usuarios están utilizando la IA de Elon Musk para generar imágenes de mujeres sexualizadas sin su consentimiento. Este hecho ha generado una gran controversia en el mundo. Por ello, hemos hablado con dos mujeres de Colectiva Femias, que cruza arte, feminismo e IA para cuestionar sus sesgos y construir tecnologías más justas.
Gobiernos de todo el mundo presionan a X por los “deepfakes” sexuales generados por su IA Grok
En Europa, varios gobiernos han abierto investigaciones para evaluar si este tipo de contenidos son ilegales.
ChatGPT y Copilot dejan de funcionar en WhatsApp y solo seguirá Meta AI
Las nuevas políticas de la plataforma de mensajería vetan los ‘chatbots’ de terceros, lo que obliga a OpenAI y Microsoft a retirar sus asistentes a partir de mañana.
La Wikipedia cumple 25 años y la edición en euskera se consolida como referente de las lenguas minorizadas
La enciclopedia libre y colaborativa más grande del mundo celebra su 25º aniversario con más de 60 millones de artículos, mientras la Wikipedia en euskera destaca por su crecimiento sostenido, su comunidad activa y su papel clave en la preservación y difusión del euskera en internet.