Inteligencia Artificial

El Gobierno aprueba un anteproyecto ley que obligará a identificar el contenido creado con Inteligencia Artificial

Esta ley forma parte de un conjunto de normas que buscan proteger a los ciudadanos en el mundo digital. El objetivo es proteger a las personas de los sus usos inapropiados como manipulaciones.

La ministra de Sanidad, Mónica García; la ministra Portavoz, Pilar Alegría y el ministro para la Transformación Digital y de la Función Pública, Óscar López

Publicidad

El Consejo de Ministros ha aprobado un anteproyecto ley que regulará el uso de la Inteligencia Artificial (IA) en España, basándose en las normas establecidas por la Unión Europea que "defiende nuestros derechos digitales, identificando prácticas prohibidas", decía el ministro de Transformación Digital, Óscar López.

Esta ley obligará a identificar los contenidos generados con inteligencia artificial (IA) con el objetivo de proteger a las personas de sus usos inapropiados como evitar engaños y manipulaciones. Además, también se busca asegurar que se use de manera ética y segura. "La IA es una herramienta muy poderosa, que puede servir para mejorar nuestras vidas o para difundir bulos y atacar la democracia", explicaba el ministro de Transformación Digital y de la Función Pública en la rueda de prensa.

Algunas de las prácticas prohibidas son el uso de técnicas subliminales para influir en decisiones sin consentimiento, la explotación de vulnerabilidades relacionadas con la edad, discapacidad o situación económica para manipular comportamientos. Además de la clasificación biométrica de las personas por raza u orientación política, religiosa o sexual, la puntuación social para decidir si se otorgan ayudas o préstamos, y la detección de emociones en el trabajo para decidir promociones o despidos.

Sanciones

A partir del 2 de agosto de 2025, serán sancionadas con multas entre 7,5 y 35 millones de euros. Algunos sistemas de IA están considerados como de alto riesgo porque afectan a áreas como la salud, el transporte, la educación o la justicia, y por lo tanto se deben

Si alguien no cumple con las normas, puede enfrentar sanciones económicas. Además de las multas por prácticas prohibidas, las infracciones muy graves pueden llevar desde 7,5 y 15 millones de euros, mientras que las infracciones graves pueden ser multas desde 500.000 euros hasta 7,5 millones.

Deepfakes

También se introduce un nuevo derecho digital que permite retirar o desconectar del mercado cualquier sistema de IA que cause un incidente grave, como la muerte de una persona, otra medida para garantizar que esta herramienta se use de manera responsable y segura.

Los "deepfakes", que son imágenes, audios o vídeos que parecen reales pero son creados por ordenador, también están regulados. Si no se etiquetan correctamente, pueden engañar o confundir a la gente haciéndoles creer que son auténticos, lo que se considera una infracción grave.

¿Quién lo controlará?

La Agencia Española de Supervisión de la Inteligencia Artificial (AESIA) "será quien ponga las normas", ha anunciado López. Por una parte, la Agencia Española de Protección de Datos se encargará de temas como la biometría, el Consejo General del Poder Judicial supervisará sistemas que afecten la justicia, la Junta Electoral Central lo hará con los sistemas de IA que puedan influir en procesos democráticos como elecciones o referendums.

Además, el Banco de España la Dirección General de Seguros y Fondos de Pensiones, y la Comisión Nacional del Mercado de Valores (CNMV) supervisarán aplicaciones financieras.

Esta ley forma parte de un conjunto de normas que buscan proteger a los ciudadanos en el mundo digital. Junto con otras leyes sobre servicios digitales y libertad de medios, como el Reglamento Europeo de Servicios Digitales (DSA) y el Reglamento de Libertad de Medios de Comunicación (EMFA) crea un triple escudo digital.

Síguenos en nuestro canal de WhatsApp y no te pierdas la última hora y toda la actualidad de antena3noticias.com

Publicidad