La inteligencia artificial está alcanzando tal relevancia en el día a día de los usuarios y de diversas empresas, que la unión Europea ha sido necesario estudiar con mayor profundidad las implicaciones positivas y negativas que podría tener. En este sentido, se ha aprobado negociación de la Ley de Inteligencia Artificial, la primera ley integral de IA del mundo.
La UE indicó en un liberar eso “Como parte de su estrategia digital, la UE quiere regular la inteligencia artificial para garantizar mejores condiciones de desarrollo y uso de esta innovadora tecnología.
El Parlamento Europeo fijó su posición negociadora sobre la ley tras haber obtenido 499 votos a favor, 28 en contra y 93 abstenciones. Ahora, comenzarán las conversaciones con los estados miembros de la UE sobre el texto final de la ley. Se espera llegar a un acuerdo definitivo a finales de año.
Ya en abril de 2021, la Comisión hizo una propuesta sobre el marco regulatorio de la UE sobre IA, en el que se propone que todos los sistemas de IA utilizados en diferentes aplicaciones sean analizar y clasificar según el riesgo que puedan suponer para los usuarios. Los diferentes niveles de peligrosidad implican una mayor o menor regulación de la tecnología.
Desde la UE afirman que “La prioridad del Parlamento es garantizar que los sistemas de IA utilizados en la UE sean seguros, transparentes, trazables, no discriminatorias y respetuosas con el medio ambiente. Los sistemas de IA deben ser supervisados por personas, en lugar de automatización, para evitar resultados perjudiciales”.
Sistemas de IA con riesgo inaceptable
Esta nueva ley buscará prohibir los sistemas de vigilancia biométrica en tiempo real en espacios públicos, aunque afirman que este tipo de sistema estaría permitido en casos muy concretos, previa autorización de un juez.
Otros sistemas de IA prohibidos serán aquellos que manipular el comportamiento de individuos o grupos vulnerablescomo en el caso de los juguetes que se activan con la voz e invitan a conductas peligrosas en los niños y sussistemas que promueven la puntuación social o clasificación de las personas en función de su comportamiento, características físicas o su nivel socioeconómico.
sistemas de alto riesgo
La Ley de Inteligencia Artificial clasifica como sistemas de alto riesgo aquellos con usos muy específicos, que Solo pueden ingresar al mercado si respetan la seguridad, los derechos fundamentales y los valores de la UE. Todos los sistemas de alto riesgo deben ser evaluados antes de su puesta en el mercado ya lo largo de su ciclo de vida.
La UE ha clasificado los sistemas de alto riesgo que deben registrarse en la base de datos de la UE en ocho áreas específicas:
- Identificación biométrica y categorización de personas físicas.
- Gestión y explotación de infraestructuras críticas.
- Educación y formación profesional.
- Empleo, gestión de trabajadores y acceso al autoempleo.
- Acceso y disfrute de los servicios privados esenciales y de los servicios y prestaciones públicos.
- Aplicación de la ley.
- Gestión de migraciones, asilo y control de fronteras.
- Asistencia en la interpretación jurídica y aplicación de la ley.
sistemas de riesgo limitado
Estos tendrán que cumplir unos requisitos mínimos de transparencia que permitan a sus usuarios estar bien informados a la hora de tomar decisiones, para que puedan tomarlos libremente y con conocimiento de causa. Esto incluiría, por ejemplo, la IA generativa o que manipula imágenes, audios o videos. Esto está destinado a resolver problemas graves como los deepfakes.
Reglamento para ChatGPT
Tras las múltiples polémicas que ha tenido ChatGPT en algunos países europeos, que incluso han llevado a su prohibiciónLa Ley de Inteligencia Artificial propone que herramientas de IA generativacomo ChatGPT, cumple requisitos específicos de transparencia que deben aceptarse.
Por lo tanto, es necesario entrenar el modelo para evitar que generes contenido ilegal y que cuando un usuario usa ChatGPT para generar imágenes falsas (deepfakes) hay un advertencia eso indica que el contenido ha sido manipulado por AI. Del mismo modo, los desarrolladores deben explicar en detalle qué datos protegidos por derechos de autor se han utilizado para el entrenamiento de IA.
Foto: Depositphotos
Mantente informado de las noticias más relevantes en nuestro canal Telegrama