Entrada

Inteligencia Artificial: la nueva ley europea

La aprobación del Reglamento de IA marca un hito significativo en el camino hacia una regulación ética y responsable de la tecnología de Inteligencia Artificial. La Unión Europea se coloca a la vanguardia mundial en este ámbito, estableciendo un precedente que podría influir en la regulación de la IA en otras regiones del mundo.

La Unión Europea ha dado un paso adelante en la regulación de la Inteligencia Artificial (IA) con la aprobación del primer Reglamento de IA. Este acuerdo, alcanzado entre el Consejo y el Parlamento Europeo el pasado diciembre, marca un hito en el ámbito tecnológico al establecer normativas claras para el uso ético y seguro de la IA en la región.

Para asegurar el cumplimiento de las regulaciones, se establecerá la Oficina de IA en la Comisión Europea. Esta entidad supervisará la implementación de las nuevas normativas por parte de los Estados miembros, vigilará los avances en modelos de IA y contribuirá al desarrollo de estándares y prácticas de prueba.

Origen y objetivos de la Ley

La propuesta de un marco regulador para la IA surgió de la Comisión Europea en 2021, siendo el promotor para la creación de esta legislación tan esperada. La Ley de Inteligencia Artificial tiene como principales objetivos garantizar la seguridad y los derechos de los ciudadanos europeos en el uso de sistemas de IA, así como fomentar la inversión y la innovación en este campo dentro de Europa.

El acuerdo establece que el Reglamento de IA entrará en vigor dos años después de su aprobación, permitiendo un período de transición para que los actores relevantes se adapten a las nuevas normativas. Es importante destacar que esta legislación se aplicará exclusivamente dentro del ámbito de la Unión Europea y no interferirá con las competencias de los Estados miembros en materia de seguridad nacional.

Riesgos y regulación por niveles

La Ley de IA clasifica los sistemas según los riesgos que representan, imponiendo regulaciones más estrictas a aquellos considerados de alto riesgo. Se establecen criterios de protección para determinar cuándo un sistema puede causar daños a la sociedad, y en casos extremos, se prohíbe su uso, como en la manipulación cognitiva o el rastreo indiscriminado de imágenes faciales.

Un aspecto clave de la regulación es la evaluación del impacto de los sistemas de IA en los derechos fundamentales antes de su introducción en el mercado. Se exige transparencia especialmente en los llamados modelos funcionales, sistemas de gran envergadura capaces de realizar diversas tareas, como la generación de contenido multimedia.

Asimismo, se destaca la obligación de informar a las personas expuestas a sistemas de reconocimiento de emociones, garantizando la protección de su privacidad y dignidad.

Directrices para el uso responsable de la inteligencia artificial generativa en la investigación europea

La Comisión, en colaboración con los países del Espacio Europeo de Investigación y las partes interesadas, ha presentado un conjunto de directrices para apoyar a la comunidad científica europea en el uso responsable de la inteligencia artificial generativa (IA). Estas recomendaciones abordan las oportunidades y desafíos clave asociados con la rápida expansión de esta tecnología en todos los ámbitos, incluida la ciencia.

Basándose en los principios de la integridad de la investigación, estas directrices ofrecen orientación a investigadores, organizaciones de investigación y financiadores para garantizar un enfoque coherente en toda Europa. Se destacan principios como la privacidad, la confidencialidad y la propiedad intelectual, además de resaltar la importancia de la transparencia y la responsabilidad en el uso de la IA generativa. Estas pautas serán actualizadas regularmente con la retroalimentación de la comunidad científica y las partes interesadas.