Seleccione idioma

Spanish

Down Icon

Seleccione país

Italy

Down Icon

Ley de IA, normas e incertidumbres. Europa acelera, pero el debate sigue acalorado.

Ley de IA, normas e incertidumbres. Europa acelera, pero el debate sigue acalorado.

La Ley Europea de Inteligencia Artificial se está implementando, pero el debate sigue siendo intenso entre las normas, la incertidumbre y la posibilidad de una suspensión. Expertos y empresas se reunieron en la sede de Ispi en Milán.

La inteligencia artificial sigue siendo uno de los temas que más preocupan a la UE. Con la Ley de IA en fase de implementación, el debate sigue siendo intenso: existen dudas sobre posibles cambios o incluso el aplazamiento de la implementación de algunos puntos clave, y aún faltan elementos cruciales como las directrices y el código de prácticas. La primera fase se implementó realmente el 2 de febrero de 2025, prohibiendo los sistemas de inteligencia artificial clasificados como de "riesgo inaceptable" e introduciendo requisitos para las empresas que operan en el mercado europeo. Los próximos pasos aún se están definiendo, y esto fue precisamente lo que se debatió durante la mesa redonda "Gobernanza de la IA entre innovación y normas: un desafío europeo", organizada por ISPI en Milán. Participaron ponentes del mundo institucional y regulatorio, así como del sector de la innovación y las empresas.

Andrea Bertolini, director del Centro para la Regulación de la Robótica y la IA (Escuela Superior Sant'Anna), abrió el debate con una intervención muy crítica respecto a la Ley de IA, tal como está formulada actualmente. "La inteligencia artificial es un término extremadamente ambiguo", dijo, "y la clasificación por niveles de riesgo no puede superar esta ambigüedad. El daño resultante de la ambigüedad conceptual puede verse en las definiciones de aplicaciones prohibidas y sistemas de alto riesgo". "Las directrices no dan elasticidad al sistema y, al no ser vinculantes, generan incertidumbre. No tener una claridad absoluta sobre las cuestiones técnicas significa tener divergencias en la aplicación". Edoardo Raffiotta, profesor de derecho de la inteligencia artificial en la Universidad de Milán Bicocca, tiene una opinión diferente: "Atribuir la Ley de IA a la dificultad de la innovación en Europa es injusto". El profesor enfatizó que el verdadero problema es el exceso de regulación: «Aclaremos qué regulaciones deben revisarse o incluso derogarse. Mientras tanto, podemos observar las numerosas regulaciones estatales que están surgiendo en Estados Unidos. En EE. UU., habrá 48 regulaciones en 50 estados; allí tampoco hay uniformidad regulatoria, pero esto no impide la innovación ni el crecimiento».

La legislación establece un marco regulatorio integral aplicable a cualquier organización involucrada en el desarrollo o implementación de sistemas de IA que puedan afectar a usuarios o mercados dentro de la Unión Europea. El reglamento busca abordar cualquier distorsión en el uso de la IA. Los principales objetivos incluyen hacer que la IA sea más segura para uso público y comercial, mitigar los riesgos de seguridad, garantizar el control humano sobre los sistemas de IA, proteger la privacidad de los datos y garantizar la transparencia en las aplicaciones que utilizan esta tecnología. El conjunto de normas tiene un enorme potencial geopolítico y se creó con el objetivo de convertir a Europa en el centro del poder blando digital, dado el papel que se atribuiría como el primer organismo en implementar una regulación sistémica sobre los sistemas de IA. Esto dista mucho de ser un esfuerzo neutral, en un período histórico marcado por tensiones transatlánticas. A nivel mundial, coexisten dos enfoques: por un lado, la Ley de IA, un modelo basado en el riesgo, mientras que en Estados Unidos, la responsabilidad es ex post, con normas impulsadas por el mercado y un principio de mínima intervención según el cual la innovación precede a la regulación. La consecuencia es la aparición de estándares divergentes y una fragmentación regulatoria que complica aún más las operaciones transnacionales.

Para Luca Colombo, director nacional de Meta en Italia, la inteligencia artificial en Europa tiene dificultades para avanzar. «Invertimos entre 15 000 y 20 000 millones de dólares anuales en investigación y desarrollo, que no se utilizan al llegar a Europa. Es necesario mejorar la regulación», ya que «la UE quizá no haya desarrollado los grandes modelos que fundamentan esta revolución hoy en día, pero tiene mucho margen de maniobra en el desarrollo de aplicaciones». Meta está trabajando con la Comisión Europea para «encontrar un camino que siga garantizando valor, pero la fragmentación o la falta de claridad en el rumbo a seguir no beneficia a nadie», añadió Colombo; «ya hemos tenido que cambiar nuestras estrategias dos veces el año pasado para cumplir con la nueva normativa europea, en particular sobre publicidad personalizada, esencial para las empresas, especialmente para las pymes, que son la columna vertebral de nuestro sistema económico. Es hora de hacer balance de la situación, porque esta incertidumbre no nos beneficia ni a nosotros ni al resto del mercado».

Adnkronos International (AKI)

Adnkronos International (AKI)

Noticias similares

Todas las noticias
Animated ArrowAnimated ArrowAnimated Arrow