Sélectionner la langue

French

Down Icon

Sélectionnez un pays

Italy

Down Icon

Loi sur l'IA, règles et incertitudes. L'Europe accélère, mais le débat reste vif.

Loi sur l'IA, règles et incertitudes. L'Europe accélère, mais le débat reste vif.

La loi européenne sur l'IA est en cours de mise en œuvre, mais le débat reste vif entre les règles, les incertitudes et la possibilité d'une suspension. Experts et entreprises se sont réunis au siège de l'Ispi à Milan.

L'intelligence artificielle reste l'un des sujets les plus débattus au sein de l'UE. Alors que la loi sur l'IA est en phase de mise en œuvre, le débat reste vif : des doutes subsistent quant à d'éventuelles modifications, voire au report de la mise en œuvre de certains points clés, des éléments cruciaux tels que les lignes directrices et le « code de bonnes pratiques » manquant encore. La première phase a vu sa mise en œuvre effective le 2 février 2025, interdisant les systèmes d'intelligence artificielle considérés comme « à risques inacceptables » et introduisant des exigences pour les entreprises opérant sur le marché européen. Les prochaines étapes sont encore en cours de définition, et c'est précisément ce qui a été abordé lors de la table ronde « La gouvernance de l'IA entre innovation et règles : un défi européen », organisée par l'ISPI à Milan. Des intervenants issus du monde institutionnel et réglementaire, ainsi que de l'innovation et des entreprises, ont pris part aux débats.

Andrea Bertolini, directeur du Centre de réglementation de la robotique et de l'IA (Scuola Superiore Sant'Anna), a ouvert le débat par une intervention très critique concernant la loi sur l'IA, telle qu'elle est formulée actuellement. « L'intelligence artificielle est un terme extrêmement ambigu », a-t-il déclaré, « et la classification par niveaux de risque ne permet pas de surmonter cette ambiguïté. Les dommages résultant de cette ambiguïté conceptuelle sont visibles dans les définitions des applications interdites et des systèmes à haut risque. » « Les lignes directrices ne confèrent pas de souplesse au système et, faute de caractère contraignant, elles créent de l'incertitude. L'absence de clarté absolue sur les questions techniques entraîne des divergences d'application. » Edoardo Raffiotta, professeur de droit de l'intelligence artificielle à l'Université de Milan Bicocca, est d'un avis différent : « Il est injuste de rendre la loi sur l'IA responsable des difficultés d'innovation en Europe. » Le professeur a souligné que le véritable problème réside dans la surréglementation : « Il est important de clarifier quelles réglementations doivent être revues, voire abrogées. En attendant, nous constatons l'émergence de nombreuses réglementations étatiques aux États-Unis. Aux États-Unis, on compte 48 réglementations sur 50 États. Là encore, l'uniformité réglementaire est inexistante, mais cela n'entrave ni l'innovation ni la croissance. »

La législation établit un cadre réglementaire complet qui s'applique à toute organisation impliquée dans le développement ou la mise en œuvre de systèmes d'IA susceptibles d'affecter les utilisateurs ou les marchés au sein de l'Union européenne. Le règlement vise à remédier aux distorsions dans l'utilisation de l'IA. Les principaux objectifs sont de rendre l'IA plus sûre pour les usages publics et commerciaux, d'atténuer les risques de sécurité, de garantir le contrôle humain sur les systèmes d'IA, de protéger la confidentialité des données et de garantir la transparence des applications qui utilisent cette technologie. Cet ensemble de règles, doté d'un potentiel géopolitique considérable, a été créé dans le but de faire de l'Europe le centre du soft power numérique, compte tenu du rôle qu'elle se donnerait en tant que première instance à mettre en œuvre une réglementation systémique des systèmes d'IA. Cet effort est loin d'être neutre, dans une période historique marquée par les tensions transatlantiques. À l'échelle mondiale, deux approches coexistent : d'un côté, l'AI Act, un modèle basé sur les risques, tandis qu'aux États-Unis, la responsabilité est ex post, avec des règles axées sur le marché et un principe de moindre intervention selon lequel l'innovation prime sur la réglementation. Il en résulte l'émergence de normes divergentes et une fragmentation réglementaire qui complexifie encore davantage les opérations transnationales.

Pour Luca Colombo, directeur national de Meta pour l'Italie, l'intelligence artificielle en Europe « peine à progresser ». « Nous », a-t-il expliqué, « investissons entre 15 et 20 milliards de dollars par an en recherche et développement, qui ne sont pas utilisés à leur arrivée en Europe. Il est nécessaire d'améliorer la réglementation », car « l'UE n'a peut-être pas développé les grands modèles qui sont à la base de cette révolution aujourd'hui, mais elle dispose d'une grande marge de manœuvre pour développer des applications ». Meta travaille avec la Commission européenne pour « trouver une voie qui continue de garantir la valeur, mais la fragmentation ou le manque de clarté de la direction à prendre n'aide personne », a ajouté Colombo ; « nous avons déjà dû modifier nos stratégies à deux reprises l'année dernière pour nous conformer aux nouvelles règles européennes, notamment en matière de publicité personnalisée, essentielle pour les entreprises, notamment les PME qui constituent l'épine dorsale de notre système économique. Il est temps de faire le point, car cette incertitude ne nous est d'aucune aide, ni pour le reste du marché. »

Adnkronos International (AKI)

Adnkronos International (AKI)

Nouvelles similaires

Toutes les actualités
Animated ArrowAnimated ArrowAnimated Arrow