Actualités
Intelligence Artificielle : peut-on la dompter sans empêcher de prompter ?
Le 4 décembre, alors que le projet de "AI Act" était encore en débat à Bruxelles, le "AI Act Day" donnait le ton à Paris. Associé à Datacraft, le collectif de réflexion et d’action Impact AI avait réuni un ensemble d’acteurs influents de l’intelligence artificielle (IA). Avec pour « prompt » principal, la mission de poser les jalons d’une IA aussi innovante et inspirante qu’éthique, durable et responsable.
L’IA, ça va vite, très vite. Et c’est même pour ça qu’on l’aime bien. Mais c’est aussi pour ça qu’on peut la craindre et qu’on pense à l’encadrer. Parmi les nombreux acteurs de l’intelligence artificielle (IA), réunis le 4 décembre au Hub de Bpifrance par le « think and do tank » Impact AI et par Datacraft, personne n’en doute : une IA responsable est une IA maîtrisée. La question est de savoir comment. Comment réguler l’IA – et notamment l’IA générative – sans empêcher l’innovation ?
“Précipitation temporelle”
Ce jour-là, le sujet était encore au cœur des discussions entre le Parlement européen et les Etats membres de l’Union européenne. Ensemble, ils ont depuis donné naissance à une première régulation, un « AI Act » fondateur qui pourrait permettre aux entreprises de développer des solutions utiles, vertueuses et sans danger. Seulement l’IA évolue plus vite que le droit. Alors que ChatGPT vient de révolutionner le paysage de l’IA en moins d’un an, la loi mettra, pour les plus optimistes, au moins deux ans à entrer en application. « Il y a précipitation temporelle », remarque le préfet Renaud Vedel, coordonnateur de la Stratégie nationale pour l’intelligence artificielle.
Comment légiférer sur un objet en transformation permanente ? Comment un règlement voté aujourd’hui pourrait-il s’appliquer à une technologie dont on ne sait pas encore ce qu’elle sera dans deux ans ? « Il y a 20 ans, les logiciels changeaient de version tous les 5 ans, il y a 10 ans c’était tous les trois ans, avec l’IA aujourd’hui c’est tous les 6 mois, souffle Guillaume Leboucher, membre du comité exécutif de Docaposte et fondateur de la Fondation IA pour l’Ecole. Il y aura toujours des écarts, c’est notre métier, c’est l’innovation. Est-ce si grave ? » Ce n’est peut-être pas si grave, mais cela pose des questions. A commencer par la philosophie du droit à employer. C’est l’opposition « Civil law » / « Common law » qui ressurgit : si le droit exprimé par la loi est en retard sur la réalité, la jurisprudence peut-elle lui permettre de la rattraper ? [...]
Lire l'intégralité de l'article sur le site SKEMA Knowledge
Intéressé(e) par l'Intelligence Artificielle ? Découvrez nos programmes :
MSc Digital Marketing and Artificial Intelligence
Mastère Spécialisé® Chef de Projet Intelligence Artificielle