News
Intelligence Artificielle, algorithmes, éthique : de la juste coopération entre IA et intelligence humaine.
Avec le buzz suscité par les intelligences artificielles génératives (telles que ChatGPT, Midjourney...etc.), l’enjeu est de savoir si, au regard des entraînements et renforcements réalisés, des jeux de données utilisées et des éventuels biais, les algorithmes sont éthiques et s’ils sont inclusifs ou non. Il importe également de questionner le rôle de l’humain.
Les données massives (big data), caractérisées en premier lieu par le volume, la vitesse, la variété, nécessitent-elles un recours à l’IA systématique, ou a contrario un traitement humain suffit-il et/ou est-il préférable ?
Petit historique du développement de l’IA
Notons que l’IA est apparue au début des années 1950 avec les premiers langages informatiques associés comme LISP (LIST processing, pour le traitement dit intelligent de listes) et le fameux test de Turing qui consiste à tester la capacité d’une machine à imiter une conversation humaine et à ainsi se faire passer pour un humain. Par ailleurs, après des surattentes quant aux usages possibles de l’IA, celle-ci a connu des vagues de reflux ou de déception, deux « hivers de l’IA » et des applications dans des champs plus étroits et spécialisés que ceux initialement envisagés ou fantasmés.
Plus récemment, les réseaux de neurones sont apparus, lesquels avec l’autoapprentissage et la possibilité d’établir des corrélations probabilistes entre éléments de données, alliés à la puissance de calcul des machines qui double encore tous les 18 mois selon la loi de Moore a permis une forte accélération de l’IA et de ses applications avec son corollaire, un caractère vraisemblable et épatant des réponses générées. Ainsi les grands modèles de langue (ou LLM, Large Language Model) sont des modèles entraînés sur un large corpus de textes permettant de mettre en œuvre ces IA.
Il est également légitime de se demander si nous ne connaîtrons pas à moyenne échéance un troisième hiver, comme la phase de décroissance du buzz et de l’engagement suscité par le métavers. Pour autant pour les IA génératives, l’horizon temporel s’est accéléré avec en France, par exemple, Sciences Po qui dès janvier 2023 demande aux étudiants de « mentionner de manière explicite » tout passage rédigé par ChatGPT, puis les mesures d’interdiction prises en Italie.
Ceci est un extrait d'article tiré du site SKEMA Publika