Le A à Z de l’Intelligence Artificielle
MaisonMaison > Blog > Le A à Z de l’Intelligence Artificielle

Le A à Z de l’Intelligence Artificielle

Jan 17, 2024

À mesure que l’intelligence artificielle prend de plus en plus de place dans notre monde, il est facile de se perdre dans son océan de jargon. Mais il n’a jamais été aussi important de s’orienter qu’aujourd’hui.

L’IA est sur le point d’avoir un impact majeur sur le marché du travail dans les années à venir (voir : Automatisation). Les discussions sur la manière de le gérer jouent un rôle plus important dans notre conversation politique (voir : Réglementation). Et certains de ses concepts les plus cruciaux sont des choses qui ne vous auront pas été enseignées à l'école (voir : Pression concurrentielle).

Essayer de se mettre à jour peut être difficile. La recherche sur l’IA est compliquée et une grande partie du langage est nouveau, même pour les chercheurs eux-mêmes. Mais il n’y a aucune raison pour que le public ne puisse pas s’attaquer aux grands enjeux en jeu, comme nous avons appris à le faire avec le changement climatique et Internet. Pour aider chacun à s'impliquer davantage dans le débat sur l'IA, TIME a élaboré un glossaire pratique de sa terminologie la plus courante.

Que vous soyez un débutant complet ou que vous connaissiez déjà vos AGI grâce à vos GPT, ce A à Z est conçu pour être une ressource publique pour tous ceux qui sont aux prises avec la puissance, les promesses et les périls de l'intelligence artificielle.

AGI signifie Intelligence Générale Artificielle, une technologie future hypothétique capable d'effectuer les tâches les plus productives économiquement plus efficacement qu'un humain. Une telle technologie pourrait également permettre de découvrir de nouvelles découvertes scientifiques, estiment ses partisans. Les chercheurs ont tendance à ne pas être d’accord sur la question de savoir si l’AGI est possible ou, si c’est le cas, à quelle distance elle reste. Mais OpenAI et DeepMind, les deux principales organisations de recherche en IA au monde, se sont toutes deux expressément engagées à développer l'AGI. Certains critiques affirment qu’AGI n’est guère plus qu’un terme marketing. (Voir : Hype.)

Le « problème d’alignement » est l’un des défis de sécurité à long terme les plus importants dans le domaine de l’IA. L’IA d’aujourd’hui n’est pas capable de maîtriser ses concepteurs. Mais un jour, de nombreux chercheurs s’y attendent. Dans ce monde, les méthodes actuelles de formation des IA pourraient les amener à nuire à l’humanité, que ce soit dans la poursuite d’objectifs arbitraires ou dans le cadre d’une stratégie explicite visant à rechercher le pouvoir à nos dépens. Pour réduire le risque, certains chercheurs travaillent à « aligner » l’IA sur les valeurs humaines. Mais ce problème est difficile, non résolu et même pas entièrement compris. De nombreux critiques affirment que le travail visant à résoudre ce problème passe au second plan, car les incitations commerciales incitent les principaux laboratoires d’IA à consacrer leur concentration et leur puissance de calcul à rendre leurs IA plus performantes. (Voir : Pression concurrentielle.)

L'automatisation est le processus historique par lequel le travail humain est remplacé ou assisté par des machines. Les nouvelles technologies – ou plutôt les personnes chargées de les mettre en œuvre – ont déjà remplacé de nombreux travailleurs humains par des machines qui n’exigent pas de salaire, depuis les ouvriers des chaînes de montage automobiles jusqu’aux commis d’épicerie. La dernière génération d’avancées en matière d’IA pourrait entraîner la perte d’emploi d’un nombre encore plus grand de cols blancs, selon un article récent d’OpenAI et une étude de Goldman Sachs. Près d’un cinquième des travailleurs américains pourraient voir plus de la moitié de leurs tâches quotidiennes automatisées par un grand modèle de langage, prédisent les chercheurs d’OpenAI. À l’échelle mondiale, 300 millions d’emplois pourraient être automatisés au cours de la prochaine décennie, prédisent les chercheurs de Goldman Sachs. La question de savoir si les gains de productivité résultant de ce bouleversement entraîneront une croissance économique généralisée ou simplement une nouvelle augmentation des inégalités de richesse dépendra de la manière dont l’IA sera taxée et réglementée. (Voir : Règlement.)

Les systèmes d’apprentissage automatique sont qualifiés de « biaisés » lorsque les décisions qu’ils prennent sont systématiquement préjugées ou discriminatoires. Il a été constaté que les logiciels de détermination des peines optimisés par l'IA recommandent des peines de prison plus élevées pour les délinquants noirs que pour les délinquants blancs, même pour des crimes égaux. Et certains logiciels de reconnaissance faciale fonctionnent mieux pour les visages blancs que pour les noirs. Ces échecs se produisent souvent parce que les données sur lesquelles ces systèmes ont été formés reflètent les inégalités sociales. (Voir : Données.) Les IA modernes sont essentiellement des réplicateurs de modèles : elles ingèrent de grandes quantités de données via un réseau neuronal, qui apprend à repérer des modèles dans ces données. (Voir : Réseau de neurones). S’il y a plus de visages blancs que de visages noirs dans un ensemble de données de reconnaissance faciale, ou si les données sur les condamnations antérieures indiquent que les délinquants noirs sont condamnés à des peines de prison plus longues que les blancs, alors les systèmes d’apprentissage automatique peuvent tirer les mauvaises leçons et commencer à automatiser ces injustices.