|
A - I n f o s
|
|
a multi-lingual news service by, for, and about anarchists
**
News in all languages
Last 40 posts (Homepage)
Last two
weeks' posts
Our
archives of old posts
The last 100 posts, according
to language
Greek_
中文 Chinese_
Castellano_
Catalan_
Deutsch_
Nederlands_
English_
Français_
Italiano_
Polski_
Português_
Russkyi_
Suomi_
Svenska_
Türkçe_
_The.Supplement
The First Few Lines of The Last 10 posts in:
Castellano_
Deutsch_
Nederlands_
English_
Français_
Italiano_
Polski_
Português_
Russkyi_
Suomi_
Svenska_
Türkçe_
First few lines of all posts of last 24 hours |
of past 30 days |
of 2002 |
of 2003 |
of 2004 |
of 2005 |
of 2006 |
of 2007 |
of 2008 |
of 2009 |
of 2010 |
of 2011 |
of 2012 |
of 2013 |
of 2014 |
of 2015 |
of 2016 |
of 2017 |
of 2018 |
of 2019 |
of 2020 |
of 2021 |
of 2022 |
of 2023 |
of 2024 |
of 2025
Syndication Of A-Infos - including
RDF - How to Syndicate A-Infos
Subscribe to the a-infos newsgroups
(fr) Courant Alternative #349 (OCL) - Qu'est-ce que l'Intelligence Artificielle?
Date
Wed, 23 Apr 2025 17:19:03 +0100
Nous allons expliquer, en simplifiant certains aspects, ce qu'est
l'Intelligence Artificielle (IA). L'IA englobe un large éventail
d'outils et de techniques qui essaient de permettre aux machines de
reproduire des comportements ou raisonnements humains. La plus connue
est ce que l'on appelle l'IA générative (comme chatGPT), mais l'IA c'est
aussi les voitures autonomes, la reconnaissance faciale, les moteurs de
recherche, la traduction automatique, les diagnostics médicaux... Il y a
des IA spécialisées, très performantes pour effectuer une tâche précise
mais incapable d'effectuer d'autres tâches, comme AlphaGO Zero qui a
battu le meilleur joueur de Go du monde en 2018... mais incapable de
jouer aux dames ou aux échecs. Il y a les IA polyvalentes, capables de
réaliser de multiples tâches (comme ChatGPT).
Les réseaux de neurones
Comment fonctionne une IA? Il y a différentes techniques informatiques
pour développer des programmes d'IA. Ce qui est le plus utilisé
aujourd'hui, ce sont les réseaux de neurones. Même si on utilise le
terme neurone "artificiel", cela n'a pas grand-chose à voir avec le
fonctionnement du cer-veau (même si au départ l'idée est d'essayer
d'imiter le cerveau humain). En informatique, les neu-rones sont (pour
simplifier) des mini-programmes disposés en couches et reliés les uns
aux autres. Ce n'est pas un programme préétabli avec des règles, mais un
programme qui va de lui-même optimiser ses paramètres permettant
d'obtenir les réponses adéquates.
Il y a une "couche" de neurones en entrée (qui reçoivent une information
donnée par l'humain), et une couche en sortie (qui donne la réponse), et
au milieu des couches de neurones cachés. Les neurones sont connectés
entre eux par des liens (voulant imiter les synapses) paramétrés, via
des for-mules mathématiques, par des poids. Plusieurs liens avec leur
pondération entrent sur un neurone et plusieurs liens en sortent vers
d'autres neurones. Ce réseau va "apprendre" en se paramétrant pour
donner les meilleures réponses possibles (c'est-à-dire trouver les
liaisons optimales - paramètres - entre ses neurones). Donc, on va dans
un premier temps l'entraîner avec des exemples pour qu'il génère les
bons paramètres.
Par exemple, on donne en entrée des photos de chats ou de chiens et on
entraine le réseau à différencier les chiens des chats... par un grand
nombre d'exemples. Quand on considère qu'il est opérationnel, on
conserve ce réseau de neurones bien paramétré et il pourra être utilisé
dans des appli-cations concrètes (avoir un logiciel différenciant les
chiens des chats).
Les réseaux de neurones sont des boîtes noires, c'est-à-dire que l'on ne
sait pas interpréter les paramètres des liens entre neurones que le
réseau a optimisé, on constate juste que cela fonctionne: on entre une
donnée (une image de chat) et le réseau de neurones donne la bonne
réponse ("c'est un chat"), peu importe comment il y est arrivé. Ceci est
d'autant plus vrai que les informaticiens ont développé des réseaux de
neurones de plus en plus complexes et plus performants. Le "deep
learning" (apprentissage profond) est un programme ayant beaucoup de
couches de neurones et le plus gros réseau de neurones actuels utilise
mille milliards de liens entre ses neurones.
L'IA générative
Ce sont des robots conversationnels qui produisent des réponses (textes,
images, films, ...) à des requêtes faites en langage naturel (ChatGPT,
Gemini, ...). Donc ils produisent de nouveaux conte-nus (d'où le nom
"générative"). Ces programmes ne réfléchissent pas, ils n'ont aucune
conscience de ce qu'ils produisent, même si leurs réponses semblent
sortir du cerveau d'un humain (ils utilisent des blagues ou des
émoticônes pour singer au mieux un humain). Leurs réponses sont purement
algorithmiques et probabilistes.
Un exemple simple: quand vous écrivez un texte sur un smartphone,
celui-ci utilise une sorte d'IA simpliste et vous propose souvent des
mots pour continuer votre phrase. Le logiciel derrière n'a aucune
conscience de ce que vous écrivez, il vous propose simplement le mot le
plus souvent utilisé à la suite des premiers mots que vous avez écrits.
Pour l'IA générative, c'est un peu la même chose mais avec des calculs
bien plus complexes pour construire une phrase ayant une syntaxe
correcte, avec un sujet, un verbe, ... La réponse à une requête est
produite par des calculs statistiques qui s'appuient donc sur une base
de données faramineuse. Il cherche les mots clés de votre requête,
fouille dans sa base de données ce qui s'y rapporte, calcule une
"synthèse" en conservant ce qui est le plus fréquent dans sa base de
données. Le tout en construisant des phrases correctes.
L'apprentissage des IA
Pour que cela fonctionne bien, il faut faire apprendre au programme à
donner les bonnes réponses ce qui nécessite énormément de données. Pour
les IA génératives: l'équivalent de vingt mille an-nées de lecture sans
pause pour un humain. Et cet apprentissage bute sur différentes
difficultés. D'une part, aujourd'hui, toutes les données sur internet
(textes en accès libres, voire piratés) ont déjà été digérées par les IA
pour "apprendre". Donc la première difficulté pour construire une IA
générative est d'avoir des données nouvelles... qui aujourd'hui sont en
grande partie générées par les (autres) IA génératives. Bref, l'IA
apprend de l'IA et donc reproduit les erreurs et les biais des autres
IA. D'autre part, comme les IA s'appuient sur ce qui est le plus
fréquent dans leurs bases de données, leurs réponses sont évidemment
"biaisées", c'est-à-dire reproduisent les idées dominantes: le
patriarcat, le racisme, l'idéologie néolibérale, ... Bref, la production
de l'IA renforce les systèmes de domination déjà en place. Des
chercheurs ont analysé le "profil psychologique" des IA génératives:
profil typique de personnes occidentales, éduquées et riches... qui ne
représentent que 12% de la population mondiale et dont le profil
psychologique est très différent de bien d'autres cultures complètement
ignorées par les IA.
Les erreurs des IA
L'IA ne raisonne pas, elle calcule. Ces IA sont de simples "perroquets
probabilistes" dans le sens où elles répètent ce qu'il y a dans leurs
bases de données par des algorithmes probabilistes qui repèrent les mots
et phrases les "plus probables" associés à une requête. Une même IA
générative peut donc produire des réponses différentes pour une même
requête car les programmes introduisent un certain aléatoire.
Étant donné qu'une réponse humaine n'est pas simplement le fait
d'aligner des mots les plus probables dans des phrases les plus
probables, les IA génératives se trompent (parfois souvent), on appelle
cela des "hallucinations". L'exemple du flop de LUCIE est parlant: cette
IA générative française, lancée en janvier dernier, considérait que les
boeufs pouvaient pondre des oeufs. Et surtout, LUCIE a reproduit des
discours de Hitler... car un robot (produit par un concurrent
certainement) avait généré énormément de discours de Hitler dans ses
requêtes avec LUCIE, ces discours sont rentrés ensuite dans les bases de
données de LUCIE, et donc reproduits par LUCIE car "les plus fréquents"
sur certains sujets.
L'IA n'est pas forcément fiable, elle ne donne que la réponse la plus
probable... et parfois invente les réponses. Le taux moyen d'erreurs ou
de non-réponses des chatbots est estimé à 62%. Les IA génératives
produisent entre 2,5 % et 5 % d'erreurs. Des entreprises utilisaient par
exemple une IA pour effectuer les comptes rendus de réunion, et cette IA
inventait des passages entiers. Les IA uti-lisées par les cabinets
d'avocat ont une fâcheuse tendance à inventer des jurisprudences. En
re-cherche, les IA génèrent des références bibliographiques qui
n'existent pas, des démonstrations mathématiques fausses, des protocoles
expérimentaux dangereux, ... Plus sympa: FactFinderAI, IA israélienne
qui était censée poster des contenus favorables au gouvernement
israélien, traite les soldats de Tsahal de "colonisateurs blancs du
régime d'apartheid israélien".
Algorithmes discriminatoires
Ces IA ne font que classer et noter, elles reproduisent grossièrement
tous les biais sociaux et marginalisent encore plus les personnes
non-conformes au standard capitaliste. Comme l'IA reproduit le discours
dominant par imitation, et donc produit des réponses raciales ou genrées
lorsqu'il est utilisé par la police ou en médecine, cela entraîne des
prises en charge dégradées pour les personnes victimes de stéréotypes.
Les États-Unis utilisent parfois l'IA dans des procès avec des biais
raciaux manifestes.
Pourtant, l'IA est de plus en plus utilisée par les administrations pour
(discours officiel) "ré-humaniser les services publics". En conséquence,
nous sommes confrontés dans notre vie à des algorithmes qui décident
pour nous sans pouvoir interagir avec une vraie personne: en France, la
direction des impôts expérimente une IA pour répondre aux questions; les
services publics testent une IA pour la gestion administrative; une
autre IA assistera la gendarmerie pour accueillir des personnes; la Cour
de cassation utilise une IA pour gérer ses arrêts; la direction générale
des services publics teste une IA pour le recrutement; ...
Des États, comme en Italie ou en Autriche, utilisent l'IA pour associer
les offres et demandes d'emplois. Ces IA reproduisent les biais
dominants: travail du soin pour les femmes, la conduite de camion pour
les hommes; conseillent aux hommes ayant un CV d'informaticien de
postuler en in-formatique, mais aux candidates ayant un CV équivalent de
préférer la restauration. Amazon a par exemple du renoncer à utiliser
une IA pour ses recrutements car le système avait appris à refuser
toutes les candidatures de femmes.
Notamment l'IA permettrait de faire la chasse aux fraudes: reconnaître
des images de conducteurs/conductrices ne portant pas de ceinture de
sécurité, reconnaître le visage des voyageur·es pour le contrôle de
passeport, ... La CAF utilise un algorithme pour prédire quel·les
allocataires doivent être contrôlé·es.... et bien évidemment cet
algorithme discrimine les plus pauvres (confère l'article précédent).
L'IA est-elle intelligente?
On nous promet dans un avenir proche une IA véritablement intelligente
et qui serait supérieure à l'humain (ce qui n'existe pas actuellement)
... et le débat existe sur l'émergence possible d'une telle IA car un
certain nombre de spécialistes considèrent qu'une telle IA ne pourra
jamais exister malgré les annonces fracassantes des entreprises de l'IA.
Il n'y a aucun consensus sur ce que veut dire "raisonner",
"intelligence", ... Les IA sont capables de soutenir une conversation,
de générer du contenu, de faire des analogies, de traduire des textes,
d'écrire des programmes, d'imiter des styles et cette liste n'arrête pas
de s'allonger. Mais est-ce de l'intelligence au sens humain du terme?
Même si certain·es théorisent qu'il y a une forme d'intelligence dans
les IA, les IA n'ont aucune opinion, aucune conscience, aucune émotion
ou aucun désir. La maîtrise apparente du langage, comme ChatGPT, n'est
pas de l'intelligence au sens humain du terme. Les IA ne "comprennent"
pas ce qu'elles produisent, il n'y a aucun "sens" pour elles. Elles ne
"pensent" pas comme le fait un humain. Il ne faut pas comparer l'humain
aux IA car les IA ne "raisonnent" pas comme nous, elles ne savent que
traiter de l'information par des algorithmes et des calculs
probabilistes. L'intelligence humaine c'est bien autre chose.
Concrètement, pour qu'une IA différencie les chiens des chats, il faut
des milliers de photos dans la phase d'apprentissage, alors qu'un enfant
n'a besoin de voir que très peu de chiens et chats pour les
différencier... et donc l'IA n'est pas "intelligente" au sens humain du
terme.
Conclusion
Le discours sur l'IA nous empêche d'envisager d'autres possibles. L'IA
est présentée comme inéluctable. L'IA colonise nos vies: on estime de
30% à 40% les entreprises qui utilisent l'IA, de même 2% des articles
scientifiques seraient produits par IA (manière de publier pour des
cher-cheur.es sans trop se fatiguer). Dans nos vies, nous sommes
confronté·es aux chabots (les robots qui répondent, chat, sur les
sites), assistants vocaux, GPS, enceintes connectées, ... Nous sommes
assujetti·es à cette violence algorithmique car les IA déterminent nos
accès à certaines ressources (administratives, travail, ...). Nous
n'avons pas d'autre choix que de devoir nous plier à ces outils qui
s'imposent à nous.
On peut entendre que tout n'est pas a priori néfaste dans l'IA: si on
soumet des millions de clichés de radiologie à une IA prédictive, la
machine pourra chercher des signaux faibles pour repérer des pathologies
qui pourraient échapper à un radiologue; une IA, entraînée sur des
papyrus, a aussi permis de déchiffrer une partie d'un papyrus
complètement carbonisé lors de l'éruption du Vésuve. A partir de ces
exemples, on veut nous convaincre que l'IA est devenue incontournable et
qu'en l'utilisant bien ce serait un progrès.
D'une part, l'IA produit des effets dévastateurs actuellement[1]. Par
ailleurs, la science, et la technologie qui va avec, ne sont jamais
neutres. Sous prétexte d'avancées "positives", on nous fait accepter le
pire qui va avec. L'IA, comme bien d'autres "avancées"
technoscientifiques, est indissociable du capitalisme. Le développement
technologique et scientifique n'est jamais neutre, il s'inscrit toujours
en lien avec la forme sociale qui domine la société. Croire que l'IA
pourrait être un outil de progrès est un leurre. L'IA produit le
capitalisme de la surveillance généralisée, un capitalisme où l'humain
ne se fait pas seulement exproprier de son travail, mais aussi de sa
cognition, où l'humain n'est plus que piloté par les IA pour travailler,
consommer et même dans la production de sa pensée.
RV
Notes
[1]voir l'article dans le prochain numéro "Les effets dévastateurs de
l'IA aujourd'hui"
https://oclibertaire.lautre.net/spip.php?article4422
_________________________________________________
A - I n f o s
informations par, pour, et au sujet des anarchistes
Send news reports to A-infos-fr mailing list
A-infos-fr@ainfos.ca
Subscribe/Unsubscribe https://ainfos.ca/mailman/listinfo/a-infos-fr
Archive: http://ainfos.ca/fr
A-Infos Information Center