 |
L'intelligence
artificielle ( = IA) est un domaine de l'informatique tourné
vers le développement de systèmes capables d'effectuer des tâches qui
nécessitent ordinairement l'intelligence
humaine, par exemple, la résolution de problèmes, l'apprentissage, la
reconnaissance de la parole, la prise de décision, la compréhension
du langage naturel et la vision par ordinateur, etc. On n'attend pas des
systèmes d'intelligence artificielle qu'ils fonctionnent comme l'esprit
humain - et, de fait, ils en sont aujourd'hui très loin, et le terme d'intelligence
est ici trompeur - mais seulement qu'ils accomplissent certaines tâches
dont la réalisation requiert chez eux un recours à leurs capacités cognitives.
Les visages de l'intelligence
artificielle
IA faible et IA forte.
En fonction des
capacités des systèmes d'intelligence artificielle, on distingue ordinairement
l'IA faible et l'IA forte. La première se réfère à des systèmes d'intelligence
artificielle conçus et entraînés pour accomplir des tâches spécifiques
ou résoudre des problèmes limités. La seconde, dont la possibilité
est encore spéculative, aspirerait à une intelligence générale comparable
à celle des êtres humains, prétendrait à une compréhension ou une
conscience globales et pourrait éventuellement ressentir des émotions
et des sentiments.
L'IA
faible.
L'IA faible ne peut
pas effectuer de tâches en dehors de son domaine de compétence et manque
de la flexibilité et de l'adaptabilité de l'intelligence humaine. Elle
fonctionne uniquement en se basant sur des algorithmes et des données
prédéfinies. Elle nécessite également de grandes quantités de données
pour être efficace et peut être sujette à des biais si les données
d'entraînement sont biaisées.
L'entraînement
d'une intelligence artificielle consiste à lui fournir des données
et à ajuster ses paramètres pour qu'elle puisse accomplir une tâche
spécifique de manière efficace. L'entraînement d'une IA commence par
la collecte d'un ensemble représentatif de données de ce que l'IA devra
traiter. Par exemple, des images pour la reconnaissance d'images ou des
conversations pour un chatbot ( = agent conversationnel). Les données
sont ensuite prétraitées, c'est-à -dire qu'elles sont nettoyées et préparées
pour qu'elles soient dans un format utilisable par le modèle d'IA.
Cela peut comprendre la normalisation des valeurs, le traitement des valeurs
manquantes, et la segmentation des données en ensembles d'entraînement
et de test. L'étape suivante est la sélection d'un modèle d'IA approprié.
Vient ensuite l'entraînement proprement dit : les données d'entraînement
sont utilisées pour ajuster les paramètres du modèle afin de minimiser
les erreurs dans ses prédictions. Cela peut impliquer l'utilisation de
techniques d'optimisation comme la descente de gradient. Les dernières
étapes consistent à tester le modèle sur un ensemble de données de
test distinct pour évaluer sa performance et s'assurer qu'il n'est pas
sur-appris (overfitting). Enfin, on ajuste modifier le modèle ou
les hyperparamètres en fonction des résultats de l'évaluation pour améliorer
ses performances.
Un
modèle d'IA est un système ou un algorithme
conçu pour effectuer une tâche spécifique en apprenant à partir de
données. Ces modèles peuvent être supervisés (étiquetage humain des
données), non supervisés (découverte de motifs dans les données),
semi-supervisés ou permettre un pprentissage par renforcement (optimisation
par essai-erreur), et sont utilisés dans diverses applications, telles
que la reconnaissance d'images, le traitement du langage naturel, et les
prévisions de séries temporelles. Les modèles d'IA incluent des algorithmes
de diverses sortes, parmi lesquels les arbres
de décision et les réseaux de neurones,
par exemple.
Les
types d' IA faible.
• IA
basée sur des règles (Rule-Based AI). - Ces systèmes fonctionnent
en suivant des ensembles prédéfinis de règles ou de conditions if-then
( = si-alors). Exemples : systèmes experts utilisés pour le diagnostic
médical, logiciels de gestion de la conformité légale.
• IA basée
sur l'apprentissage supervisé. - Les modèles sont entraînés Ã
partir de données étiquetées pour prédire des résultats ou classer
des données nouvelles. Exemples : reconnaissance d'image, classification
d'emails en spam ou non, prévision des ventes.
• IA basée
sur l'apprentissage non supervisé. - Les modèles analysent des données
non étiquetées pour découvrir des structures cachées ou des regroupements.
Exemples : clustering pour l'analyse de marché, détection d'anomalies
dans la surveillance de la sécurité.
• IA basée
sur l'apprentissage par renforcement. - Les systèmes apprennent Ã
partir de l'interaction avec leur environnement en recevant des récompenses
ou des punitions pour leurs actions. Exemples : jeux vidéo, robots de
nettoyage autonomes, algorithmes de trading.
• Traitement
du langage naturel (NLP = natural language processing).
- Ces systèmes permettent aux machines de comprendre, interpréter et
générer le langage humain. Exemples : chatbots, assistants virtuels
(comme Siri et Alexa), analyse de sentiment dans les réseaux
sociaux.
• Systèmes
de recommandation. - Utilisent des algorithmes pour suggérer des produits,
des films, des livres, etc., en se basant sur les préférences et les
comportements des utilisateurs. Exemples : recommandations de films sur
Netflix,
recommandations de produits sur Amazon, playlists personnalisées
sur Spotify.
• Vision par
ordinateur. - Ces systèmes permettent aux machines d'interpréter
et de comprendre les informations visuelles à partir du monde réel. Exemples
: reconnaissance faciale, détection d'objets, analyse d'images médicales.
• Reconnaissance
vocale. - Permet aux machines de comprendre et de transcrire la parole
humaine en texte. Exemples : systèmes de transcription, assistants vocaux,
systèmes de commande vocale dans les véhicules.
• Robots industriels.
- Robots programmés pour effectuer des tâches spécifiques dans
des environnements industriels (un robot est un système électromécanique
piloté par une IA). Exemples : robots d'assemblage, bras robotiques pour
le soudage, tri automatisé dans les entrepôts.
• Agents conversationnels.
- Programmes conçus pour simuler une conversation humaine en utilisant
des techniques de NLP et d'apprentissage automatique. Exemples : chatbots
de service client, systèmes de réponse automatique.
• Systèmes
de jeu. - IA conçue pour jouer à des jeux et parfois battre
des joueurs humains. Exemples : AlphaGo de Google DeepMind,
moteurs d'échecs comme Stockfish.
-
Le
champion du monde d'échecs Garri Kasparov, dépité à l'issue de
sa dernière partie perdue contre le programme d'IA Deep Blue, le
11 mai 1997, Ã New York. - Deep Blue, reposant sur une structure
hardware massivement parallèle, était capable d'évaluer environ 200
millions de positions d'échecs par seconde. Cette capacité de calcul
énorme lui permettait de rechercher très profondément dans l'arbre des
possibilités de jeu. Il utilisait des algorithmes de recherche comme l'algorithme
minimax
et l'élagage alpha-bêta pour explorer les meilleures séquences
de coups possibles. Ces algorithmes aidaient à élaguer les branches non
prometteuses de l'arbre de recherche, se concentrant ainsi sur les coups
les plus probables de conduire à une victoire. Pour chaque position d'échecs,
Deep
Blue utilisait une fonction d'évaluation qui tenait compte de divers
facteurs comme la sécurité du roi, le contrôle du centre, la structure
des pions, et le développement des pièces. Cette fonction était basée
sur des connaissances spécifiques des échecs et aidée par des experts
humains. Deep Blue disposait d'une vaste base de données de parties
d'échecs jouées par des maîtres et grands maîtres. Cela lui permettait
d'apprendre des stratégies et des ouvertures populaires, ainsi que de
préparer des réponses spécifiques aux styles de jeu de Kasparov. Entre
les parties de chaque match, les ingénieurs et les programmeurs d'IBM
pouvaient ajuster et améliorer les algorithmes et la fonction d'évaluation
de Deep Blue, tirant parti des observations faites lors des parties
précédentes. Deep Blue pouvait apprendre des erreurs commises
lors des parties précédentes et ajuster ses stratégies en conséquence,
rendant plus difficile pour Kasparov de prédire et d'exploiter ses faiblesses.
(Photo
: JT d'Antenne-2 / INA). |
• Systèmes
de diagnostic et de prédiction médicale. - Utilisent des données
médicales pour diagnostiquer des maladies ou prédire des résultats de
santé. Exemples : IBM Watson pour l'oncologie, systèmes
de dépistage de la rétinopathie diabétique.
• Systèmes
de sécurité et de surveillance. - Utilisent des algorithmes pour
détecter et analyser des comportements suspects ou des anomalies.
Exemples : détection de fraude en ligne, surveillance vidéo automatisée.
• Voitures autonomes.
- Bien que les voitures autonomes soient très complexes et sophistiquées
et fassente appel à un vaste éventail de compétences, elles sont considérées
comme une forme d'IA faible car elles sont spécifiquement conçues pour
la conduite et ne possèdent pas d'intelligence générale.
L'IA
forte.
L'IA forte est encore
(2024) à l'état de projets. Elle devrait être capable de comprendre
et de raisonner sur un large éventail de sujets, sans être limitée Ã
des tâches spécifiques. Elle devrait pouvoir interpréter des informations
contextuelles, formuler des hypothèses et résoudre des problèmes complexes
de manière similaire à un être humain. Elle devrait pouvoir acquérir
de nouvelles compétences et connaissances de manière autonome, sans nécessiter
d'interventions humaines pour chaque nouvelle tâche. Elle devrait être
capable de transférer des connaissances d'un domaine à un autre. Par
oppoistion à l'IA faible capable seulement d'exécuter des tâches spécifique,
elle pourrait être qualifiée d'IA générale (IAG). Mais l'IA forte pourrait,
de plus, posséder une certaine forme de conscience
ou de compréhension de soi, ce qui lui permettrait de réfléchir sur
ses propres actions et décisions. Elle devrait pouvoir prendre, par exemple,
la forme d'un robot humanoïde capable de réaliser toutes les tâches
qu'un humain peut accomplir, comme converser naturellement, créer des
oeuvres d'art, comprendre et exprimer des émotions, résoudre des problèmes
complexes, et bien plus encore. Ce serait surtout un système informatique
capable d'apprendre n'importe quelle nouvelle compétence à un niveau
expert, quel que soit le domaine, sans nécessiter de nouvelles programmations
ou interventions humaines spécifiques.
Actuellement, l'IA
forte reste un objectif théorique et non réalisé. Les chercheurs travaillent
activement sur des aspects fondamentaux de l'intelligence générale, comme
l'apprentissage non supervisé, le transfert de connaissances, et la compréhension
contextuelle, mais il reste encore de nombreux défis techniques à surmonter
avant d'atteindre une véritable IA forte. L'IA forte représente le sommet
de la recherche en intelligence artificielle. Mais la création de l'IA
forte soulève des questions éthiques complexes,
notamment sur les droits des machines conscientes, l'impact sur l'emploi,
et les risques
potentiels pour la sécurité humaine. Que peut-on attendre (espérer ou
craindre) d'une IA capable de rivaliser avec l'intelligence humaine dans
toutes les tâches intellectuelles? Pourra-t-on attribuer une forme de
conscience ou de subjectivité aux systèmes d'IA générale? Quelle est
la nature de la compréhension qu'une machine pourrait avoir de son propre
état ou de son environnement? Quels risques cela fait-il courir à l'espèce
humaine? Comment minimiser les menaces potentielles posées par des systèmes
d'IA puissants et autonomes? Quels pourraient être les impacts sur la
compréhension de nous-mêmes et de notre place dans le monde si une telle
IA était créée? Comment l'interaction avec des machines intelligentes
modifierait-t-elle notre conception de l'humanité?
Types
théoriques d'IA forte.
L'IA forte et sa
version restreinte, l'intelligence artificielle générale (IAG), sont
conceptualisées de différentes manières en fonction des approches et
des objectifs poursuivis par les chercheurs et les théoriciens :
• IA
cognitive. - Inspirée par la structure et le fonctionnement du cerveau
humain, cette IA chercherait à reproduire les processus cognitifs humains,
comme la perception, le raisonnement,
l'apprentissage et la mémoire. Exemple théorique
: une machine capable de penser et de résoudre des problèmes de la même
manière qu'un humain, utilisant des réseaux de neurones artificiels très
avancés.
• IA basée
sur le symbolisme. - Utiliserait des représentations symboliques de
la connaissance pour effectuer des raisonnements de haut niveau, similaires
à ceux des humains. Exemple théorique : un système capable de comprendre
et manipuler des symboles abstraits pour effectuer des tâches de planification
complexe et de résolution de problèmes.
• IA basée
sur le connexionnisme. - S'appuierait
sur des modèles de réseaux de neurones pour simuler les processus cognitifs,
en imitant la structure du cerveau humain. Exemple théorique : une IAG
capable d'apprendre de manière autonome et de s'adapter à de nouvelles
situations en utilisant des architectures de réseaux neuronaux avancées.
• IA évolutive.
- Utiliserait des algorithmes évolutionnaires et génétiques pour permettre
à l'IA de s'améliorer et de s'adapter au fil du temps, en simulant le
processus de sélection naturelle. Exemple théorique : une IA capable
d'évoluer et de s'adapter continuellement en fonction des environnements
et des tâches changeantes, devenant de plus en plus efficace et intelligente.
• IA hybride.
- Combinerait plusieurs approches d'IA, comme le symbolisme, le connexionnisme
et les algorithmes évolutionnaires, pour créer un système plus robuste
et flexible. Exemple théorique : Une IAG utilisant à la fois des réseaux
de neurones pour l'apprentissage et des représentations symboliques pour
le raisonnement, intégrant également des mécanismes d'évolution pour
l'amélioration continue.
• IA basée
sur l'apprentissage profond. - Utiliserait des réseaux de neurones
profonds et des techniques d'apprentissage automatique avancées pour atteindre
une compréhension et une intelligence générale. Exemples théoriques
: une IAG capable de traiter et d'analyser des volumes massifs de données,
d'apprendre des modèles complexes et d'appliquer ces connaissances Ã
divers domaines.
• IA basée
sur la modélisation des agents. - Utiliserait des agents intelligents
autonomes capables de prendre des décisions indépendantes et de collaborer
entre eux pour résoudre des problèmes complexes. Exemple théorique :
une société d'agents intelligents qui interagissent, collaborent et se
coordonnent pour accomplir des tâches et atteindre des objectifs communs,
simulant ainsi un comportement intelligent collectif.
• IA basée
sur la simulation de la conscience. - Chercherait à modéliser et
à reproduire des aspects de la conscience humaine, comme l'auto-réflexion,
l'émotion et l'intuition. Exemple théorique
: une IAG capable de ressentir des émotions, de réfléchir sur ses propres
pensées et actions, et de prendre des décisions intuitives en plus des
décisions logiques.
• IA quantique.
- Utiliserait les principes de l'informatique quantique pour réaliser
des calculs complexes à des vitesses inaccessibles aux ordinateurs classiques,
potentiellement permettant une forme d'intelligence générale. Exemple
théorique : Une IAG utilisant des ordinateurs quantiques pour résoudre
des problèmes extrêmement complexes et pour modéliser des systèmes
cognitifs avancés.
• IA sociale.
- Modéliserait et simule les interactions sociales humaines pour comprendre
et reproduire des comportements sociaux complexes. Exemple théorique :
une IAG capable de participer et de naviguer dans des environnements sociaux
humains, comprenant les nuances des interactions humaines et s'intégrant
parfaitement dans des contextes sociaux variés.
Questions philosophies
et éthiques
Qu'est-ce que comprendre?
Pour un humain,
comprendre implique de saisir les relations entre les différentes parties
d'un tout, de voir comment les concepts se connectent et interagissent.
Par exemple, comprendre une théorie scientifique signifie non seulement
connaître ses faits et ses principes, mais aussi voir comment ils se relient
de manière cohérente. Pour une IA, "comprendre" signifie généralement
qu'elle est capable de traiter et d'interpréter des informations d'une
manière qui lui permet de répondre aux questions ou aux tâches qui lui
sont posées de manière contextuelle et appropriée. Cela va au-delÃ
de la simple récitation de faits pour inclure la capacité à raisonner,
inférer, et résoudre des problèmes. Cependant, cette compréhension
est très différente de la compréhension humaine. La compréhension de
l'IA est limitée par l'absence de conscience et d'expérience subjective.
Les IA ne peuvent pas "ressentir" ou "vivre" les informations de la même
manière que les humains, et leur compréhension est confinée aux paramètres
et aux données avec lesquels elles ont été formées.
Une IA peut analyser
des données et produire des résultats en se basant sur des algorithmes,
sans nécessairement saisir le sens ou la signification profonde des informations.
Par exemple, une IA peut traiter un texte en utilisant des modèles statistiques
pour prédire la prochaine phrase, ou même seulement le prochain mot ou
la prochaine lettre, sans comprendre réellement le contenu du texte. Les
IA modernes, comme les modèles de traitement du langage naturel, utilisent
des contextes et des relations entre les mots pour améliorer leur performance.
Cependant, cette contextualisation est basée sur des statistiques et des
patterns
(= modèles) appris plutôt que sur une compréhension consciente du contenu.
Contrairement aux
humains, les IA n'ont pas de conscience ou d'expérience subjective. Elles
n'ont pas de sensations, d'émotions ou de perceptions, ce qui signifie
que leur "compréhension" est purement fonctionnelle et algorithmique.
Elles ne saisissent pas le sens de la manière dont les humains le font.
Les IA peuvent intégrer et utiliser des connaissances à partir de vastes
ensembles de données. Cependant, cette connaissance est déconnectée
de l'expérience personnelle ou de la signification profonde. Par exemple,
une IA peut savoir que "les chats ont des moustaches" parce qu'elle a été
formée sur des images et des textes contenant cette information, mais
elle ne comprend pas ce que cela signifie en termes d'expérience sensorielle
ou d'interaction avec le monde.
Les IA symboliques
utilisent des règles et des représentations explicites pour traiter les
informations, tandis que les IA connectionnistes (comme les réseaux neuronaux)
apprennent des représentations implicites à partir de données. La "compréhension"
dans l'IA connectionniste est souvent moins explicite et plus difficile
à interpréter.
Les
modèles comme GPT-4, qui sont des réseaux neuronaux entraînés sur de
grandes quantités de texte, simulent une compréhension en générant
des réponses contextuellement appropriées (IA générative). Cependant,
ils ne possèdent pas une compréhension consciente; ils prédisent simplement
des mots ou des phrases basés sur les données sur lesquelles ils ont
été formés.
Dans des applications
comme les assistants virtuels, les systèmes de recommandation ou les traducteurs
automatiques, les IA montrent une forme de compréhension fonctionnelle
qui est suffisante pour accomplir des tâches spécifiques. Cependant,
cette compréhension est limitée à des contextes prédéfinis et ne s'étend
pas à une conscience ou une compréhension généralisée.
Les test de l'IA.
De quoi sont et
seront capables les IA? De quoi aussi sont-elles ou seront-elles éventuellement
incapables? Ces questions ne sont pas seulement théoriques. L'évaluation
des IA repose sur différents tests pratiques et spécifiques, utilisés
dans des contextes particuliers, comme la compréhension linguistique,
la reconnaissance d'images, ou la capacité à résoudre des problèmes
complexes.
Le
test de Turing.
Proposé par Alan
Turing en 1950, le test de Turing, est une mesure classique de l'intelligence
artificielle. Il est destiné à déterminer si une machine peut manifester
un comportement suffisamment intelligent pour ne pas être distingué de
celui d'un être humain. Dans ce test, un évaluateur humain interagit
avec deux entités à travers une interface textuelle : une autre personne
et une machine. L'évaluateur pose des questions à chaque entité sans
savoir laquelle est la machine et laquelle est l'humain. Si, après une
série de questions, l'évaluateur ne parvient pas à distinguer de manière
fiable laquelle des deux entités est la machine, alors cette machine est
considérée comme ayant passé le test de Turing.
Des
chatbots comme ELIZA, développé dans les années 1960, ont montré la
capacité des machines à engager des conversations rudimentaires. Plus
récemment, des modèles comme GPT-3 et GPT-4 témoignent des progrès
significatifs accomplis depuis dans la génération de texte qui peut sembler
humain. Certains systèmes d'IA ont réussi à tromper des évaluateurs
humains dans des tests de Turing simplifiés ou dans des contextes restreints,
mais aucun n'a passé un test de Turing généralisé et rigoureux de manière
convaincante.
Le test de Turing soulève
des questions sur la nature de l'intelligence et de la conscience. Peut-on
considérer une machine comme "intelligente" simplement parce qu'elle imite
les réponses humaines de manière convaincante ? Le test ne prend pas
en compte la conscience ou la subjectivité. Une machine pourrait réussir
le test de Turing sans avoir de conscience ou de compréhension réelle
des réponses qu'elle donne. Le test de Turing a motivé des recherches
en IA visant à créer des machines capables de comprendre et de générer
un langage naturel de manière convaincante. Les IA actuelles, comme les
chatbots sophistiqués, peuvent imiter des conversations humaines dans
certaines limites, mais souvent, elles restent incapable de prendre en
compte réellement le contexte ou les nuances des interactions.
Le test a des limitations.
Il se base sur la capacité de l'IA à imiter un comportement humain en
surface sans évaluer la profondeur de la compréhension ou de la pensée.
Les jugements des évaluateurs peuvent aussi être biaisés par leurs attentes
et leurs connaissances préalables sur l'IA, ce qui peut affecter les résultats
du test. Aussi, divers tests et critères ont été proposés pour évaluer
l'intelligence et les capacités des IA, tels que le test de Lovelace (qui
vérifie si une IA peut produire quelque chose de créatif de manière
autonome) et le test de la salle chinoise de John Searle (qui teste la
compréhension réelle au regard de la manipulation de symboles).
-
Image
extraite du film Ex-Machina, d'Alex Garland
(2015). - Une variante du test de Turing est au centre de ce film. Une
IA peut-elle éprouver des émotions et des sentiments? Et si oui, de quelle
nature? Penser n'est pas ressentir. Peut-être la machine ne prouvera-t-elle
son humanité qu'à partir du moment où elle saura se montrer inhumaine.
Photo : Universal Pictures. |
Le
test de Lovelace.
Le test de Lovelace
est un concept qui évalue si une intelligence artificielle (IA) peut être
considérée comme réellement créative. Contrairement au test de Turing,
qui mesure la capacité d'une machine à imiter le comportement humain
de manière indiscernable, le test de Lovelace se concentre sur la capacité
de l'IA à produire des oeuvres créatives originales. L'oeuvre produite
par l'IA doit être considérée comme nouvelle et originale, non seulement
une reproduction ou une variation d'une oeuvre existante.L'IA doit avoir
une certaine « compréhension » des concepts et des techniques qu'elle
utilise pour produire l'oeuvre. L'IA doit être capable de montrer qu'elle
avait une intention
ou un objectif derrière la création de l'oeuvre.
L'IA doit, ainsi,
dans le domaine de l'art, être capable de créer des peintures ou des
compositions musicales qui ne sont pas seulement des amalgames d'oeuvres
humaines, mais qui possèdent des qualités uniques et nouvelles. Testée
dans le domaine de la littérature, elle doit écrire des poèmes ou des
histoires avec des thèmes et des styles originaux, qui ne se contentent
pas de recycler des motifs littéraires bien connus. Dans le domaine de
l'innovation scientifique, elle doit pouvoir proposer des hypothèses scientifiques
ou des solutions techniques qui sont nouvelles et utiles, non dérivées
directement de la base de données existante.
Comme le test de
Turing, le test de Lovelace se heurte à des défis. Par exemple, déterminer
si une création est réellement originale peut être subjectif et difficile
à mesurer de manière objective. De plus, les critères mis en oeuvre
sont particulièrement difficiles à évaluer, car ils impliquent une forme
de conscience ou de compréhension profonde qui est actuellement hors de
portée des IA modernes. A ce jour, alors même que les IA actuelles montrent
des capacités impressionnantes, elles n'ont pas encore atteint le niveau
de compréhension et d'intention que le test de Lovelace exige.
Le
test de la chambre chinoise.
Le test de la chambre
chinoise, proposé par le philosophe John Searle en 1980, est une expérience
de pensée conçue pour argumenter contre l'idée que les systèmes
informatiques peuvent posséder une véritable compréhension ou conscience,
même s'ils semblent capables de converser de manière intelligente. Il
convient de distinguer entre performance apparente et véritable compréhension.
Dans ce test, on imagine une personne qui ne parle pas chinois enfermée
dans une pièce avec un grand livre de règles en français pour manipuler
des symboles chinois. Des questions en chinois (sous forme de symboles)
sont glissées sous la porte. La personne dans la pièce utilise le livre
de règles pour associer ces questions à des réponses appropriées en
chinois, qu'elle glisse ensuite sous la porte. De l'extérieur, il semble
que la personne dans la pièce comprend le chinois, car elle donne des
réponses appropriées aux questions posées en chinois. Cependant, en
réalité, la personne ne comprend pas du tout le chinois; elle ne fait
que manipuler des symboles selon des règles syntaxiques sans aucune compréhension
sémantique.
Searle utilise cette
expérience pour illustrer la différence entre la manipulation syntaxique
des symboles (ce que fait l'ordinateur) et la compréhension sémantique
des significations (ce que fait un être humain). Searle soutient que les
ordinateurs, qui fonctionnent par manipulation syntaxique de symboles,
ne peuvent jamais vraiment « comprendre » ou avoir des états mentaux,
même s'ils peuvent sembler intelligents. C'est un argument à l'encontre
de l'idée de l'IA forte, qui affirme qu'un système informatique peut
réellement avoir une conscience et une compréhension comme les humains.
L'expérience de
la chambre chinoise remet en question des tests comme le test de Turing,
qui évalue l'intelligence d'une machine en fonction de son comportement
observable. Searle argumente que même si une machine peut passer le test
de Turing, cela ne prouve pas qu'elle comprend ou qu'elle est consciente.
L'argument de Searle milite en faveur l'idée de l'IA faible, où les systèmes
d'IA sont des outils puissants pour résoudre des problèmes spécifiques
sans prétendre qu'ils possèdent une véritable intelligence ou conscience.
L'argumentation
de Gödel.
Kurt
Gödel a proposé une argumentation contre la possibilité de l'IA
forte qui repose principalement sur ses théorèmes
d'incomplétudes. Le premier théorème d'incomplétude énonce que
dans tout système formel cohérent assez puissant pour inclure l'arithmétique
des entiers naturels, il existe des propositions vraies qui ne peuvent
pas être prouvées au sein de ce système. Le deuxième théorème d'incomplétude
énonce qu'un système formel cohérent ne peut pas prouver sa propre cohérence.
L'IA forte, on l'a dit, est la notion selon laquelle une machine (un ordinateur)
pourrait non seulement simuler l'intelligence humaine, mais aussi posséder
une conscience et une compréhension réelles, équivalentes à celles
d'un être humain. Les ordinateurs et les systèmes d'IA modernes fonctionnent
sur la base de systèmes formels, c'est-à -dire de règles et d'algorithmes
bien définis qui manipulent des symboles. En ce sens, ils sont soumis
aux limites énoncés par les théorème d'incomplétude, contrairement
aux humains.
En effet, si l'esprit
humain était équivalent à un système formel, alors, selon les théorèmes
de Gödel, il devrait exister des vérités que l'esprit humain ne peut
pas comprendre ou prouver. Or, les êtres humains semblent capables de
reconnaître la vérité de certaines propositions non prouvables au sein
d'un système formel donné, ce qui suggère que l'esprit humain n'est
pas limité de la même manière que les systèmes formels. Si donc l'esprit
humain dépasse les limites des systèmes formels (comme le suggère la
capacité humaine à percevoir des vérités non prouvables dans ces systèmes),
alors il y a quelque chose dans l'intelligence humaine qui ne peut pas
être entièrement saisi par un système formel ou par un programme d'ordinateur.
Par conséquent, une machine basée sur un système formel ne pourrait
jamais posséder l'intelligence et la compréhension humaine dans leur
totalité, ce qui contredit l'idée de l'IA forte.
L'argument de Gödel,
comme les précédents est largement débattu. Ses partisans, comme le
philosophe John Lucas et plus tard Roger Penrose, soutiennent que l'esprit
humain doit inclure des éléments non algorithmique pour échapper aux
limitations des systèmes formels. Mais certains philosophes et mathématiciens
soutiennent de leur côté que la capacité humaine à percevoir des vérités
non prouvables ne prouve pas nécessairement que l'esprit humain n'est
pas un système formel. Il pourrait simplement indiquer que les humains
utilisent des méta-systèmes ou des approches heuristiques qui ne sont
pas capturés par un seul système formel.
Les démonstrations
mathématiques et l'IA.
L'utilisation de
l'intelligence artificielle (IA) dans les démonstrations mathématiques
est un domaine de recherche en plein essor qui combine les mathématiques,
l'informatique et l'IA. L'IA peut aider à optimiser les démonstrations
mathématiques en trouvant des démonstrations plus courtes ou plus élégantes
pour des théorèmes connus. Un résultat obtenu par une IA doit contribuer
de manière significative à la connaissance mathématique. Cela peut se
manifester par la résolution de conjectures ouvertes, l'introduction de
nouvelles méthodes ou approches, ou l'amélioration des preuves existantes.
Par exemple, la découverte d'une preuve plus simple ou plus élégante
pour un théorème connu peut être très précieuse.
L'IA peut être utilisée
pour analyser et tester des conjectures mathématiques. Des outils basés
sur l'IA, comme ceux développés par OpenAI (par exemple, GPT-4 ou OpenAI
Codex basé sur GPT-3, qui peut générer des explications de concepts
mathématiques et aider à rédiger des preuves en langage naturel, ce
qui peut être utile pour la vulgarisation et l'enseignement des mathématiques),
peuvent aider les mathématiciens à étudier des conjectures, à formuler
des hypothèses et à trouver des idées nouvelles en analysant de grandes
quantités de données et de publications mathématiques. Ils peuvent proposer
des étapes intermédiaires ou des connexions entre différents domaines
des mathématiques. Les systèmes tutoriels intelligents peuvent aider
à apprendre les mathématiques en leur proposant des exercices adaptés
à leur niveau et en fournissant des démonstrations détaillées. Ils
peuvent aussi offrir des explications interactives et personnalisées.
Des outils spécialisés, peuvent permettre d'aller encore plus loin. Par
exemple, les systèmes de démonstration automatique, comme Coq,
Isabelle,
Mizar
et Lean, sont capables de vérifier et parfois de générer des
preuves mathématiques. Le projet Formal Abstracts vise à formaliser
une grande partie des mathématiques en utilisant ces outils. Ces systèmes
utilisent des techniques telles que la logique formelle, les théories
des types et les algorithmes de recherche pour prouver des théorèmes
ou vérifier la validité de démonstrations. Google DeepMind a
développé des modèles d'IA capables de découvrir des conjectures et
des démonstrations en mathématiques pures, comme en théorie des noeuds
et en théorie des représentations. Ces modèles peuvent générer des
intuitions et des idées qui aident les mathématiciens humains à aborder
de nouvelles directions.
Le statut épistémologique
d'un énoncé mathématique produit par une intelligence artificielle (IA),
mais dont il n'est pas possible d'apporter une validation par un humain,
soulève plusieurs questions importantes en philosophie des mathématiques
et en épistémologie. Les mathématiques sont traditionnellement une activité
humaine. Une démonstration mathématique n'est pas seulement un déploiement
de symboles agencé logiquement. C'est aussi la composante d'un acte de
communication qui doit recevoir la validation de son destinataire (la communauté
des mathématiciens, qui jusqu'à meilleure informée sont tous des humains,
avec donc les limitations inhérantes à leur condition). La valeur d'un
résultat mathématique dépend de sa vérifiabilité, de sa compréhension
et de l'acceptation par la communauté mathématique. La vérification
de la validité des démonstrations générées par l'IA reste un défi,
car certaines preuves peuvent être très complexes ou utiliser des étapes
non intuitives.
Pour qu'un résultat
mathématique obtenu par une IA soit considéré comme valable, il doit
être vérifiable de manière indépendante par des méthodes formelles.
Les outils de preuve automatique et les assistants de preuve, comme Coq,
Lean, et Isabelle, permettent de formaliser et de vérifier les preuves
de manière rigoureuse. Si une preuve obtenue par une IA peut être validée
par ces systèmes, elle gagne en crédibilité. Un énoncé mathématique
produit par une IA sans validation humaine pose la question de savoir s'il
reste une partie intégrante de la discipline mathématique ou s'il s'agit
d'une sorte de « mathématiques automatisées » distinctes. Le théorème
des quatre couleurs a été le premier théorème majeur à être démontré
avec l'aide d'un ordinateur en 1976. La démonstration initiale, qui nécessitait
une vérification exhaustive par ordinateur, a soulevé des questions sur
la validité et la compréhension des preuves assistées par ordinateur.
Cependant, avec le temps, cette méthode a été acceptée.
L'IA peut être vue
comme un producteur d'énoncés mathématiques selon une épistémologie
différente, une épistémologie mécanique ou ou épistémologie
des machines, où les énoncés sont produits par des mécanismes computationnels
plutôt que par des intuitions ou des preuves humaines. L'IA pourrait être
considérée comme une nouvelle source d'autorité épistémique.
Cependant, cette autorité doit être justifiée par une compréhension
profonde de ses méthodes et de ses limites.
Une autre question
est aussi de savoir que faire d'un énoncé produit par l'IA et qui n'a
pas reçu de validation humaine. Dans les domaines où une vérification
humaine exhaustive est impossible (par exemple, la cryptographie ou la
théorie des graphes à grande échelle), les résultats produits par l'IA
pourraient être utilisés de manière pragmatique avec une acceptation
de l'incertitude. Des approches comme celle de la logique
floue permettent d'intégrer dans un système formel des énoncés
qui ont des valeurs de vérité intermédiaires
(ils peuvent très bien ne pas être tout à fait vrais ou tout à fait
faux) comme c'est le cas des énoncés démontrés par IA et non validés
par un humain. Il est simplement alors crucial de reconnaître les
limites des énoncés produits par les IA et de ne pas les considérer
automatiquement comme des vérités établies sans validation indépendante.
L'IA et l'humanité
future.
Transhumanisme
et posthumanisme.
Le transhumanisme
est un mouvement philosophique et culturel qui promeut l'utilisation des
technologies - l'IA, parmi d'autres - pour améliorer les capacités humaines
et transcender les limites biologiques actuelles. L'IA est vue comme un
outil pour augmenter les capacités intellectuelles humaines, que ce soit
par le biais d'assistants personnels intelligents, de systèmes de recommandations
avancés, ou même de dispositifs de neuromodulation qui pourraient améliorer
la mémoire et l'apprentissage. Le transhumanisme envisage l'IA comme un
moyen de prolonger la vie humaine, notamment par le biais de la médecine
personnalisée, du diagnostic prédictif et des interventions thérapeutiques
automatisées. L'IA pourrait également jouer un rôle dans la recherche
sur l'immortalité biologique et numérique. Les interfaces cerveau-ordinateur
(BCI) développées avec l'aide de l'IA permettent une communication directe
entre le cerveau humain et les ordinateurs, ouvrant la voie à des formes
de contrôle et d'interaction beaucoup plus sophistiquées. Une telle évolution
supposé cependant qu'on se préoccupe des implications éthiques de l'IA,
notamment en ce qui concerne la liberté individuelle, l'égalité d'accès
aux technologies et la gestion des risques associés à des IA de plus
en plus puissantes.
Le posthumanisme,
quant à lui, est une perspective philosophique qui remet en question
les notions traditionnelles de l'humanité et propose une réévaluation
des rapports entre les humains, les technologies et l'environnement. Le
posthumanisme s'interroge sur ce que signifie être humain dans un monde
où les technologies avancées, notamment l'IA, sont omniprésentes. Il
propose une vision où les distinctions entre l'humain, la machine et l'animal
deviennent floues. Les développements en IA posent des questions sur la
nature de la conscience et de la subjectivité. Si une IA atteint un niveau
de sophistication suffisant pour simuler des aspects de la conscience humaine,
cela pourrait transformer notre compréhension de la subjectivité et de
l'expérience. Le posthumanisme s'intéresse à la manière dont l'IA pourrait
permettre des formes de coévolution et de symbiose entre les humains et
les technologies. Cela inclut des réflexions sur des écosystèmes technologiques
où les IA et les humains coexistent et collaborent. Les valeurs posthumanistes
invitent à une remise en question des hiérarchies traditionnelles et
une reconnaissance de la diversité des formes d'intelligence et de vie.
L'IA est vue comme un agent capable de participer à cette diversité,
nécessitant une reconsidération des cadres éthiques et des droits.
La
singularité technologique.
On donne le nom
de singularité
technologique au moment futur hypothétique
où le progrès technologique devient incontrôlable et irréversible,
résultant en des changements imprévisibles pour la civilisation humaine.
Ce thème banal dans la science-fiction,
est aussi un concept abordé dans le domaine de la futurologie, surtout
dans un contexte associé à l'émergence de l'intelligence artificielle
générale (IAG), une IA capable de surpasser les capacités intellectuelles
humaines dans tous les domaines. Le développement de l'IAG, qui serait
capable d'apprentissage, de compréhension et de raisonnement au-delÃ
des capacités humaines, est un facteur clé. Les machines capables de
s'améliorer elles-mêmes pourraient entraîner un cycle rapide d'améliorations,
dépassant de loin les capacités humaines. La convergence de diverses
technologies (nanotechnologie, biotechnologie, informatique, etc.) pourrait
accélérer les progrès vers la singularité. De nombreux auteurs ont
contribué à élaborer ce concept. Citons :
• John
von Neumann (1903-1957) a discuté dès les années 1950 d'un «
progrès technologique accéléré » et d'une « singularité essentielle
» dans l'histoire humaine. Il a parlé de la rapidité croissante du progrès
technologique et de l'approche d'un point où la technologie pourrait transformer
radicalement la société. Von Neumann voyait cela comme un changement
exponentiel qui pourrait redéfinir la civilisation humaine.
• Irving John
Good (1916 - 2009), un des collaborateurs d'Alan Turing à Bletchley
Park pendant la Seconde Guerre mondiale, a introduit en 1965 le concept
d'une « explosion d'intelligence ». Il a proposé l'idée que la création
d'une intelligence artificielle ultra-intelligente pourrait entraîner
une explosion de progrès technologique incontrôlable. Good a souligné
que, si une machine devenait capable de surpasser l'intelligence humaine,
elle pourrait améliorer elle-même sa propre intelligence à un rythme
accéléré, entraînant une boucle de rétroaction positive qui pourrait
mener à la singularité.
• Vernor Vinge
(1944-2024), un auteur de science-fiction et professeur de mathématiques,
a formalisé en 1993 l'idée de la singularité technologique dans son
essai The Coming Technological Singularity. Il a affirmé que la
création d'intelligences supérieures à celles des humains marquerait
la fin de l'ère humaine telle que nous la connaissons. Vinge a suggéré
que cela pourrait se produire d'ici quelques décennies, et il a décrit
plusieurs voies potentielles vers la singularité, comme l'intelligence
artificielle, les interfaces cerveau-ordinateur et les réseaux informatiques
intelligents.
• Ray Kurzweil
(né en 1948) est un futurologue et un inventeur connu pour ses prévisions
sur l'avenir de l'IA et pour sa promotion du concept de singularité technologique
et de l'évolution accélérée des machines. Il a écrit plusieurs ouvrages,
dont The Singularity is Near. Kurzweil prévoit que la singularité
se produira vers 2045, lorsqu'une intelligence artificielle surpassera
l'intelligence humaine et conduira à des changements technologiques et
sociétaux radicaux. Il voit la singularité comme une période où les
capacités de l'intelligence non-biologique croîtront de manière exponentielle,
révolutionnant tous les aspects de la vie humaine. Bien que controversées,
ses idées ont stimulé les discussions sur les implications futures de
l'IA et ont popularisé le concept de la singularité.
•
Nick Bostrom
(né en 1973) est un philosophe et théoricien des risques existentiels
liés à l'IA. Dans son livre Superintelligence: Paths, Dangers, Strategies,
il examine les scénarios potentiels où l'IA pourrait surpasser l'intelligence
humaine et les défis éthiques et de sécurité qui en découlent. Il
propose aussi des stratégies pour atténuer ces risques. Ses recherches
ont attiré l'attention sur les dangers potentiels de l'IA et ont influencé
les discussions sur la gouvernance et la réglementation de l'IA. (Bostrom
est aussi l'auteur de l'hypothèse de la simulation, selon laquelle
le monde dans lequel nous vivons et nous mêmes serions le produit d'un
programme informatique. V. plus bas).
Face à cette perspective,
certains, comme Ray Kurzweil, se montrent optimistes. L'humanité pourrait
bénéficier d'avancées rapides dans la compréhension scientifique et
les technologies médicales, potentiellement conduisant à des solutions
pour des maladies incurables et à une amélioration radicale de la qualité
de vie. Les technologies augmentant les capacités intellectuelles et physiques
humaines, elles pourraient nous mener vers une ère post-humaine. D'autres,
comme Nick Bostrom, sont pessimistes. Ils soulignent la possibilité de
la perte de contrôle sur les machines super-intelligentes qu'une telle
évolution signifierait, avec des conséquences imprévisibles et potentiellement
catastrophiques. Ils en appellent à des mesures de précaution strictes.
Il existe aussi au troisème option, face à la singularité technlogique,
celle dite des réalistes, des chercheurs pour qui les scénarios de la
singularité sont basés sur des extrapolations par trop spéculatives.
Ils considèrent que les défis techniques pour atteindre l'IA générale
sont sous-estimés.
La réalité est-elle
une simulation?
L'hypothèse selon
laquelle nous vivrions dans une simulation informatique ( = hypothèse
de la simulation) a été popularisée par le philosophe Nick Bostrom
en 2003. Selon cette théorie, ce que nous prenons pour la réalité
pourrait, comme dans le film The Matrix, des soeurs Wachowski, être
en fait une simulation créée par une civilisation technologiquement avancée.
Selon Bostrom, les
progrès technologiques pourraient un jour permettre aux civilisations
avancées de créer des simulations extrêmement complexes qui reproduisent
la réalité à un niveau de détail indiscernable. Si une civilisation
peut créer des simulations, il est probable qu'elle en crée beaucoup.
Si ces simulations sont nombreuses, il devient statistiquement probable
que nous soyons dans l'une d'entre elles plutôt que dans la réalité
tout court. En considérant l'évolution technologique continue de l'humanité,
il semble possible que des générations futures possèdent des ordinateurs
capables de simuler des univers entiers avec des entités conscientes.
Bostrom va jusqu'Ã
imaginer que nous soyons capables un jour de simuler des univers dans lesquels
ces entités conscientes deviendraient assez avancées pour créer elles-mêmes
des simulations d'univers dans lesquelles des entités conscientes pourraient
à leur tour créer des simulations, et ainsi de suite, à l'infini. Dans
ce cas, rien n'empêche que nous soyons nous-mêmes des simulations créées
par ds simulations, elles-mêmes créées par des simulations, et ainsi
de suite jusqu'à ...? Une mise en abyme vertigineuse de la réalité qui
devient alors un concept insaisissable.
-
Et
si nous n'étions (nous-mêmes et le monde qui nous entoure) que le produit
des lignes de codes d'un programme informatique? Les implications
éthiques de la simulation sont vastes. Si nous sommes des entités simulées,
quel est le statut moral de nos actions? Les créateurs de la simulation
auraient-ils des responsabilités morales envers nous? Et, d'ailleurs,
la morale, qui est ce qui définit notre responsabilité vis-à -vis d'autrui,
est-elle dépendante de notre statut ontologique ou, au contraire, comme
chez Emmanuel Lévinas pour qui l'autre précède
l'être, est-ce notre rapport à autrui (et par là notre morale, donc)
qui fournit la clé de notre statut ontologique? Image
générée par une IA (Open Dall-e). |
De toute façon,
quel que soit le niveau d'intrication de la réalité que l'on imagine,
si nous vivons dans une simulation, cela pose des questions fondamentales
sur la nature de la réalité. Par exemple, les lois physiques que nous
observons pourraient être des règles programmées plutôt que des vérités
fondamentales de l'univers. L'idée de vivre dans une simulation pourrait
impliquer que nos actions sont déterminées par des algorithmes ou que
nous avons une forme limitée de libre arbitre.
Une des faiblesses
de l'hypothèse de la simulation en arguant que nous n'avons aucun moyen
fiable de tester ou de vérifier cette théorie, ce qui la rend spéculative
et non scientifique. Certaines anomalies ou limites dans les lois de la
physique pourraient-elles se comprendre comme des indices sur la nature
simulée de notre univers? Le physicien Thomas Campbell a proposé en 2017
des tests qui pourraient permettre de mettre à l'épreuve l'hypothèse
de la simulation, même si l'argument de Gödel semble aller à l'encontre
de tels tests. De toute façon, l'hypothèse de la simulation ne permet
de répondre à aucune question de fond concernant le réel. Elle ne fait
que repousser la problématique derrière un voile pittoresque en posant
des questions que rien n'impose. Il semble bien plus simple et plus rationnel
d'appliquer le rasoir d'Occam et
d'admettre que nous vivons dans la réalité de base, car cette hypothèse
ne requiert pas d'entités ou de technologies supplémentaires. .
L'éthique de
l'intellligence artificielle.
Il
n'est pas besoin d'attendre la mise au point d'une IA forte pour de nombreuses
questions se posent dans ce domaine. Par exemple, quelles sont les implications
morales et éthiques de créer des machines intelligentes? Comment les
décisions éthiques sont-elles prises par les systèmes d'IA? Qui est
responsable en cas de préjudice causé par des systèmes d'IA? Comment
attribuer la responsabilité lorsque des décisions autonomes sont prises
par des machines intelligentes? D'ores et déjà , l'éthique de l'IA est
devenue une branche à part entière de la philosophie, qui examine les
implications morales, sociales et légales de l'utilisation et du développement
des intelligences artificielles.
Des questions concernent
aussi la transparence et l'explicabilité de ce ce type d'outil. Comment
rendre les décisions des systèmes d'IA compréhensibles pour les humains?
Et d'ailleurs, la transparence et l'explicabilité sont-elles véritablement
nécessaires pour garantir une utilisation éthique de l'IA, en particulier
dans la santé, la justice ou la finance? Quel va être l'impact de l'IA
sur le marché du travail, sur les libertés individuelles et les libertés
publqiues? Comment la société doit-elle faire face à la transition vers
une utilisation accrue de l'IA dans les processus de production et de services?
Les
trois lois de la robotique d'Asimov.
Les trois lois
de la robotique ont été énoncées à partir de 1942 par l'écrivain
de science fiction Isaac Asimov. Ces lois ont été introduites pour régir
le comportement des robots et garantir la sécurité des humains dans les
récits de l'auteur. Il est intéressant de les relire aujourd'hui à la
lumière des problématiques posées par les systèmes d'intelligence artificielle
actuels. Ces lois sont les suivantes :
• Première
loi (sécurité et le bien-être humain) : « un robot ne peut porter
atteinte à un être humain ni, par son inaction, permettre qu'un être
humain soit exposé au danger ». En pratique, cela nécessite des systèmes
de surveillance et de contrôle rigoureux pour éviter les comportements
imprévus ou dangereux des IA.
• Deuxième
loi (obéissance et autorité) : « un robot doit obéir aux ordres
donnés par les êtres humains, sauf si de tels ordres entrent en conflit
avec la première loi ». Cela soulève des questions sur qui a le
droit de donner des ordres aux IA et comment s'assurer que ces ordres sont
éthiques.
• Troisième
loi (autonomie et préservation) : « un robot doit protéger son existence
tant que cette protection n'entre pas en conflit avec la première ou la
deuxième Loi ». Cela peut être interprété comme un appel à une conception
robuste et durable des systèmes IA, capable de fonctionner de manière
fiable sans tomber en panne ou causer des accidents.
Après avoir énoncé
ces lois Asimov s'est attaché malicieusement à montrer comment elles
pouvaient être contournées. Autrement dit, elles n'étaient sans doute
pour lui, u final, qu'une forme de contrainte littéraire destinée
à stimuler sa créativité (un peu à la manière des contraintes que
se donnent les écrivains de l'Oulipo). Et, de
fait, les lois de la robotique apparaissent trop simples pour s'appliquer
à des situations réelles. Elle sont sujettes à interprétation et se
montrer incapables de répondre aux complexités
du réel. Elles sont aussi insuffisantes, dans la mesure où elles ne prennent
pas en compte les questions de justice sociale, de biais et de discrimination
qui peuvent émerger dans l'utilisation des IA, d'oubli de la responsabilité
des développeurs, de respect de la vie privée, etc. Autrement dit, elles
doivent être complétées par des principes éthiques modernes qui prennent
en compte la complexité et les nuances des interactions humaines et technologiques.
-
Image
extraite du film I, Robot, d'Alex Proyas (2004),
un film inspiré des oeuvres
d'I.
Asimov. Ou pourquoi les lois de la robotique ne nous protègent pas réellement
des machines. La morale ne procède pas d'un ensemble de règles, mais
d'un système de valeurs. Les robots d'Asimov ne doivent donc pas être
programmés pour suivre des règles (trop facile, c'est la base même de
l'informatique), mais pour intégrer un système de valeurs (bon courage,
les programmeurs!). C'est par la fidélité à des valeurs (éventuellement
très contestables) que l'IA pourra choisir d'appliquer les règles, de
les contourner ou de franchement les enfreindre. Photo
: Twentieth century fox. |
Confidentialité
et sécurité des données
L'IA dépend souvent
de grandes quantités de données personnelles pour fonctionner efficacement.
Cela pose des questions éthiques et juridiques sur la collecte, le stockage
et l'utilisation de ces données, notamment en ce qui concerne le consentement
des individus. L'IA peut être utilisée pour surveiller les individus
de manière extensive, que ce soit par le biais de caméras de sécurité
intelligentes, de traçage des mouvements via les smartphones, ou de l'analyse
des comportements en ligne. Cela peut mener à une intrusion dans la vie
privée des personnes.
Les plateformes en
ligne utilisent des algorithmes d'IA pour modérer le contenu, ce qui peut
conduire à une censure automatisée. Les erreurs dans ces systèmes peuvent
supprimer injustement des contenus ou comptes, affectant la liberté d'expression.
L'IA peut être utilisée pour créer et diffuser des informations fausses
ou trompeuses (deepfakes, bots sociaux), ce qui peut influencer l'opinion
publique et nuire au débat démocratique.
L'utilisation de
technologies de reconnaissance faciale dans les espaces publics peut dissuader
les gens de participer à des manifestations ou à d'autres formes d'expression
collective, limitant ainsi leur liberté de réunion et d'association.
Les systèmes d'IA
peuvent perpétuer et amplifier les biais présents dans les données d'entraînement,
ce qui peut mener à des décisions discriminatoires dans des domaines
tels que l'emploi (recrutement, évaluation des performances, etc.), le
crédit, et les services publics.
L'accès inégal
à l'IA et aux technologies associées peut accentuer les inégalités
existantes, limitant les opportunités pour certains groupes de participer
pleinement à la société numérique.
Les algorithmes d'IA
peuvent prendre des décisions importantes sans fournir d'explications
claires, ce qui rend difficile pour les individus de comprendre et de contester
ces décisions. Cela affecte leur autonomie et leur capacité à exercer
leurs droits.
Lorsqu'une
IA prend une décision qui affecte les libertés individuelles, il peut
être difficile de déterminer qui est responsable – les développeurs,
les opérateurs ou les utilisateurs de l'IA. Cette ambiguïté peut compliquer
la recherche de recours pour les violations de droits.
La dépendance excessive
à l'IA peut réduire les interactions humaines et nuire à la qualité
des services personnalisés, affectant ainsi l'autonomie des individus
dans leurs interactions quotidiennes. L'IA peut être utilisée pour influencer
et manipuler les comportements des individus, par exemple à travers des
publicités ciblées ou des recommandations personnalisées, réduisant
ainsi leur liberté de choix.
Libertés.
L'IA est de plus
en plus utilisée dans les applications de maintien de l'ordre et de sécurité
nationale, comme les systèmes de surveillance prédictive et les drones
de surveillance. Les technologies de surveillance basées sur l'IA, comme
la reconnaissance faciale, peuvent être utilisées pour surveiller les
populations à grande échelle. Dans les entreprises, l'IA permet une surveillance
accrue des employés, par exemple via l'analyse de la productivité, des
comportements et des communications. L'utilisation d'IA pour surveiller
et évaluer la performance des employés peut réduire leur autonomie et
leur capacité à prendre des décisions, ce qui peut affecter leur satisfaction
et leur motivation au travail.
Cela soulève des
préoccupations éthiques concernant la vie privée des employés et peut
créer un climat de méfiance et de stress. Cela pose des risques pour
la vie privée et la liberté de mouvement des individus, et peut créer
un climat de surveillance constante.
Quand l'IA repose
sur des vastes ensembles de données personnelles, la collecte, le stockage,
et l'analyse de ces données peuvent porter atteinte à la vie privée
des individus, en particulier si ces pratiques sont effectuées sans consentement
explicite et éclairé.
L'utilisation de
l'IA dans la santé nécessite l'accès à des données médicales sensibles.
La protection de la confidentialité de ces données est essentielle pour
respecter le droit à la vie privée des patients.
Les algorithmes d'IA
utilisés pour modérer le contenu sur les plateformes en ligne peuvent
supprimer ou censurer des contenus de manière injustifiée, affectant
ainsi la liberté d'expression. Des erreurs dans ces systèmes peuvent
conduire à la suppression de contenus légitimes ou à la diffusion de
contenus nuisibles.
Egalité.
La reproduction
et l'amplifications des biais présents dans les
données d'entraînement, évoquées plus à propos des risques qu'elle
peuvent induire dans le monde du travail, peuvent affecter bien d'autres
domaines, tels que le recrutement, le crédit, l'assurance et la justice
pénale, en discriminant des groupes déjà marginalisés.
L'utilisation possible
de l'IA pour assister ou remplacer les juges dans la prise de décisions
judiciaires pose des questions sur l'équité et la transparence des procès.
Les algorithmes peuvent manquer de transparence et de possibilité de contestation,
compromettant ainsi le droit à un procès équitable.
Les question d'égalité
peuvent aussi se poser à propos de ceux qui ont accès aux aspects bénéfiques
de l'IA et ceux qui n'y ont pas accès. Par exemple, l'IA a le potentiel
d'améliorer l'accès aux soins de santé grâce à des diagnostics plus
rapides et plus précis, et à des traitements personnalisés. Cependant,
l'inégalité dans l'accès à ces technologies peut créer des disparités
dans la qualité des soins de santé disponibles pour différentes populations.
Les inégalités d'accès aux technologies avancées de l'IA peuvent également
exacerber les disparités économiques et sociales, créant un fossé numérique
entre ceux qui ont accès à ces technologies et ceux qui en sont exclus.
L'égalité des chances
dans le monde du travail et dans l'économie peut être elle aussi affectée
de diverses façons par l'IA. Toutes les entreprises, surtout les petites
et moyennes, n'ont pas les mêmes moyens d'investir dans l'IA. Cela peut
créer un fossé entre les grandes entreprises technologiquement avancées
et les plus petites, qui risquent de devenir non compétitives. Les entreprises
qui adoptent l'IA peuvent voir une augmentation significative de leur productivité
et de leurs profits, ce qui peut accroître la concentration de la richesse
entre les mains d'un petit nombre d'entreprises et de leurs dirigeants,
exacerbant les inégalités économiques.
L'automatisation
des tâches par l'IA peut entraîner la suppression de nombreux emplois,
en particulier ceux qui sont répétitifs et routiniers. Cela peut conduire
à une augmentation du chômage et à une précarité économique pour
les travailleurs concernés. Les emplois restants ou nouveaux créés par
l'IA nécessiteront des compétences différentes, souvent plus techniques
et spécialisées. Il y a un risque que certains travailleurs, notamment
ceux des secteurs traditionnels, ne puissent pas s'adapter ou se former
à temps, ce qui peut aggraver les inégalités.
Explicabilité
et transparence.
L'explicabilité
et la transparence ont un impact direct sur la manière dont les systèmes
d'IA sont perçus et acceptés par la société. Des systèmes transparents
et explicables sont plus susceptibles de bénéficier d'une adoption large
et de contribuer positivement à la société. Or, certains systèmes d'IA,
notamment ceux basés sur des réseaux neuronaux profonds, sont des boîtes
noires, rendant difficile l'explication de leurs décisions et de leur
fonctionnement interne. Si les utilisateurs ne comprennent pas comment
et pourquoi une IA prend certaines décisions, cela peut engendrer méfiance
et réticence à adopter ces technologies. Les systèmes d'IA devraient
pouvoir être conçus de manière à ce que leurs décisions soient compréhensibles.
Les algorithmes doivent être suffisamment transparents pour que les utilisateurs
puissent saisir les facteurs influençant les résultats produits par l'IA.
La transparence permet
d'attribuer la responsabilité en cas d'erreur ou de préjudice. Sans explication
claire des décisions prises par l'IA, il devient difficile de déterminer
qui est responsable des erreurs – que ce soit les développeurs, les
opérateurs ou d'autres parties prenantes. Une transparence insuffisante
peut faciliter l'occultation des erreurs ou des abus, rendant difficile
la mise en place de mesures correctives appropriées. Cela soulève des
préoccupations éthiques sur l'imputabilité des actions prises par ou
avec l'aide de l'IA.
L'absence de transparence
peut masquer des biais dans les algorithmes, entraînant des décisions
discriminatoires ou injustes. Les utilisateurs doivent pouvoir vérifier
que les systèmes d'IA prennent des décisions de manière équitable et
non discriminatoire. La capacité à expliquer les décisions de l'IA permet
de détecter et de corriger les biais inhérents aux données ou aux algorithmes.
Si les processus décisionnels de l'IA sont opaques, les biais peuvent
passer inaperçus et perpétuer des inégalités existantes.
Les utilisateurs
ont le droit de savoir comment leurs données sont utilisées et comment
les décisions les concernant sont prises. Cela est particulièrement important
dans des domaines sensibles comme la santé, la justice ou le crédit,
où les décisions de l'IA peuvent avoir un impact significatif sur la
vie des individus. Pour que le consentement des utilisateurs à l'utilisation
de leurs données soit véritablement éclairé, ils doivent comprendre
comment ces données seront traitées et à quelles fins. La transparence
est donc cruciale pour respecter les droits à la vie privée et au consentement
des utilisateurs.
Les concepteurs d'IA
ont la responsabilité éthique de créer des systèmes transparents et
explicables. Cela inclut l'intégration de mécanismes permettant de retracer
les décisions et de fournir des explications claires aux utilisateurs.
Les développeurs doivent équilibrer l'innovation avec les considérations
éthiques. Par exemple, l'utilisation de techniques comme les boîtes
noires ( = algorithmes opaques) peut offrir des performances accrues
mais au prix de la transparence. Une innovation éthique privilégie la
création de systèmes compréhensibles et auditables.
Les questions de
transparence et d'explicabilité doivent être abordées par des cadres
réglementaires appropriés. Les législateurs et les régulateurs doivent
définir des normes claires pour garantir que les systèmes d'IA respectent
des principes éthiques.
--
Un
robot militaire (Ghost Robotic Dog) lors d'un entraînement sur
une base de l'armée américaine en Californie. - D'autres
modèles, plus "armés" sont déjà déployés sur le terrain (en Irak,
par l'US Navy, notamment). On ne peut pas demander à ce type de machines
d'obéir aux trois lois de la robotique... La légitimation éthique de
l'usage de l'IA a des fins militaires concentre de manière aiguë la plupart
des problématiques posées à la société par l'usage de l'IA en général
: transparence, responsabilité, autonomie décisionnelle, sécurité et
sûreté, acceptabilité, etc. Photo : Samarion Hicks,
U.S. Army. |
Responsabilité
et imputabilité
Lorsqu'une IA prend
une décision qui affecte les droits humains ou occasionne des dommages,
il peut être difficile de déterminer qui est responsable. Les responsables
peuvent être ceux qui conçoivent et programment l'IA si l'algorithme
fonctionne mal ou produit des résultats nuisibles. Même chose pour les
fabricants des dispositifs qui intègrent des systèmes IA et qui pourraient
également être tenus responsables en cas de défauts matériels affectant
le fonctionnement de l'IA. Les Etats, les entreprises ou individus utilisant
l'IA dans leurs activités peuvent être responsables de l'utilisation
imprudente ou inappropriée de la technologie. Chacun doit veiller à ce
que les systèmes d'IA soient conçus et utilisés de manière éthique.
Des régulations
spécifiques doivent être mises en place pour encadrer l'utilisation de
l'IA, en s'assurant qu'elle respecte les normes internationales des droits
humains. Les systèmes d'IA doivent être transparents et explicables,
permettant aux individus de comprendre comment les décisions sont prises
et d'avoir la possibilité de les contester. Les parties prenantes, Ã
commencer par les groupes de défense des droits humains, les populations
affectées (employés, citoyens, etc.) et les experts techniques, doivent
être consultées et impliquées dans le développement et la mise en oeuvre
des technologies d'IA. Il est crucial aussi de former et de sensibiliser
les développeurs, les décideurs politiques et le grand public aux implications
liées à l'irruption massive de l'IA dans nos vies. (Page
rédigée avec l'aide de... ChatGPT).
-
Le dilemme
de l'autobus
Le dilemme de
l'autobus est une variation moderne du célèbre dilemme
du tramway appliquée au domaine de l'intelligence artificielle, en
particulier aux véhicules autonomes. Ce dilemme pose des questions éthiques
sur les décisions que les véhicules autonomes doivent prendre en cas
de situations de conduite critiques où des vies sont en jeu. Le scénario
est le suivant : un bus autonome est confronté à une situation d'urgence
où il doit choisir entre deux actions, chacune ayant des conséquences
graves :
• A) Freiner
brusquement pour éviter de heurter un piéton traversant la route, risquant
de causer des blessures graves ou la mort des passagers à bord en raison
du freinage brutal.
• B) Continuer
sa course et heurter le piéton, protégeant ainsi les passagers mais causant
la mort du piéton.
Les questions sont alors
de savoir si le véhicule doit-il prioriser la vie du piéton ou celle
des passagers? Comment évaluer la valeur des vies en jeu? Les décisions
éthiques doivent-elles être programmées à l'avance par les concepteurs
ou prises en temps réel par l'IA? Qui est responsable en cas de dommages?
Les développeurs de l'IA, les fabricants du véhicule, les utilisateurs
ou le véhicule lui-même? Les décisions de l'IA doivent-elles être transparentes
et compréhensibles par le public pour instaurer la confiance? Peut-on
choisir de ne pas choisir (c'est-Ã -dire, au coup par coup, s'en remettre
à une décision aléatoire - un tirage au sort entre A et B)? Comment
gagner la confiance des utilisateurs et du public face à des décisions
potentiellement controversées? L'IA doit-elle prendre en compte des facteurs
comme l'âge, le sexe, la condition physique, la position sociale des individus
impliqués? Comment évaluer les biais discriminatoires? Comment les véhicules
autonomes doivent-ils être conçus et testés pour minimiser les situations
de dilemme et maximiser la sécurité de tous les usagers de la route?
Au-delà des aspects
purement techniques auxquels renvoient ces questions (nécessité de développer
des technologies pour éviter les dilemmes en améliorant la détection
des obstacles, les systèmes de freinage automatique et les algorithmes
prédictifs; nécéssité d'intégrer des systèmes redondants et des mesures
de sécurité supplémentaires pour minimiser les risques de situations
critiques), apparaissent aussi des enjeux à la fois politiques et éthiques.
Répondre à de telles questions rend en effet nécessaire l'établissement
de des normes éthiques et des réglementations claires pour les décisions
des véhicules autonomes en situation d'urgence. Cela requiert également
d'engager le public dans la discussion sur les choix éthiques à programmer
dans les systèmes d'IA, assurant ainsi, en toute transparence, que les
décisions reflètent les valeurs sociétales. |
Noms associées à l'intelligence
artificielle
Voici quelques-uns des
principaux noms associés à l'intelligence artificielle et aux questions
philosophique et éthiques qu'elle soulève :
-
•
Alan
Turing (1912-1954) est considéré comme le père de l'informatique
moderne et de l'IA. Son article de 1950, Computing Machinery and Intelligence,
pose la question Les machines peuvent-elles penser? et introduit
le célèbre Test de Turing pour évaluer l'intelligence des machines.
Son travail a jeté les bases de l'informatique théorique et a inspiré
de nombreuses recherches ultérieures en IA.
• John Searle
(né en 1932) est connu pour son argument de la chambre chinoise,
présenté dans son article de 1980 Minds, Brains, and Programs.
Il utilise cette expérience de pensée pour critiquer la notion de l'IA
forte, affirmant que la manipulation syntaxique des symboles n'équivaut
pas à la compréhension sémantique. Son argument a suscité un débat
intense sur la nature de la compréhension et de la conscience dans les
machines.
• Herbert Simon
(1916-2001), avec Allen Newell, a été un pionnier dans le domaine de
l'IA, développant le programme Logic Theorist, souvent considéré
comme le premier programme d'IA. Il a également étudié les implications
de l'IA pour la psychologie cognitive et les sciences sociales. Son travail
a aidé à établir l'IA comme un domaine de recherche légitime.
• Marvin Minsky
(1927-2016) a cofondé le MIT Media Lab et a écrit plusieurs ouvrages
importants sur l'IA, dont The Society of Mind. Il a proposé que
l'esprit humain soit composé d'agents simples qui collaborent pour produire
des comportements intelligents. Ses idées ont influencé le développement
des systèmes multi-agents et ont contribué à l'étude des architectures
cognitives.
• Daniel Dennett
(né en 1942), philosophe de l'esprit, a examiné les implications de l'IA
pour la compréhension de la conscience et de la cognition humaine. Dans
son ouvrage Consciousness Explained, il propose des modèles de
conscience qui peuvent informer la conception des systèmes d'IA. Ses travaux
ont contribué à clarifier les débats sur la nature de la conscience
et à intégrer des perspectives philosophiques dans la recherche en IA.
• Brian Christian
(né en 1984) est un chercheur qui a écrit The Alignment Problem: Machine
Learning and Human Values, où il examine les défis de l'alignement
des systèmes d'IA avec les valeurs humaines. Ses travaux ont mis en lumière
les difficultés pratiques et théoriques d'un tel programme.
• Wendell Wallach
(né en 1946), co-auteur du livre Moral Machines: Teaching Robots
Right From Wrong, est l'auteur de travaux sur l'éthique de l'intelligence
artificielle et de la robotique. Impliqué dans les discussion sur l'éthique
des technologies émergentes. |
•
Timnit
Gebru (née en 1982) est une informaticienne et chercheuse en éthique
de l'IA, co-fondatrice de Black in AI. Elle a publié des travaux
importants sur les biais dans les systèmes d'IA
et sur l'impact social des technologies d'IA. Elle a également été une
voix critique sur les pratiques éthiques des grandes entreprises technologiques.
Son travail a contribué à sensibiliser aux biais algorithmiques et Ã
l'importance de la diversité et de l'inclusion dans le développement
des technologies d'IA.
• Kate Crawford
(née en 1973) est une chercheuse et universitaire spécialisée dans les
implications sociales et politiques de l'IA. Elle est co-auteure de The
Atlas of AI, un livre qui examine les impacts environnementaux, économiques
et sociaux de l'IA. Ses recherches ont aidé à comprendre l'IA dans un
contexte sociopolitique plus large et ont souligné les impacts souvent
invisibles de l'IA sur la société et l'environnement.
• Virginia Dignum
(née en 1964) est une professeure d'informatique à l'Université d'Umeå
en Suède et une experte en éthique de l'IA. Elle a écrit sur les aspects
éthiques et sociaux de l'IA et a contribué à des initiatives internationales
visant à développer des directives éthiques pour l'IA. Son travail a
influencé les politiques et les pratiques autour de l'utilisation responsable
et éthique de l'IA, tant au niveau national qu'international.
• Shannon Vallor
(née en 1968) est une philosophe et éthicienne spécialisée dans l'éthique
des technologies émergentes, y compris l'IA. Elle est l'auteure de Technology
and the Virtues, un livre qui analyse la manière dont les traditions
éthiques peuvent nous guider dans l'ère technologique. Ses travaux ont
enrichi la compréhension des dimensions éthiques de l'IA et ont proposé
des cadres pour une utilisation éthique et vertueuse des technologies.
• Stuart Russell
(né en 1962) est un professeur d'informatique à l'Université de Californie
à Berkeley et co-auteur du manuel Artificial Intelligence: A Modern
Approach. Il a récemment écrit Human Compatible: Artificial Intelligence
and the Problem of Control, où il propose une approche pour aligner
les objectifs des systèmes d'IA avec les valeurs humaines. Ses travaux
ont largement influencé le débat sur la manière de concevoir des IA
bénéfiques et sûres pour l'humanité. |
|
|