 |
Le
concept de singularité technologique (= la Singularité)
est issu du transhumanisme et de
la réflexion sur le futur de la technologie et de l'intelligence artificielle.
La Singularité est un point hypothétique dans le futur au-delà duquel
le progrès technologique serait devenu si rapide et exponentiel
que les changements qui en auraient résulté seraient difficiles, voire
impossibles, à prédire ou à comprendre pour les humains. Des changements
radicaux dans la société, dans la manière dont nous vivons et interagissons,
et même dans notre compréhension de l'existence pourraient survenir.
La singularité technologique
est un sujet de débat et de spéculations au sein de la communauté scientifique
et de la technologie. Certains considèrent cette notion comme hautement
probable, tandis que d'autres la voient comme improbable ou incertaine.
On pense souvent que la singularité sera déclenchée par le développement
d'une intelligence artificielle
superintelligente capable de s'auto-améliorer et de dépasser les capacités
humaines dans presque tous les domaines. Certains prévoient que cette
intelligence artificielle superintelligente pourrait contribuer à résoudre
des problèmes majeurs comme les maladies, la
pauvreté et le changement
climatique, mais elle pourrait aussi poser
des défis existentiels pour l'humanité.
L'idée de la singularité
technologique a été popularisée par le futurologue et ingénieur Ray
Kurzweil, qui soutient que cette singularité se produira d'ici quelques
décennies. D'autres personnalités du domaine de l'intelligence artificielle
et du transhumanisme, comme Vernor Vinge et Eliezer Yudkowsky, ont également
contribué à développer et discuter de ce concept. Ils ont aussi
soulevé des questions éthiques et de sécurité importantes concernant
l'impact potentiellement considérable de ces avancées technologiques
sur l'humanité.
• Vernor
Vinge est un écrivain de science-fiction
et un mathématicien connu notamment pour avoir popularisé le concept
de la singularité technologique dans un article de 1993 intitulé The
Coming Technological Singularity: How to Survive in the Post-Human Era.
Il a soutenu que la technologie progressera à un tel rythme qu'elle atteindra
un point où les changements deviendront inimaginables et imprévisibles
pour les humains. Il a influencé de nombreux penseurs transhumanistes
et futurologues par ses idées novatrices.
• Eliezer
Yudkowsky est un chercheur en intelligence artificielle, écrivain
et le cofondateur et chercheur principal de l'Institut de recherche en
intelligence artificielle (Machine Intelligence Research Institute - MIRI).
Il est un défenseur actif de la sécurité liée à l'intelligence artificielle
et a contribué de manière significative à la réflexion sur la Singularité
et les risques existentiels.
|
|