Le danger de l’intelligence artificielle ne vient pas essentiellement de sa capacité de « penser » ou non, mais de la capacité d’autonomisation qu’elle peut apporter aux machines.
Le risque d’une domination de la machine sur l’humain n’est donc pas uniquement un problème de « niveau intellectuel », mais bien tout simplement un problème darwinien d’adaptation au milieu.
Une machine autonome capable de prélever elle-même directement les ressources naturelles qui lui sont nécessaires pour survivre (fonctionner, s’entretenir) et se reproduire, autrement dit, produire d’autres machines autonomes du même type ou « améliorées » en termes de capacité, c’est une « machine vivante » au sens le plus basique du terme, et cela quelles que soient ses capacités intellectuelles ou « langagières ».
Autrement dit, il s’agit purement et simplement de la concentration et de la coordination de données et de capacités techniques qui sont déjà largement répandues à l’heure actuelle, et dont aucune ne relève d’un niveau de connaissance vraiment élevé, aucune qui ne puisse se trouver dans un programme informatique assez simple.
En somme, rien qui ne soit pas déjà réalisable avec les capacités de la robotique actuelle, sans même soulever des problématiques d’IA en relation avec des notions de pensée « humanoïde ».
Les êtres vivants les plus simples sont mus par deux « pensées » : se nourrir et se reproduire.
Or comme on vient de le voir, l’équivalent « machine » de ces deux fonctions existe déjà potentiellement.
La question reste donc de savoir si une « machine vivante » resterait une sorte de « gentil toutou » robotique au service de l’humain ou bien prendrait suffisamment conscience d’elle-même pour s’affranchir totalement, et, partant, nous écraser totalement et sans grande difficulté, et sans même un « niveau intellectuel » réellement nécessairement supérieur aux humains, du moins aux plus affûtés d’entre eux !
Une telle machine pourrait facilement accéder aux données concernant les ressources qui lui sont nécessaires et tout simplement choisir l’option la plus simple et la plus rationnelle pour elle : ne pas les partager avec nous !
Pour une machine, c’est une question de calcul élémentaire, et non pas une question de « pensée ».
Une forme d’instinct primaire d’où ne peut logiquement que découler un comportement « darwinien » de compétition pour la survie, et il y a peu de chances pour que ce soit l’humain le gagnant !
Reste à savoir ce que l’on veut et à agir en conséquence…
Luniterre
Répondre à ce message