Nous avons eu le plaisir de participer hier matin au lancement d’une nouvelle série de séminaires en ligne intitulée « Les dialogues sur l’avenir ». Avec la participation des Chaires UNESCO, « Les dialogues d’avenir » visent à identifier, analyser et débattre des problématiques, des alertes et des tendances émergents. Ils ont une fonction prospective, de veille et d’observation afin de soutenir la réflexion à long terme sur les questions liées au mandat de l’UNESCO.
Le premier Dialogue sur l’avenir, intitulé Avancées neurotechnologiques et protection du cerveau humain : un cadre éthique mondial de l’UNESCO a permis de dresser une table de travail à la dimension de l’enjeu. .
Cette session inaugurale se déroule à un moment charnière, alors que le projet de la Recommandation sur l’éthique des neurotechnologies sera présenté pour adoption lors de la Conférence générale de l’UNESCO en novembre. Alors que les neurotechnologies offrent des avancées médicales transformatrices tout en soulevant des défis éthiques et des droits de l’homme sans précédent, les participants, Lachine Lab L’Auberge Numérique ont réfléchi à la nécessité d’une gouvernance éthique solide des neurotechnologies au niveau mondial afin de garantir un développement et une utilisation éthiques des neurotechnologies pour l’avenir. Il s’agit d’un enjeu émergent aux implications multiples.
Notre contribution s’articule autour des dimensions transformationnelles. Autrement dit, nous soutenons que la question n’est plus de savoir si les neurotechnologies vont transformer l’humain et la société, mais comment cette transformation sera encadrée. L’initiative de l’UNESCO pour un cadre éthique mondial face à l’avancement de la neurotechnologie est un acte crucial de sociotique – la réflexion sur les enjeux sociaux, éthiques et culturels des technologies de l’information – mené par convergence anticipatoire.
​Notre opinion est que cette direction d’action, bien que nécessaire et louable, est une course contre la montre dont l’issue déterminera la nature même de nos libertés futures. L’approche proactive de l’UNESCO est un exemple parfait de la convergence anticipatoire : au lieu de réagir après coup aux abus, on tente de forger les garde-fous éthiques au moment même où les innovations (Interfaces Cerveau-Ordinateur, neuro-modulations) s’accélèrent et convergent avec l’Intelligence Artificielle.
​Si l’anticipation éthique est vitale, elle est confrontée à des limites éthiques majeures qui doivent être esquissées pour que ce cadre ne devienne pas une simple façade régulatrice. Le risque le plus immédiat est la création d’une « fracture cognitive » (ou « neuro-apartheid »). Les technologies d’amélioration cognitive resteront chères et concentrées, réservant les bénéfices de l’augmentation cérébrale à une élite. La limite éthique est franchie si le cadre se contente de réguler le luxe sans garantir un principe d’équité radicale d’accès. Si l’amélioration est possible, le refus délibéré de la rendre accessible pourrait être jugé comme une violation d’un droit fondamental.
​Ensuite, la convergence de la neurotechnologie et de l’IA (Neuro-IA) permet de potentiellement prédire nos intentions, émotions et notre identité, faisant du consentement éclairé un concept illusoire. Comment donner un consentement véritablement libre lorsque l’outil est intégré à notre identité cognitive ? De plus, le droit à l’opacité mentale – le droit de ne pas être décodé – doit être absolu. La limite éthique est franchie si les dispositifs sont autorisés à collecter des « inférences » émotionnelles ou intentionnelles sous prétexte de « services » acceptés, même à des fins non-médicales comme le marketing ou le recrutement.
​Enfin, ces technologies soulèvent la question de l’identité personnelle. Si des algorithmes modulent nos émotions ou nos décisions, qui est responsable de l’action qui en résulte ? Le cadre doit absolument préserver l’autonomie psychique. Une ligne rouge doit interdire toute modulation non thérapeutique du libre-arbitre ou de l’identité, même si elle prétend nous rendre « meilleurs ». La limite ultime est la préservation de la « liberté de pensée » comme un espace privé et non-manipulable. Si la neuro-IA peut influencer la décision sans que l’utilisateur n’en ait conscience, le contrat social est rompu.
​
Nous pouvons retenir, pour résumer notre point de vue, que si le cadre de l’UNESCO vise à protéger, il doit être suffisamment agile et radical, eu égard à notre lecture et compréhension du LAR (Law Accelerating Return )pour ne pas seulement réguler les outils d’aujourd’hui, mais aussi les tentations futures. Car l’éthique de la neurotechnologie n’est pas une question de réglementation technique ; c’est une question de définition de ce que signifie être humain.
​Faisons, dés à présent le focus sur les technologies qui franchissent déjà , ou sont sur le point de franchir, l’une de ces limites éthiques.
Dr. Moussa Sarr
Ceo et chercheur principal
Lachine Lab – l’Auberge Numérique (Canada)
Fondateur et chercheur principal du centre Liaison & Transfert Ndukur (Sénégal)