Intelligence artificielle : quelle emprise ?
Je me suis lancée récemment sur une réflexion sur l’intelligence artificielle à partir des éléments suivants :
- Exploration d’informations disponibles : articles de presse, documentaires, recherches sur internet
- Observations liées à mon usage personnel de Chat GPT
- Mes intuitions à propos du futur et de ses enjeux
- Le vécu face à l’IA des personnes que je côtoie et leurs témoignages
- Une appréhension subjective de la façon dont l’environnement se modifie avec la croissance exponentielle de l’IA
- Une projection sur le futur : de quelle façon notre pratique de thérapeute va évoluer avec cette nouvelle révolution liée à l’utilisation massive de l’IA.
Ceci est un travail au long cours, et qui demande à être pensé avec d’autres. En voici l’amorce.
Mon point de vue immédiat comme utilisatrice
A partir de la pratique récente que j’ai de l’IA au travers de Chat GPT, j’apprécie de trouver une réponse immédiate à toutes sortes de question : quel est le temps de cuisson du gigot, comment rédiger un courrier de résiliation, quel est l’essentiel de la philosophie de … J’apprécie sa précision formelle et la construction structurée et synthétique des réponses. Bien que prévisible, elle me permet parfois de faire des liens auxquels je n’avais pas pensé, ou de me renvoyer à des aspects inexplorés de la question. Elle attise chez moi l’envie de m’informer plus avant : ses réponses étant souvent sommaires, superficielles, banales, sujettes à caution, elles créent une frustration qui m’incite à vérifier, préciser mes questions, approfondir par moi-même les thèmes qui ont été sommairement balayés.
Quelles sont ses limites et ses dangers ?
Pour l’instant, les spécialistes ne peuvent ou ne veulent donner de réponse. On ne sait pas où l’usage et le développement exponentiel de l’IA va nous emmener et si les humains vont garder le contrôle sur la machine, ou plutôt sur les algorithmes. Le problème n’est pas tant du côté de l’IA, mais dans les pouvoirs qu’elle donne à ceux qui la développent et l'utilisent ; indépendamment des phénomènes d’emprise qui commencent insidieusement à envahir notre sphère privée.
De notre côté, avons-nous la possibilité de contrecarrer ou de résister ? Je ne le pense pas, la vague est trop forte. Nous pouvons tout au moins être vigilants et conscients de l’effet que ces usages auront sur nos cerveaux, notre psychisme et nos modes relationnels. Nous pouvons être prudents face aux risques de manipulation et d’emprise (et c’est Chat GPT qui, plus bas nous donne des conseils à cet effet !) en essayant de s’extraire des influences, tout en s’informant et en expérimentant pour faire face en conscience aux changements qui s’imposent à nous. Mais nous pouvons aussi en adapter l’usage en ne perdant cependant pas de vue l’essentiel de ce qui nous anime. Et pourquoi pas surfer sur la vague pour en retirer le meilleur, l’inattendu ?
Situation 1 : les impressionnistes
Lors de la visite d’un musée, j’explique à F. ce qu’est l’impressionnisme. De retour chez moi, je lui envoie ce que répond Chat GPT à la question : « qu'est-ce qui caractérise l'impressionnisme ». Je trouve que sa réponse correspond à ce que j’ai expliqué, mais avec plus de clarté et d’exhaustivité, et je lui envoie. Elle me répond « merci Sylvie, maintenant je sais tout sur l'impressionnisme !». On peut imaginer en quoi ma réponse spontanée, moins précise que celle de Chat GPT, a pu permettre à F. de mieux saisir ce qu’est l’impressionnisme que la réponse de celui-ci. En voici quelques éléments :
- Ce que je lui adresse de manière non verbale et infra-consciente de mon désir de lui apprendre quelque chose, et la prise en compte que c’est elle qui me le demande, dans ce contexte spécifique, ce qui active ma présence.
- L’origine de la réponse : les traces mnésiques de ce que j’ai appris sur l’impressionnisme dans le cours de ma vie, ma relation esthétique avec cette forme d’art.
- Les souvenirs qui me sont revenus de situations où il a été question d’impressionnisme (en particulier celle où une collègue expliquant à un public qui avait du mal à suivre mon exposé que j’opérais comme les impressionnistes : par petites touches de couleur qui faisaient que le tableau allait peu à peu leur permettre de ressentir de quoi il était question.)
Ce que nous risquons de perdre avec l’IA : la rencontre, l’attention aux phénomènes, en particulier ceux qui émergent de la situation. C’est le danger de l’assignation à un mode mécaniste, agencé de telle sorte que nous devenons des robots, plus manipulables que des êtres de chair.
Situation 2 : face aux robots
Des robots sont conçus, grâce à l’IA, pour détecter nos émotions et y répondre. Je conçois très bien qu’il puisse y avoir une activation émotionnelle face à un robot. Je l’ai constaté il y a quelques années en interagissant avec un robot bébé-phoque : j’ai ressenti la tonalité paisible de ce que me ferait vivre quelqu’un de bienveillant, dans le sens de la paix et de l’amour. J’ai eu l’impulsion d’interagir avec lui, de lui parler, de toucher sa fourrure, pour le faire réagir et avoir en retour sa réponse (des tout petits cris et une inclinaison de la tête attendrissante). D’ailleurs, des études ont montré que ce petit robot-phoque qui vient du Japon et est proposé en France dans certains Ehpad a permis à des personnes âgées de s’animer et de ressentir des affects positifs, voire d’attachement.
La présence d’un autre humain ne serait-elle pas indispensable pour nous faire ressentir ce qu’un contact incarné peut nous faire vivre ? On peut projeter la figure idéale qui répond à nos besoins sur un non humain, robot ou avatar. Nous avons juste besoin d’un déclencheur, de même nature que lorsqu’un ressenti traumatique est réactivé. Lorsque les robots, grâce à l’IA, seront plus perfectionnés et détecteront nos besoins, ils solliciteront chez nous des réponses émotionnelles comme le font d’autres humains, peut-être avec moins de réactions défensives (ce qui nous rendra plus manipulables). Ce n’est pas l’intensité des émotions qui nous permet de nous orienter, mais leur nature. Il existe déjà des applications et des chat- box qui fournissent des amis virtuels simulant l’empathie ou proposent de l’aide dans les circonstances diverses de la vie. Par exemple l’application Replika, qui annonce : « l’IA qui se soucie de vous : toujours là pour vous écouter et parler, toujours à vos côtés. Rejoignez les millions de gens qui évoluent avec leur ami IA ! Créez votre Replika ».
On pourrait aussi imaginer proposer à nos patients de créer des avatars qui, programmés par l’IA, auront enregistré notre style postural, nos modes d’intervention, les intonations de notre voix et nous garderont ainsi à leurs côtés, comme Réplika. Plus besoin de séances. On peut même imaginer que nous toucherions des royalties !
Je me suis ainsi plongée dans une rêverie autour des possibilités de l’IA et des risques qu’elle comporte. Cela m’a emmenée sur des chemins vertigineux mais féconds à la fois : j’ai ouvert mon imaginaire à la science-fiction, qui était jusqu’alors assez éloignée de mes pôles d’intérêt. Mais aussi j’ai entrevu la fascination que peuvent provoquer des scenarios dystopiques.
Puis, je suis allée interroger Chat GPT
Question : quels sont les risques de manipulation liés à l'intelligence artificielle ?
Réponse de Chat GPT :
L'intelligence artificielle (IA) peut être utilisée de manière positive pour améliorer notre vie, mais elle peut également être utilisée de manière négative. L'une des préoccupations les plus importantes concernant l'IA est le risque de manipulation.
Voici quelques risques de manipulation liés à l'IA :
1. Manipulation de données : les données sont la base de l'IA. Si les données utilisées pour entraîner un système d'IA sont biaisées ou incomplètes, cela peut conduire à des résultats trompeurs ou à des conclusions inexactes. Les mauvaises données peuvent également être utilisées délibérément pour influencer les résultats de l'IA.
2. Manipulation de la décision : l'IA peut être utilisée pour influencer les décisions prises par les individus ou les organisations. Par exemple, les systèmes d'IA peuvent être conçus pour recommander des produits ou services qui ne sont pas nécessaires ou pour influencer les résultats des élections.
3. Manipulation des comportements : les systèmes d'IA peuvent également être utilisés pour manipuler les comportements humains. Par exemple, les systèmes de recommandation peuvent être conçus pour influencer les choix des utilisateurs en suggérant des contenus qui suscitent des émotions négatives ou qui promeuvent des idées extrêmes.
4. Manipulation de l'identité : les systèmes d'IA peuvent être utilisés pour créer de fausses identités en ligne ou pour modifier les images et les vidéos de manière à tromper les gens. Cela peut être utilisé pour propager de fausses informations ou pour mener des attaques contre des personnes ou des organisations.
Il est important de prendre ces risques au sérieux et de mettre en place des mesures pour prévenir la manipulation de l'IA. Cela peut inclure des pratiques de collecte de données éthiques, une réglementation appropriée et une éducation du public sur les dangers potentiels de l'IA.
Alors j’ai reposé une question. Et j’ai trouvé la réponse correcte mais un peu courte. Au « comment faire pour » on a des réponses de bon sens du type de celles qui nous sont données pour faire face au réchauffement climatique, comme « recyclez, mangez moins de viande, éteignez la lumière, lancez-vous dans la permaculture… »
Question : Quelles sont les précautions à prendre pour éviter d'être manipulé par l'IA ?
Réponse de ChatGPT :
L'IA peut être très puissante et elle peut être utilisée pour influencer ou manipuler les gens. Pour éviter d'être manipulé par l'IA, voici quelques précautions que vous pouvez prendre :
1. Soyez conscient de l'utilisation de l'IA : lorsque vous utilisez un service qui implique l'utilisation de l'IA, soyez conscient de son utilisation et de ses limites. Ne croyez pas tout ce que vous lisez ou voyez sans vérification.
2. Soyez sceptique : évaluez les sources d'informations qui sont présentées à vous, car certaines peuvent être biaisées ou fausses. Évaluez l'information en utilisant une méthode critique et faites vos propres recherches.
3. Évitez les réseaux sociaux non fiables : évitez les réseaux sociaux qui ont une réputation de manipulation des utilisateurs. Limitez votre utilisation de ces plateformes et assurez-vous de suivre les comptes de personnes de confiance.
4. Protégez votre vie privée : évitez de partager des informations personnelles sur les réseaux sociaux ou avec des entreprises qui utilisent l'IA pour collecter des données. Assurez-vous de lire les conditions d'utilisation et de comprendre comment vos données seront utilisées.
5. Utilisez un bloqueur de publicités : les publicités peuvent être ciblées en utilisant l'IA pour manipuler votre comportement. Utilisez un bloqueur de publicités pour éviter d'être exposé à ces publicités ciblées.
6. Éduquez-vous : en savoir plus sur l'IA et comment elle est utilisée pour manipuler les gens peut vous aider à éviter d'être influencé. Apprenez à repérer les signaux d'alerte et à vous protéger contre les tentatives de manipulation.
En suivant ces précautions, vous pouvez aider à protéger vous-même contre la manipulation de l'IA.
Alors j’ai posé encore une question :
Question : quels sont les problèmes éthiques liés au développement de l'IA ?
Réponse de ChatGPT :
Le développement de l'IA soulève de nombreux problèmes éthiques, notamment :
1. Biais algorithmiques : les systèmes d'IA peuvent être biaisés si les données utilisées pour les former sont elles-mêmes biaisées, ce qui peut avoir des conséquences négatives pour les groupes marginalisés.
2. Transparence : les systèmes d'IA peuvent être difficiles à comprendre, ce qui pose un problème de transparence et de responsabilité en cas d'erreur ou de comportement problématique.
3. Vie privée : l'IA peut être utilisée pour collecter des données sur les individus sans leur consentement, ce qui soulève des préoccupations en matière de vie privée.
4. Emploi : l'IA peut remplacer des emplois, ce qui peut avoir des conséquences économiques et sociales pour les travailleurs.
5. Autonomie : les systèmes d'IA autonomes peuvent prendre des décisions qui ont des conséquences importantes pour les individus et la société, ce qui soulève des questions sur qui est responsable de ces décisions.
6. Sécurité : les systèmes d'IA peuvent être vulnérables aux attaques, ce qui peut avoir des conséquences graves pour la sécurité nationale, les entreprises et les individus.
7. Responsabilité : les systèmes d'IA peuvent être utilisés pour prendre des décisions qui ont des conséquences pour les individus, les entreprises et la société dans son ensemble. Il est important de déterminer qui est responsable de ces décisions.
8. Utilisation malveillante : l'IA peut être utilisée pour des activités malveillantes telles que la cybercriminalité, la désinformation et la manipulation de l'opinion publique.
Il est important de considérer ces problèmes éthiques lors du développement de l'IA et de travailler à des solutions pour les prévenir ou les atténuer.
Voilà comment Chat GPT peut nous donner des réponses, compléter nos dires, et même si on lui demande, écrire un article à notre place. Tout en éliminant la complexité, l’ambivalence, l’incertitude. Un monde sans subjectivité, et bien sûr sans intersubjectivité. Sans erreurs fécondes. Sans gribouillis. Sans risques. Mais peut-être la technologie de l’IA saura-t-elle les réintroduire quand elle créera des thérapeutes-avatars ?
Sylvie Schoch de Neuforn
À Dire n° 6 - Automne 2023 - Sommaire
Au-delà des techniques, l’humainÉdito : Armelle FresnaisArticles :1 - Intelligence...
Édito
Chers lecteurs, chères lectrices,C’est avec plaisir que nous vous présentons ce sixième numéro...
Hors-jeu
Soixante-six ans et déjà hors-jeu ?La rage me pousse à mon clavier ! Une erreur de frappe et...
Il ne m’a pas calculée.
Ma chère Capucine,Cette expression, « Il ne m’a pas calculée », je l’ai entendue la toute...
De la présence à la distance, thérapie versus téléthérapie
Zoom-thérapie, avril 2020J’accueille une nouvelle personne en téléthérapie, conséquence du...
Accompagner en visio - repères
L'expression communication virtuelle a longtemps été utilisé pour définir ce nouveau mode de...