Usages courants de l'IA

Fil de discussion pour :

  • échanger de l’information et des points de vue autour des (futurs) usages courants de l’IA

12 août 2024.

Les utilisateurs de ChatGPT peuvent devenir “émotionnellement dépendants” de la version vocale

Provenant du podcast L’info de France Inter

ChatGPT est ton ami ? Un rapport d’OpenAI, le créateur de chatGPT, pointe les risques posés par la version vocale de son intelligence artificielle sur les interactions humaines de ses utilisateurs.

Les tests menés par l’entreprise américaine montrent que les utilisateurs peuvent tisser de véritables liens avec la technologie. C’est la version audio de ChatGPT, celle qui permet de discuter avec cette IA sans passer par le texte, qui est en cause. Car les délais de réponse, très raccourcis, permettent maintenant d’avoir de vraies conversations.

L’anthropomorphisme

“L’anthropomorphisme consiste à attribuer des attitudes ou caractéristiques humaines à quelque chose qui ne l’est pas, tel qu’un modèle d’IA”, a souligné l’entreprise dans un rapport publié jeudi.

“Le risque peut être renforcé par les fonctions audio de GPT-4o, qui facilite des interactions ressemblant à celles avec des humains”, pointe le rapport.

Le document a été publié la veille du lancement de la nouvelle version de ChatGPT, GPT-4o, qui intègre la possibilité pour le logiciel de répondre vocalement et permettre d’avoir l’équivalent d’une conversation avec.

Mais avoir avec une IA le même type de conversation que celles possibles avec un humain pourrait créer une “confiance mal placée” dans le logiciel, que la voix ajoutée à ce dernier pourrait renforcer.

OpenAI souligne notamment avoir pu constater chez des testeurs de la nouvelle version des échanges avec l’IA qui semblaient montrer la création d’un lien affectif, comme l’expression du regret que ce soit leur dernier jour ensemble.

“Certes ces cas semblent sans conséquence mais ils mettent en avant la nécessité de poursuivre les recherches sur la manière dont ces effets pourraient se manifester à plus long terme”, conclut le rapport.

Entrer dans une forme de rapport de socialisation avec l’IA pourrait par ailleurs inciter les utilisateurs à réduire leur envie d’avoir des relations avec des humains, anticipe OpenAI.

“Des échanges prolongés avec le modèle pourrait avoir un effet sur les normes sociales. Par exemple, nos modèles sont toujours respectueux, laissant les utilisateurs leur couper la parole à tout moment, un comportement qui, s’il est normal pour une IA, pourrait être hors des normes des interactions sociales”, détaille le rapport.

La capacité de l’IA à garder en mémoire des détails des conversations et à assurer les missions qui lui sont données pourraient également amener les utilisateurs à trop se reposer sur la technologie.

“Ces nouvelles inquiétudes partagées par OpenAI sur le risque de dépendance potentielle à la voix de ChatGPT souligne à quel point la question qui monte est la suivante : faut-il prendre le temps et chercher à comprendre comment la technologie vient affecter les interactions et relations humaines?”, a estimé Alon Yamin, cofondateur et directeur général de Copyleaks, une plateforme de détection du plagiat par l’IA.

“L’IA est une technologie complémentaire, envisagée pour nous aider à rationaliser notre travail et notre vie quotidienne, il ne faut pas qu’elle devienne un succédané de véritables relations humaines”, a-t-il ajouté.

OpenAI a assuré poursuivre l’étude sur la manière dont la fonction vocale de son IA pourrait amener des utilisateur à s’y attacher émotionnellement.

Les testeurs ont également réussi à la faire reprendre de fausses informations ou à créer des théories du complot, ajoutant des inquiétudes quant aux risques potentiels du modèle d’IA.

La fonction vocale de Chat-GPT a d’ores et déjà suscité de nombreuses réactions et forcé OpenAI à présenter des excuses à l’actrice Scarlett Johansson en juin dernier, pour avoir utilisé une voix très proche de la sienne, créant une polémique sur le risque lié à la copie des voix grâce à la technologie.

Si l’entreprise a nié avoir utilisé la voix de Mme Johansson, le fait que son patron, Sam Altman, l’a mis en avant la fonction vocale sur les réseaux sociaux en utilisant un seul mot, “Her”, en référence au film où l’actrice incarne justement une IA ne l’a pas aidé à emporter la conviction des observateurs.

Le film, sorti en 2013, raconte précisément l’histoire d’un homme, joué par l’acteur Joaquin Phoenix, tombant amoureux de son IA personnelle, “Samantha”, pour laquelle Scarlett Johansson a prêté sa voix.

1 « J'aime »

Bonjour,
Merci pour ce partage
La technologie qui sert à l’humain aujourd’hui, mais qui finira par desservir l’humanité sur les barrières et les garde-fous ne sont pas installés à tous les étages.
Bonne et belle journée à vous

1 « J'aime »

Il me semble qu’un des usages en plein expansion de l’IA est celui des chatbots sur les sites de rencontres qui permettent d’offrir aux personnes plus ou moins esseulées de véritables compagnons, toujours disponibles et miroirs d’elles mêmes. Ce qui est rigolo, c’est que les usagers ne savent pas au départ, qu’ils ont affaire à des “programmes”.

Je viens d’écouter une émission de Les pieds sur Terre qui livre 2 témoignages de cet usage. Dans le premier témoignage au sujet de l’application Replika, on comprend mal comment se passe l’interaction avec le chatbot qui parfois tombe dans la violence, mais j’imagine que cette interaction est purement textuelle via l’application. La prochaine étape, sera certainement des conversations vocales comme dans le film Her, avec oreillettes.