Follow

ChatGPT : première interview radio de l'intelligence artificielle et mise en garde

Sonia Devillers interviewe ChatGPT. David Chavalarias, directeur de recherche au CNRS et auteur de « Toxic Data » (Flammarion) met en garde contre les dangers de ces IA.
Selon lui, les erreurs s’expliquent par la façon de fonctionner de cette IA : « Il faut bien comprendre que ChatGpt fait partie des systèmes informatiques qui apprennent des régularités. Donc ils vont lire de grandes quantités de textes, ils vont essayer de deviner après un mot quel est, le mot le plus probable. Ce sont des statistiques. Ce robot n'a aucune compréhension de ce qu'il dit. Il essaie de maintenir une régularité par rapport à ce qu'il a vu par le passé. Il n’a pas le souci de savoir si c’est vrai, mais de ce qui est probable. Il dit souvent beaucoup de bêtises, même si c’est énoncé de façon très convaincante. »
[...]
« Comme on entraîne ces intelligences artificielles sur des masses de données de plus en plus grandes, et que les modèles informatiques sont construits avec de plus en plus de paramètres, elles sont de plus en plus réalistes. Ce modèle de tchat ChatGpt 3 est quasiment indistinguable de ce que dirait un humain, modulo les quelques erreurs, assez flagrantes. Mais cela comporte des risques. Comme sur les réseaux sociaux, on s’exprime à l’écrit, bientôt, on ne pourra pas distinguer l’intervention humaine de celle d’un robot. Avec le temps, on peut s'attendre à ce qu'il y ait des milliers de faux comptes qui inondent les espaces. Ils sont suffisamment fins pour parler humour ou coup de gueule. Comme leur corpus dépend de la base de données sur laquelle vous les entraînez, ils sont très manipulables. Et peuvent ensuite aller sur Internet et répandre des propos, par exemple climatosceptiques de manière très efficace.»

youtu.be/rV9_F2gsdhk

Sign in to participate in the conversation
Qoto Mastodon

QOTO: Question Others to Teach Ourselves
An inclusive, Academic Freedom, instance
All cultures welcome.
Hate speech and harassment strictly forbidden.