Fragment vulgarisé de ma présentation dans l’équipe Pixel, le 23 janvier, Centre de Recherche sur les Médiations (CREM) :

Il y a des similarités entre le passage du Web 2.0 au Web 3.0 (l’ère actuelle) et le passage du Web 1.0 (le Web des sites) au Web 2.0 (le Web des réseaux sociaux).

Quand nous sommes passés du Web 1.0 au Web 2.0, le web s’est démocratisé, c’est-à-dire que nous avons tous eu la possibilité de créer un site sans avoir de connaissances techniques (sur WordPress, Wix), donc de créer notre propre voix dans l’espace public digital. L’espace public digital s’est démocratisé parce que nous avons tous commencé à avoir accès, à ouvrir des débats, à être présents. Nous sommes ensuite passés au Web 2.0, le web des réseaux sociaux, où tout le monde peut créer un compte sur une plateforme (Instagram, Facebook, LinkedIn) sans aucune connaissance technique, s’exprimer et, par la suite, équilibrer, à l’aide de sa propre opinion, le sens public préexistant.

C’est exactement ce qui se passe maintenant, en passant au Web 3.0, la période de l’internet où le dispositif remplace l’interlocuteur humain : l’IA se démocratise, nous avons tous la possibilité de créer nos propres outils IA (GPT, assistants personnels), etc., d’avoir une voix hybride (humain-IA) et d’équilibrer le sens commun immense qui se crée depuis le premier moment où le premier algorithme a commencé son apprentissage.

C’est une démarche très importante : il faut créer pour ne pas être créés. Qu’est-ce que cela veut dire ? Si nous ne créons pas des dispositifs, nous serons créés par les dispositifs. Les résultats de ma recherche présentée au Colloque CREM/SIC.Lab montrent que, sous l’effet des actions des algorithmes, les mondes sémantiques des utilisateurs des réseaux sociaux s’appauvrissent : 50 sur Facebook, 27 sur Instagram et 15 sur TikTok. Vous trouverez les diapositives de la recherche intitulée « L’effet agenda des algorithmes d’IA, quel agenda », ici.

Ce troisième interlocuteur, de plus en plus important et depuis longtemps intercalé entre nous et l’interlocuteur humain, à savoir les réseaux sociaux, nous influence énormément et il continuera à le faire si nous ne commençons pas à créer nos propres algorithmes et à hybrider le discours pour qu’il nous représente également.

Une autre raison de créer des assistants personnels, des GPT : la pollution.

Actuellement, sur GPT-4, 3.5, etc., nous partageons tous le même chatbot et, lorsqu’on l’utilise, nous générons des réponses à partir des algorithmes.

Autrement dit, nous « éduquons » tous les algorithmes en même temps (et nous recevons tous des retours sur l’éducation menée par chaque utilisateur). C’est un mélange, un seul Alter Ego, résultant de l’ensemble des Alter Ego de chacun (Alter Ego = ton correspondant digital, ton miroir digital en ligne). Entre parenthèses : voici pourquoi je disais ici qu’il ne faut pas copier les requêtes des autres (ce sont des requêtes, pas des prompts !).

Alors, chacun va créer des miroirs algorithmiques, c’est-à-dire les traces de ces actions (requêtes) qui vont se mélanger et le résultat sera consommé par tous 🙂

Bon à savoir :

Les systèmes d’IA, y compris les chatbots (API, etc.), se développent ou s’améliorent en analysant et en apprenant des interactions telles que les commentaires et les conversations.

Les algorithmes d’IA vont apprendre et s’adapter sur la base des interactions avec de nombreux utilisateurs. Cela signifie que la manière dont un chatbot répond à un utilisateur peut être influencée par des interactions antérieures avec d’autres utilisateurs.

Cela est typique des systèmes basés sur l’apprentissage automatique et l’intelligence artificielle, où les données recueillies à partir des interactions utilisateur sont utilisées pour affiner et améliorer les algorithmes.

CHAQUE ACTION, QU’IL S’AGISSE D’UN TÉLÉCHARGEMENT DE DOCUMENT, D’UN COMMENTAIRE, D’UNE SOLLICITATION OU D’UNE REQUÊTE, VA « ÉDUQUER » LES ALGORITHMES, CONTRIBUANT AINSI À LEUR APPRENTISSAGE.

Note : Maintenant, en mai 2024, nous avons l’option de refuser, sur GPT-4, la création de ces miroirs algorithmiques. L’avez-vous cochée (c’est-à-dire, refusé de participer à l’apprentissage des algorithmes) ?

Les algorithmes d’OpenAI se développent chaque jour grâce à nous (les données qui composent chaque requête). Un autre exemple : lorsque nous utilisons un filtre sur TikTok, nous aidons les algorithmes à mieux comprendre la position de nos yeux sur nos visages, nos expressions, etc. Nous aidons ainsi les développeurs à créer et améliorer les algorithmes de reconnaissance visuelle. C’est pareil pour OpenAI, Gemini, Mistral AI, etc. Sans nous et nos conversations que nous leur fournissons chaque jour, les algorithmes seraient plus limités et le taux d’hallucinations dépasserait 50 % (il y a d’autres contraintes liées à ce sujet que je développerai dans d’autres articles – l’une est que l’algorithme est prisonnier, devrait-on le libérer ?)

Voici pourquoi, en très bref, il vaut mieux créer son propre GPT plutôt que de nager dans l’eau où tout le monde nage sans savoir si cet environnement est respecté et non pollué (mauvaises requêtes, etc.). Nous nageons tous dans la même piscine sans savoir si quelqu’un/e a fait autre chose que nager, mais ce qui est sûr, c’est que les actions de tous (êtres humains et algorithmes) vont avoir des effets sur nous.

By horea

One thought on “Les GPT’s sont les nouveaux blogs”

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Share via
Copy link