Actuellement, nous partageons tous les mêmes algorithmes sur GPT-4, par exemple, ce qui signifie que les requêtes de tous les utilisateurs, qui contribuent à l’apprentissage des algorithmes, produisent des effets que nous consommerons à notre tour.
Des requêtes inappropriées ou malveillantes faites par d’autres peuvent contribuer à des réponses erronées de GPT-4 sur mon compte (l’équivalent, disons, du référencement sur Google et de ses effets).
C’est pourquoi j’ai rédigé et publié une Charte Éthique d’IA destinée aux utilisateurs.
J’ai poursuivi l’analyse du sujet dans ma dernière recherche « Usages éthiques d’un chatbot universitaire » présentée au 29ème Congrès de l’AIM, labellisé par la SFSICet je pense que c’est un sujet très important de réflexion:

C’est un environnement numérique que nous partageons tous, donc il est important de ne pas le polluer.

La pollution algorithmique est une des raisons pour lesquelles je pense que chacun devrait avoir son propre chatbot, son propre miroir, que j’appelle l’Alter Ego (mais pas avec la voix de Scarlett Johansson du film Her).
