Made byBobr AI

Algorithmes et Réseaux Sociaux : Neutres ou Discriminants ?

Découvrez comment les algorithmes de recommandation fonctionnent et s'ils reproduisent les biais humains et les injustices sociales sur les réseaux.

#algorithme#réseaux sociaux#big data#machine learning#biais cognitifs#shadowban#dsa#éthique numérique

LES ALGORITHMES : NEUTRES OU DISCRIMINANTS ?

Analyse de la reproduction des injustices sociales et de l'invisibilisation des minorités sur les réseaux sociaux.

Made byBobr AI

La promesse vs La réalité

Les réseaux sociaux promettent une voix à chacun. Pourtant, des systèmes informatiques décident en secret de ce qui est visible ou non. La question centrale : ces algorithmes reproduisent-ils les injustices humaines ?

Made byBobr AI

Comment fonctionne l'algorithme ?

  • Big Data : Stockage massif de publications, interactions et profils.
  • Machine Learning : Le code n'est pas fixe, il apprend de nos comportements.
Made byBobr AI

Cycle des recommandations

Un processus automatisé en quatre étapes pour transformer le Big Data en un flux captivant.

1

Collecte Massive

Agrégation de tout signal : posts, likes, commentaires, temps passé et métadonnées.

2

Calcul du Score

Chaque interaction a un poids. L'algorithme calcule la probabilité exacte d'engagement.

3

Filtrage & Ordre

Classement de milliers de contenus pour ne garder que les 'gagnants' mathématiques.

4

Affichage Personnalisé

Le flux final apparaît sur votre écran, conçu pour maximiser le temps de rétention.

Conclusion : Le score dicte la visibilité. L'algorithme optimise mathématiquement pour triompher de votre attention.

Made byBobr AI

Le Score de Pertinence : Une mathématique de l'attention

L'algorithme attribue des points aux interactions pour décider du classement. Exemple de pondération utilisée pour maximiser le temps d'écran :

Chart
Made byBobr AI

L'algorithme a-t-il des préjugés ?

Les données viennent des humains => Les humains ont des biais => L'algorithme apprend ces biais.

EXEMPLE CONCRET : La reconnaissance faciale entraînée sur un jeu de données à 80% caucasien devient 'analphabète' pour les autres visages.

Made byBobr AI

Partie 1 — Ce que révèle la mécanique

La Mécanique Invisible

L'algorithme n'est pas magique : c'est une suite d'instructions alimentée par le Big Data. Il stocke massivement vos posts, likes, commentaires, hashtags et analyse chaque détail de votre profil.

Le Système de Score

Grâce au Machine Learning, le code évolue seul en apprenant de vos comportements. Il attribue une valeur à chaque action pour filtrer le contenu :

Clic = 1 pt Com. = 5 pts Visionnage = 10 pts

Le danger : Tout est basé sur des données humaines. La technologie n'est pas neutre : elle absorbe nos biais (racisme, sexisme, homophobie) et risque de les amplifier massivement.

Biais de reconnaissance faciale : Jeu de données 80% caucasien.

1
Score calculé sur les interactions
2
Classement par valeur prédictive
3
Visibilité optimisée = Temps max

"Les systèmes qui se prétendent neutres peuvent reproduire l’oppression."

— Angela Davis

Made byBobr AI

« Les systèmes qui se prétendent neutres peuvent reproduire l’oppression. »

— Angela Davis

Made byBobr AI

Partie 2 : L'impact sur la visibilité

Quand l'algorithme invisibilise

  • Moins de visibilité pour les contenus dénonçant les discriminations (racisme, sexisme).
  • Certains hashtags militants sont 'shadowbanned' (masqués sans avertissement).
Made byBobr AI

Le revers de la médaille : La mobilisation

Malgré les biais, les réseaux restent des outils puissants pour les minorités.

#BlackLivesMatter#MeToo#Pride
Made byBobr AI

« Il n’y a pas de révolution possible sans voix et sans visibilité. »

— Thomas Sankara

Made byBobr AI

Étude de Cas : X (Twitter) & le DSA

1. Transparence : Le Digital Services Act (DSA - 2023) impose la transparence des algorithmes en Europe.

2. Biais constaté : Révélations : Depuis le rachat par Elon Musk, des rapports indiquent une promotion disproportionnée de contenus d'extrême droite.

Made byBobr AI

Conclusion

Les algorithmes ne sont pas neutres : ils sont le miroir de notre société. Ils peuvent amplifier les injustices, mais aussi servir d'outils de lutte pour ceux qui les comprennent.

Made byBobr AI
Bobr AI

DESIGNER-MADE
PRESENTATION,
GENERATED FROM
YOUR PROMPT

Create your own professional slide deck with real images, data charts, and unique design in under a minute.

Generate For Free

Algorithmes et Réseaux Sociaux : Neutres ou Discriminants ?

Découvrez comment les algorithmes de recommandation fonctionnent et s'ils reproduisent les biais humains et les injustices sociales sur les réseaux.

LES ALGORITHMES : NEUTRES OU DISCRIMINANTS ?

Analyse de la reproduction des injustices sociales et de l'invisibilisation des minorités sur les réseaux sociaux.

La promesse vs La réalité

Les réseaux sociaux promettent une voix à chacun. Pourtant, des systèmes informatiques décident en secret de ce qui est visible ou non. La question centrale : ces algorithmes reproduisent-ils les injustices humaines ?

Comment fonctionne l'algorithme ?

Big Data : Stockage massif de publications, interactions et profils.

Machine Learning : Le code n'est pas fixe, il apprend de nos comportements.

Cycle des recommandations

Un processus automatisé en quatre étapes pour transformer le Big Data en un flux captivant.

Collecte Massive

Agrégation de tout signal : posts, likes, commentaires, temps passé et métadonnées.

Calcul du Score

Chaque interaction a un poids. L'algorithme calcule la probabilité exacte d'engagement.

Filtrage & Ordre

Classement de milliers de contenus pour ne garder que les 'gagnants' mathématiques.

Affichage Personnalisé

Le flux final apparaît sur votre écran, conçu pour maximiser le temps de rétention.

Conclusion : Le score dicte la visibilité. L'algorithme optimise mathématiquement pour triompher de votre attention.

Le Score de Pertinence : Une mathématique de l'attention

L'algorithme attribue des points aux interactions pour décider du classement. Exemple de pondération utilisée pour maximiser le temps d'écran :

L'algorithme a-t-il des préjugés ?

Les données viennent des humains => Les humains ont des biais => L'algorithme apprend ces biais.

EXEMPLE CONCRET : La reconnaissance faciale entraînée sur un jeu de données à 80% caucasien devient 'analphabète' pour les autres visages.

Partie 1 — Ce que révèle la mécanique

L'algorithme n'est pas magique : c'est une suite d'instructions alimentée par le <b>Big Data</b>. Il stocke massivement vos posts, likes, commentaires, hashtags et analyse chaque détail de votre profil.

Grâce au Machine Learning, le code évolue seul en apprenant de vos comportements. Il attribue une valeur à chaque action pour filtrer le contenu :

Tout est basé sur des données humaines. La technologie n'est pas neutre : elle absorbe nos biais (racisme, sexisme, homophobie) et risque de les amplifier massivement.

Biais de reconnaissance faciale : Jeu de données 80% caucasien.

Score calculé sur les interactions

Classement par valeur prédictive

Visibilité optimisée = Temps max

Les systèmes qui se prétendent neutres peuvent reproduire l’oppression.

« Les systèmes qui se prétendent neutres peuvent reproduire l’oppression. »

Angela Davis

Partie 2 : L'impact sur la visibilité

Quand l'algorithme invisibilise

Moins de visibilité pour les contenus dénonçant les discriminations (racisme, sexisme).

Certains hashtags militants sont 'shadowbanned' (masqués sans avertissement).

Le revers de la médaille : La mobilisation

Malgré les biais, les réseaux restent des outils puissants pour les minorités.

#BlackLivesMatter

#MeToo

#Pride

« Il n’y a pas de révolution possible sans voix et sans visibilité. »

Thomas Sankara

Étude de Cas : X (Twitter) & le DSA

Le Digital Services Act (DSA - 2023) impose la transparence des algorithmes en Europe.

Révélations : Depuis le rachat par Elon Musk, des rapports indiquent une promotion disproportionnée de contenus d'extrême droite.

Conclusion

Les algorithmes ne sont pas neutres : ils sont le miroir de notre société. Ils peuvent amplifier les injustices, mais aussi servir d'outils de lutte pour ceux qui les comprennent.

  • algorithme
  • réseaux sociaux
  • big data
  • machine learning
  • biais cognitifs
  • shadowban
  • dsa
  • éthique numérique