Google dans l’Œil de l’Ouragan : Accusations de Biais Racial et de Genre dans sa Dernière IA, Gemini

Google désactive son IA Gemini suite à des accusations de biais racial et de genre

Google a suspendu la génération d’images de son dernier modèle d’intelligence artificielle (IA), Gemini, suite à des critiques pour biais racial et de genre. Le modèle, qui générait des images de femmes et de personnes de couleur pour représenter des figures historiques qui sont généralement blanches et masculines, a été sujet de controverse. Google s’est publiquement excusé et s’est engagé à travailler sur des améliorations pour prévenir ce type de problèmes à l’avenir.

Accusations de biais idéologique dans l’IA de Google

La polémique a émergé suite aux accusations qui pointent Google pour montrer un biais libéral dans son IA. Certaines voix conservatrices sur les réseaux sociaux ont suggéré que Gemini semble favoriser une vision du monde plus progressiste. Même l’entrepreneur Elon Musk a critiqué Google Gemini, le qualifiant de « super raciste et sexiste ».

En réponse à la controverse, Google a lancé des projets pour atténuer les problèmes détectés dans Gemini. Certains dans l’entreprise estiment que la controverse reflète le manque de normes claires sur ce qui est approprié pour les modèles d’IA. Google a tenté par le passé d’augmenter la diversité dans les résultats de ses algorithmes pour lutter contre ces problèmes.

Le défi d’éviter les biais dans l’IA

Le biais dans Gemini est dû à la technique de réglage fin utilisée pour guider les réponses du modèle. Google a essayé de compenser les biais courants dans les générateurs d’images en raison de stéréotypes culturels nuisibles. Sans cet ajustement, les générateurs d’images IA montrent des biais, générant des images de personnes blanches pour représenter des professions comme les médecins ou les avocats, et des personnes noires pour représenter des criminels.

Certains critiques suggèrent que Google a peut-être lancé Gemini de manière précipitée. L’entreprise a eu du mal à trouver le bon rythme pour lancer son IA, et la qualité du contrôle semble avoir été affectée par sa hâte de lancer Gemini.

Les chatbots comme Gemini et ChatGPT sont ajustés grâce à un processus qui implique des tests humains et des retours d’information. Les réponses controversées de Gemini peuvent refléter le fait que Google a cherché à entraîner son modèle rapidement et n’a pas effectué suffisamment de contrôles de comportement. Les questions hypothétiques utilisées pour tester Gemini ont tendance à amener le chatbot sur un terrain où il est difficile de satisfaire tout le monde.

En conclusion, Google est confronté à un défi majeur pour équilibrer le besoin d’éviter les biais nuisibles dans ses modèles d’IA, tout en satisfaisant une large gamme d’utilisateurs avec différents points de vue et attentes. La controverse autour de Gemini souligne l’importance de ce défi et la nécessité d’une approche prudente et réfléchie pour le développement de l’IA.

Susana est une professionnelle remarquable dans le marketing et la communication, créatrice de contenu et experte en SEO. Elle est diplômée en Psychologie de l'Université de Santiago de Compostela et a un master en Marketing et Comportement du Consommateur de l'Université de Grenade et de l'Université de Jaén. De plus, elle a partagé ses connaissances à travers des conférences et des ateliers. Avec une vaste expérience en stratégies de marketing et de communication, Susana a réussi à optimiser la visibilité et le positionnement des marques grâce à des techniques de SEO.

Cette entrée est également disponible dans : Español Português

Laisser un Comentarioaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *