Google en el Ojo del Huracán: Acusaciones de Sesgo Racial y de Género en su Última IA, Gemini

Google desactiva su IA Gemini tras acusaciones de sesgo racial y de género

Google ha suspendido la generación de imágenes de su último modelo de inteligencia artificial (IA), Gemini, a raíz de las críticas recibidas por sesgo racial y de género. El modelo, que generaba imágenes de mujeres y personas de color para representar figuras históricas que suelen ser blancas y masculinas, ha sido objeto de controversia. Google ha pedido disculpas públicamente y se ha comprometido a trabajar en mejoras para prevenir este tipo de problemas en el futuro.

Acusaciones de sesgo ideológico en la IA de Google

La polémica ha surgido a partir de las acusaciones que señalan a Google de mostrar un sesgo liberal en su IA. Algunas voces conservadoras en las redes sociales han apuntado que Gemini parece favorecer una visión del mundo más progresista. Incluso el empresario Elon Musk ha criticado a Google Gemini, tachándolo de «súper racista y sexista».

En respuesta a la polémica, Google ha puesto en marcha proyectos para mitigar los problemas detectados en Gemini. Algunos en la empresa consideran que la controversia refleja la falta de normas claras sobre lo que es apropiado para los modelos de IA. Google ha intentado en el pasado aumentar la diversidad en los resultados de sus algoritmos para combatir estos problemas.

El desafío de evitar sesgos en la IA

El sesgo en Gemini se debe a la técnica de ajuste fino utilizada para guiar las respuestas del modelo. Google intentó compensar los sesgos comunes en los generadores de imágenes debido a estereotipos culturales dañinos. Sin este ajuste, los generadores de imágenes de IA muestran sesgos, generando imágenes de personas blancas para representar profesiones como médicos o abogados, y personas negras para representar criminales.

Algunos críticos sugieren que Google puede haber lanzado Gemini de manera precipitada. La empresa ha tenido dificultades para encontrar el ritmo adecuado para lanzar su IA, y la calidad del control parece haberse visto afectada en su prisa por lanzar Gemini.

Los chatbots como Gemini y ChatGPT se ajustan mediante un proceso que implica pruebas humanas y retroalimentación. Las respuestas controvertidas de Gemini pueden reflejar que Google buscó entrenar su modelo rápidamente y no realizó suficientes controles de comportamiento. Las preguntas hipotéticas utilizadas para poner a prueba a Gemini suelen llevar al chatbot a un territorio donde es difícil satisfacer a todos.

En conclusión, Google se enfrenta a un desafío importante para equilibrar la necesidad de evitar sesgos dañinos en sus modelos de IA, al mismo tiempo que satisface a una amplia gama de usuarios con diferentes puntos de vista y expectativas. La controversia en torno a Gemini subraya la importancia de este desafío y la necesidad de un enfoque cuidadoso y considerado para el desarrollo de la IA.

Susana es una profesional destacada en marketing y comunicación, creadora de contenido y experta en SEO. Es licenciada en Psicología por la Universidad de Santiago de Compostela y cuenta con un máster en Marketing y Comportamiento del Consumidor de la Universidad de Granada y la Universidad de Jaén. Además, ha compartido sus conocimientos a través de conferencias y workshops.
Con amplia experiencia en estrategias de marketing y comunicación, Susana ha logrado optimizar la visibilidad y el posicionamiento de las marcas a través de técnicas de SEO.

Esta entrada también está disponible en: Français Português

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *