Noticias

Una estudiante del MIT le pidió a AI que hiciera su foto de rostro más “profesional”. Le dio una piel más clara y ojos azules.

81views
el boston globo

La estudiante de informática, Rona Wang, dijo que su experiencia muestra cómo la tecnología emergente puede tener puntos ciegos raciales.

La estudiante del MIT Rona Wang le pidió a una aplicación de creación de imágenes de IA llamada Playground AI que hiciera una foto de ella con un aspecto “profesional”. Le dio una piel más pálida y ojos azules, y “me hizo parecer caucásica”. rona wang

Rona Wang no es ajena al uso de la inteligencia artificial.

Un recién graduado del MIT, Wang, de 24 años, ha estado experimentando con la variedad de nuevas herramientas de lenguaje e imagen de IA que han surgido en los últimos años, y está intrigado por las formas en que a menudo pueden hacer las cosas mal. Incluso ha escrito sobre su ambivalencia hacia la tecnología en el sitio web de la escuela.

Últimamente, Wang ha estado creando LinkedIn perfil fotos de ella con generadores de retratos de IA, y ha recibido algunos resultados extraños como imágenes de sí misma con dedos desarticulados y rasgos faciales distorsionados.

Pero la semana pasada, el resultado que obtuvo con la herramienta de una startup se destacó del resto.

El viernes, Wang subió una foto de sí misma sonriendo y vistiendo una sudadera roja del MIT a un creador de imágenes llamado Playground AI, y le pidió que convirtiera la imagen en “una foto de perfil profesional de LinkedIn”.

En solo unos segundos, produjo una imagen que era casi idéntica a su selfie original, excepto que la apariencia de Wang había cambiado. sido cambiado Hizo que su tez pareciera más clara y sus ojos azules, “rasgos que me hacían parecer caucásica”, dijo.

“Yo estaba como, ‘Guau, ¿esta cosa cree que debería volverme blanco para ser más profesional?’”, dijo Wang, quien es asiático-estadounidense.

La foto, que ganó tracción en línea después de que Wang la compartiera en Twitter, ha provocado una conversación sobre las deficiencias de herramientas de inteligencia artificial cuando se trata de carreras. Incluso llamó la atención del fundador de la empresa, quien dijo que esperaba resolver el problema.

Ahora, ella cree que su experiencia con la IA podría ser una advertencia para otros que usan tecnología similar o siguen carreras en el campo.

El tweet viral de Wang se produjo en medio de una tendencia reciente de TikTok en la que las personas han estado usando productos de inteligencia artificial para mejorar sus fotos de perfil de LinkedIn, creando imágenes que los colocan en atuendos profesionales y entornos corporativos con buena iluminación.

Wang admite que, cuando intentó usar esta IA en particular, al principio tuvo que reírse de los resultados.

“Fue un poco divertido”, dijo.

Pero también habló de un problema que ha visto repetidamente con las herramientas de inteligencia artificial, que a veces pueden producir resultados preocupantes cuando los usuarios experimentan con ellas.

Para ser claros, dijo Wang, eso no significa que la tecnología de IA sea malicioso.

“Es un poco ofensivo”, dijo, “pero al mismo tiempo no quiero sacar conclusiones precipitadas de que esta IA debe ser racista”.

Los expertos han dicho que el sesgo de la IA puede existir bajo la superficie, un fenómeno que se ha observado durante años. Es posible que la gran cantidad de datos utilizados para entregar resultados no siempre reflejen con precisión varios grupos raciales y étnicos, o pueden reproducir los prejuicios raciales existentes, dijeron.

La investigación, incluso en el MIT, ha encontrado los llamados Sesgo de IA en modelos de lenguaje que asocian ciertos géneros con ciertas carreras, o en descuidos que hacer que las herramientas de reconocimiento facial funcionen mal para las personas con piel oscura.

Wang, quien se especializó en matemáticas y ciencias de la computación y regresará al MIT en el otoño para un programa de posgrado, dijo que su foto ampliamente compartida puede haber sido solo un problema, y ​​es posible que el programa haya generado aleatoriamente los rasgos faciales de una mujer blanca. O, dijo ella, puede haber sido entrenado usando un lote de fotos en las que la mayoría de las personas representadas en LinkedIn o en escenas “profesionales” eran blancas.

Le ha hecho pensar en las posibles consecuencias de un paso en falso similar en un escenario de mayor riesgo, como si una empresa usara una herramienta de IA para seleccionar a los candidatos más “profesionales” para un trabajo, y si se inclinara hacia las personas que parecen blancas.

“Definitivamente creo que es un problema”, dijo Wang. “Espero que las personas que están creando software sean conscientes de estos sesgos y piensen en formas de mitigarlos”.

Los responsables del programa no tardaron en responder.

Solo dos horas después de que tuiteó su foto, el fundador de Playground AI, Suhail Doshi respondió directamente a Wang en Twitter.

“Los modelos no son instructables de esa manera, por lo que elegirá cualquier cosa genérica según el aviso. Desafortunadamente, no son lo suficientemente inteligentes”, escribió en respuesta al tuit de Wang.

“Me complace ayudarlo a obtener un resultado, pero requiere un poco más de esfuerzo que algo como ChatGPT”, agregó, refiriéndose al popular chatbot de IA que produce grandes lotes de texto en segundos con comandos simples. “[For what it’s worth]estamos bastante disgustados con esto y esperamos resolverlo”.

En tuits adicionales, Doshi dijo que Playground AI no “admite el caso de uso de avatares fotográficos de IA” y que “definitivamente no puede preservar la identidad de una cara y rediseñarla o encajarla en otra escena como” esperaba Wang.

Alcanzado por correo electrónico, Doshi se negó a ser entrevistado.

En cambio, respondió a una lista de preguntas con una pregunta propia: “Si tiro un dado solo una vez y obtengo el número 1, ¿eso significa que siempre obtendré el número uno? ¿Debo concluir, basándome en una sola observación, que el dado está sesgado hacia el número 1 y que fue entrenado para estar predispuesto a sacar un 1?

Wang dijo que espera que su experiencia sirva como un recordatorio de que, aunque las herramientas de IA se están volviendo cada vez más populares, sería prudente que las personas tuvieran cuidado al usarlas.

“Hay una cultura en la que algunas personas realmente confían mucho en la IA y confían en ella”, dijo. “Así que creo que es genial hacer que la gente piense en esto, especialmente las personas que podrían haber pensado que el sesgo de la IA era cosa del pasado”.