Solo viendo tu rostro esta IA adivina tu orientación política: ¿qué tan amenazante es esto?

ia identifica rostro

El algoritmo de reconocimiento facial VGGFace2 examinó los rasgos faciales de casi 600 personas para determinar vectores numéricos correspondientes a la orientación política. El resultado fue contundente; la IA adivinó en los rostros inexpresivos las tendencias declaradas antes en un formulario.

Fox News Digital dialogó con el representante republicano de California y director de trabajo de la Cámara sobre IA, Jay Obernolte; sobre sus objetivos y pensamientos en el marco del rápido avance de la tecnología.

El estudio al que hace referencia la entrevista es uno publicado en la revista American Psychologist, dice que la capacidad de un algoritmo puede adivinar con precisión las opiniones políticas de las personas; «a la par de lo bien que las entrevistas de trabajo predicen el éxito laboral, o que el alcohol impulsa la agresividad».

Te puede interesar: ¿Cómo saber si un texto fue generado por ChatGPT? Estos adjetivos y metáforas los delatan

El autor principal, Michal Kosinski, dijo a Fox News Digital que 591 participantes completaron un cuestionario de orientación política antes de que la IA capturara y adivinara lo que descrito. Esto, como una «huella digital» numérica de sus rostros que fue comparada con una base de datos de sus respuestas; prediciendo sus puntos de vista.

«Creo que la gente no se da cuenta de cuánto exponen simplemente publicando una imagen», explicó Kosinski, profesor asociado de comportamiento organizacional en la Escuela de Graduados en Negocios de la Universidad de Stanford.

«Sabemos que se debe proteger la orientación sexual, la orientación política y las opiniones religiosas de las personas. Solía ​​ser diferente. En el pasado, podías ingresar a la cuenta de Facebook de cualquiera y ver, por ejemplo, sus opiniones políticas, los ‘me gusta´, las páginas que siguen. «Pero hace muchos años, Facebook cerró esto porque estaba claro para los responsables políticos, Facebook y los periodistas que simplemente no es aceptable, es demasiado peligroso», concluyó.

Te puede interesar: MathGPT, una IA surcoreana que revoluciona el aprendizaje de las matemáticas: supera a ChatGPT

Durante el estudio, las imágenes de los participantes se recopilaron de manera muy controlada. «Los participantes llevaban una camiseta negra ajustada con clips para cubrir su ropa. Se quitaron todas las joyas y, si era necesario, se afeitaron el vello facial. Se utilizaron toallitas faciales para eliminar los cosméticos hasta que no se detectaron residuos en una toallita nueva. Su cabello fue recogido hacia atrás usando cintas para el cabello, horquillas y una diadema, teniendo cuidado de evitar pelos sueltos».

Luego, el algoritmo de reconocimiento facial VGGFace2 examinó las imágenes para determinar «descriptores de rostros, o un vector numérico que sea único para ese individuo y consistente en sus diferentes imágenes».

Los descriptores extraídos de una imagen determinada se compararon con los almacenados en una base de datos. Al ser lo suficientemente similares, las caras se consideran coincidentes. «Aquí, utilizamos una regresión lineal para mapear los descriptores de caras en una escala de orientación política y luego usamos este mapeo. predecir la orientación política de un rostro nunca antes visto», afirma también el estudio.

Los autores argumentaron que sus hallazgos «subrayan la urgencia de que los académicos, el público y los responsables políticos reconozcan y aborden los riesgos potenciales de la tecnología de reconocimiento facial para la privacidad personal» y que un «análisis de los rasgos faciales asociados con la orientación política reveló que los conservadores tendían a tienen caras inferiores más grandes».

Te puede interesar: Meta AI anuncia mejora con ampliación de datos de entrenamiento Llama 3, abarcando más de 30 idiomas

No quedó claro si las predicciones fueron permitidas por la autopresentación, rasgos faciales estables o ambos. Los resultados, que sugieren que los rasgos faciales estables transmiten una sustancial cantidad de señal, implican que los individuos tienen menos control sobre su privacidad.

Kosinski dijo a Fox News Digital que «los algoritmos se pueden aplicar muy fácilmente a millones de personas, de forma muy rápida y económica» y que el estudio es «más bien una advertencia» sobre la tecnología «que está en su teléfono y se usa ampliamente en todas partes».

Los autores concluyeron que «incluso estimaciones crudas de los rasgos de carácter de las personas pueden mejorar significativamente la eficiencia de las campañas de persuasión masiva en línea» y que «los académicos, el público y los responsables políticos deberían tomar nota y considerar políticas más estrictas que regulen la grabación y el procesamiento de imágenes faciales».

Imagen: :izusek

Digna Irene Urrea

Digna Irene Urrea

Comunicadora social y periodista apasionada por las buenas historias, el periodismo literario y el lenguaje audiovisual. Aficionada a la tecnología, la ciencia y la historia.

View all posts

Archivos