La confusión en el algoritmo de LinkedIn: ¿un problema más grande que aparenta ser?

Michelle, una estratega de productos, realizó un experimento para verificar si el algoritmo de LinkedIn estaba sesgado contra las mujeres. Cambió su género y nombre a Michael y observó cómo se afectaba su visibilidad en la plataforma.

El resultado fue inesperado: sus impresiones aumentaron un 200% y sus interacciones, un 27%. Pero no fue solo Michelle, muchos otros usuarios también experimentaron un aumento en la visibilidad de sus contenidos después de cambiar su género a masculino.

La empresa argumentó que su algoritmo no utiliza información demográfica como señal para determinar la visibilidad del contenido. Sin embargo, expertos en algoritmos sociales creen que el sistema puede estar sesgado implícitamente contra las mujeres.

"El cambio de un lema es solo uno de los many levers that make this algorithm prioritize one person's content over another," dijo Brandeis Marshall, una consultora en ética de datos. "What we don't know is all the other levers that make this algorithm prioritize one person's content over another."

La investigación sugiere que muchos LLMs (Large Language Models) están llenos de sesgos humanos como el sexoismo y el racismo. Los modelos se entrenan en contenido generado por humanos, lo que significa que los sesgos pueden ser inherentes.

La empresa de LinkedIn sostiene que su algoritmo busca proporcionar una experiencia menos sesgada para los usuarios, pero no ofrece detalles sobre cómo funcionan sus modelos de contenidos. Esto ha llevado a muchos a cuestionar la transparencia y la responsabilidad de la empresa.

"Me gustaría ver a LinkedIn tomar accountability for any bias that may exist within its algorithm," dijo Marilyn Joyner, una fundadora que experimentó un aumento en la visibilidad después de cambiar su género a masculino.

En este momento, es difícil determinar el verdadero motivo detrás los resultados del #WearThePants. Sin embargo, parece que muchos usuarios, sin importar su género, están confundidos y desmotivados por las últimas actualizaciones en el algoritmo de LinkedIn.

Análisis:

La situación es compleja y nos hace preguntarnos si el algoritmo de LinkedIn está sesgado implícitamente contra las mujeres. Aunque la empresa argumenta que no utiliza información demográfica como señal, los expertos en algoritmos sociales creen que el sistema puede estar sesgado.

La falta de transparencia y responsabilidad por parte de la empresa es preocupante. Los usuarios necesitan saber cómo funcionan los modelos de contenidos y qué variables son consideradas para determinar la visibilidad del contenido.

Además, es importante considerar que las plataformas sociales pueden ser influenciadas por sesgos humanos, como el sexoismo y el racismo. Es crucial que las empresas sean transparentes sobre cómo funcionan sus modelos y se tomen medidas para mitigar los sesgos implícitos.

En última instancia, la confusión en el algoritmo de LinkedIn es un problema más grande que aparenta ser. ¿Qué papel jugará la responsabilidad y la transparencia en este tema?