Instagram ha compartido nuevos detalles sobre cómo su aplicación utiliza el aprendizaje automático para mostrar contenido a los usuarios, y enfatiza que, al hacer recomendaciones, se enfoca en encontrar cuentas que cree que la gente disfrutará, en lugar de publicaciones individuales.
La publicación del blog es técnica y no contiene grandes sorpresas, pero ofrece una interesante perspectiva detrás de escena en un momento en que los sistemas de recomendación algorítmica están bajo escrutinio para empujar a los usuarios hacia contenido peligroso, odioso y extremista.
La publicación enfatiza que Instagram es enorme, y el contenido que contiene es extremadamente variado, «con temas que varían desde caligrafía árabe hasta modelos de trenes y limo». Esto presenta un desafío para recomendar contenido, que Instagram supera al centrarse no en las publicaciones que los usuarios podrían les gusta ver, pero en qué cuentas podrían interesarles en su lugar.
Instagram identifica cuentas que son similares entre sí mediante la adaptación de un método común de aprendizaje automático conocido como «incrustación de palabras». Los sistemas de incrustación de palabras estudian el orden en que aparecen las palabras en el texto para medir qué tan relacionadas están. Entonces, por ejemplo, un sistema de inclusión de palabras notaría que la palabra «fuego» a menudo aparece junto a las palabras «alarma» y «camión», pero con menos frecuencia al lado de las palabras «pelícano» o «emparedado». Instagram usa un nombre similar proceso para determinar qué tan relacionadas están las dos cuentas entre sí.
Para hacer sus recomendaciones, el sistema explorar comienza mirando las «cuentas semilla», que son cuentas con las que los usuarios han interactuado en el pasado al gustar o guardar su contenido. Identifica cuentas similares a estas, y de ellas, selecciona 500 piezas de contenido. Estos candidatos se filtran para eliminar los no deseados, la información errónea y el «contenido probable que infringe las políticas», y las publicaciones restantes se clasifican según la probabilidad de que un usuario interactúe con cada uno. Finalmente, las 25 publicaciones principales se envían a la primera página de la pestaña explorar del usuario.
Sin embargo no hay detalles sobre qué señales se utilizan para identificar spam o información errónea, y eso no es demasiado sorprendente teniendo en cuenta que explicar esto ayudaría a las personas que desean difundir este tipo de contenido. La compañía tampoco tiene claro en qué medida el aprendizaje automático se usa para filtrar contenido inapropiado, un detalle clave dado que Facebook a menudo presenta la IA como una bala mágica para la moderación (mientras que los expertos no están de acuerdo).
Deja un comentario