Facebook ha desarrollado una versión paralela de su red social en la que actores movidos por inteligencia artificial simulan malas acciones para poder detectar los comportamientos dañinos de usuarios reales.

El simulador emplea aprendizaje automático para entrenar ‘bots’ con el fin de que “simulen de forma realista el comportamiento de gente real en una red social”. En él, se desarrollan acciones automatizadas entre “miles o incluso millones” de ‘bots’, que se envían mensajes, publican contenidos, comentan los contenidos de otros ‘bots’ o realizan peticiones de amistad.

Estos ‘bots’ interactúan entre ellos, pero “están aislados de los usuarios reales”, en una red social paralela basada en el código de Facebook, como explica la compañía en una publicación en su blog de Inteligencia Artificial. De esta forma, se aseguran de que “las acciones de los ‘bots’ son fieles a los efectos que presenciarían las personas reales que usan la plataforma”.

Se trata de una aproximación con la que la empresa espera poder “mejorar su servicios” y “detectar potenciales problemas para la fiabilidad e integridad antes de que afecten a personas reales”, aunque por el momento se encuentra en una fase de investigación.

Con información de agencias.

Comments

Comments are closed.