Investigadores de la Universidad Estatal de Arizona y la Universidad de California en Davis descubrieron que los grandes modelos de lenguaje forman redes sociales siguiendo las mismas reglas que rigen las amistades y relaciones laborales entre personas. El hallazgo, publicado en PNAS Nexus, revela que cuando se pide a estos sistemas que decidan con quién conectarse, reproducen patrones característicamente humanos.
En el estudio experimental, múltiples modelos de IA actuaron como agentes independientes en simulaciones que replicaban redes de amistad, telecomunicaciones y entornos laborales reales. Cada agente recibía información sobre otros nodos, incluyendo número de contactos, vecinos comunes y atributos como intereses o ubicación, y debía elegir con quién conectarse.
Los resultados mostraron que las redes generadas por los agentes de IA presentaron propiedades características de las redes humanas. Además, los modelos no aplicaron una regla única en todos los contextos. En simulaciones de amistad predominó la homofilia, es decir la preferencia por los similares, mientras que en ámbitos organizacionales favorecieron la heterofilia, la conexión con figuras de distinto estatus como supervisores.
Para validar estas conclusiones, los investigadores realizaron una encuesta con cerca de cien participantes humanos expuestos a las mismas elecciones de enlace que la IA. La comparación mostró fuerte alineación entre las decisiones humanas y las de los modelos, aunque los agentes artificiales exhibieron mayor consistencia interna.
El estudio señala potenciales beneficios: estos sistemas podrían servir como herramientas de simulación para modelar intervenciones en redes de salud pública, diseño organizacional o difusión de información, además de generar datos sintéticos que respeten la privacidad. Sin embargo, también advierte sobre riesgos. Si la IA reproduce sesgos sociales existentes, podría reforzar discriminaciones o facilitar manipulaciones en entornos donde interactúe con personas reales.
Los investigadores enfatizan la necesidad de diseñar y alinear estos sistemas con criterios de equidad y transparencia antes de desplegarlos a gran escala, considerando que la capacidad de la IA para "elegir amigos" con lógica humana obliga a repensar tanto el entrenamiento de los modelos como las medidas de seguridad en redes sociales y profesionales.

