Conseguir un equipo de alto rendimiento que colabore muy bien lleva su tiempo. Requiere de aprendizaje, esfuerzo y finalmente vale la pena 🙂
Recientemente se realizó un experimento con Inteligencia Artificial (AI) de donde se puede sacar un interesante paralelismo con esto. A continuación, el análisis:

Google DeepMind creó “agentes artificiales” que tenían que aprender a jugar en Quake (donde los jugadores tienen que robar la bandera del enemigo y llevarla a su base, mientras protegen la suya propia) a partir de prueba y error, sin conocer las reglas del juego. De manera muy resumida, lo que sucedió fue lo siguiente:

Tras las primeras 50.000 partidas, los agentes descubrieron que, siguiéndose unos a otros (como si fuesen hormigas) ganaban más batallas. En este punto, no se genera más que una linealidad por poner más agentes en el sistema, una suma de las partes, van juntos pero todavía no colaboran.
Necesitaron 4 veces más partidas para que cada agente desarrollase su propia manera de jugar (especialización) y empezasen a colaborar de manera efectiva, es decir, entre todos los agentes crearon un equipo multidisciplinar, a partir de lo cual empezaron a ganar muchas más partidas. Para ello, como se comenta en el siguiente artículo de Javier Salas en El País:
DeepMind los había programado para que generaran sus propias señales de recompensa: algunos se sentían más motivados a matar al enemigo (al dispararles y así devolverlos a su base), otros a capturar banderas, etc., lo que produjo un abanico amplio de jugadores con distintas habilidades y técnicas. Además, el software propicia que los agentes actúen en dos velocidades, por lo que pueden disparar con la adrenalina del enfrentamiento inmediato, pero también planificar movimientos en el largo plazo para una mejor estrategia.
Conseguir un beneficio por ir juntos es relativamente inmediato, pero conseguir resultados espectaculares necesita del desarrollo de estrategias de colaboración, y eso lleva su tiempo.
Conseguir efectos “no-lineales” (mucho más del de ser un “grupo”, aprovechando diversidad, la complementariedad y la inteligencia colectiva, pensando juntos de manera “consciente”) cuesta mucho más esfuerzo de prueba y error hasta conseguir una buena colaboración. Parece que hay aquí un paralelismo interesante con seres complejos como los humanos 🙂

Este paralelismo curiosamente se rompe en el momento en que comparamos el rendimiento de los agentes artificiales con el de seres humanos. Aquí nos encontramos con otro aspecto interesante: las máquinas son muy superiores a las personas, y sólo pierden cuando en su equipo se cambia algún agente por un humano. Y no sólo eso, los jugadores humanos puntuaron a los agentes como más cooperativos que ellos mismos. Da un poco de miedo, ¿no creéis? 🙂

Como futuro esperanzador, el artículo de El País acaba mencionando el gran aspecto en positivo detrás de todo esto:
Las máquinas pueden coordinarse con un humano para llevarlo a la victoria. Y ese es precisamente el más noble objetivo de los defensores del futuro de la inteligencia artificial: su capacidad de impulsar a los humanos más allá.
Enlace al artículo original en DeepMind.
Excelente publicación. Este tipo de avances da miedo porque vivimos bajo las reglas de juego del capitalismo salvaje, donde lo único que importa es la ganancia y destruir a la competencia por ego y sin importar las consecuencias. Imaginémonos este tipo de avances en un mundo donde las reglas de juego predominante fueran las del beneficio real y equilibrado de la sociedad, donde la prioridad fueran las personas y el ecosistema en el que vivimos; seria un gran avance, la humanidad se dedicaría a explotar sus pasiones y los robots harían esas tareas que nos apartan de los puntos donde más creativos somos.
Podemos cambiar el juego, solo hay que hacer lo que hacen estos robots, COOPERAR. Muchas gracias por compartir.
Me gustaLe gusta a 1 persona