IA y deep learning en las redes sociales: el ecosistema de la desinformación

julio 10, 2018

Por Susana Moreno

Vivimos en un mundo cada vez más acostumbrado a la automatización y a la digitalización continua. Una transformación constante protagonizada, especialmente, por las máquinas. Lejos quedan ya las utopías sobre la alta presencia de robots en tareas altamente automatizables o en la toma de decisiones complicadas. Ahora, podemos ampliar su espectro de responsabilidades al dominio de datos en el mundo digital.​

Conforme avanza la inteligencia artificial y el deep learning -método de aprendizaje automático (machine learning), basado ​​en representaciones de datos procedentes de entradas y salidas, que utiliza redes neuronales-, aumenta el rango de funciones que puede realizar un robot. Si a esto le unimos la capacidad de predicción; es decir, la conjunción deep learning y modelos probabilísticos que diseñan algoritmos capaces de lidiar con la incertidumbre, inevitablemente, surgen nuevos debates. Por ejemplo, siguiendo esta línea, Facebook ha logrado un grado de deep learning y predicción considerablemente alto gracias a un algoritmo que permite reconocer con éxito rostros el 97 % de las veces, aunque hayan sido mal fotografiados.

Ahora bien, la combinación de ambos sistemas presenta aún varios retos técnicos, como el grado de precisión en el cálculo de la predicción a partir de inputs y outputs. Un reto que podría aplicarse, sin ir más lejos, al ámbito del marketing digital y, concretamente, al algoritmo de búsqueda de los buscadores o redes sociales. Es a partir de este punto donde surgen las siguientes preguntas: ¿Qué ocurre con la huella digital que dejamos en este ecosistema de la sobreinformación digital? ¿Acaso nunca has recibido sugerencias de nuevos seguidores en Twitter? ¿Nunca te han sorprendido en Facebook ofertas de escapadas a ese sitio que tanto tiempo llevas esperando ir?

Pues bien, detrás de todo eso hay un algoritmo nutriéndose de todos tus movimientos por la Red para facilitarte la toma de decisiones; es decir, realizando una radiografía de tus gustos y personas que, quizás, podrías conocer. A fin de cuentas, su objetivo es ofrecerte publicidad personalizada. Sin embargo, ¿qué pasa con la información que te estás perdiendo? Quizás, habías pasado por alto que ese filtro realizado esencialmente por las redes sociales puede estar eclipsando parte de la realidad informativa.

Concretamente, el algoritmo que opera en las redes sociales está dividido en otros dos que dan lugar a que una publicación se muestre mucho o casi nada dependiendo del usuario. El primero clasifica la predicción de enlaces con gran precisión y calcula la probabilidad de que exista un vínculo entre los usuarios. El restante crea un nuevo grupo de funciones relacionadas con la clasificación de predicción de enlaces.

Si bien Internet surgió con la premisa de la globalización y diversidad informativa, parece ser que estos algoritmos realmente están reduciendo nuestro universo y creando una realidad a la carta, hasta el punto de que cada vez es más necesario buscar proactivamente información actualizada. En este sentido, algunos de los ejemplos más notables y recientes que han dado que hablar son los casos de Facebook y Twitter. A inicios de año, Facebook introdujo el algoritmo EdgeRank para priorizar la información de los usuarios frente a la de empresas o medios de comunicación. Por su parte, Twitter (al igual que Instagram) incorporó un nuevo algoritmo que ordena las publicaciones por relevancia y no por fecha de publicación. Así, lo que hay dentro de la burbuja que te rodea depende de quién eres y de qué te gusta. Pero tú no eres quien decide directamente qué entra en esa burbuja, lo hacen los algoritmos. Y lo más importante: “no vemos todo lo que se elimina”, adelantó allá por  2011 Eli Pariser ¿quién es este señor? en su ponencia TED “The Filtrer Bubble”.

¿Cómo moderar esta situación? Básicamente, engañando a los algoritmos. Teniendo en cuenta que lo que más nos interesa es que éstos nos hagan llegar la máxima diversidad de información, algunas recomendaciones de la periodista Mª Victoria S. Nadal podrían ser:

1.     Seguir a usuarios con puntos de vista diferentes a nosotros o marcas con las que no estemos necesariamente de acuerdo o que no utilizamos.

2.     Cambiar la configuración para permitir recomendaciones aleatorias y buscar de forma proactiva información nueva para que el algoritmo recoja esa información y la muestre en recomendaciones futuras.

3.     Despistar al navegador en modo privado.

Pese a que parecen ser muy buenas medidas para lograr una mayor democratización de la información, esta misma autora considera que se trata de “una lucha perdida”. De esta manera, según Pariser. “necesitamos que los programadores incluyan cierta ética en los códigos que están escribiendo” para lograr, efectivamente, un escenario imaginado que sirva para la reflexión y no tanto para la predicción. 

Utilizamos cookies propias y de terceros para ofrecerte una mejor experiencia y servicio, dentro de nuestra Web de acuerdo a tus hábitos de navegación. Si continúas navegando, consideramos que aceptas expresamente su utilización. Puedes obtener más información de cómo gestionar y configurar las cookies en nuestra Política de Cookies.