El trabajo del pedagogo en tiempos de algoritmos y big data
Federico Ferrero 17 mayo, 2019

Otra posible fuente de sesgo está en la interpretación de los resultados de los sistemas algorítmicos que estudiamos. Muchos de estos sistemas funcionan con principios de razonamiento inductivo, que es la forma en la que se construye conocimiento estadístico. Es la idea de que uno puede obtener conocimiento con una cierta probabilidad y sin certeza absoluta –a diferencia de los razonamientos de tipo deductivo, en los que se puede concluir con total certeza–. Estos razonamientos de tipo inductivo nos vinculan con resultados que, en realidad, están atados a cierto margen de error y a ciertos intervalos de confianza. Entonces, si uno desconoce o ignora que este saber tiene esta calidad, podríamos interpretar erróneamente los resultados del trabajo estadístico que está implicado allí. También, se pueden citar casos de interpretación no adecuada de estimadores o parámetros. El caso clásico es la correlación estadística que, cuando se establece, es leída en términos de relaciones causales, lo cual la propia estadística no nos permite establecer: que se den fenómenos simultáneos no quiere decir que tengan un vínculo de causa-efecto. Así como muchos otros ejemplos vinculados a cómo interpretamos los resultados que nos arrojan estos sistemas algorítmicos y que son responsabilidad de quienes leemos esos resultados: de los administradores en los sistemas educativos, de los que hacen política educativa… El conocimiento en estadística es muy útil para saber cuándo se está utilizando ese conocimiento de manera adecuada.

Cierta forma de sesgo de resultados se produce con la extrapolación de sistemas desde las condiciones iniciales de desarrollo y uso hacia su aplicación, de manera casi lineal, en nuevos contextos. Esto carece de legitimidad porque, si pensamos en la unidad de análisis, nuevos son los sujetos, nuevas son las comunidades que están incluidas, nuevas son las reglas que allí funcionan, nueva es la división del trabajo que está involucrada. Es el problema de la “escalabilidad”: cómo algoritmos que funcionan bien en ciertos contextos, escalan y se generalizan en muchos casos, y terminan generando problemas para que los datos sean analizados de manera adecuada.


Lic. en Ciencias de la Educación (UNC).
Lic. en Psicología (UNC).
Dr. en Ciencias de la Educación (UNC).
Integrante de Centro de Investigaciones de la Facultad de Filosofía y Humanidades (CIFFyH-UNC).
Actualmente se encuentra cursando el Master en Social Data Analytics and Research en la University of Texas at Dallas.