Estado del arte
Aproximaciones críticas a la realidad datificada
La consulta de literatura alrededor de procesos de datificación de la realidad ha arrojado la siguiente categorización de énfasis, exploraciones y sesgos en diversos campos y áreas del conocimiento, así como evidencia de la incidencia cultural, epistemológica y política de dichos procesos en contextos determinados1.
Estudios Críticos de Datos
Los Estudios Críticos de Datos (ECD) son un campo interdisciplinario emergente alrededor de la problematización de los procesos de datificación de la realidad. ¿Cómo se producen y cómo se adquieren los datos? ¿De quiénes son los intereses alrededor de la inteligencia que producen los datos? ¿Cuáles son las implicaciones políticas y las consecuencias culturales y sociales alrededor del uso de los datos? Son algunas de las preguntas que condensan los intereses de este campo (Boyd & Crawford, 2012; Kitchin, 2022; Kitchin & Lauriault, 2014). Los énfasis conceptuales en este campo abarcan:
- La vigilancia y el control social ejercidos desde la sistematización y la generación de inteligencia con datos (Mejias & Couldry, 2019; Thatcher et al., 2016; Yeung, 2018).
- La predictibilidad de lo posible mediante formas de gubernamentalidad algorítmica (Rouvroy & Berns, 2018).
- Las formas de datificación de la realidad como métodos actuales de extractivismo y fetichismo informacional contemporáneo (Milan & Treré, 2019; Ramos-Martín, 2022; Ricaurte, 2019).
- Las tensiones entre estructura y agentes en forma de "ambivalencias" o tensiones y disputas alrededor de los datos (Hepp et al., 2022).
- La observación y el análisis de las infraestructuras materiales y simbólicas de los datos y de los usos de estos por parte de gobiernos y ciudadanías (Barreneche, 2019; Barreneche et al., 2021).
- Y un conjunto en particular que apunta no sólo al desarrollo conceptual sino también al de distintas formas de apropiación crítica de la datificación. Desde aquí se habla, por ejemplo, de literacidades de infraestructuras de datos (Gray et al., 2018), reimaginación de la analítica de datos (Selwyn, 2020), formas de contra-mapeo (Dalton & Stallmann, 2018), asequibilidades algorítmicas (Ettlinger, 2018), entre otras posibilidades que incentivan al desarrollo metodológico con datos.
Así, desde este campo emerge lo que podemos nombrar como datificación dominante, caracterizada por una ontología numérica, que remite a una cualidad mediante la cual el dato es capaz de aportar al conocimiento únicamente en tanto “mide” algo, una racionalidad predictiva, que más allá de controlar la ingente cantidad de información a la que tiene acceso y produce la datificación, busca controlar “lo por venir” en lo social a partir de registros digitales de la experiencia, un tipo de gubernamentalidad de vigilancia y control, que remite a un vicio institucional que amplía las posibilidades de perfilamiento de usuarios de tecnologías digitales con intenciones de producir a los sujetos como sospechosos o como consumidores, una ética comercial, que remite a una utilidad de los datos cifrada en las posibilidades de generar rendimiento económico, y una epistemología universalizante, que remite a un reforzamiento autorreferencial de la jerarquía ejercida por la lectura estrictamente numérica de la realidad a través de datos, por encima de otras posibilidades de producir conocimiento mediante el énfasis, por ejemplo, en valores categóricos en los mismos datos.
Visualización y representación crítica de datos
Por otro lado, hay una conversación a nivel interdisciplinar abierta alrededor de la problematización y la exploración de mecanismos de procesamiento y visualización de datos desde investigaciones provenientes de las ciencias sociales y las humanidades. Algunos referentes al respecto han apuntado que las herramientas más usadas de procesamiento y visualización de datos están construidas y concebidas desde marcos epistemológicos (y escópicos) de corte cuantitativo, que producen y condicionan el tipo de resultados que se pueden obtener con ellas, lo cual nos deja frente al cuestionamiento acerca de cuáles son las posibilidades de obtener resultados con fines cualitativos (y críticos) con el uso de estas herramientas (Masson, 2017). En esa misma línea, Johanna Drucker ha desarrollado una serie de principios para concebir una producción de conocimiento desde la visualización de datos que no parta ni tenga como objetivo la representación gráfica de significados pre-existentes en los datos. Para la autora, hay un tipo de conocimiento visual que no sólo es capaz de "reproducir" sino de "producir" significados. A este conocimiento le llama "Graphesis" y se distingue de la "Mathesis", que es el tipo de conocimiento visual que sí tiene como objetivo leer en las visualizaciones "la precisión" con la que éstas "representan" el significado preexistente en los datos, usualmente numéricos (Drucker, 2020). Drucker invita a pensar a las visualizaciones de datos como argumentaciones retóricas desplegadas en escenarios gráficos, cuyo objetivo es tener efectos de verdad en tanto flujo discursivo y no simple conjunto de información que acompaña una idea. A este respecto, Alberto Cairo ha señalado que usualmente los mecanismos de procesamiento y visualización de datos se dan por sentados desde la mirada cuantitativa e invisibilizan, o justifican por simple funcionalidad, las transformaciones y los sesgos epistemológicos y políticos que sus convenciones siguen y consolidan. Sin embargo, esta jerarquía de la lectura estrictamente numérica de los datos, fácilmente refuerza creencias y tiende a aumentar los sesgos de confirmación en quien los lee (Cairo, 2019).
Otro referente alrededor del abordaje crítico de datos es el de los métodos digitales, encargados de lo "nativamente digital" (Rogers, 2023), y desde donde se han desarrollado distintas herramientas de descarga y extracción de datos de plataformas digitales y motores de búsqueda (Rieder, 2015; Rogers, 2017), con la intención de analizar estos datos al menos desde dos dimensiones, a saber, desde los "datos sociales", referidos a las tendencias o temas sociales visibles en estos espacios, y desde los "datos semánticos", referidos a las conversaciones que componen dichas tendencias, presentes en distintos tipos de mensajes producidos por todo tipo de actores en estos escenarios. De corte mixto, los métodos digitales tienen un particular interés en la interpretación crítica de los valores cualitativos, es decir en los textos presentes en los conjuntos de datos a los que acceden.
Finalmente, distintos autores han abogado por la inclusión de herramientas y miradas etnográficas para el análisis de datos. Al respecto, Elisenda Ardévol ha identificado las coincidencias entre la ciencia de datos y los enfoques hermenéuticos, señalando que ambos están interesados en "hallar patrones para la investigación" que puedan ser tomados como insumos susceptibles de ser interpretados. Para la autora "modelizar el comportamiento humano" no es suficiente para llevar a cabo una interpretación de aspectos culturales a partir de patrones, sino que "sólo una descripción densa puede revelar el significado cultural, si tiene alguno, de estas conexiones" (Ardévol, 2017). A este respecto, César Rodríguez Cano (Rodríguez Cano, 2022) se ha pronunciado por evidenciar que "aunque sean inmensos, los datos se pueden interpretar cualitativamente", siempre y cuando se mantenga una vigilancia epistemológica y una actitud crítica permanentes frente a los datos, los métodos y los marcos interpretativos de los que se parta para trabajar con datos masivos.
Los default del tratamiento estadístico de los datos (disputar lo indisputable)
Los mecanismos de gestión y limpieza de datos desde la llamada ciencia de datos tienen como finalidad homogeneizar la información, ya sea para alimentar algún modelo de análisis a partir de los patrones numéricos identificados en los datasets o ya sea para presentar informes (con visualizaciones integradas) que integren las cualidades medibles de los valores que componen un archivo. Algunos de estos mecanismos son:
- Normalización: consiste en transformar los atributos de una porción del dataset a una escala similar a partir de la identificación de valores mínimos y máximos de modelos lineales o de distribución de valores atípicos.
- Discretización: consiste en distribuir un conjunto de valores en intervalos de igual amplitud o por cuartiles.
- Numerización: consiste en convertir a una escala de valores numéricos valores categóricos con el fin de medir la frecuencia con la que aparecen.
El análisis de datos a partir de este tipo de técnicas de gestión, tradicionalmente parte de la utilización de herramientas de estadística, útiles para obtener medidas del conjunto de datos a partir de segmentaciones del mismo, así como para identificar correlaciones y/o distintos tipos de causalidad o tendencia que conlleven a la construcción de interpretaciones que comúnmente aspiran a producir modelos de predictibilidad.
El historiador, estadístico y sociólogo Alain Desrosieres (Desrosières, 2011) elaboró un minucioso estudio acerca de la historia del razonamiento estadístico, en el cual señala algunas de las cualidades principales de este dispositivo cognitivo que, como pocos, ha tenido un éxito y una legitimidad que en muchas ocasiones rayan en lo incuestionable. Desrosieres señala los elementos racionales, históricos y políticos que construyeron el pensamiento estadístico. A partir de su lectura es posible identificar y categorizar al menos tres dimensiones constitutivas de la estadística:
- Dimensión epistemológico-política: Se refiere a entender que la estadística es el fruto de la unión entre el desarrollo del pensamiento probabilístico a partir del siglo XVIII y la configuración de los estados-nación en esa misma época. Esta unión le ha dado a la estadística una legitimidad tanto epistemológica como política, con la que ha sido capaz de producir un lenguaje que sirve de piso y sentido común para las sociedades y para los gobiernos, con mayor firmeza desde mediados del siglo XX.
- Dimensión ontológica: Se refiere a la transformación en la naturaleza de las cosas que lleva a cabo la estadística, ocurrida en el momento en el que selecciona un fenómeno de la realidad social y una vez identificada una cualidad o conjunto de cualidades medibles del mismo, hace a un lado las cualidades no medibles. Sin embargo, una vez analizadas estadísticamente dichas cualidades, los resultados tienden a hablar tanto por lo medible como por lo no medible del fenómeno.
- Dimensión semiótica-retórica: Se refiere a la cualidad sineqdóquica de la estadística, mediante la cual toma una parte (el promedio, la correlación, la tendencia), y la hace hablar por el todo. Se trata de un despliegue de significado del análisis producido mediante el cual la representación sustituye a lo representado.
Señalar estas cualidades no implica en modo alguno que se intente descalificar o poner en duda el valor de las aproximaciones cuantitativas al análisis de datos, sino que busca evidenciar áreas de oportunidad para la experimentación con distintas herramientas de manejo de datos que coloquen el foco del análisis en valores categóricos desde andamiajes cualitativos y mixtos.
Medir lo inconmensurable
A contrapelo de los supuestos elementales del pensamiento estadístico, la antropóloga Sally Engle Merry ha hecho una etnografía de los indicadores numéricos internacionales que registran abusos a los derechos humanos y ha señalado que estos parten de una imposibilidad general, a saber, la imposibilidad de medir lo inconmensurable (Merry, 2016). Es decir, la naturaleza de los abusos a los derechos humanos imposibilita de manera radical que el registro de la experiencia sea la medición de dicha experiencia, y mucho menos la sustitución de la experiencia. Esta incompatibilidad entre la condición de inconmensurabilidad de este tipo de experiencias y la validación mediante lo cuantificable de lo estadístico, da cuenta de posibilidades de exploración e interpretación del peso semiótico de registros de este tipo de experiencias desde regímenes analíticos no centrados en lo cuantitativo.
Luego entonces, los métodos cualitativos (la entrevista a profundidad, la etnografía, entre otras) suelen ser las aproximaciones más adecuadas para analizar críticamente este tipo de registros. Sin embargo, el acceso a amplios archivos digitales con testimonios de violaciones graves a los derechos humanos o con descripciones de estos hechos, permite la exploración de métodos computacionales y de tratamiento de datos tabulares alternativos para emprender un tipo de análisis centrado en los aspectos cualitativos de estos registros.
Una investigación crítica de registros digitales de este tipo no excluye la utilización de métodos cuantitativos de segmentación y análisis preliminar de ciertas porciones de los datos, pero sí supone utilizarlos no como fines sino como puntos intermedios condicionados por una reorientación constante hacia el análisis de valores categóricos desde anclajes conceptuales y metodológicos cualitativos y mixtos, desde los cuales contribuir a los estudios de memoria histórica y trauma social (Alexander, 2016) con la utilización de métodos computacionales.
El peso político de la datificación de la violencia en Colombia y en México
México y Colombia comparten características en sus formas de violencia y en los efectos sociales que estas han tenido en las últimas décadas. Si bien cada país ha atravesado por etapas y actores distintos, las catastróficas cifras de violaciones graves a los derechos humanos son un aspecto compartido. Según datos del INEGI (INEGI, 2025), en México entre 2006 y 2023 han sido asesinadas al menos 400 mil personas. En Colombia una cifra de alrededor de 450 mil personas asesinadas es la que se tiene documentada de 1985 a 2019, con más del 75% de víctimas registradas entre 1996 y 2010, de acuerdo con datos del informe final de la Comisión de la Verdad (Comisión de la Verdad de Colombia, 2022). México alcanzó en 2022 el registro oficial de 100 mil personas desaparecidas y en años recientes se ha señalado la necesidad de documentar víctimas de desplazamiento forzado y de reclutamiento forzado de jóvenes. En Colombia hay documentados 11 abusos a los derechos humanos, entre los que se encuentran los mencionados y otros más, cometidos desde 1958. En ambas naciones es posible encontrar formas similares de violencia sistemática en contra de la población civil, formas de gobernanza criminal en distintos territorios, así como formas de macro-criminalidad o patrones de comportamiento criminal de los grupos armados (Alfonso-Camelo & Chaparro Moreno, 2024). Este contexto en ambos países ha ido a la par del desarrollo de una paradójica condición de consolidación institucional y de fragilidad institucional, en la cual la violencia, los amplios márgenes de impunidad y la corrupción institucional no han sido excluyentes sino concurrentes y complementarios al desarrollo de ambos estados.
Sin embargo, entre las diferencias en el modo de abordar esta crisis de violaciones a los derechos humanos está el propio papel de los gobiernos. En el caso colombiano se ha hecho un reconocimiento oficial de estar en medio de un conflicto armado, mientras que en México ningún gobierno federal se ha atrevido a aceptar esta condición, sin la cual mecanismos oficiales de documentación, sistematización y diseño de políticas de desarme y pacificación puedan ser diseñadas e implementadas. Esta comparación nos lleva a ver las diferencias en el estado de la propia documentación del conflicto y de las víctimas en ambos países. Mientras en Colombia se tienen espacios oficiales dedicados al estudio y documentación del conflicto, como el del Centro Nacional de Memoria Histórica o el informe final de la Comisión de la Verdad, en México los registros de víctimas de delitos como la desaparición siguen estando en medio de un jaloneo institucional entre un registro nacional que en los últimos años ha tenido modificaciones sin consultar con autoridades, expertos y familias de las víctimas, y registros estatales que no necesariamente han sido confiables ni cuentan con metodologías de captura y seguimiento rigurosos ni homologados de los casos.
Los registros de violaciones graves a los derechos humanos en ambos países, provenientes tanto de fuentes oficiales como de ONGs, medios alternativos y comisiones de la verdad, están insertos en un circuito de disputa por la construcción de la verdad acerca del pasado y el presente de los conflictos, de los referentes y encuadres para la construcción de memoria histórica desde el trauma social y de las propias posibilidades de imaginar salidas pacíficas al conflicto a partir de la comprensión del mismo. De estas construcciones depende parte importante de la identidad nacional, la legitimidad institucional y las posibilidades de construcción de sociedades democráticas en cada país. Es decir, la disputa por el sentido de los registros de violaciones graves a los derechos humanos tiene un peso político definitorio del presente y el futuro de ambos países.
Un artículo resultado de una porción de este apartado ha sido publicado recientemente en la revista Acta Sociológica bajo el título: Datificación crítica de la violencia. Aportaciones a los estudios críticos de datos desde contextos Latinoamericanos. Disponible en: https://www.revistas.unam.mx/index.php/ras/article/view/90765