Más de 2 semanas después de la segunda vuelta electoral, seguimos sin presidente(a) electo(a), pero la cantidad de análisis y opiniones disponibles sobre irregularidades y un supuesto fraude en mesa nos permite sacar lecciones sobre como analizamos e interpretamos resultados. Comparto a continuación unas lecciones que espero ayudarán a poner la analítica de datos en su lugar, o sea al servicio de la verdad.

  1. La data no llega sola

Para ser analizada, la data debe cumplir criterios de formato, representatividad, volumen, calidad y demás que la transparencia sola no permite. Si bien es cierto cualquiera puede consultar los resultados de cualquier acta en cualquier momento, analizar patrones requiere la data en un formato distinto al disponible en las fuentes oficiales. Pasar de un formato al otro es felizmente posible, aunque con recursos tecnológicos que solo empresas especializadas disponen. En otras palabras, quedan tareas pendientes del lado oficial para que cualquiera pueda analizar y no solo consultar la información.

2. La analítica no se improvisa

Muchos individuos bien intencionados compartieron sus análisis y afirmaron en las redes sociales “de todas maneras hay fraude” porque era “estadísticamente imposible” encontrar algunos resultados. Habiendo mirado de cerca varios casos, concluyo que los modelos probabilísticos detrás de esas afirmaciones han sido demasiado simplistas como para concluir con tanta convicción. La diversidad de tamaños de mesa, niveles de ausentismo/nulos/viciados y de preferencias políticas de los miles de mesas requiere un modelamiento probabilístico más sofisticado de lo visto en general.

3. Los sesgos influyen mucho

¿Cuántos comentarios mencionaron una cantidad de mesas con cero votos para un candidato, sin mencionar la cantidad del otro candidato? ¿Cuántas personalidades limitaron sus análisis a pocas mesas, cuando centenas son necesarias para un mínimo de representatividad estadística? Los humanos somos sesgados y debemos seguir para nuestros análisis – si queremos ser imparciales – procesos que no dejen espacio para esos sesgos naturales.

4. Las conclusiones requieren más que data y analítica

Varios análisis rigurosos y, creo yo, imparciales también fueron realizados y publicados, pero como era de esperar, ninguno concluyó sobre la existencia o inexistencia de fraude. En este contexto tan complejo y por la naturaleza estadística de concluir con cierto nivel de confianza habitualmente entre 95 y 99% pero nunca 100%, el rol de la analítica es identificar patrones sospechosos, pero no concluir sobre el fraude. Quién decide es una persona, en este caso un juez.

En procesos electorales como en otros donde puede haber fraude, la analítica de datos tiene un rol fundamental para identificar casos y patrones sospechosos, más que concluir sobre el fraude. No gritemos al lobo y asegurémonos de la solidez de nuestros argumentos antes de comunicar, pues de lo contrario las personas, las organizaciones o la democracia resultarían afectadas y la analítica de datos, herramienta tan fundamental en esta lucha para la verdad, también sería injustamente perjudicada.

Share This