Este estudio se centra en examinar cómo las redes sociales han afectado las campañas políticas, particularmente las de las elecciones regionales del año 2023 en Bogotá. La información política que Gustavo Bolívar y Juan Daniel Oviedo publicaron en Twitter (ahora denominada ”X”) a lo largo de su campaña será analizada mediante minería de textos.

El objetivo de este estudio es investigar herramientas o métodos de scraping para recopilar datos de la red social X/Twitter, por lo que este proyecto utiliza herramientas de análisis de datos y procesamiento de lenguaje natural para comprender cómo se organiza, maneja y consume el material político en contextos digitales. Esto lo hace novedoso y pertinente para los campos de las ciencias de la información, las bibliotecas y los archivos. Los hallazgos del proyecto pueden ayudar con la toma de decisiones y la formulación de políticas para fomentar una participación política transparente.

Problemática

El crecimiento de la disponibilidad y accesibilidad de la información se denomina proliferación de la información (Méndez, 2015). Gracias a la tecnología y a la simplicidad de compartir contenidos online, la información se produce y difunde a un ritmo cada vez mayor en la era digital. Además, la facilidad con la que se difunde la información en línea puede ser perjudicial para la seguridad y privacidad de las personas. La forma en que las personas interactúan y se comunican ha cambiado como resultado del uso de las redes sociales y la tecnología de comunicación instantánea, que pueden tener implicaciones tanto beneficiosas como perjudiciales para la sociedad (Rodríguez, 2021).

Para comunicar a las personas y permitirles compartir conocimientos y contenidos digitales, se desarrollaron plataformas en línea en la década de 1990, así surgieron las redes sociales (Grapsas, 2017) y entre ellas una de la más conocidas y reconocida en el mundo se llama Twitter/x. Esta fue desarrollada por Jack Dorsey, Biz Stone y Evan Williams en 2006 y puesto a disposición del público en general en 2007. (Naveira, 2022).

X/Twitter se creó como una plataforma de microblogging que permitía a los usuarios enviar” tweets” de 140 caracteres, que son mensajes de texto breves. La capacidad de intercambiar mensajes directos, transmitir videos en vivo, realizar encuestas e incluir imágenes y videos en tweets son solo algunas de las nuevas capacidades que X/Twitter ha desarrollado y agregado a través del tiempo (Naveira, 2022). Desde que Elon Musk compró Twitter en octubre de 2022, se han presentado varios ajustes polémicos, entre ellos se destacan el despido de importantes ejecutivos y la reducción del empleo superior al 50% (Pardo, 2022), adicionalmente a partir del 9 de febrero del 2023 Twitter cobrará por el acceso a su API, que anteriormente estaba disponible para los desarrolladores de forma gratuita (Efe et al., 2023). Aunque el precio aún no se ha revelado, esta medida podría tener un impacto en los investigadores y desarrolladores. Estas modificaciones representan el plan de Musk para gestionar y comercializar la plataforma e indican un nuevo rumbo para Twitter (Efe et al., 2023).

Por otro lado, estas plataformas brindan a los políticos y a los partidos que representan una forma rápida y asequible de contactar a una audiencia considerable en Internet y llegar a los votantes (Razvan Vlaicu, 2021), por lo que, en los últimos años la publicidad política en las redes sociales ha crecido, presentándose diversos tipos de contenido como la propaganda política en las redes sociales, incluidos memes, vídeos, anuncios pagados , publicaciones y noticias falsas (Razvan Vlaicu, 2021), información que podrían influir en la opinión pública

El caso de la empresa Cambridge Analytica demostró el riesgo de utilizar las redes sociales en el ámbito político. Para el ejemplo, esta empresa, sin autorización de millones de usuarios de la red social Facebook, recopiló y utilizó sus datos personales durante las elecciones presidenciales de EE. UU., con el fin de crear perfiles psicológicos detallados y personalizados de los votantes, para luego, utilizarlos para influir en su comportamiento electoral a través de publicidad altamente dirigida. Este caso llevó a un mayor escrutinio de la privacidad de los datos de los usuarios de Facebook y a cambios significativos en la forma en que las empresas de tecnología manejan los datos personales de los usuarios (Péres, 2021).

Para el caso colombiano, diferentes actores políticos pueden utilizar las redes sociales en su beneficio, desde partidos y candidatos que buscan obtener una ventaja en las elecciones hasta grupos de interés que esperan tener un impacto en la agenda política y las decisiones tomadas por el gobierno (Sarmiento, 2018). El uso de las redes sociales en la política en Colombia ha sido foco de numerosas investigaciones y denuncias en los últimos años, generando preocupación entre las organizaciones de la sociedad civil, los medios de comunicación y el público en general (Sarmiento, 2018).

Se proporcionó la lista de potenciales candidatos a las elecciones regionales para la alcaldía de Bogotá (Noticiasrcn, 2023), junto con los enfoques políticos de los distintos partidos y movimientos. Cada candidato posee los conocimientos, talentos y experiencia necesarios para mejorar la ciudad de la ciudad capitalina (Noticiasrcn, 2023). La senadora Angélica Lozano, la diseñadora de moda María Fernanda Rojas y su ex cónyuge Hollman Morris son algunos de los contendientes.

Juan Daniel Oviedo y Gustavo Bolívar han sido elegidos como sujetos de la investigación. Luego de ocupar el cargo de Director General del Departamento Administrativo Nacional de Estadística entre 2018 y 2022, Juan Daniel Oviedo se dio a conocer en la política nacional. Además, tiene un doctorado en economía por la universidad francesa de Toulouse. Oviedo se postula como independiente y sin ningún tipo de alianza desea ser alcalde de Bogotá. (Sofía Cortés y Doria, 2023).

Un político, autor de Colombia y candidato para la alcaldía de Bogotá, se llama Gustavo Bolívar. “Sin senos no hay paraíso” es su novela más conocida. Se dio a conocer como senador oponiéndose al uribismo y apoyando la campaña de Gustavo Petro desde 2018. Tiene un capital electoral entre los jóvenes que salieron a protestar en el 2021. Actualmente, le juega en contra el hecho de que ha sido señalado de promover los desmanes y de que no tiene mucho conocimiento sobre la ciudad. (Cortés , 2023).

¿Cuál es el impacto político de la proliferación o difusión de información de Gustavo Bolívar y Juan Daniel Oviedo en Twitter (ahora llamado “X”) durante su postulación a la alcaldía de Bogotá en 2023 a través de la minería de texto?

Justificación

El proyecto de análisis de minería de textos de Gustavo Bolívar y Juan Daniel Oviedo sobre el impacto político en X/Twitter por medio de la proliferación o difusión de información durante su campaña a la alcaldía de Bogotá en el año 2023 demuestra características innovadoras de suma significación en términos de procesos y resultados esperados, entendiendo estos últimos como el impacto de la investigación. Además, hace uso de dos dominios de investigación que son pertinentes al campo de las ciencias de la información: biblioteca y archivística.

Para empezar, el proyecto está relacionado con el eje de estudio “Organización y gestión de la información y el conocimiento”. Nuestro objetivo es gestionar y organizar el volumen masivo de datos textuales creados en X/Twitter durante la candidatura a la alcaldía de Bogotá en X/Twitter utilizando técnicas de minería de textos. Con el uso de esta metodología innovadora, podemos examinar las ramificaciones políticas de la difusión o proliferación de información en la plataforma y producir modelos útiles que pueden aplicarse para mejorar la toma de decisiones políticas y estratégicas. También promueve las ciencias de la información mediante el uso y la mejora del análisis de datos y los métodos de procesamiento del lenguaje natural en un entorno político y social particular.

En segundo lugar, el proyecto se encuadra en el eje de investigación” Información y conocimiento: usos, consumo y apropiación social”. Para comprender, analizar y explicar los fenómenos que impactan a la sociedad en términos de información y conocimiento, el análisis del impacto político en X/Twitter durante su candidatura a la alcaldía de Bogotá pretende precisamente hacerlo. Para sugerir proyectos, programas y políticas que fomenten el desarrollo constructivo de la sociedad, es importante examinar cómo los usuarios de X/Twitter utilizan, consumen la información política socialmente apropiada. Este método nos ayuda a comprender cómo las redes sociales afectan los procesos políticos y electorales, la participación ciudadana y la toma de decisiones bien informada.

Al analizar el impacto político en X/Twitter utilizando la minería de textos como herramienta, el proyecto ofrece un enfoque novedoso al tema en cuestión. Esto nos permite comprender de una manera más precisa y profunda cómo la difusión de información impacta los procedimientos electorales y la opinión pública a lo largo de la campaña a la alcaldía de Bogotá. El proyecto también produce conocimientos y experiencia que avanzan en el estado del arte en las ciencias de la información y campos asociados. La comprensión de cómo se organiza, gestiona y consume la información política en contextos digitales se amplía mediante la aplicación de herramientas de análisis de datos y procesamiento del lenguaje natural de vanguardia, lo cual es crucial para la era de la información y la comunicación.

En términos de importancia social, la investigación examina cómo la información política sobre X/Twitter afecta la participación de los ciudadanos, la transparencia y la capacidad de tomar decisiones bien informadas. Se pueden desarrollar medidas más efectivas para fomentar una cultura política informada y fomentar la participación ciudadana activa si se comprende mejor cómo se distribuye y consume la información en la plataforma. Además, ayuda en la creación de planes y políticas destinadas a cerrar la brecha en la generación, accesibilidad y apertura de la información política.

Estado del arte

En los últimos años se ha apreciado un aumento considerable en el uso de las redes sociales en el campo de la diplomacia, política y relaciones internacionales, lo que ha permitido mejorar la comunicación entre actores internacionales y ciudadanos (R. Cela et al„ 2019). Estás investigaciones analizan cómo los medios de comunicación tradicionales españoles en sus versiones online utilizan las publicaciones que aparecen en las redes sociales en los temas relacionados con diplomacia, política y relaciones internacionales como fuente primaria de información (Tariq & Zeib, 2023). Por lo tanto, estos documentos utilizaron una muestra de votantes para ofrecer información sobre cómo el uso de las redes sociales junto con otros comportamientos políticos, como el partidismo, la expresión y el interés político, afectan al empoderamiento político (Abdullah et al., 2022). Además, el interés político moderó positivamente la relación entre la expresión y el empoderamiento político. Las características dinámicas de los medios sociales proporcionan un amplio espacio para que la sociedad obtenga información útil, incluida información política (Rizo et al., 2021). Este avance en la difusión de la información debe beneficiar a todos los estratos de la sociedad, incluidos los jóvenes, para aumentar su participación en cuestiones relacionadas con la política nacional. Por lo tanto, la búsqueda de información política se considera más influyente hacia el comportamiento político con la existencia de intercambio de información política entre los jóvenes de Malasia que utilizan los medios sociales (Ure,2016). Los resultados generales del estudio indican el potencial de los medios sociales como principal fuente y medio para que los jóvenes malayos obtengan información política. Estos artículos tienen por objetivo evidenciar la importancia que tienen las redes sociales en el escenario político actual como herramientas comunicativas fundamentales para la labor del comunicador político, quien debe considerarlas en el diseño y desarrollo de una completa estrategia de comunicación política, es decir, como instrumentos complementarios a los medios de comunicación tradicionales asociados a dicho contexto y a su profesión. (Túñez, 2011) En este sentido, se concluye que las redes sociales son hoy un medio de comunicación trascendental, el cual se debe articular a las maneras tradicionales de hacer política y tener en cuenta necesariamente en esta nueva realidad.

Los estudios actuales tienen como objetivo caracterizar los patrones discursivos de las noticias falsas publicadas en Facebook durante los procesos políticos en México en 2018 (Acosta & Masjuán, 2022), y también identificar dichos patrones discursivos (Ruiz‐Paz et al., 2022). La metodología empleada es cualitativa y se basa en el análisis del discurso hipermedia, además de la revisión bibliográfica documental. Se ha utilizado una muestra de noticias falsas publicadas en Facebook durante los periodos de campaña presidencial en México, que previamente fueron identificadas por sitios de factchecking seleccionados (Beltrán, 2018). El estudio se centra en el uso que los cuatro candidatos a la presidencia de México hicieron de Facebook durante el periodo electoral de 2018 (Londoño, 2023). Los resultados obtenidos demuestran la existencia de diferencias y similitudes en la forma en que los candidatos aprovecharon las posibilidades que ofrece Facebook (Padilla, 2019).

Se utilizan cada vez con mayor frecuencia las redes sociales en campañas electorales. Se pretende identificar y analizar el contenido de publicaciones emitidas por los aspirantes a las alcaldías en campaña electoral en Colombia. Se concluye que el fin propagandístico es la principal función desempeñada por redes sociales en campaña electoral (Gil, 2021). Los artículos van a la comprensión del uso de los medios sociales por parte de las cortes constitucionales y supremas de América Latina (especialmente en Colombia) (Llanos & Weber, 2020). Algunas de estas cortes se han destacado a nivel mundial como precursoras en el uso de tales medios. En cambio, las menos influyentes muestran gran dispersión en torno al nivel de actividad. Asimismo, exploramos de manera preliminar la relación entre el nivel de confianza en los poderes judiciales y la intensidad del uso e influencia de las cortes en las redes (Trejo, 2023). Las redes sociales asentadas en internet plantean opciones, pero sobre todo desafíos, a la política convencional. En este artículo se discute el concepto de red 2.0, se describe el auge de las redes sociales y se apuntan algunas de sus limitaciones, en especial para promover la deliberación de ideas. Hay una fuerte tentación de llevar la comunicación política al terreno electoral. Lo mismo sucede cuando se habla de redes sociales asociadas a los efectos electorales (Riorda, 2017).

Con la revolución televisiva y la llegada de las redes sociales, la comunicación política ha experimentado una gran transformación, tanto en España como en el resto del mundo. TikTok ha sido la última plataforma en irrumpir en el tablero político, mediático y electoral. Estos trabajos exploran el papel que TikTok juega en la comunicación política actual, así como las posibilidades que brinda a la llamada espectacularización y el grado de profesionalización con el que trabajan las distintas formaciones (Fernández, 2022). El uso electoral de esta red social se realiza con una intención cada vez más movilizadora, evidenciada tanto por las temáticas elegidas como, sobre todo, por la finalidad de las publicaciones, el contexto espacial representado y los hashtags empleados (Ríos et al., 2022). La caracterización de los candidatos como líderes de masas constata, asimismo, la personalización del liderazgo de la política que se produce en este medio durante las campañas electorales. En paralelo, se pretende comprobar el nivel de engagement entre líderes y públicos y la respuesta política ante las principales preocupaciones ciudadanas (Curiel & Gordillo, 2020). Los datos revelan la construcción de la comunicación política que cada candidato transmite al elector en la red social Twitter (Parratt Fernández et al., 2021). El uso político de las redes sociales es un campo de investigación bien establecido en los estudios sobre comunicación (Ruiz del Olmo & Bustos Díaz, 2020). Actualmente, Instagram es una de las redes sociales de mayor crecimiento y gracias a la relevancia que concede a la imagen, es una potencial herramienta propagandística para la personalización de la política (Pineda et al., 2020).

Los estudios presentes tienen como objetivo explorar la relación entre las movilizaciones populares y el uso de las redes sociales desde una perspectiva crítica. Para ello, se analiza la cobertura en Twitter del conflicto de la” marea roja” en Chiloé (una isla al sur de Chile) que ocurrió en abril de 2016. Los resultados indican que, en el caso de estudio, el uso de las redes sociales se enfoca principalmente en la difusión de información, en lugar de promover o instruir para desarrollar acciones políticas concretas (Allendes, 2018; Delarbre, 2023). En estos artículos se explora la relación entre las movilizaciones populares y el uso de las redes sociales desde una perspectiva crítica. Los resultados muestran que el uso de las redes sociales, en el caso de estudio, se enfoca principalmente en la difusión de información, en lugar de promover o instruir para desarrollar acciones políticas concretas. Las redes sociales en internet plantean opciones y desafíos para la política convencional. En este sentido, se discute el concepto de red 2.0, se describe el auge de las redes sociales y se mencionan algunas de sus limitaciones, especialmente en cuanto a promover la deliberación de ideas. Lo mismo sucede cuando se habla de redes sociales asociadas a los efectos electorales (Riorda,2017)

Los presentes artículos exploran la relación entre distintos tipos de uso político de las redes sociales y la participación política offline, así como el efecto político‐movilizador diferenciado de las plataformas Facebook, Twitter y WhatsApp en un contexto de elecciones presidenciales en Ecuador (Zumárraga et al, 2014). Se discuten las implicaciones de estos hallazgos en el marco del debate sobre el efecto movilizador de las redes sociales en el grado de activismo político offline. Las redes sociales son reconocidas por su impacto en las decisiones de los usuarios y han sido estudiadas para determinar su incidencia en el ámbito político. En la primera etapa, se aplicó el Modelo de Evaluación de la Comunicación 2.0 en las redes sociales, que desarrolla un análisis cualitativo. De igual forma, se analizó y cuantificó somáticamente las emociones que se transmitieron en las campañas electorales. En la segunda etapa, se codificaron 1.543 publicaciones para identificar la oferta de campaña y la agenda política de los candidatos (‐Benítez et al., 2022). Estos artículos son un primer paso hacia la comprensión del uso de los medios sociales por parte de las cortes constitucionales y supremas de América Latina. Algunas de estas cortes se han destacado a nivel mundial como precursoras en el uso de tales medios. En cambio, las menos influyentes muestran gran dispersión en torno al nivel de actividad. Asimismo, se explora de manera preliminar la relación entre el nivel de confianza en los poderes judiciales y la intensidad del uso e influencia de las cortes en las redes (Llanos & Weber, 2020).

Los estudios actuales tienen como objetivo caracterizar los patrones discursivos de las noticias falsas publicadas en Facebook durante los procesos políticos en Brasil en 2018. Además, se busca identificar los patrones discursivos en las noticias falsas publicadas en Facebook durante los mismos procesos políticos (García Acosta & Masjuán, 2022). El procedimiento se enmarca en la metodología cualitativa y se basa en el análisis del discurso hipermedia, así como en la revisión bibliográfica documental. Se utilizó como muestra las noticias falsas publicadas en Facebook durante los periodos de campaña presidencial en Brasil, y que fueron identificadas como bulos por sitios de fact‐checking previamente seleccionados (Mundim et al., 2023). A partir de los datos del Estudio Electoral Brasileño, se demostró que el uso de Facebook, WhatsApp y YouTube como fuentes de información política casi duplicó las posibilidades de votar por Bolsonaro.

El uso de las redes sociales en las campañas electorales marca el pulso de las estrategias actuales de la comunicación política. El presente estudio analiza el uso de Twitter por parte de las principales líderes políticas argentinas durante la campaña de las elecciones legislativas de medio término de 2017. Los resultados demuestran que las conversaciones en Twitter se centraron en las consignas de campaña, incluyeron información ligada a la dimensión local y no abundan en temáticas relacionadas al género. En un contexto en que los temas ligados a la mujer cobraron relevancia en las agendas política, mediática y pública, este trabajo pretende ir más allá del uso político de Twitter para identificar rasgos particulares de la construcción del liderazgo femenino en las redes sociales en contextos electorales (Zunino et al., 2019). Los artículos profundizan en los modelos de gestión, la propuesta comunicativa y las estrategias de las administraciones públicas para involucrarse con los ciudadanos en las redes sociales, a más de un lustro de la incorporación de los recursos de la web 2.0 en la comunicación oficial de las instituciones de gobierno, a través del estudio de caso comparado de dos entes locales urbanos, Buenos Aires. La diversidad de las propuestas comunicativas observada entre los casos estudiados pone en discusión la definición acerca de las «buenas prácticas sociales», y plantea la necesidad de ahondar en los márgenes reales que poseen las administraciones públicas para el aprovechamiento de las posibilidades de interacción que ofrecen las plataformas interactivas (Ure, 2016).

Estos estudios se enfocan en las elecciones de Trump en la sociedad estadounidense, donde su discurso irreverente y uso antagónico en las redes sociales demostró que la manipulación de la información puede tener un impacto negativo en la sociedad al distorsionar la verdad y engañar a la ciudadanía. Esto puede afectar la toma de decisiones informadas y la confianza en las instituciones democráticas (Lagos, 2021). La ciencia de la información y la bibliotecología juegan un papel fundamental en la lucha contra la manipulación de la información al promover el acceso a fuentes de información confiables y demostrar que la manipulación de estos contenidos puede tener un impacto social al momento de elegir un votante. Los presentes artículos ofrecen un estudio sobre cómo se ha estudiado empíricamente la relación entre política, redes sociales y la manipulación de la información, generando un impacto social hacia los votantes en la última década. Se analiza la naturaleza del objeto de estudio, las nuevas técnicas de análisis y métodos sobre las que se han apoyado las ciencias sociales, las agendas de investigación a las que ha dado lugar y algunos de los dilemas éticos que suscita (Rodríguez & Mendoza, 2021). También se reflexiona sobre los dilemas éticos y debates que plantea el uso de las nuevas técnicas de análisis en las ciencias sociales (González, 2019). El manejo de internet y las redes sociales, especialmente Twitter y Facebook, ha sido señalado como uno de los factores que contribuyó al triunfo de Donald Trump en las elecciones de 2016 en los Estados Unidos (Rodríguez, 2016). Al utilizar técnicas de minería de texto, se pueden identificar patrones, temas y tendencias relevantes en el texto, así como también extraer información específica que pueda ser útil para la investigación o el análisis de la manipulación de la información en el contexto de las elecciones políticas. En un contexto donde las redes sociales y otros medios digitales han aumentado la cantidad y la velocidad de la información que circula, la alfabetización informacional se ha vuelto cada vez más importante para evitar la propagación de información manipulada.

La minería de texto en las redes sociales se ha convertido en una herramienta importante en el análisis del discurso político y la opinión pública. Esta técnica permite a los investigadores examinar grandes cantidades de datos generados por los usuarios de las redes sociales y extraer patrones de comportamiento y tendencias (Pipergias Analytis et al., 2017). En el ámbito político, la minería de texto se ha utilizado para analizar la retórica de los políticos, la percepción del público sobre los temas políticos y la propagación de noticias falsas. En los estudios encontrados, se analizó el discurso político en Twitter durante las elecciones presidenciales de Estados Unidos en 2016. Utilizando técnicas de minería de texto, los autores identificaron patrones de discurso y polarización política en la plataforma (Pipergias Analytis et al., 2017). Este estudio destaca el potencial de la minería de texto para comprender la dinámica política en las redes sociales. Otro ejemplo de la aplicación de la minería de texto en el ámbito político es el análisis del discurso político en Twitter durante las elecciones generales del Reino Unido en 2017(Bastos & Mercea, 2019). Los autores utilizaron técnicas de minería de texto para identificar la presencia de bots en la plataforma y su impacto en la discusión política. Este estudio destaca el potencial de la minería de texto para detectar la manipulación de la opinión pública en las redes sociales (Bastos & Mercea, 2019). Con relación a la ciencia de la información, la minería de texto en las redes sociales se relaciona con la bibliotecología y la archivística en la gestión de grandes volúmenes de información digital. La minería de texto puede utilizarse para identificar temas relevantes y tendencias en las redes sociales, lo que puede ser útil para los bibliotecarios y archivistas en la identificación y selección de material para sus colecciones digitales. Además, la minería de texto puede ayudar a los profesionales de la información a comprender mejor la opinión pública sobre los temas relevantes, lo que puede ser útil en la toma de decisiones y la planificación de servicios.

Objetivos

Objetivo general

Evaluar la calidad de los microdatos recopilados de Twitter para los perfiles de los candidatos Gustavo Bolívar y Juan Daniel Oviedo durante las elecciones para la alcaldía de Bogotá.

Objetivos específicos

  1. Configurar un entorno de investigación reproducible para el análisis de datos, centrándose en mensajes (Tweets) relacionados con los candidatos Gustavo Bolívar y Juan Daniel Oviedo durante las elecciones para la alcaldía de Bogotá.

  2. Caracterizar las herramientas para la extracción de datos “X/Twitter” de Gustavo Bolívar y Juan Daniel Oviedo durante la campaña electoral para la Alcaldía de Bogotá

Marco teórico

Se pueden utilizar varios puntos de vista teóricos para examinar la intrincada dinámica de la explosión de información y su impacto social en Twitter durante una campaña política. Según la teoría de la comunicación política, Twitter es una herramienta crucial para la persuasión y la búsqueda de apoyo, como lo demuestra la naturaleza bidireccional de las conversaciones entre los políticos y el público (Croteau & Hoynes, 2014). La teoría del establecimiento de agenda enfatiza cómo los medios, particularmente Twitter, desempeñan un papel básico en la definición de importantes preocupaciones sociales y brindan a los políticos un foro para establecer agendas y conversaciones particulares (McCombs y Shaw, 1972). La teoría del marco, que enfatiza cómo la información presentada estratégicamente puede afectar la opinión pública, es una herramienta útil en esta situación ya que permite a los políticos usar Twitter para replantear temas e influir en la opinión pública (Entmann, 1993).

Comprender la difusión de información y sus consecuencias sociales es cada vez más fácil con el uso de la minería de textos, una técnica que encuentra patrones y tendencias entre los usuarios de Twitter (Kalra, 2013). También es crucial en este contexto la gobernanza de la información o datos, que se refiere a los procedimientos y directrices que garantizan la correcta administración de los datos en Twitter y mantienen la seguridad y corrección de la información (D’Agostino et al., 2017). Los medios de comunicación son un componente vital de Twitter, difunden información y moldean la opinión pública como un sistema técnico que facilita todas las formas de comunicación (Castro Pérez, 2019). Comprender los comportamientos individuales y grupales en Twitter requiere una comprensión de la opinión pública, que está moldeada por la manipulación política y los medios de comunicación y refleja la inclinación de la sociedad hacia eventos sociales fascinantes (Echeverra, 2014).

Los políticos pueden emplear técnicas como la manipulación política y el scraping para influir en las opiniones de los usuarios en Twitter. Mientras que la manipulación política implica difundir información falsa para ganar apoyo (Desantes et al., 2019), el scraping es un método para obtener datos de acceso público de sitios web que pueden usarse para llamar la atención sobre palabras o imágenes particulares e influir en la percepción del usuario (Sanz, 2018).

La transparencia en la divulgación de resultados y metodología se convierte en un pilar vital para la validez de la investigación cuando se tiene en cuenta la investigación reproducible y la teoría de la replicabilidad, especialmente en un entorno de big data (Reproducibility Academia Lab, 2015; Heppner, 2021). En un contexto donde el volumen de datos puede dificultar la comprensión, la narrativa de datos finalmente aparece como una herramienta crítica para traducir la complejidad de la información en historias que sean comprensibles (SAP Insights, n.f.).

Enfoque metodológico

Este proyecto se guía por una metodología de diseño basada en investigación que se caracteriza por la creación de prototipos continuos. Este enfoque, en línea con el pensamiento de diseño y las epistemologías diseñistas, reconoce el diseño como un conocimiento en red (Jonas, 2004), capaz de incorporar métodos cuantitativos, cualitativos, etnográficos e investigación acción participativa.

La investigación se desarrolla en ciclos de retroalimentación continua, lo que permite ajustar la metodología a medida que avanzamos en el estudio. Los prototipos, concebidos como laboratorios para explorar hipótesis, desempeñan un papel fundamental. No solo actúan como un medio para comunicar resultados, en consonancia con la propuesta de investigación desde el diseño (Leinonen, 2008), sino que también se utilizan como herramientas para habitar y explorar mundos posibles (Luna Cárdenas, 2014).

La metodología de diseño basada en investigación se estructura en varias fases interconectadas:

Imagen representativa de la metodológia

Indagación contextual: Esta fase implica la exploración del contexto sociocultural mediante técnicas etnográficas rápidas y conversaciones formales e informales (Luna, 2023). Utilizando herramientas de minería de textos para examinar grandes volúmenes de datos creados por usuarios de la red social, se llevó a cabo un análisis de calidad de los tweets de X/Twitter durante la campaña electoral.

Diseño participativo: Aquí, se fomenta la colaboración con los interesados a través de talleres y la creación de prototipos ligeros o mentales. El objetivo es formular hipótesis sobre posibles soluciones, incorporando la perspectiva de quienes están directamente involucrados (Luna, 2023). Utilizando técnicas de minería de textos para descubrir patrones y tendencias de comportamiento, generamos y organizamos el volumen masivo de datos textuales creados en X/Twitter durante las candidaturas a la alcaldía de Bogotá en cooperación con las partes interesadas.

Diseño de producto: Durante esta etapa, se lleva a cabo la creación de prototipos tempranos por parte del equipo del proyecto. Aunque se mantenga cierta distancia de los interesados, se fomentan discusiones técnicas especializadas para asegurar la viabilidad del diseño(Luna, 2023). Se crea un entorno reproducible con el fin de almacenar, analizar y organizar los datos encontrados en los perfiles.

Prototipo como hipótesis: En esta fase, los prototipos se presentan a los interesados para su validación. Se destaca la naturaleza hipotética de los prototipos, lo que permite evaluaciones continuas dentro de los límites del proyecto (Luna, 2023). Los resultados de la extracción de textos en X/Twitter se entregaron a las partes interesadas para su aprobación, lo que permitió realizar evaluaciones adicionales dentro de los parámetros del proyecto.

Estas modificaciones demuestran la aplicación única de las fases de la metodología de diseño general del dominio público al estudio de análisis de minería de textos sobre la influencia política en X/Twitter durante la contienda por la alcaldía de Bogotá.

Desplegando un entorno de investigación reproducible

El entorno de investigación reproducible para esta tesis está compuesto de los siguientes elementos:

  1. Scoop
  2. Fossil y ChiselApp:
  3. Glamorous Toolkit y Pharo:
  4. Grafoscopio
    • ExoRepo
    • MiniDocs
  5. WindTerm
  6. Zettlr
  7. Pandoc.
  8. Tectonic
  9. Eisvogel Template
  10. LiteXL
  11. Hypothesis
  12. Publicando reproducible: Como exportamos el documento desde Markdown a HTML y PDF y cómo se hacen con Fossil.

Se crea una sección para cada herramienta y se explica el proceso de instalación. Colocando cómo se instala, desde el gestor (Scoop) y manualmente (lo que hicimos hoy).

Scoop

Scoop es una aplicación de línea de comandos para Windows que facilita la instalación de software al eliminar las ventanas emergentes de permisos y los tutoriales de instalación. Automatiza la instalación de dependencias, realiza las configuraciones necesarias y puede crear configuraciones recurrentes para personalizar el entorno. Es especialmente útil para instalar aplicaciones “portátiles”, pero también funciona con instaladores estándar.

Para su instalación, se puede realizar de dos maneras. La primera es directamente desde la página principal, mientras que la otra se lleva a cabo mediante el siguiente comando:

iwr -useb get.scoop.sh | iex

Scoop se utilizo para instalar todos los software para el entorno reproducible, un gran ejemplo es Pandoc:

Figura 1: Uso de Scoop

Fossil y ChiselApp

Fossil es un sistema de control de versiones (SCM) que rastrea los cambios, el progreso y el desarrollo del proyecto. Destaca por su alta calidad y es muy reconocido por su uso en ChiselApp, una plataforma de alojamiento y lanzamiento de proyectos. Aunque el Fossil SCM se considera un dispositivo de alta calidad, no recibe el crédito que merece en el sector tecnológico.

ChiselApp es una plataforma de alojamiento y lanzamiento de proyectos que ejecuta Fossil SCM como sistema de control de versiones. Permite a los usuarios realizar un seguimiento de los cambios en los archivos, comunicar el progreso y la evolución del trabajo académico y guardar los datos recopilados mediante herramientas de scraping. ChiselApp te permite crear repositorios públicos y privados, lo que facilita el mantenimiento y la colaboración en proyectos académicos.

Para la instalación y sincronización de Fossil se usó los siguientes comandos:

scoop install main/fossil

Glamorous Toolkit y Pharo

Glamorous Toolkit (GT) es un entorno de desarrollo moldeable que ofrece herramientas visuales e interactivas que se pueden utilizar para abordar una variedad de preguntas, incluida la programación, la extracción de datos y la gestión del conocimiento. GT pretende hacer comprensibles los sistemas mediante experimentos adaptados a cada situación. Se implementa utilizando Pharo, un lenguaje de programación dinámico orientado a objetos. Pharo ofrece un entorno interactivo y un sistema de desarrollo integrado, lo que facilita el diseño de aplicaciones complejas. GT y Pharo trabajan juntos para brindar una experiencia de desarrollo única y altamente personalizada.

Grafoscopio

Ahora se instalará Grafoscopio, Grafoscopio es una herramienta interactiva flexible de visualización de datos y documentación. Se utiliza en una variedad de disciplinas, incluida la ciencia abierta, la investigación reproducible. Pero antes de eso debemos instalar Exorepo.

location := FileLocator localDirectory .
(IceRepositoryCreator new 
   location: location;
   remote: (IceGitRemote url: 'https://code.sustrato.red/Offray/ExoRepo.git');
   createRepository)
register.

Metacello new
   repository: 'gitlocal://', location fullName;
   baseline: 'ExoRepo';
   load

ExoRepo es una utilidad que facilita la instalación de repositorios hospedados en infraestructuras de código autónomas. Ahora se instala MiniDocs.

Ahora a descargar MiniDocs que es un sistema para mejorar las capacidades de documentación de Lepiter.

ExoRepo install: 'MiniDocs'.

WindTerm

WindTerm es un programa de terminal diseñado para un rendimiento rápido y eficiente en Windows y WSL (Subsistema de Windows para Linux). Destaca por su capacidad para procesar comandos rápidamente y utilizar una memoria mínima, lo que lo hace perfecto para tareas que necesitan grandes cantidades de texto. WindTerm proporciona transferencias de archivos locales y SFTP rápidas, lo que lo convierte en una opción eficiente para la administración de archivos. También tiene la capacidad de autocompletar credenciales para acelerar el proceso de inicio de sesión, aunque se recomienda su uso en entornos seguros debido a riesgos potenciales de seguridad.

Zettlr

Zettlr es una herramienta de escritura todo en uno que le ayuda a crear publicaciones que incluyen publicaciones de blogs, artículos de revistas, artículos académicos, tesis y libros completos. Incluye gestión de proyectos de redacción, la mejor asistencia para citas, privacidad de datos, conexión con administradores de referencias, exportación flexible y una interfaz de usuario diseñada para brindar eficiencia, velocidad y productividad. Zettlr es un software gratuito y de código abierto que mantiene sus notas en su computadora sin sincronización forzada en la nube ni tarifas ocultas. Además, proteja su privacidad al no rastrear ni experimentar con sus datos. La herramienta se puede adquirir por la pagina oficial de Zettlr.

Pandoc

Pandoc es una aplicación de línea de comandos y una biblioteca Haskell que puede convertir documentos entre varios formatos procesamiento de textos, incluidos Markdown, HTML, LaTeX y Word docx. Pandoc es extremadamente flexible y modular, por lo que los usuarios pueden agregar rápidamente formatos de entrada y salida adicionales. También puede crear documentos separados o fragmentos y generar archivos PDF desde LaTeX, ConTeXt, roff ms o HTML como formatos intermedios.

Para su instalación, se puede realizar de dos maneras. La primera es directamente desde la página principal, mientras que la otra, se lleva a cabo mediante el siguiente comando:

scoop install pandoc

Tectonic

Un motor de composición de documentos basado en TeX/LaTeX llamado Tectonic facilita la creación de textos que sean rigurosamente científicos y tipográficamente precisos. La carga automática de archivos de soporte, la producción de documentos reproducibles, la lógica de creación inteligente, la integración de GitHub Actions y la distribución de licencias MIT son algunas de las características importantes.

Para su instalación se lleva a cabo mediante el siguiente comando:

scoop install main/tectonic

Eisvogel Template

La plantilla Eisvogel LaTeX está diseñada para utilizar Pandoc para convertir archivos Markdown a PDF o LaTeX. Se concentra especialmente en la redacción de ejercicios y apuntes del curso, con especial atención a la informática. La plantilla tiene una serie de características, como soporte para resaltado de sintaxis en bloques de código, incluyen imágenes de fondo y personalización de la página de título. También brinda oportunidades para manipular la apariencia del documento final a través de variables personalizadas. Junto con Pandoc y LaTeX, la plantilla Eisvogel se puede descargar e instalar. También se puede acceder a él a través de una imagen de Docker que contiene Pandoc, LaTeX y otros archivos necesarios.

Para su instalación se lleva a cabo mediante de su paginá oficial de descargar y siguiendo sus parámetros para su instalación.

Figura 1: Eisvogel Templane

LiteXL

Lite XL es un editor de texto liviano construido principalmente en Lua y diseñado para ser funcional, estéticamente agradable, pequeño y rápido. Permite la personalización mediante complementos y temas de color, que pueden cambiarse fácilmente modificando el módulo de usuario. Para su instalación se necesita ejecutar el siguiente comando:

scoop install lite-xl

Interfaz de LiteXL:

Figura 1: Eisvogel Templane

Hypothesis

Hypothesis es una herramienta que permite a los usuarios anotar, resaltar y etiquetar páginas web y documentos PDF de forma colaborativa. Facilita la discusión, la interacción social, la organización de la investigación y la adquisición de notas personales sobre este tipo de contenidos. La hipótesis garantiza la confidencialidad de la información de identificación personal de los usuarios.

Publicación reproducible.

Para crear un entorno de investigación reproducible en una computadora, con sistemas operativos Windows GNU/Linux o MacOS, se instalan en ella los recursos necesarios para construir dicho entorno.

Se inicia por crear una cuenta de usuario en ChiselApp, que permita tener un histórico de todos los archivos que hacen parte de la investigación a través de repositorios de código, en este caso usando Fossil. Para establecer una conexión entre el repositorio remoto y el local, en Windows se optó por instalar en dicho sistema operativo, WindTerm y Fossil. Luego de la instalación, se usó el siguiente comando, desde WindTerm, para sincronizar los repositorios locales y remotos:

 fossil.exe sync https://ArleyVera@chiselapp.com/user/ArleyVera/repository/Tesis

Los prerequisitos para cualquier comando son: que se instale el software que proporciona el comando, en este caso Fossil y que los parámetros estén completos y bien escritos. En este ejemplo, que la frase “sync” esté escrita correctamente y que se proporcione el enlace al repositorio.

Para finalizar la conexión, se le solicitará la contraseña del repositorio.

En caso de que ya haya archivos subidos al repositorio se puede usar el siguiente comando para clonarlo:

fossil.exe clone https://chiselapp.com/user/ArleyVera/repository/Tesis

Este repositorio se hace seguimiento de los cambios, el progreso y el desarrollo del trabajo universitario. Además, se puede compartir el trabajo con otros usuarios del repositorio con una serie de permisos. Se estableció dos repositorios, uno privado y otro público. Publicando el progreso del trabajo final en el repositorio público, mientras que todos los datos recopilados mediante de las herramientas de Scraping se almacenan en el repositorio privado.

Se mostrará la interfaz de Chiselapp y sus funciones principales para la elaboración del trabajo final:

Figura 20: Repositorio publico
  1. La “Línea de tiempo” muestra los cambios realizados en los archivos.
  2. Todas las carpetas y archivos asociados con el repositorio se pueden encontrar en la sección “Files”.
  3. Esta sección muestra la línea de tiempo de las modificaciones de archivos.

Al hacer clic en el enlace junto a la opción “Check in”, aparecerá una nueva interfaz con todos los datos e información actualizados. Además, se podrá comparar visualmente dónde estará la versión actualizada del mismo archivo con su versión anterior para ver los cambios realizados.

Figura 21: Repositorio publico
  1. Linea del tiempo de archivo seleccionado.
  2. Versión anterior de archivo y resaltando cual característica fue cambiada.
  3. Versión de archivo actualizando resaltando la característica cambiada.

Es fundamental señalar que el uso de repositorios públicos y privados nos proporciona un enfoque integral para la gestión de datos y trabajo, que es necesario para garantizar la transparencia y reproducibilidad del estudio. Además, al publicar el trabajo en un repositorio público, contribuimos al intercambio de conocimiento y facilitamos la colaboración con otros académicos interesados en el campo de estudio. Para fusionar prosa con historias de datos, el documento de Google Docs se transformó a Markdown. Markdown es un lenguaje de marcado simple y comprensible que permite formatear texto de manera liviana. No sólo facilita la presentación de la información, sino que también ayuda a mejorar estéticamente el contenido del trabajo de grado. La conversión a Markdown permite integrar códigos de prueba para la recopilación y recuperación de datos mediante código o comandos. Esto es fundamental para la investigación, ya que permite automatizar operaciones y preservar un registro organizado de los procesos. Al mismo tiempo, Markdown hace que los datos y los resultados sean más atractivos y sencillos, lo que facilita la comprensión tanto para los académicos como para las personas interesadas en el trabajo.

Se utilizó Zettlr para dividir el trabajo en tres partes después de convertir el contenido del trabajo de grado a Markdown. Zettlr es un editor de texto gratuito y de código abierto que admite el formato Markdown y se adapta a varios sistemas de productividad como PARA, GTD y Zettelkasten. Permite el desarrollo de archivos de texto interconectados con enlaces internos y externos, formatos, tablas, gráficos, HTML y otras características sin necesidad de un proveedor. Zettlr le permite exportar fácilmente a muchos formatos, como PDF y HTML, así como ingresar caracteres especiales y texto automático. Puede utilizarse para ejecutar enfoques de productividad como Zettelkasten, PARA y GTD. Sin embargo, tiene ciertas limitaciones, como la falta de conexiones a puntos específicos de los documentos, la falta de una versión móvil, la falta de transclusión, la falta de un lector gráfico y la imposibilidad de generar HTML.

La interfaz de Zettlr continúa enfatizando el formato Markdown, así como la funcionalidad principal de la herramienta, que incluye guardar, abrir y modificar archivos.

Figura 1: Zet

Interfaz Zttlr:

  1. Opciones guardar, exportar, importar y abrir archivos
  2. Herramientas como insertar imagenes por medio de un comando
  3. Se te permite abrir varios archivos y modificarlos a la vez
  4. Se permite modificar los archivos directamente

El trabajo se divide en tres partes:

“a-apertura” : Contiene la sección metodológica completa del trabajo de pregrado, incluyendo la introducción, estado del arte, objetivos y enfoque metodológico.

b-desarrollo”: Esta sección contiene información sobre herramientas de raspado y comparaciones. También se incluye una evaluación de la calidad de los datos del scrap y su correspondiente narrativa de datos. También menciona las aplicaciones y herramientas que se emplearon para lograr los resultados deseados.

“c-cierre”: Esta sección cubre los resultados, conclusiones y bibliografía del trabajo de pregrado.

Luego de la separación de los contenidos, se realizó un examen exhaustivo para encontrar fallas, como problemas de escritura y espacios adicionales, y organizar los contenidos de manera significativa. Luego, las tres partes se combinaron en un archivo PDF para poder visualizar el resultado y el contenido del trabajo de grado.

Luego se utilizó WindTerm para transferir los archivos al repositorio público, facilitando y agilizando dicho proceso. WindTerm es un software de terminal que se ejecuta de forma rápida y eficiente en entornos Windows y WSL (Subsistema de Windows para Linux). Se distingue por su capacidad para ejecutar comandos rápidamente y requerir un mínimo de memoria, lo que lo hace perfecto para trabajos que involucran grandes cantidades de texto.

Figura 1: WindTerm
  1. Apartado para escribir los comandos.
  2. Apartado para seleccionar el tipo de terminal necesario.

Luego se puede utilizar LittleXL para acelerar el proceso, ya que Zettlr puede resultar pesado en algunos dispositivos. Si experimenta ralentizaciones u otras preocupaciones especiales, utilice LittleXL, que es una herramienta mucho más ligera y fácil de usar.

Figura 1: Interfaz de LittleXL

Luego se descargó el Glamorous Toolkit y se utilizó para evaluar los datos recuperados. Sin embargo, para lograr este objetivo, es esencial instalar las siguientes herramientas adicionales:

  • Scoop.
  • Grafoscopio.
  • ExoRepo.
  • MiniDocs.

Una vez instalados estos programas, puede comenzar a analizar los datos recuperados. Una vez que se complete el escaneo, siga los pasos a continuación para obtener la página que contiene la información o las instrucciones utilizadas para el escaneo.

Figura 1: Glamorous Toolkit
  1. Cliquear el botón de inspector de la página que está en la mitad de la misma.
  2. Arrastrar en handler desde el borde inferior de la página hacia arriba de modo que aparezca el playground de la página que está en 3.
  3. Escribir en el playground de la página “self asMarkdownFile”. Eso producirá el archivo que está en 4, dentro de la subcarpeta Documentos/lepiter
  4. Copiar el archivo que aparece en 4 a tu repositorio en la subcarpeta prototipos.

Después de tener todos los archivos con su respectiva información correspondiente se debe usar el siguiente comando para unificar los archivos y crear uno solo en formato MD:

pandoc a-apertura.md b-desarrollo.md ../prototipos/explorador-de-datos--7nfst.md c-cierre.md d-apendices.md -o tesis-pregrado.html --template=../plantillas/easy_template.html --toc Para adicionar o actualizar el PDF de La tesis, en la carpeta raíz del repositorio ejecutamos:

fossil.exe uv add capitulos/tesis-pregrado.pdf
Figura 1: Uso de los comandos

Para sincronizarlo con la versión remota hacemos:

fossil.exe uv sync -v
Figura 1: Uso de los comandos

Cuando este soncronizado se usa este comando para unificar los archivos en fromato MD y pasarlo o convertirlo en PDF:

pandoc a-apertura.md b-desarrollo.md ../prototipos/explorador-de-datos--7nfst.md  
 c-cierre.md d-apendices.md -o tesis-pregrado.pdf --template eisvogel --pdf-engine=tectonic --toc -V lang=es-CO

Este comando va a unificar a todos los archivos nombrados y los convertirá en un archivo PDF, usando las herramientas Tectonic y Eisvogel Template.

Figura 1: Uso de los comandos

Después se usa este comando para añadir el archivo al repositorio:

 fossil.exe add .\trabajo-grado.md 

Y por último se usa este comando para publicar el archivo añadido al repositorio:

fossil.exe commit -m "Nombre que desees"  

Figura 1: Uso de los comandos

Adquisición de datos: Herramientas de Scraping

En la investigación se utilizarán varias herramientas de scraping, que son programas o aplicaciones informáticos creados para recopilar datos de fuentes de Internet (en este caso, plataformas de redes sociales como Twitter). Recopilar información pertinente sobre las candidaturas de Gustavo Bolvar y Juan Daniel Oviedo a la alcaldía de Bogotá en X/Twitter es el objetivo principal de esta fase. Se elegirán cuidadosamente las herramientas de scraping adecuadas para los propósitos a fin de adquirir los datos. Estos programas extraerán datos de cuentas de Twitter, tweets, seguidores y cualquier otro dato pertinente relacionado con las elecciones.

Después de recopilar los datos, realizaremos una evaluación exhaustiva de su calidad. Esto implica confirmar la exactitud, coherencia y confiabilidad de los datos extraídos. Para garantizar que las conclusiones sean sólidas. Compararemos en profundidad las herramientas. Es necesario analizar cómo funciona y sopesar sus ventajas e inconvenientes. Aprenderemos cómo funciona cada herramienta en términos de velocidad, capacidad de recopilar datos en tiempo real y capacidad de superar cualquier limitación potencial de la plataforma de redes sociales. Una vez obtenidos los datos pasaremos a su transformación. Para un análisis más sencillo, esto incluye limpiar y organizar los datos. Luego, escribimos historias con componentes tanto escritos como visuales. Estas narrativas permitirán representar eficazmente los hechos y ayudar a una mejor comprensión de los resultados.

La fase final de la investigación será el análisis del discurso. En esta sección, analizaremos los contenidos recopilados para encontrar patrones, tendencias y mensajes importantes relacionados con las campañas de Twitter de Gustavo Bolívar y Juan Daniel Oviedo. Este análisis nos ayudará a comprender mejor cómo se comparte la información en la plataforma y cómo afecta a la opinión pública y las decisiones de los ciudadanos. También nos brindará información útil sobre cómo se distribuye la información en el sitio.

Apify

Apify es una plataforma flexible que proporciona herramientas para realizar operaciones de web scraping de forma eficaz y automática. "Twitter scraper" es uno de los muchos servicios que ofrece, que permite a los usuarios extraer automáticamente datos importantes de ésta red social. Esto es particularmente útil para investigaciones, análisis de mercado y seguimiento de las tendencias de Twitter. Los usuarios del "Scraper para Twitter" de Apify pueden configurar parámetros particulares, incluidos términos de búsqueda, filtros de tiempo, propiedades de tweets e individuos específicos. El scraper se encarga de gestionar las llamadas a la API de Twitter una vez establecidos estos parámetros, recopilar los datos deseados y presentarlos de forma útil y estructurada. Esta estrategia técnica de Apify, junto con su "scraper para Twitter", ofrece una forma eficaz de automatizar la recogida de datos en Twitter, evitando la necesidad de realizar este procedimiento manualmente. Apify agiliza el proceso de obtención de datos útiles de Twitter y los pone en manos de quienes tienen mayor conocimiento técnico al ofrecer una interfaz fácil de usar para personalizar y administrar la configuración de scraping.

A través de los enlaces mencionados en los tweets o los perfiles de las personas que estás viendo, Apify te permite revelar los detalles de los tweets. Pero existe una gran diferencia entre los modelos gratuitos y de pago. Por ejemplo, sería posible especificar fechas precisas o crear un motor de búsqueda personalizado de tweets utilizando un lenguaje de programación. Sin requerir el uso de una API, la plataforma ofrece datos sobre las características clave de los tweets, con:

  • Cantidad de me gustas.
  • ReTweets.
  • Favoritos o guardados.
  • Cantidad de comentarios.
  • Cantidad de visitas.
  • Enlace URL.
  • Fecha y origen del Tweet.
  • Descargar los datos.

La interfaz de Twitter Scrapper luce de la siguiente manera:

Figura 1: Captura Apify

En la página principal se puede encontrar:

  1. Configurar el perfil de un candidato le permite ingresar los nombres de los candidatos cuyos tweets desea recopilar o enlaces a sus perfiles. Al hacerlo, podrá recopilar datos pertinentes y concentrar los esfuerzos de recolección en cuentas particulares.
  2. Se puede especificar la cantidad exacta de tweets que desea recopilar o se puede definir un máximo. Debido a su adaptabilidad, puede personalizar la colección para satisfacer sus necesidades, ya sea que esté buscando una descripción general o un grupo de datos en particular.
  3. Tiene la opción de incluir enlaces a tweets particulares aquí. Esto es útil si desea recopilar datos precisos de tweets particulares, lo que podría resultar útil para una investigación en profundidad.

Además de eso, se pueden configurar:

Figura 2: Captura Apify
  1. Elección de las propiedades de Scraping: Puede configurar propiedades específicas para su proceso de Scraping de Twitter en esta sección. Incluido: Ubicación del tweet: puede optar por recopilar solo tweets de una región determinada, lo cual es útil para monitorear eventos y tendencias locales. Tipos de tweets: puede optar por recopilar solo tipos específicos de tweets, como aquellos que son originales, retuiteados, mencionados o que contienen un hashtag o término en particular. Esto le permite concentrarse en extraer contenido particular. Incluya las URL exactas de los tweets que desea incluir en su colección seleccionando esta opción. Esto es útil para adquirir información precisa y contextual.
  2. Configuración para opciones avanzadas: Puede cambiar los siguientes parámetros en la sección de opciones avanzadas: Se debe especificar la versión de la página de Twitter que desea utilizar para el scraping, ya que las páginas web pueden cambiar con el tiempo. Puede controlar durante cuánto tiempo la herramienta de raspado recopiló la información. Esto es útil para gestionar la duración del proceso y evitar retrasos innecesariamente largos. Límite en la recopilación de datos: puede poner un límite a los datos que desea recopilar, lo cual es útil para evitar la descarga de grandes cantidades de datos. Asignación de memoria: debido a que puede afectar la rapidez con la que su sistema descarga datos, es crucial definir cuánta memoria desea dedicar a esta tarea.
  3. Comience a recolectar: Simplemente elija "Iniciar" para iniciar el proceso de recopilación después de seleccionar todas las propiedades y opciones según sus especificaciones. El programa ahora comenzará a funcionar de acuerdo con sus comandos y recopilar datos de Twitter de acuerdo con la configuración que haya definido.

Se proporcionarán detalles importantes sobre el procedimiento de recopilación de datos de búsqueda y tweets en la nueva parte que será visible en la parte inferior de la página de recopilación de datos del usuario de Prefin, incluida la siguiente información:

Figura 3: Captura Apify
  1. La cantidad total de tweets recopilados exitosamente durante el procedimiento se muestra a continuación en Resultados o Número de tweets recopilados. Esto le ayudará a comprender cuántos datos ha recopilado.
  2. Fuente de la encuesta: Al indicar la fuente de la encuesta en este campo, será posible rastrear el origen o el objetivo de la recopilación de datos.
  3. Fecha y hora en que se iniciará el proceso de recogida de datos: Se le notificará cuando lo haga. Esto es importante para el seguimiento temporal y de registro de la operación.
  4. La cantidad de tiempo necesaria para finalizar la recopilación de datos se mostrará según el tiempo utilizado para recopilar la información. Esto es crucial para determinar la efectividad y duración de la tarea.
  5. Memoria utilizada para la recopilación: con esta información, se puede determinar cuánta memoria se necesita para completar la recopilación. Esto es crucial para la gestión de recursos y para garantizar que haya suficiente RAM disponible para las próximas tareas.

Al final de la sección se proporciona una recopilación de tweets sobre los dos candidatos, clasificados del más relevante al menos importante. Para cada tweet de esta lista, se mostrará la siguiente información detallada:

Figura 4: Captura Apify
  1. El texto completo del tweet, que puede incluir enlaces, comentarios, opiniones u otra información publicada por el usuario.
  2. Imagen (si está disponible): Si el tweet tiene una imagen asociada, se mostrará para que puedas ver visualmente el contenido multimedia compartido.
  3. Una medida de la actividad y el discurso que rodea a un tweet es la cantidad de comentarios o respuestas que ha recibido de otros usuarios.
  4. Retweets: Cuántas veces un tweet fue compartido por otros usuarios, indicando qué tan ampliamente fue visto en la plataforma.
  5. Número de Me gusta: la cantidad de veces que los usuarios hicieron clic en el botón "Me gusta" junto a un tweet para mostrar su apoyo y popularidad.
  6. Si el sitio web ofrece información sobre el número de visitantes o vistas de tweets, esta información podría estar presente. Esto podría resultar útil para evaluar la visibilidad del contenido.
  7. URL: el enlace al tweet en particular, que le permite acceder a él directamente en Twitter y obtener más información sobre él o interactuar con él.
  8. La hora y fecha precisas en que se publicó el tuit permiten contextualizar la información a la luz de su naturaleza temporal.

Se puede encontrar la siguiente información en la sección "All Fields", que proporciona información adicional y completa sobre los tweets recopilados:

Figura 5: Captura Apify
  1. ID: Código o número de identificación especial del tweet. Cada tweet tiene un número de identificación único que puede usarse para rastrear con precisión las entradas.
  2. hashtag count: El número total de hashtags utilizados en el tweet. En las redes sociales, los hashtags (palabras clave seguidas del signo "#") se utilizan para agrupar y etiquetar material.
  3. Exportación de datos: Simplemente haga clic en el botón "Exportar" en la parte inferior de la página para obtener los datos recopilados. Con el uso de esta herramienta, puede guardar datos en un archivo o formato particular, como un archivo Excel o CSV, para un estudio o referencia posterior.

Tiene una variedad de opciones adaptables en la página para personalizar la exportación de datos, de modo que puede ajustar la descarga del tweet según sus necesidades:

Figura 6: Captura Apify
  1. Seleccione la opción Formato de exportación para especificar el tipo de archivo para la descarga de datos. Las opciones más utilizadas son Excel, JSON, CSV, XML, tablas HTML, RSS y JSONL. Podrás seleccionar el formato que mejor se adapte a tu proceso de análisis o visualización de datos porque cada uno tiene sus propios beneficios y aplicaciones.
  2. Campos seleccionados (Selected Fields): Puedes definir uno o más requisitos que deben cumplir los tweets para poder ser incluidos en la exportación en esta sección. Esto hace posible filtrar los tweets que no se ajustan a criterios particulares y descargar solo aquellos que sí lo hacen, lo cual es útil para técnicas de análisis más precisas.
  3. Omitir campos: puede establecer criterios particulares que los tweets no deben cumplir para ser omitidos de la exportación en la sección "Omitir campos". Esto hace posible eliminar los tweets que no cumplen con requisitos particulares, lo cual es útil para deshacerse de datos innecesarios o innecesarios del conjunto de datos exportados.

Twitter Scraper

El término "Twitter Scraper" se refiere a un programa que extrae mecánicamente archivos y tweets de Twitter. Un "Twitter Scraper" es una extensión creada específicamente para recopilar información de perfil de Twitter y tweets directamente desde el navegador Chrome, en el contexto de una extensión de Google Chrome.

Interacción con Twitter: La extensión se puede activar automáticamente cuando visita una página de perfil de Twitter o accede a Twitter. Una extensión simula acciones que normalmente realizamos manualmente, como hacer clic en enlaces o desplazarse a la página, mediante el uso de tecnologías automáticas.

Extracción de datos: Cuando la extensión está en una página de perfil o en los resultados de búsqueda, puede buscar y extraer información pertinente como nombres de usuario, nombres reales, biografías, imágenes de perfil, números de suscriptores, tweets, etc. Estos datos se recopilan y guardan localmente o se procesan según las preferencias del usuario.

Almacenamiento y presentación: Los datos extraídos se pueden guardar de forma legible en la extensión o en la PC del usuario. Algunas extensiones también pueden proporcionar los datos recopilados de forma ordenada y comprensible en la interfaz del navegador.

Cambios en la estructura del sitio: Las extensiones de scraping están determinadas por la estructura y el diseño de la página web. Si el diseño o la estructura de Twitter cambian, la extensión puede dejar de funcionar correctamente hasta que se actualiza para reflejar los cambios.

Para que la extensión funcione correctamente en Google Chrome, primero debe darle permiso para conectarse. Los siguientes pasos necesarios:

Figura 7: Captura Twitter Scraper
  1. Escriba su nombre de usuario o perfil aquí: En la barra de búsqueda de la extensión, escriba el nombre de usuario o ID del perfil que desea buscar. Verifique que este inicio de sesión esté activo y sea legítimo en la plataforma que está utilizando.
  2. Indique una duración: Díganos cuánto tiempo planea dedicar a recopilar información. Su recopilación de datos será más exhaustiva porque abarca un período de tiempo mayor si invierte más tiempo en ella. Configure esta opción según sea necesario.
  3. Contiene el año y mes de inicio: Establezca el año y el mes desde el que la extensión debe comenzar a recopilar datos. La recogida se realizará entre la fecha de inicio que elijas y el día actual. Los valores que especifique para el período de tiempo que desea estudiar deben ser precisos.
  4. Seleccione "Scrape Now": Para iniciar el proceso de recopilación de datos, seleccione la opción "Scrape Now" después de personalizar todos los parámetros según sus preferencias. A partir de este momento, la extensión comenzará a recopilar datos del perfil del usuario de acuerdo con las pautas.

La extensión mostrará al usuario una nueva página con amplia información sobre los tweets de ese perfil una vez finalizada la recopilación de datos. Puede encontrar los siguientes detalles en esta página:

Figura 8: Twitter Scraper
  1. Información básica del perfil de usuario: esta parte brindará la información fundamental del perfil de un usuario, como el nombre de usuario, la descripción de la cuenta, la fecha de creación y otra información pertinente.
  2. Número de Me gusta: el perfil del usuario indicará el número total de Me gusta que ha acumulado en todos sus tweets. Esto ilustra lo apreciados y aceptados que son tus productos.
  3. Número de "Retweets": Esto mostrará cuántas veces los tweets del perfil han sido retuiteados por otros usuarios, mostrando cuán leídas y relevantes son tus publicaciones.
  4. Número de comentarios o respuestas: muestra el número total de comentarios o respuestas producidas por los tweets del perfil, mostrando la discusión y actividad en torno a sus publicaciones.
  5. Lista de tweets con más interacciones: esta sección muestra una lista de cada tweet que ha recibido más me gusta, tweets y comentarios. Luego podrá ver qué tweets son los más importantes y populares en el perfil.
  6. Lista de tipos de tweets: los tweets se agrupan según el tipo de contenido que contienen, incluidos texto, fotos y videos. Puedes ver cómo la persona usa varios tipos de contenido en su perfil al hacer esto.

Encontrará herramientas destinadas a facilitar la búsqueda y clasificación de tweets en la sección “Listas de publicaciones”. Estos recursos incluyen:

Figura 9: Twitter Scraper
  1. Búsqueda avanzada: Esta función facilita la búsqueda de contenido. Puedes buscar por tipo de contenido o usar palabras clave específicas relacionadas con el tweet que estás buscando.
  2. Detalles de la publicación: Puede encontrar detalles detallados sobre cada tweet aquí. La fecha de publicación, el tipo de contenido del tweet, el formato del tweet (por ejemplo, texto, imagen, enlace, etc.), la cantidad de me gusta, retweets, reacciones y comentarios recibidos se encuentran entre esta información
  3. Descarga de datos: También puede usar el proceso de “scraping” para descargar los datos obtenidos en formato CSV. Esto le permite realizar un seguimiento y análisis posteriores de los tweets.

Squawker

FOSS, que en inglés significa “Free and Open Source Software”, es una plataforma que destaca por ser una biblioteca de software instalable. Antes de poder acceder a la aplicación "Squawker", primero debes descargar otra aplicación llamada "F-Droid". software; gratis. Su principal objetivo es brindar a los usuarios de Android acceso a un repositorio de aplicaciones móviles de código abierto y gratuito para que puedan navegar, descargar y usar. A diferencia de las tiendas de aplicaciones convencionales, F-Droid promueve software que se adhiere a los principios del software libre, lo que permite a los usuarios utilizar, estudiar, cambiar y redistribuir el código fuente de los programas.

El cerebro de F-Droid está contenido en el cliente, una aplicación de Android que instalas y utilizas para acceder a tu colección como un portal. El cliente F-Droid permite a los usuarios buscar, explorar y seleccionar entre una variedad de programas FOSS. Además, instalar estas aplicaciones directamente en el teléfono inteligente es sencillo y no requiere visitar tiendas especializadas como Google Play Store.

La capacidad del cliente F-Droid para buscar actualizaciones del software instalado desde su repositorio y notificarlas a los usuarios es una característica crucial. Gracias a esto, los usuarios siempre tendrán acceso a la información y la configuración de seguridad más recientes.

Figura 10: Squawker

En la esquina inferior derecha de la pantalla se encontrará un ícono de lupa, simplemente selecciónelo y escriba el nombre del software deseado, en este ejemplo Squawker. El nombre del desarrollador y una imagen o logotipo representativo que lo acompaña aparecerán en la pantalla cuando el programa haya realizado una búsqueda automática en la base de datos de F-Droid. Esto hace que encontrar e identificar el software que desea instalar es bastante sencillo.

Figura 11: Squawker
  1. Opción de búsqueda.
  2. Buscador.
  3. Aplicativo (Squawker).

Al momento de seleccionar la aplicación va a aparecer una nueva interfaz con el contenido general y explícito del aplicativo:

Figura 12: Squawker
  1. Nombre del aplicativo y creador.
  2. Requerimientos o condiciones que se necesita para instalar la aplicación.
  3. Imágenes para mostrar el diseño de la aplicación.
  4. Opción de descarga.

Después de descargar la aplicación y ejecutarla, va aparecer la interfaz o apartado principal de la aplicación donde se encontar todas las opciones disponibles para iniciar la extracción de información o datos de Twitter/X como:

Feed: Al seleccionar esta opción, se le dirigirá al área donde podrá navegar y seguir las actualizaciones de Twitter o la fuente de información necesaria.

Suscripciones: Para recibir notificaciones o actualizaciones pertinentes, puede administrar sus suscripciones a personas, temas o cuentas particulares aquí.

Grupos: Esta opción te permitirá crear varias categorías o información relacionada si el programa permite agrupar elementos en categorías.

Tendencias: Para mantenerse al día con los temas candentes, consulte las tendencias más recientes en Twitter u otra fuente de datos relevante.

Guardado: Si desea conservar o marcar elementos específicos para su uso posterior, puede utilizar esta opción para guardar o marcar elementos relevantes.

Puede encontrar una lista o directorio de perfiles de Twitter/X en la sección "Suscripción". Simplemente haga clic en el ícono de la lupa en la parte superior de la pantalla para encontrar un perfil determinado. Se debe ingresar el nombre de usuario del perfil que desea ver. En tu directorio, el programa localiza automáticamente un perfil con tu foto de perfil, y si es famoso mostrará el signo de verificación correspondiente.

Simplemente haga clic en el símbolo de persona en el lado derecho del perfil para acceder a él. Aparecerán dos opciones "suscribirse" y "agregar al grupo" estarán disponibles. Cuando te suscribes, los tweets de los perfiles que siguen aparecerán en tu feed y podrás navegar por el perfil del usuario.

Figura 13: Squawker
  1. Apartado de Suscripciones.
  2. Catálogo de perfiles.
  3. Opcion de busqueda.
  4. Nombre del perfil de usuario.
  5. Perfil del usuario solicitado.
  6. Apartado de suscripción o añadir a grupo del perfil.
  7. Opción de suscribirse.
  8. Opción para añadir grupo.

Seleccione el perfil que desea revisar para ver información general y específica del usuario. El software automáticamente lo dirige a una nueva interfaz donde puede ver todos los detalles del perfil del usuario. Encontrará varias secciones en este enlace para ayudarle a descubrir contenido. La cantidad de contenido e información disponible aumenta aún más gracias a las opciones de filtro, que también incluyen respuestas y retuits de tweets individuales.

Figura 14: Squawker
  1. Información de perfil de usuario (general y específica).
  2. Apartados para facilitar la búsqueda de un contenido en específico. con una característica en especifica.
  3. Apartado para habilitar la opción de filtros.
  4. Opción para activar los filtros.
  5. Filtros para limitar los Tweets.

Para guardar o compartir el Tweet se selecciona los tres puntos horizontales que se pueden encontrar en la esquina superior derecha del tweet. Al hacer clic en estos tres puntos se abrirá un menú con opciones adicionales relacionadas con ese tweet. Opciones como "Guardar", "Compartir contenido de Tweet", "Compartir Enlaces de Tweet" y "Compartir contenido y enlaces de Tweet" aparecerán cuando presiones los tres puntos. Para guardar el tweet, utilice la opción "Guardar".

Simplemente puedes acceder a un tweet que hayas guardado más tarde. Puedes organizar y categorizar tus tweets guardados en el área de grupos. En esta sección, puedes iniciar tu propio grupo. Puedes crear grupos para tus tweets favoritos, tweets más educativos o cualquier otra categoría que te guste. Simplemente seleccione la opción de "Agregar al grupo" dicha opción que ya mencionamos con anterioridad. Desde allí se puede elegir el grupo en el que desea conservar esos tweets. Esto le facilita modificar sus tweets para adaptarlos a sus intereses y requisitos.

Figura 15: Squawker
  1. Apartado para habilitar las opciones de los Tweets.
  2. Opciones de guardar y compartir del Tweet.
  3. Apartado de grupos.
  4. Opción para crear grupos,

Se mostrará una sección que le permitirá establecer un nuevo grupo una vez que elija "New". Puedes ingresar el nombre que deseas darle al grupo en el campo "Name" en la parte superior. Los perfiles que desea incluir en el grupo se mostrarán en forma de listado en la parte inferior. Una vez que haya terminado, haga clic en "OK" para completar el proceso y crear el grupo.

En el apartado de “Tendencias” se encontrará una lista de hashtags, palabras o temas que actualmente son tendencia en la red social y el símbolo de “+” que aparece en la parte inferior a mano derecha es un filtro para las tendencias.

Figura 16: Squawker
  1. Apartado para nombrar el grupo.
  2. Listado de prefiles de usuarios.
  3. Opción de crear el grupo.
  4. Apartado de Tendencias.
  5. Listado de tendencias.
  6. Opción de Filtros.

Al elegir la opción de filtro, se puede acceder a una sección con filtros basados en la ubicación, lo que simplifica la identificación de patrones particulares en su región. El software lanzará inmediatamente una nueva parte con una lista de ítems adicionales una vez que elijas el lugar y la tendencia que te interesa.

Podrás ubicar todos los medios o publicaciones sobre la tendencia que seleccionaste en la primera sección. En esta sección se puede encontrar una selección de artículos, imágenes y vídeos relacionados con la tendencia en cuestión. Luego puede navegar y profundizar en las discusiones y el contenido creado por otros usuarios que estén interesados en esa tendencia en particular.

Figura 17: Squawker
  1. Filtro por ubicación.
  2. Apartado de tendencia de contenido.
  3. Contenidos o publicaciones relacionado con las tendencias.

En la segunda sesión se encontrará un listado de perfiles de usuarios con la opción de seguir dicho perfil, que estén relacionados con la tendencia seleccionada. En el apartado de “Guardado” se encontrarán todos tweets guardados por el usuario, en la opción Que tiene 3 puntos, ubicado en la parte superior a mano derecha del tweet, habilitar un apartado con varias opciones, “Unsave”, compartir el contenido, compartir enlace y la opción de compartir el contenido del tweet y su enlace.

Figura 18: Squawker
  1. Sección dos.
  2. Listado de usuarios de perfiles.
  3. Apartado de guardado.
  4. Tweets guardados.
  5. Apartado de opciones.
  6. Opcion de configuración.

El usuario es llevado a una nueva interfaz después de elegir la opción de configuración en la aplicación, donde puede elegir entre una variedad de opciones para modificar varias características, incluido el diseño, las funcionalidades y la capacidad de importar y exportar datos. Se ofrecen cinco nuevas opciones para que las examine y modifique en la parte inferior de esta pantalla. "General" es la primera opción y comprende configuraciones relacionadas con la configuración del sistema de la aplicación. Los usuarios pueden personalizar su experiencia de usuario estableciendo preferencias y configuraciones generales aquí.

El usuario puede elegir qué secciones o preguntas quiere ver al iniciar sesión en la aplicación utilizando la sección "Home", que es la siguiente sección. Gracias a esto, tienen más control sobre el material de la página de inicio, lo que también simplifica la personalización de su experiencia.

Debido a que permite a los usuarios alterar la estética visual de la aplicación, la parte "Theme" es una característica con una apariencia visual agradable. Esto implica que los clientes pueden modificar la apariencia estética de la interfaz de la aplicación de acuerdo con sus gustos particulares. La parte "About" de la aplicación contiene detalles cruciales, incluida la versión actual y las licencias relacionadas, así como una ubicación para que usted informe cualquier problema o error que pueda encontrar. Los usuarios que quieran obtener más información sobre el software o ponerse en contacto con el personal de soporte encontrarán útil esta función.

La sección "Datos" ofrece dos alternativas sencillas al final. Los usuarios pueden importar datos desde la memoria de su dispositivo usando la primera opción, lo que simplifica la obtención de información crucial en la aplicación. Los usuarios pueden descargar tweets específicos u otra información utilizando la función de exportación de datos de la segunda opción, que luego pueden guardar o distribuir de varias maneras.

Figura 19: Squawker
  1. Secciones de configuración.
  2. Opciones de configuración.
  3. Opción de importar datos.
  4. Opción de exportar datos.

Serás dirigido a una sección con numerosas opciones y recursos para descargar tus datos cuando elijas la opción "Exportar" en el programa. Hay varias opciones para exportar el tipo de dato o datos sobre el tweet seleccionado como “Export settings”, “Export subscripcions”, Export subscription group”, “Export subscription groups members” y “Export tweets”. Cuando los datos estén preparados para la descarga, aparecerá un icono con un símbolo de disquete en la parte inferior después de haber especificado los componentes o funciones que desea incluir en la descarga de datos.

Al hacer clic en este botón, el programa abrirá una nueva pestaña donde podrá elegir la ubicación de almacenamiento de su dispositivo. Ahora puede elegir la ubicación donde desea guardar el archivo. Se utilizará el formato JSON para almacenar el archivo creado.

Figura 20: Squawker

Tabla de comparación:

Aspecto Apify Twitter Scraper (Extensión de Chrome) Squawker
Tipo de Plataforma Plataforma de web scraping automatizado Extensión de navegador App para Cell Phone (Android)
Funciones Principales Extracción de datos de Twitter de manera automatizada Extracción de datos de Twitter desde el navegador Extracción de datos de Twitter desde la APP
Estrategia de Scraping

Búsqueda:

  • Perfil

  • Hashtag

  • Palabra clave

  • Time para generar una consulta

  • Url

Búsqueda:

  • Perfil

  • Periodo de tiempo

  • Time para generar una consulta

  • Atributo para delimitar fechas o un periodo de tiempo

Búsqueda:

  • Perfil

  • Territorio

Almacenamiento de Datos Se almacenan los datos de la web de la página como un historial No los almacena Se almacena en el apartado de Guardar
Formato de exportación de Datos (Excel, JSON, CSV, XML, HTML Table, RSS, JSONL) CSV J.son
Conocimientos Técnicos No requiere de algún conocimiento técnico, lo único que pide es un correo electrónico (Gmail) para acceder a la página. Requiere autorización y configuración en el navegador No requiere de algún conocimiento técnico
Información Disponible Cantidad de me gusta, Retweets, Favoritos, Comentarios, Visitas, Enlace URL, Fecha y origen del Tweet, Descarga de datos Información de perfil de usuario, Cantidad de "Me gusta," "Retweets," Comentarios, visitas y Listado de tweets con más interacciones Información de perfil de usuario, Cantidad de "Me gusta," "Retweets," Comentarios, visitas y Listado de tweets con más interacción y tendencias
Consideraciones

La aplicación deja de funcionar constantemente

La opción de descargar es difícil de encontrar al inicio

No es muy claro el uso de sus herramientas

Interfaz de Usuario La interfaz puede ser pesada para un usuario que no tenga conocimiento alguno sobre técnicas de Scrap o sobre el sitio web y álabes puede ser poco digerida visualmente para los usuarios debido a tantas opciones o herramientas que muestra la página web La interfaz es intuitiva para el usuario debido a que no tiene muchos apartados y los que tiene son muy claros para usarlos, también la interfaz es muy llamativa y es muy clara para su usabilidad para él usuario. La interfaz es intuitiva pero muy básica, no tiene un diseño llamativo y sus herramientos como de importación, exportación y ajustes de sistemas no son fáciles de encontrar o no son muy claros para usar
Acceso a Datos Adicionales Proporciona información adicional como ID y cantidad de Hashtags Proporciona información básica del perfil y tipos de tweets Proporciona información básica del perfil

——# Análisis de la calidad de los microdatos extraídos

La siguiente narrativa de datos examina la información obtenida a través de la extracción de datos.

El objetivo es evaluar el nivel de detalle proporcionado por diversas técnicas de “scrapping”, específicamente en relación con los tweets, utilizando los metadatos incluidos en cada conjunto de datos extraído.

Prerrequisitos

Instalaremos Data Frame para Pharo

EpMonitor disableDuring: [ 
    Metacello new
      baseline: 'DataFrame';
      repository: 'github://PolyMathOrg/DataFrame/src';
      load ].

El proyecto DataFrame de Pharo proporciona herramienta s para la gestión y el análisis de datos estructurados. Admite operaciones de acceso, modificación, enumeración, aritméticas y estadísticas en colecciones de datos. El paquete Pharo DataFrame ofrece métodos para detectar, eliminar y reemplazar valores nulos en una colección de datos, así como leer y escribir en archivos externos. También le permite agregar y agrupar datos para su análisis. Además, el proyecto incluye un tutorial completo de su API, con ejemplos de cada método, así como instrucciones para leer y escribir archivos CSV, que los científicos de datos suelen utilizar para preservar y distribuir datos tabulares.

Diccionarios Pharo Smalltalk

Los diccionarios Pharo Smalltalk son estructuras de datos que le permite emparejar de forma rápida y eficaz claves distintas con valores coincidentes. Los diccionarios Pharo emplean una tabla hash interna para almacenar entradas y están diseñados para ofrecer acceso rápido a la información. Además, los diccionarios Pharo permiten almacenar en ellos cualquier tipo de datos, incluidas claves y valores. Esto le permite una gran flexibilidad al utilizar Pharo para trabajar con varios tipos y estructuras de datos. Los diccionarios proporcionan una variedad de operaciones fundamentales, incluidos métodos para recorrer entradas del diccionario, además de agregar, eliminar y recuperar elementos. Los diccionarios se utilizan ampliamente en Pharo Smalltalk para una amplia gama de propósitos, incluida la organización de datos, la implementación de algoritmos efectivos y la gestión de asociaciones clave-valor en aplicaciones complejas. Esto se debe a su adaptabilidad y eficiencia.

En este ejemplo, creamos un diccionario llamado dataDensity que simula la densidad de datos para diferentes dimensiones. Comenzamos creando un nuevo diccionario vacío y luego agregamos pares clave-valor al diccionario utilizando el operador at:put:. Cada clave representa una dimensión y cada valor representa la densidad de datos para esa dimensión. Los valores asignados son arbitrarios y se ajustan para ilustrar la densidad de datos para cuatro dimensiones (‘Dimensión1’, ‘Dimensión2’, ‘Dimensión3’ y ‘Dimensión4’). Una vez que hemos poblado el diccionario con estos valores, lo retornamos. En resumen, este ejemplo demuestra cómo usar un diccionario en Pharo Smalltalk para organizar datos y acceder a ellos mediante claves asociadas con valores específicos. Los diccionarios son herramientas valiosas para la gestión eficiente de datos en aplicaciones

| dataDensity |
dataDensity := Dictionary new.

dataDensity 
    at: 'Juan' put: 10;
    at: 'Daniela' put: 15;
    at: 'Felipe' put: 80;
    at: 'Marcela' put: 20.

^ dataDensity

Apify

El proceso de extracción de datos se utilizo la herramienta de Apify, seguido del análisis de los datos resultantes utilizando GT/Pharo y DataFrame, una sólida herramienta de análisis y procesamiento de datos para lenguajes informáticos como Smalltalk. Evaluaremos varias características de los datos obtenidos, como la dimensionalidad de los tweets, la densidad de los datos y la frecuencia de los hashtags, para obtener información valiosa sobre la calidad de los microdatos.

Tomemos el directorio donde se encuentra almacenado el archivo exportado de Apify y procedamos a cargarlo en GT/Pharo para su análisis

dataFolder := FileLocator documents / 'C:\Users\felip\Desktop\tesis-privado\TesisPrivado\datos'.
apifyDataRaw := dataFolder / 'Apify/dataset_twitter-scraper_2023-10-02_01-58-49-766.csv'.
apifyData := DataFrame readFromCsv: apifyDataRaw
Catalogo de datos Scrapeados

Como vemos se han recopilado 180 Tweets o trinos, mostrando cada Tweet sus 139 Items y 139 tamaños.

Cuando eliges un tweet, revelará todos sus datos descriptivos, incluidos:

  1. Tweet de interés
  2. Sección para búsquedas de datos de tweets
  3. La fecha y hora de creación del tweet.
  4. Conteo de “me gusta”
  5. La cantidad y sustancia de los hashtags utilizados en un tweet.
  6. ID de Twitter

  1. Cantidad de Retweets
  2. Url del tweet
  3. Información de sobre el perfil de usuario de donde esta el tweet
apifyTweet := apifyData first.
Primer Tweet

Este comando especifica el primer tweet de la colección de tweets recopilados y muestra sus atributos, como por ejemplo:

  1. La fecha y hora de creación del tweet.
  2. Conteo de “me gusta”
  3. Material textual
  4. El número y nombre de los hashtags.
  5. Microdatos y datos de tweets

Empezaremos por medir la dimensionalidad del trino, es decir cuántos datos de distintas características, o dimensiones, se encuentran en cada trino.

dimensions := (apifyTweet keys collect: [:key | (key splitOn: $/) first ]) asSet asOrderedCollection
Dimensionalidad
dimensionality := dimensions size
Cantidad de características

Vamos a mirar la densidad de cada dato. Es decir, cuantos valores posibles hay agrupados en dicho dato, para todas las dimensiones antes halladas.

dataDensity := Dictionary new.
dimensions collect: [:dimension | | dataSet |
    dataSet := apifyTweet keys select: [:key | key beginsWith: dimension].
    dataDensity
        at: dimension
        put: dataSet size.
].
dataDensity
Diccionario de datos

Los siguientes comandos crean un diccionario que agrupa las características de un tweet (Keys), indica la cantidad de datos disponibles en cada uno. Es vital señalar que este proceso permite una clasificación sistemática de los elementos clave incluidos en los tweets, lo que facilita un mayor análisis y extracción de información significativa.Con estos comandos se creo un diccionario en donde clasifica las caracteristicas principales del tweet “Keys” y muestra la cantidad de datos que s epueden encontra en dicha caracteristica .

(apifyTweet keys select: [:key | key beginsWith: (dimensions at: 14)]) size
Key 14

Se selecciona la densidad de la característica número 14, “hashtags”. Este paso implica calcular la frecuencia de aparición de hashtags en los tweets analizados

hashtagKeys := apifyTweet keys select: [:key | key  beginsWith: 'hashtag' ].
Key hashtags
hashtagKeys size
Size de hashtag

Muestra la densidad del Key “hashtag” que son 6.

Gráfico representativo de los datos

En este estudio, utilizamos la herramienta Apify para recopilar datos de Twitter, que posteriormente analizamos con GT/Pharo. Investigamos la dimensionalidad de los tweets y utilizamos un histograma para evaluar la densidad de datos de cada característica. Basándonos en el histograma creado, destacamos el atributo “quoted_tweet”, que tenía una densidad de datos significativamente mayor que las otras propiedades.

TwitterScrapper

En este estudio, utilizamos la aplicación TwitterScraper para examinar y recopilar datos completos de Twitter, como interacciones de usuarios, fechas de creación de tweets y contenido textual de tweets.

Centrándonos en las características incluidas en los tweets recopilados, reconocimos la relevancia del contenido del tweet, representado por la propiedad “Contenido”, que tenía una mayor densidad de datos que los otros atributos.

dataFolder := FileLocator documents / 'C:\Users\felip\Desktop\tesis-privado\TesisPrivado\datos'.
Origen de los datos Scrapeados

Este comando define los directorios en los que se almacenan los datos recuperados.

twitterScraperDataRaw := dataFolder / 'TwitterScraper\GustavoBolivar.csv'.
twitterScraperDataFrame := DataFrame readFromCsv: twitterScraperDataRaw.
Listado de datos Scrapeados

Este comando mostrará todos los tweets recopilados del candidato (Gustavo Bolivar) a la alcaldía de Bogotá.

Caracteristicas del tweet seleccionado

Este comando tambien se encarga de recopilar y mostrar datos precisos sobre un tweet seleccionado, creando una nueva pestaña con datos importantes como la fecha de creación, la cantidad de me gusta, retweets y comentarios, el tipo de tweet y su texto. Al organizar la información principal de un tweet en un marco fácil de analizar, este enfoque agiliza la investigación.

twitterScraperTweet := twitterScraperDataFrame first.
Primer Tweet seleccionado
dimensions := (twitterScraperTweet keys collect: [:key | (key splitOn: $/) first ]) asSet asOrderedCollection

El comando recopila todas las características “Keys”

dataDensity := dimensions size
dataDensity := Dictionary new.
dimensions collect: [:dimension | | dataSet |
    dataSet := twitterScraperTweet keys select: [:key | key beginsWith: dimension].
    dataDensity
        at: dimension
        put: dataSet size.
].
dataDensity
Diccionario

Los siguientes comandos crean un diccionario que agrupa las características de un tweet (Keys), indica la cantidad de datos disponibles en cada uno. Es vital señalar que este proceso permite una clasificación sistemática de los elementos clave incluidos en los tweets, lo que facilita un mayor análisis y extracción de información significativa.Con estos comandos se creo un diccionario en donde clasifica las caracteristicas principales del tweet “Keys” y muestra la cantidad de datos que s epueden encontra en dicha caracteristica .

(twitterScraperTweet  keys select: [:key | key beginsWith: (dimensions at: 7)]) size

hashtagKeys := twitterScraperTweet keys select: [:key | key  beginsWith: 'Content' ].

hashtagKeys size

Muestra la densidad del Key “content” que es 1.

Gráfico representativo de los datos

En este estudio, utilizamos la herramienta TwitterScraper para evaluar los datos recopilados de los tweets relacionados con la campaña electoral de los candidatos para la alcaldía de Bogotá. Recopilamos datos detallados de Twitter, como interacciones de los usuarios, fechas de creación de tweets y contenido textual.

A pesar de nuestras expectativas, ningún atributo destacó cuando se evaluó mediante un histograma de las 8 Keys o Items recopilados. Esto ocurrió porque cada elemento incluía solo un dato, lo que resultó en una distribución equitativa de la densidad de datos entre las características

Squawker

En este estudio, utilizamos la herramienta Squawker para examinar los datos almacenados en archivos JSON. Estos archivos incluyen amplia información sobre los tweets recopilados. Sin embargo, para realizar un análisis significativo, la estructura de datos tuvo que convertirse de un formato de árbol a un formato plano.

Para ello, empleamos herramientas como GT/Pharo para extraer y aplanar datos de archivos JSON. Esta técnica nos permitió acceder y estudiar cada aspecto de forma separada y sistemática, permitiendo una investigación más profunda de la comunicación online.

dataFolder := FileLocator documents / 'C:\Users\felip\Desktop\tesis-privado\TesisPrivado\datos\Squawker'
Ubicacion
dataFile := dataFolder / 'squawker-2023-09-26.json'.
Ubicacion

Tomemos el directorio donde se encuentra almacenado el archivo exportado de Squaker y procedamos a cargarlo en GT/Pharo para su análisis y abrir el contenido de los datos conseguidos

dataDictionary := STONJSON fromString: dataFile contents.

tweets := dataDictionary at: 'tweets'.

tweet := tweets first

tweetContent := STON fromString: (tweet at: 'content')

Se especifica la ubicación del tweet que se desea analizar y se especifica en la característica “content” para visualizar los datos encontrados. Esta acción implica identificar un tweet específico dentro de un conjunto de datos y extraer información relevante contenida en la propiedad “content”.

Conclusiones y recomendaciones

  1. Finalmente, el estudio analizó la calidad de los microdatos recopilados de Twitter durante las elecciones para la aldia de Bogotá 2023, concentrándose en los perfiles de los candidatos Gustavo Bolívar y Juan Daniel Oviedo. Para extraer datos con este fin se utilizaron Apify, TwitterScraper y Squeaker. Durante el proceso, se descubrió que Squeaker era la herramienta más exitosa, ya que recopilaba una amplia variedad de propiedades de tweets y al mismo tiempo ofrecía datos completos y relevantes. A pesar de que la recopilación de datos fue más laboriosa y llevó más tiempo, la calidad fue superior. Apify ha demostrado su capacidad para recopilar automáticamente volúmenes masivos de datos, lo que facilita su categorización y recopilación. Sin embargo, en comparación con Squeaker, tenía ciertas deficiencias en la cantidad de datos recopilados. Finalmente, se determinó que TwitterScraper, que es sencillo, facil de usar y con la mejor interfaz, era el menos exitoso en la recopilación de datos, lo que implica limitaciones en la profundidad del estudio. El uso de estas herramientas proporcionó una variedad de datos para analizar los micridaros durante la campaña electoral, enfatizando la importancia de elegir la herramienta adecuada según las necesidades únicas de la investigación.

  2. El establecimiento de un entorno de investigación reproducible fue crucial para el éxito del estudio. La selección cuidadosa de ciertas herramientas y procedimientos nos permitió recopilar información útil para un examen completo de las comunicaciones relacionadas con los candidatos durante la campaña electoral.

El entorno de investigación reproducible que implementamos se construyó metódicamente utilizando una variedad de herramientas, incluidas Scoop, Fossil y ChiselApp, Glamorous Toolkit y Pharo, entre otras. Cada una de estas tecnologías ha sido cuidadosamente elegida y diseñada para mejorar cada etapa del proceso, desde la recopilación de datos hasta el análisis final. Este entorno no sólo facilitó la recopilación y el procesamiento de datos, sino que también aseguró la transparencia y verificabilidad de nuestro estudio, lo cual es fundamental para la validez y confiabilidad de nuestros hallazgos.

La combinación de estas técnicas nos permitió no solo recopilar información valiosa sobre los mensajes relacionados con los candidatos, sino también realizar un estudio exhaustivo y extenso de muchos aspectos . Además, al desarrollar un entorno de investigación reproducible, sentamos las bases para futuras investigaciones y análisis en este campo. Finalmente, el entorno reproducible que se desarrollo no solo fue una herramienta necesaria para nuestro trabajo, sino que también refleja un nivel de calidad y rigor metodológico que inspire y oriente investigaciones futuras en este campo.

  1. En resumen, el proceso de selección y configuración de herramientas y plataformas para el análisis de datos de Twitter fue fundamental para la realización de este estudio, que se concentró en describir las herramientas para extraer datos “X/Twitter” de los candidatos. Gustavo Bolívar y Juan Daniel Oviedo hicieron campaña para la alcaldía de Bogotá. Para identificar con precisión los tweets o datos importantes relacionados con los candidatos, se definieron cuidadosamente los parámetros y filtros de búsqueda, lo que dio como resultado un conjunto de datos representativos y útiles para el análisis.

Además, se ha construido y documentado rigurosamente una metodologío, comenzando con la configuración inicial del entorno y terminando con el análisis de datos. Esta extensa documentación del procedimiento de configuración del entorno reproducible garantiza que los resultados obtenidos sean replicables y consistentes, lo que contribuye a la solidez y confiabilidad del estudio.

La metodología rigurosa y metódica utilizada en la selección y configuración de las herramientas, así como el diseño de criterios y filtros de búsqueda, permitieron un examen exhaustivo y consistente de los datos obtenidos. Esta investigación proporciona información vital sobre la dinámica de la campaña política, así como sobre la calidad de los datos encontrados en los tweets.

Anexos

Objetivos Específicos Fase según Objetivos Descripción de la Fase Actividades para cumplir la Fase Técnicas para Recoger Información Resultados o Productos por Fase
1. Configurar un entorno de investigación reproducible para el análisis de datos, centrándose en mensajes (Tweets) relacionados con los candidatos Gustavo Bolívar y Juan Daniel Oviedo durante las elecciones para la alcaldía de Bogotá. 1. Fase de Configuración del Entorno de Investigación En esta fase, se establecerá un entorno de investigación reproducible que permita analizar datos específicos de Twitter/X relacionados con Gustavo Bolívar y Juan Daniel Oviedo durante las elecciones para la alcaldía de Bogotá. 1.1 Seleccionar y configurar herramientas y plataformas para el análisis de datos de Twitter. 1.2 Definir parámetros de búsqueda y filtros para identificar mensajes relacionados con los candidatos. 1.3 Establecer un flujo de trabajo reproducible y documentar la configuración del entorno. Ninguna Entorno de investigación configurado y documentado para el análisis reproducible de mensajes relacionados con Gustavo Bolívar y Juan Daniel Oviedo durante las elecciones para la alcaldía de Bogotá.
2. Caracterizar las herramientas para la extracción de datos “X/Twitter” de Gustavo Bolívar y Juan Daniel Oviedo durante la campaña elector0al para la Alcaldía de Bogotá. 2. Fase de Caracterización de Herramientas de Extracción de Datos En esta fase, se llevará a cabo la caracterización detallada de las herramientas utilizadas para extraer datos de Twitter sobre Gustavo Bolívar y Juan Daniel Oviedo durante su campaña electoral. 2.1 Identificar y describir herramientas específicas utilizadas para la extracción de datos de Twitter. 2.2 Evaluar capacidades y limitaciones en términos de alcance, precisión y velocidad. 2.3 Recopilar información sobre parámetros de búsqueda y filtros utilizados. 2.4 Documentar hallazgos y resultados de la caracterización. Ninguna Informe detallado de herramientas de extracción de datos “X/Twitter” utilizadas durante la campaña electoral de Gustavo Bolívar y Juan Daniel Oviedo para la Alcaldía.

Merge conflicts

En ocasiones, cuando se está trabajando colaborativamente, puede haber conflictos de edición, como se muestra en la siguiente imagen:

En ocasiones se requiere códigos de texto para ubicar el conflicto de edición y corregirlo manualmente. Para ello, se instalará el editor “Lite XL”

scoop bucket add extras 
scoop install extras/lite-xl

Un conflicto de edición se ve así:

Y la propuesta de solución que hace Fossil luce en la siguiente manera

Se puede ver que el conflicto ocurre a raíz de que los metadatos estaban antes en una sola línea y ahora están en varias líneas. Una forma sencilla de arreglarlo, es simplemente sobrescribir el documento con la versión más reciente generada desde Lepiter.

Bibliografía

  • Abdullah, Nor Hafizah, et al. “Examining the Relationship between Factors Influencing Political Information Seeking-Behaviour through Social Media among Youths in Malaysia.” Revista de Comunicación de La SEECI, vol. 55, Feb. 2022, pp. 1–15, doi:10.15198/seeci.2022.55.e746.

  • Altamirano-Benitez, V., Ruiz-Aguirre, P., & Baquerizo-Neira, G. (2022). Política 2.0 en Ecuador. Análisis del discurso y la comunicación política en Facebook. [Policy 2.0 in Ecuador. Analysis of discourse and political communication on Facebook] Revista Latina De Comunicación Social, (80), 201-223. https://doi-org.ezproxy.javeriana.edu.co/10.4185/RLCS-2022-1539

  • Bastos, MT y Mercea, D. (2019). La botnet Brexit y las noticias hiperpartidistas generadas por los usuarios. Revista informática de ciencias sociales , 37 (1), 38–54. https://doi.org/10.1177/0894439317734157

  • Beltrán, Ulises. (2020). Medios de comunicación tradicionales y redes sociales en la elección presidencial de 2018. Política y gobierno, 27(2), ePYG1277. Epub 17 de febrero de 2021. Recuperado en 06 de marzo de 2023, de http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1665-20372020000200012&lng=es&tlng=es

  • Carlos Andrés, T. G. (2021). La campaña electoral a las alcaldías en Colombia (2020): el papel de las redes sociales. [Mayoral election campaigns in Colombia (2020): the role of social networks] América Latina, Hoy, 89, 81-104. https://doi-org.ezproxy.javeriana.edu.co/10.14201/alh.26392

  • Cela, J. R., Parras-Parras, A., & Romero-Vara, L. (2019). Uso de las redes sociales en diplomacia, política y relaciones internacionales. análisis de la información publicada en las versiones online de dos periódicos españoles: "el país" y "la vanguardia". Estudios Sobre El Mensaje Periodistico, 25(2), 711-726. doi:https://doi-org.ezproxy.javeriana.edu.co/10.5209/esmp.64798

  • Concha Pérez Curiel, & García-Gordillo, M. (2020). Indicadores de influencia de los políticos españoles en Twitter. Un análisis en el marco de las elecciones en Cataluña. [Indicators of influence of Spanish politicians on Twitter. An analysis in the framework of the elections in Catalonia] Estudios Sobre El Mensaje Periodistico, 26(3), 1133-1144. https://doi-org.ezproxy.javeriana.edu.co/10.5209/esmp.64880

  • Contreras Padilla, Sergio Octavio. (2019). ACCIÓN COLECTIVA EN RED Y PERCEPCIÓN POLÍTICA DE CIBERNAUTAS EN MÉXICO. Perspectivas de la comunicación, 12(2), 89-126. https://dx.doi.org/10.4067/S0718-48672019000200089

  • Croteau, D., & Hoynes, W. (2014). Media/Society: Industries, Images, and Audiences. Sage Publications.https://cadmus.eui.eu/handle/1814/19235

  • D’Agostino, M., Martí, M., Felipe Medina Mejía, Gerardo de Cosio, & Faba, G. (2017). Estrategia para la gobernanza de datos abiertos de salud: un cambio de paradigma en los sistemas de información. Revista Panamericana de Salud Pública (Impresa), 41, 1–1. https://doi.org/10.26633/rpsp.2017.2

  • Dinella García Acosta, & Gómez Masjuán, M. E. (2022). Fake news en tiempos de posverdad. Análisis de informaciones falsas publicadas en Facebook durante procesos políticos en Brasil y México 2018. [Fake news in post-truth times. Analysis of fake news published on Facebook during political processes in Brazil and Mexico 2018] Estudios Sobre El Mensaje Periodistico, 28(1), 91-101. https://doi-org.ezproxy.javeriana.edu.co/10.5209/esmp.71251

  • Doria, P., & Sophia Cortés P. (2023, January 13). Partidor de candidatos Bogotá. Www.lasillavacia.com. https://www.lasillavacia.com/historias/silla-nacional/el-partidor-de-candidatos-a-la-alcaldia-de-bogota/

  • Efe, Días, C., Efe, Días, C., Efe, & Días, C. (2023, 2 febrero). Twitter empezará a cobrar el acceso de los desarrolladores a su API. Cinco Días. https://cincodias.elpais.com/cincodias/2023/02/02/companias/1675353625_269385.html

  • Entman, R. M. (1993). Framing: Toward clarification of a fractured paradigm. Journal of communication, 43(4), 51-58. https://doi.org/10.1111/j.1460-2466.1993.tb01304.x

  • Espinosa, M. Z., Valenzuela, C. R., & Cedeño, C. C. (2017). ¿VERDAD O FICCIÓN? EL USO POLÍTICO DE LAS REDES SOCIALES EN LA PARTICIPACIÓN POLÍTICA OFFLINE EN LAS ELECCIONES PRESIDENCIALES EN ECUADOR. [TRUTH OR FICTION? THE POLITICAL USE OF SOCIAL NETWORKS IN OFFLINE POLITICAL PARTICIPATION IN ECUADORIAN PRESIDENTIAL ELECTIONS] Análisis Político, 30(91), 130-145. Retrieved from https://login.ezproxy.javeriana.edu.co/login?qurl=https%3A%2F%2Fwww.proquest.com%2Fscholarly-journals%2Fverdad-o-ficci%C3%B3n-el-uso-pol%C3%ADtico-de-las-redes%2Fdocview%2F2007080580%2Fse-2%3Faccountid%3D13250

  • Gallego, R. (2021). Las formas de propiedad de los medios de comunicación. Estado de la cuestión. Anagramas Rumbos Y Sentidos de La Comunicación, 20(39), 197– 210. https://doi.org/10.22395/angr.v20n39a11

  • García de la Torre, A. (2021). Aproximación al estudio de la imagen en la construcción mediática de la figura del político en las elecciones de 2019 en España. [Approach to the study of the image in the media construction of the politician figure in the 2019 elections in Spain] Anàlisi: Quaderns de Comunicació i Cultura, 63, 89–105. https://doi.org/10.7238/a.v0i63.3667

  • González Zabala, Ana, and José Fernández Cavia. “ANÁLISIS DE LA REPUTACIÓN ONLINE DE LOS POLÍTICOS ESPAÑOLES A TRAVÉS DE LAS REDES SOCIALES DURANTE LAS ELECCIONES GENERALES DE 2015.” Anuario Electrónico de Estudios en Comunicación Social “Disertaciones”, vol. 12, no. 1, 2019, pp. 73–87, doi:10.12804/revistas.urosario.edu.co/disertaciones/a.6042.

  • Granel, N., & Campos Domínguez, E. (2019). De la crisis del modelo de negocio a la transformación digital en la prensa chilena: análisis de la prensa escrita y digital en un periodo de transición. Comunicación Y Sociedad, 36, 63–95. https://doi.org/10.32870/cys.v2019i36.5869

  • Hussain, M. M., & Howard, P. N. (2013). What best explains successful protest cascades? ICTs and the fuzzy causes of the Arab Spring. International Studies Review, 15(1), 48-66. https://doi.org/10.1111/misr.12020

  • Khan, M. L. (2017). Social media engagement: What motivates user participation and consumption on YouTube? Computers in Human Behavior, 66, 236-247. https://doi.org/10.1016/j.chb.2016.09.023

  • Lafuente, M., Gabilondo, A., & Elorriaga, J. A. (2019). Uso de Twitter en la campaña electoral europea de 2019: Análisis del contenido político y del seguimiento de candidatos en España. [Use of Twitter in the 2019 European electoral campaign: Analysis of political content and candidate tracking in Spain] El Profesional De La Información, 28(4), e280402. https://doi-org.ezproxy.javeriana.edu.co/10.3145/epi.2019.jul.02

  • León, B., & Toledo, R. (2017). Estudio comparativo del uso de Facebook y Twitter por los partidos políticos españoles en la campaña electoral de 2015. Anàlisi: Quaderns de Comunicació i Cultura, 55, 95–110. https://doi.org/10.7238/a.v0i55.3175

  • Lim, Merlyna. (2013). Clicks, Cabs, and Coffee Houses: Social Media and Oppositional Movements in Egypt, 2004–2011. Journal of Communication, 62(2), 231–248. https://doi.org/10.1111/jcom.12024

  • López López, P. (2020). La campaña de Donald Trump en las redes sociales durante las elecciones presidenciales de 2016. [Donald Trump’s campaign on social media during the 2016 presidential elections] El Profesional De La Información, 29(1). https://doi.org/10.3145/epi.2020.ene.15

  • López Vásquez, E. (2017). Política 2.0: análisis de la efectividad de los perfiles institucionales de los partidos políticos en Facebook en el Ecuador. [Politics 2.0: analysis of the effectiveness of the institutional profiles of political parties on Facebook in Ecuador] Comunicación y Sociedad, 30, 207-233. https://doi.org/10.32870/cys.v0i30.4529

  • López, D. A. (2016). Los memes como nuevos repertorios de acción en el contexto digital: el caso de las protestas estudiantiles en Colombia. Palabra Clave, 19(2), 421–445. https://doi.org/10.5294/pacla.2016.19.2.8

  • Marichal, J. L., & Cervantes, J. (2015). Activismo en Twitter: un análisis sobre la efectividad de la interacción en Twitter como medio de difusión y acción política. [Activism on Twitter: an analysis of the effectiveness of interaction on Twitter as a means of political dissemination and action] Anàlisi: Quaderns de Comunicació i Cultura, 52, 33–49. https://doi.org/10.7238/a.v0i52.2219

  • Márquez-Ramírez, M., & Valencia-Álvarez, M. R. (2019). Los partidos políticos y su relación con los usuarios en Twitter durante las elecciones federales de México 2018. [Political parties and their relationship with users on Twitter during the federal elections in Mexico 2018] Razón y Palabra, 23(6), 1435–1455. https://www.redalyc.org/articulo.oa?id=199552229017

  • Martínez García, S., & Fernández Navas, M. (2019). Estrategias de movilización y comunicación en el uso de las redes sociales en el proceso independentista catalán: del ciberactivismo a la amplificación de la voz ciudadana. [Strategies of mobilization and communication in the use of social networks in the Catalan independence process: from cyberactivism to the amplification of citizen voice] Razón y Palabra, 23(6), 1321–1336. https://www.redalyc.org/articulo.oa?id=199552229013

  • Martínez-García, S., & Fernández-Navas, M. (2020). Del activismo en red a la hibridación del ágora digital: análisis de las movilizaciones sociales en España. [From network activism to the hybridization of the digital agora: analysis of social mobilizations in Spain] Revista Latina De Comunicación Social, (80), 69-88. https://doi-org.ezproxy.javeriana.edu.co/10.4185/RLCS-2022-1538

  • Monge Benito, S., & Ferreras Rodríguez,J. M. (2019). La construcción de la imagen de los candidatos a través de Twitter: Análisis de la campaña electoral autonómica de Castilla y León (2019). [The construction of the image of candidates through Twitter: Analysis of the regional electoral campaign in Castilla y León (2019)] Icono 14, 17(2), 229–256. https://doi.org/10.7195/ri14.v17i2.1485

  • Montero-Sieburth, M., & Andrade Eiroa, A. (2015). Uso de Twitter y Facebook por los partidos políticos en Ecuador: campaña presidencial de 2013. [Use of Twitter and Facebook by political parties in Ecuador: 2013 presidential campaign] Anàlisi: Quaderns de Comunicació i Cultura, 52, 51–67. https://doi.org/10.7238/a.v0i52.2220

  • Mosbah-Natanson, S., Treré, E., & Magallanes-Blanco, C. (2020). Interacción política en Twitter: análisis de la comunicación política en la cuenta oficial del presidente de Ecuador, Lenín Moreno. [Political interaction on Twitter: analysis of political communication on the official account of the president of Ecuador, Lenín Moreno] Palabra Clave, 23(1), e2310. https://doi.org/10.5294/pacla.2020.23.1.10

  • Nieto-Parra, S. (2020). The impact of social media on political activism: Evidence from the Arab Spring uprisings. Journal of Economic Issues, 54(1), 110-129. https://doi.org/10.1080/00213624.2020.1718889

  • Papacharissi, Zizi. (2015). Affective Publics: Sentiment, Technology, and Politics. Oxford University Press.

  • Pérez-Seijo, S., & Barreiro-Gen, M. C. (2019). La influencia de Twitter en las elecciones locales españolas de 2015: Análisis de la imagen de los candidatos a través del análisis de redes y el análisis de contenido. [The influence of Twitter in the 2015 Spanish local elections: Analysis of the image of the candidates through network analysis and content analysis] Doxa Comunicación, 28, 35-54. https://www.redalyc.org/articulo.oa?id=78257865003

  • Prensky, M. (2001). Digital natives, digital immigrants part 1. On the Horizon, 9(5), 1–6. https://doi.org/10.1108/10748120110424816

  • Quintero-Méndez, M. C., & González-Bailón, S. (2019). Los roles del intercambio y la discusión en el consumo de información política en Twitter: un análisis del seguimiento de la cuenta de un partido político en México. [The roles of exchange and discussion in the consumption of political information on Twitter: an analysis of following the account of a political party in Mexico] Revista Mexicana de Opinión Pública, (25), 81-100. http://www.revistas.unam.mx/index.php/rmop/article/view/68149

  • Rodríguez-Gómez, D., Gil de Zúñiga, H., & Casero-Ripollés, A. (2016). On-line news and political participation: Exploring the role of political knowledge and participatory opportunities. International Journal of Communication, 10, 5292–5313. https://ijoc.org/index.php/ijoc/article/view/3577/1679

  • Sáez-Martín, A., & Sánchez-Santamaría, J. (2018). Efecto del uso de Twitter en la intención de voto de los españoles. [Effect of using Twitter on the voting intention of Spaniards] Estudios sobre el Mensaje Periodístico, 24(1), 33-46. https://doi.org/10.5209/ESMP.58613

  • Sampedro, V. D., & Lobera, J. J. (2013). El impacto de los cibermedios en el sistema de comunicación política: análisis de los usos que los periodistas hacen de Twitter. [The impact of cybermedia on the political communication system: analysis of the uses that journalists make of Twitter] Revista Latina de Comunicación Social, 68, 248-274. https://doi.org/10.4185/RLCS-2013-970en

  • Sampedro, V. D., & Lobera, J. J. (2015). Campaigning on Twitter: Towards a “Public” and “Dialogic” political communication model? Policy & Internet, 7(2), 183–204. https://doi.org/10.1002/poi3.86

  • Sandoval-Almazán, R., & Gil-García, J. R. (2012). Towards cyberactivism 2.0? Understanding the use of social media and other information technologies for political activism and social movements. Policy & Internet, 4(2), 7–22. https://doi.org/10.2202/1944-2866.1107

  • Sandoval-Almazán, R., & Gil-García, J. R. (2014). Are government internet portals evolving towards more interaction, participation, and collaboration? Revisiting the rhetoric of e-government among municipalities. Government Information Quarterly, 31(1), 34-43. https://doi.org/10.1016/j.giq.2013.03.004

  • Stier, S., Bleier, A., & Lietz, H. (2018). The role of social media for protest mobilization and political violence: A comparison of Muslim majority countries. Journal of Peace Research, 55(6), 771-786. https://doi.org/10.1177/0022343318787276

  • Túñez-López, M., & Sixto-García, J. (2018). Uso y percepción de las redes sociales por los periodistas cubanos. [Use and perception of social networks by Cuban journalists] El Profesional De La Información, 27(6), 1319-1327. https://doi.org/10.3145/epi.2018.nov.03

  • Valea, A., & Rojas-Torrijos, J. L. (2018). El discurso en Twitter de los principales partidos políticos de Chile y España: análisis comparativo de las elecciones de 2015 y 2016. [Discourse on Twitter by the main political parties of Chile and Spain: comparative analysis of the 2015 and 2016 elections] Estudios sobre el Mensaje Periodístico, 24(1), 133-146. https://doi.org/10.5209/esmp.58615

  • Valenzuela, S., & Valenzuela, S. (2019). Los mitos de la desinformación y el malestar democrático: actores y factores detrás de la polarización en América Latina. [The myths of misinformation and democratic malaise: actors and factors behind polarization in Latin America] Estudios Sociológicos, 37(111), 145-172. https://doi-org.ezproxy.javeriana.edu.co/10.24201/es.2021v37n111.2473

  • Valenzuela, S., Arriagada, A., & Scherman, A. (2016). Las bases del malestar en la democracia chilena. Revista de ciencia política, 36(3), 571-590. https://scielo.conicyt.cl/scielo.php?script=sci_arttext&pid=S0718-090X2016000300008&lng=es&tlng=es

  • Valenzuela, S., Kim, Y., & Gil de Zúñiga, H. (2018). Social media, opinion leaders and effects on political participation: A comparison of Facebook, Twitter, Instagram, and Snapchat. Information, Communication & Society, 22(5), 1-19. https://doi.org/10.1080/1369118X.2018.1452239

  • Valera Ordaz, L., Márquez Domínguez, F., & Trejo-Márquez, F. J. (2016). El uso de Twitter en la enseñanza universitaria: un análisis de redes para la participación de estudiantes en la Universidad de Sevilla. [The use of Twitter in university education: a network analysis for student participation at the University of Seville] Educación XX1, 19(1), 161-184. https://doi.org/10.5944/educxx1.15677

  • Valeriani, A., & Vaccari, C. (2020). Social media and political communication in contentious politics: Explaining online engagement with political parties’ content in the context of the Italian general election in 2018. Information, Communication & Society, 23(7), 982-1003. https://doi.org/10.1080/1369118X.2018.1513052

  • Vásquez-Hernández, Y. (2020). Percepción de la credibilidad y confianza en los medios de comunicación en México. [Perception of credibility and trust in the media in Mexico] Palabra Clave, 23(4), e2344. https://doi.org/10.5294/pacla.2020.23.4.2

  • Vera-Candeas, P., & Morales-del-Castillo, J. M. (2022). Fake news, redes sociales y política. El caso de Vox en Facebook. [Fake news, social networks and politics. The case of Vox on Facebook] Comunicar, 30(71), 21-30. https://doi.org/10.3916/C71-2022-02

  • Xiao, Q. (2019). Prosumer political content creation, posting, and dissemination on the internet. Information, Communication & Society, 22(12), 1782-1796. https://doi.org/10.1080/1369118X.2018.1475118

  • Zúñiga, H. G. de, & Valenzuela, S. (2011). The Mediating Path to a Stronger Citizenship: Online and Offline Networks, Weak Ties, and Civic Engagement. Communication Research, 38(3), 397–421. https://doi.org/10.1177/0093650210379196

  • Zúñiga, H. G. de, & Valenzuela, S. (2018). Clicks, Shares, Likes, and Comments: Is Online Participation in Political News Associated With Offline Political Participation?. International Journal of Press/Politics, 23(4), 482–499. https://doi.org/10.1177/1940161218794743