Vivir en la distopía

Son muchas las emociones que se acumulan estos días. Hay indignación, pero también estupor, ansiedad, rabia, empatía… Pero quizás, al menos para mí, la sensación o emoción más prevalente es la de estar viviendo un momento histórico, que nos va a unir y marcar a todas las generaciones al igual que ocurrió con otras plagas y enfermedades, pero también con acontecimientos como las Guerras Mundiales, la llegada a la luna, la contracultura de los 60s o el 11-S, por citar algunas.

Esto, al fin y al cabo, es otra guerra, una que llevamos a cabo contra un bichito invisible, pero una guerra, además, en la que de nada nos valen las armas o la fuerza bruta sino un arma mucho más poderosa: el conocimiento. La pluma, se comprueba una vez más, es más fuerte que la espada.

Desde la semana pasada, con el creciente shock que ha supuesto todo esto, aún tengo la sensación de estar viviendo en el capítulo más interactivo de Black Mirror que se haya visto hasta el momento, como una distopía de las que tanto nos gustan en la ficción (pero ya no nos está gustando tanto vivir en la realidad). Una de esas distopías que hemos visto en cientos de películas y series u oído en ficciones sonoras como esos apocalipsis zombis, que siempre nos han resultado ejercicios de ficción, y cuyo factor común siempre es el mismo: la incertidumbre. Bueno, y también la estupidez humana, también bastante común en todas partes (en unas más que en otras).

Quizás consuele pensar que esto sea una prueba (o un capricho) del destino, o simplemente un toque de atención por parte de Gaia, Dios o la propia vida, que nos obliga a parar en un mundo centrífugo que iba demasiado rápido como para ser conscientes de muchas cosas. Obligados a parar nuestras vidas y el ritmo vertiginoso en el que estaban inmersas, parar para luego tomar renovado impulso.

Esto nos va a enseñar a reevaluar muchos aspectos de nuestras vidas, nuestras identidades y nuestras sociedades, y también a revalorizarlos: ¡qué placer era (y será) tomar unas cervezas al sol en una terraza en buena compañía! O celebrar un cumpleaños, una fiesta, rodeado de gente. O pasear por la calle por el simple gusto de hacerlo. Y disfrutar de la compañía de gente que conoces o no. ¡Qué extraña la sensación de ver ese tipo de escenas en pantalla y no poder recrearlas ahora en la vida real!

En definitiva, volveremos a retomar el placer de ser una comunidad, de notar que lo que nos hizo y hace fuertes es nuestra unión como sociedad. Ser capaces de mostrar lo que nos hace excepcionales como especie, nuestra capacidad de trabajar en equipo, la clave que explica todo lo que hemos llegado a alcanzar hasta el momento.

Esto nos va a cambiar por completo. El golpe a nuestro inconsciente colectivo (y personal) es completo. Habrá un antes y un después de esto. Vivir esto cada uno en su casa, sin el apoyo de los demás, será duro, pero, como especie, hemos sobrevivido a cosas peores. Tenemos nuestros hogares como cobijo. Y tenemos la tecnología de nuestro lado para ayudarnos, conectarnos, comunicarnos, expresarnos, entretenernos…

Nos queda un tiempo por delante de introspección, de conocernos a nosotros mismos. De sacar lo mejor y lo peor del ser humano como sociedad. De ser conscientes de nuestras debilidades, pero también de nuestras fortalezas, de seguir esa máxima que popularizó Kant: sapere aude. Vamos a tomar fuerzas para cuando retomemos el ritmo social, y hacerlo entonces de una manera plena de consciencia, crítica con nuestros errores, pero satisfecha de nuestros logros.

Pienso ya en cuando podamos volver a salir a la calle, abrazarnos, besarnos, ver a nuestros familiares y seres queridos. Va a ser una fiesta. Por eso estamos siendo responsables ahora quedándonos en casa, conectando gracias a Internet, saliendo al balcón todos los días a las 20h., no solo por los que están ahí fuera por nosotros, sino también por los que estamos aquí dentro, cumpliendo nuestro papel en esta obra, y porque queremos que estén todos en esa fiesta.

Estoy deseando volver a abrazaros a todos vosotros. Hasta entonces, seguiré compartiendo mis reflexiones y pensamientos de vez en cuando por aquí.

¡Mucho ánimo! ¡Estamos juntos en esto! ¡Juntos podremos y juntos lo haremos!

Hasta la victoria, siempre.

[La foto que acompaña el artículo fue realizada hace dos años. Encontrada en reddit]

Nuevos retos: aprendiendo Python

Los que me conocen, saben que me gusta encarar nuevos retos, y que también me cuesta dejar de ser alumno, que me encanta aprender. Hace un tiempo, por mi interés en el análisis y la visualización de datos me puse a hacer tutoriales de R, un lenguaje de programación útil para estas tareas, pero en esto de los lenguajes de programación, si tenía algo pendiente, eso era aprender Python, un lenguaje cada vez más importante en el mundo del Data Science. Así que me apunté al curso ‘Python aplicado a la Investigación Científica y Tecnológica’.

A diferencia de R, un lenguaje más enfocado para el mundo estadístico y el tratamiento y análisis de datos más puro, Python es un lenguaje mucho más versátil y polivalente, y resulta muy útil para, al igual que R, analizar y visualizar datos de manera rápida, pero, además, para crear pequeños programas directamente (y así automatizar tareas determinado tipo de tareas) y crear scripts útiles y reutilizables.

El curso lo organizaba Darwin Eventur, una asociación de antiguos alumnos de la Universidad de Granada, con los que ya tuve la oportunidad de cursar (virtualmente) un curso de RStudio, que recomiendo para todo aquel que aún no conozca este lenguaje. Y el docente era Pablo Hinojosa aka Psicobye, buen conocido desde los tiempos de la OSL-UGR y cuyas charlas y cursos siempre he disfrutado por el cachondeo con que los impregna. Así que me apunté sin dudar y menos mal que lo hice pronto, porque las plazas volaron con rapidez. De hecho, hay una tercera edición ya programada, también con plazas agotadas, lo que demuestra el interés que despierta en la comunidad científica un lenguaje de programación como Python, por su potencialidad para la investigación.

Psicobyte calentando garganta para comenzar la locución de los ‘Micromachines para Python’.

Todos los que nos acercamos al curso, pudimos comprender las bases y concepto de este lenguaje de programación orientado a objetos. Aunque el bagaje de cada uno era diferente, Psicobyte se encargó de, paso a paso, hacernos programar en Python, primero mediante comandos y órdenes simples para acabar realizando gráficos complejos y accesos a bases de datos y, sobre todo, crear funciones y programas completos.

Para ello, echamos mano de Anaconda, una distribución sencilla de Python, con interfaces de usuario y distintos ambientes personalizables, para usar este lenguaje de manera rápida y desde cero. Por ejemplo, dentro de Anaconda, tenemos Spyder, un IDE equivalente a RStudio para R (de hecho RStudio está incluida en la distribución Anaconda), para crear y probar código ejecutándolo en consola, o Jupyter Notebook, un entorno informático interactivo basado en la web para crear documentos, sobre todo, científicos, quizás la parte más interesante para experimentar con cualquiera de los lenguajes soportados (Python, R o Julia). Además, incluye también el editor de código Visual Studio Code.

En definitiva, una buena manera de acercarse a este lenguaje de programación que, dicen, es el presente y futuro de la Ciencia de Datos por lo que cualquier interesado o interesada en este campo, tendrá que aprender, inevitablemente, a comunicarse con las máquinas mediante este lenguaje llamado Python, un lenguaje pensado para ser legible y, como decía al principio, tiene como principal valor su versatilidad y su utilidad polivalente para casi cualquier tarea. Si estás interesado, el curso de Darwin Eventur es una buena manera de iniciarse en este mundo. Enhorabuena a la organización y el ponente por hacer accesible unos contenidos extensos que dan pie a cada cual profundice en los aspectos del lenguaje que prefieran.

Jo tampoc tinc por, Barcelona

Con la tristeza y el estupor aún en el cuerpo por lo ocurrido estas últimos 24 horas en Catalunya, me sigue torturando en la cabeza una imagen que, sin haberla visto realmente, me causa auténtico pavor. Y no es esa que han publicado la mayoría de los medios de comunicación de España, llena de sangre, morbo y búsqueda desesperada de visitas y ventas, no (el clickbait no debería ser un vale-todo sensacionalista). Tampoco he llegado a ver, afortunadamente, las que han usado las televisiones para ilustrar la noticia. La imagen que no sale de mi mente es la de aquel, aquella o aquellos que, frente a una masacre sin sentido, con la sangre aún caliente sobre la acera, oyendo gritos de dolor y sufrimiento, sostiene su móvil y graba la dantesca acera para regocijo de parte del público que asiste al triste espectáculo porque solo quiere pan y circo en la vida.

Como bien dice mi amiga Berta Ballester, que desgraciadamente ha vivido desde demasiado cerca el atentado de ayer, lo que veía era puro Black Mirror: gente que, antes de atender y socorrer a las víctimas, graba o fotografía su sufrimiento para… a ver, para ¿exactamente qué? De verdad, no entiendo su intención. Me planteo, sacando a relucir mi pequeño trocito ‘kapuscinskiano’, que es algo de afán periodístico, pero incluso el más avezado de los periodistas auxiliaría primero y registraría después (bueno, también dependerá del periodista, claro). De verdad, que alguien me lo explique, porque no lo entiendo.

Creo que está más que clara la importancia de la imagen en nuestra iconosfera actual, y lo mejor de todo es ver, como suele ocurrir en cualquier buena comunidad virtual que se precie, como ante los troles que se encargan de difundir bulos y sembrar el desconcierto, o bien de estereotipar y así sembrar la cizaña y el odio (justo lo que pretenden los terroristas, que odiemos como ellos), la propia comunidad es la que, espontáneamente y de manera bien digna, expulsa esas imágenes usando contra-memes de gatitos así como acogiendo en sus negocios y hogares a la gente que corría despavorida sin saber qué hacer por las calles del centro barcelonés.

Sirvan estas palabras como homenaje a todos esos héroes que muestran nuestra mejor cara, la más reconocible, la más auténtica y real, la más extendida, muy a pesar de que existan (como seguirán existiendo) unos pocos indeseables que quieran que nos olvidemos de ello y pensemos lo contrario, que el mundo va a peor. Moltes gràcies a tots! Jo tampoc tinc por!

//platform.twitter.com/widgets.js

Crónica de las Jornadas de Periodismo de Datos 2017: cada dato cuenta

500_0.png

Uno de los espacios más transformadores que he visto en los últimos años es Medialab Prado, un hervidero cultural donde siempre se cuece algo, un hogar que da cobijo a numerosas comunidades interesadas en reinventar nuestras caducas instituciones y sustituirlas por algo que aún está por inventar y que está en nuestra mano hacerlo.

En Medialab Prado se celebrarban estos días las V Jornadas de periodismo de datos, organizadas con bastante voluntad y tesón por el DataLab madrileño comandado por el infatigable general Bravo, aka Adolfo Antón, aka Adolflow. En Twitter se podía seguir a través de los hashtags #jpd17 y #cadadatocuenta. En ellas he tenido la oportunidad de disfrutar con sesiones sobre periodismo, datos, visualización, cartografía, nuevas herramientas y código, mucho código, el idioma del futuro que aquellos que hemos llegado algo más tarde a la revolución digital tratamos de aprender siempre que podemos. En mi caso, me vuelvo a Granada con bastantes ganas de desarrollar un poco más mis conocimientos de HTML y usar más editores de texto como Atom o emacs, para destripar las webs y entenderlas mejor por dentro, y así poder aplicar herramientas como Bootstrap, todo un lujo de descubrimiento de la mano de Karma Peiró y su gente de Nació Digital (que por cierto sigue a la vanguardia con productos como Screple). En general, entiendo y comparto la necesidad de aprender a usar lenguajes de programación como los lenguajes básicos de uso de terminal y UNIX que nos mostró el propio Adolfo o los distintos lenguajes de marcas que enseñó David Arroyo en la clausura, como el HTML y el CSS, porque implican también una nueva forma de pensar, más computacional, algo que debería aprenderse ya en las escuelas. Como recordaron varios ponentes, aplicado al mundo profesional, la autoedición y la publicación de los trabajos periodísticos en formato web son ya imperativos para el periodista de forma que integre, desde el principio, en su lenguaje periodístico el uso de estos lenguajes de programación. Hoy día resulta más fácil que hace apenas uno o dos años con las nuevas herramientas que siguen surgiendo cada día.

También me vuelvo ilusionado con las cosas que están haciendo los jóvenes que se están formando en los Másters de Unidad Editorial-URJC y de Villanueva-UCM, capaces de mezclar lo mejor del periodismo de investigación más clásico con estas nuevas herramientas que les permiten crear narrativas transmedias e historias tan ricas audiovisualmente como en información. El periodismo de datos tiene el futuro garantizado con esta cantera, pero, como puso de manifiesto Antonio Rubio, director del Máster, hay que seguir poniendo hincapié en nuestro mayor handicap: saber contar historias. Como también mostró Auri García, del Diario Ari catalán, el público se interesa más cuando empatiza con una historia, cuando la siente cercana y la hace suya. Por eso a veces no triunfa tanto una recopilación de gráficos y datos enormemente densos en información y rico en historias como descubrir una pequeña historia surgida de esa enormidad sobre alguien que podría ser el vecino de al lado. A veces los outliers son más interesantes que los patrones globales. Su charla también fue interesante al mostrar las formas que el periodismo tiene a la hora de adaptarse a la nueva situación y los nuevos consumos que no tienen por qué significar el abandono del papel, sino la comprensión de sus diferencias con el formato digital, para lo bueno y para lo malo.

La cartografía se posiciona como un elemento cada vez más importante en las visualizaciones de datos, como nos mostró Alejandro Zappala, ya que llevamos siglos acostumbrados a leerlos y es difícil entender muchas de las noticias de actualidad sin localizarlas geográficamente en un mundo globalizado. En contra de lo que pueda parecer en sociedades cada vez más inmateriales, seguimos necesitamos nuestro anclaje al territorio, entender nuestra posición espacio-temporal para ver nuestro lugar en el mundo.

Disfruté mucho con la charla que Esperanza Zambrano, jefa de reclamaciones del Consejo de Transparencia y Buen Gobierno dio sobre las peticiones de datos, lo difícil que es hacerlas bien para que te hagan caso, y cuántas se han realizado en los dos años y medio de existencia de este órgano: apenas unas 8.000, muy pocas en realidad. Queda mucho por hacer, pero, como también mostró Antonio Rodríguez, del Centro Nacional de Información Geográfica, se está trabajando mucho para responder a esa creciente demanda social que pide datos abiertos para trabajar con ellos libremente, y para ello las Administraciones tienen que reformular sus estructuras y sus políticas de datos. En esta apertura juegan un importante papel las APIs y las herramientas basadas en ellas, como mostraron los talleres para usar la API del New York Times, insultantemente perfecta, o TCAT, algo técnica en su instalación pero enormemente útil para la minería de datos en Twitter. Sin embargo, APIs como la del INE siguen resultando aún farragosas y difíciles de usar, aunque, al menos, ya se está en el camino correcto para emular a otras instituciones como Eurostat, que incluso tienen un paquete para R con el que acceder directamente a sus bases de datos.

La apertura también pasa por la replicabilidad o reproductibilidad de los resultados. Vi cómo en el periodismo de datos se extiende también la doctrina, algo más extendida en la comunidad científica (aunque quizás no tanto como debiera), de la investigación reproducible, la necesidad de abrir no solo los datos y resultados, sino también el proceso de su consecución y la metodología empleada, para que alguien más de la comunidad interesada en el mismo tema pueda replicar, y sobre todo, mejorar la investigación, construyendo así inteligencia colectiva.

En definitiva, las jornadas de periodismo de datos han supuesto una buena muestra, quizás no tan espectacular ni amplia como las jornadas del año pasado, del estado actual del periodismo de datos, cómo seguir avanzando con las nuevas herramientas que siguen surgiendo y cómo hacerlo además acompañado de gente dispuesta a enseñarte sin pedir nada a cambio, gracias también a la cobertura que proporciona Medialab Prado acogiendo este tipo de eventos. Desde aquí quisiera agradecer a Sara por su ayuda y a Adolfo su trabajo por sacar adelante estas jornadas, así como el proyecto Open Knowledge Spain, y espero que seamos cada vez más gente los que apoyemos este tipo de iniciativas de una forma más proactiva para que las jornadas del año que viene sean aún mejores. Yo, por mi parte, me comprometo ya a ello y a moverlo también a través de MediaLab UGR.

¡Hasta el año que viene, JPD!

Análisis del hashtag #TransmediaUGR

Para seguir en Twitter la celebración del Congreso Internacional de Narrativas Transmediales, celebrado en la Universidad de Granada del 4 al 8 de abril en la Facultad de Comunicación, se lanzó el hashtag #TransmediaUGR. En MediaLab UGR tuvimos la oportunidad de participar en dicho Congreso organizando una mesa redonda el viernes 8 de abril con motivo además del Día Internacional de las Humanidades Digitales, en la que participaron gente tan interesante como Nuria Rodríguez o Enrique Villalba. Si no pudiste asistir, aquí tienes el vídeo.

El caso es que, como ya había hecho en la Open Education Week, y para practicar un poco varias herramientas como NodeXL, Gephi o el lenguaje de programación R decidí realizar un análisis del mencionado hashtag para observar cómo se relacionaron, a través de twitter, los diferentes tuiteros que participaron en el evento.

Algunos datos generales: logre recuperar a través del hashtag 1.724 tuits procedentes de 185 cuentas de twitter, que tuvieron un alcance potencial del total de 8.295.787 seguidores de dichas cuentas. Otros datos que nos proporciona la página Hashtracking, que escogí porque era la que incluía más tuits para el análisis (de manera gratuita, claro, si pagas tienes webs a mogollón): aproximadamente un tercio de los tuits es original, siendo el resto retuits y, en menor medida, menciones directas, con un alcance de 312.769 personas.

Captura de pantalla 2016-04-13 08.26.55

Con los datos extraídos en R he confeccionado una pequeña historia interactiva en Tableau. Inserto aquí las imágenes de los gráficos pero os recomiendo que entréis en el anterior enlace para que disfrutéis de su interactividad completa. Hay varios gráficos: uno sobre la evolución temporal del hashtag (es decir, la frecuencia de tuits con #TransmediaUGR a lo largo de la semana del evento y días posteriores), el ranking de tuiteros en función de los tuits realizados, retuits y citas en conversaciones y la correlación entre los tuits realizados y los retuits y citaciones.

Como podéis ver, en el Top 10 están Domingo Sánchez-Mesa, director y coordinador del Congreso; MediaLab UGR, que estuvo (estuvimos) retransmitiendo el evento por twitter y streaming; Transmedia_UGR, la cuenta oficial del evento; Nieves Rosendo, también de la organización y que realizó también un estupendo Storify a modo de resumen al final del Congreso; Javier Cantón (el que os habla); Enrique Villalba, participante en la mesa redonda y también muy activo en la red; el conocido Carlos Scolari, experto en alfabetización transmedia y ecología de medios; Laura Borràs, experta en Humanidades Digitales y participante en una mesa redonda sobre literatura digital; Esteban Romero, director de MediaLab UGR y organizador de la mesa redonda del día 8; y por último, Juan Gómez Becerra, que también siguió el evento activamente. No obstante, la posición en el ranking de cada uno de los mencionados depende, en unos casos, de la cantidad de tuits (como es mi caso), de las veces que es retuiteado, como es el caso de Domingo o Nieves o de las veces que es citado en el tuit, como ocurre con Scolari. Esas diferencias también pueden verse en el gráfico de correlaciones, dependiendo de la posición del tuitero en el gráfico. Hay cierta correlación, por nada significativa, puesto que es lógico que a más tuits realizados haya más probabilidades de ser citado o retuiteado. La línea de tiempo muestra el pico que se produjo el día 8 durante la conferencia de Scolari (por la tuit-crónica que hicimos MediaLab y yo) pero también se ven los picos de actividad de las tardes de los primeros días del Congreso y las mañanas de los días 7 y 8 (dedicadas a cuatro paneles de comunicaciones). La actividad de la tarde del 8 serían los agradecimientos y despedidas, así como va cesando la frecuencia durante días posteriores.

También he podido crear un gráfico de red social con Gephi, tras extraer datos con NodeXL, un añadido para Excel que desgraciadamente sólo funciona bajo Windows (versión Mac YA, por favor, quizás así sí que me plantearía comprarlo). Es la imagen que tenéis a continuación, aunque también tenéis a vuestra disposición la misma imagen para descargar en SVG y la versión web interactiva, que os recomiendo porque permite buscar por usuarios y ver sus conexiones (¡venga, entrad y buscaos!).

Transmedia

La red dibujada muestra varios centros principales y subgrupos, así como un flujo principal de conexiones derivadas de la conferencia de Scolari del día 8. El primer centro es la cuenta Transmedia_UGR, que conecta a los diversos subgrupos que surgieron en los primeros días del Congreso, así como en las mesas redondas sobre periodismo (en celeste, arriba a la izquierda) o en el encuentro de profesionales (en naranja, a la izquierda) del día 7. El diálogo con Agustín Fernández Maíllo del miércoles (en morado, abajo a la derecha) también fue especialmente activo a la hora de crear relaciones tuiteras. Pero indiscutiblemente el mayor flujo de conexiones (en color verde, arriba a la derecha) es la que se produjo el día 8, con un nodo principal de unión entre Transmedia_UGR y MediaLab UGR: Domingo Sánchez-Mesa (@elquellegatarde).

Por último, con la web wordclouds.com (R también tiene un paquete llamado igual para hacerlo, pero la verdad es que con esta web es más rápido y cómodo) he elaborado una ‘tag cloud’ o nube de palabras con el contenido de los tuits. ¿Os imagináis cuál fue la palabra más repetida?

wordcloud 2

Efectivamente: “transmediaUGR”, que era el hashtag analizado y propuesto y fue mencionado en todos los tuits analizados (obviamente, ya que fue el hashtag usado para recuperar los tuits). Las palabras/expresiones más usadas, por tanto, descartando la obvia, fueron “dayofdh2016” (222 apariciones) y “dayofdh” (126), hashtags usados el 8 de abril con motivo del Día Internacional de las Humanidades Digitales; “transmedia”, usada en 204 tuits; “mesa” (125), en relación a las distintas mesas redondas del Congreso; “hoy” (114), mostrando la inmediatez para la que se usa Twitter; “the”, que nos habla del carácter internacional del Congreso y el inglés como lengua franca (Domingo, por ejemplo, tuiteaba frecuentemente en inglés); y otras palabras que contextualizan bastante el contenido del Congreso: “medios” (106), “periodismo” (95), “humanidadesdigitales” (89), “diálogo” (68), “proyecto” (54), “activista” (49) y “activismo” (48), “relato” (48) o “futuro” (44).

Y hasta aquí el pequeño análisis de #TransmediaUGR. Si has llegado hasta aquí (¡gracias!) y, además, has asistido al Congreso probablemente puedas hacer más lecturas de estos datos, así que te invito a que me ayudes a seguir interpretando estos datos o a que me propongas algún otro tipo de análisis. Gracias de nuevo por leerme. Nos vemos en el siguiente análisis.

#dataviz sobre #OEWUGR

Con motivo de la celebración de la Open Education Week, a escala mundial, la UGR organizó en Granada diversos actos en colaboración con el CEVUG, la OSL y MediaLab UGR. De ellos participé activamente en el celebrado el pasado 10 de marzo: las I Jornadas sobre Educación Abierta, que pude ayudar a organizar, así como participar con una ponencia propia sobre visualizaciones de datos.

Como ejemplo de este tipo de #dataviz, realicé una exploración visual de la red social que el hashtag usado con motivo de esa semana (#OEWUGR) ha posibilitado, con la participación, como se ve en la imagen, de diferentes grupos y entidades. Tienes a continuación la imagen estática, con la intensidad de flujos entre los participantes.

OEWUGR

Como esta imagen es .png no puede ampliarse mucho, aquí tienes la imagen en .svg para que puedas ampliarla todo lo que quieras. También he creado esta visualización interactiva para explorar y aislar cada elemento de la red a tu antojo.

Además, puedes consultar el ranking de tuiteros que han utilizado el mencionado hashtag en el siguiente enlace al Tableau público.

¿Va a morir Twitter?

La red social Twitter copa hoy titulares en las secciones de tecnología de muchos periódicos. La razón: sus directivos han decidido, estratégicamente, cambiar el orden cronológico en el que se muestran los tuits en cada timeline de cada usuario, es decir, un algoritmo decidirá, al igual que ocurre en Facebook, qué contenido es el más importante para cada tuitero.

Hace ya unos meses cuando empezaron a conocerse estos planes (negados por los CEOs de la compañía) los usuarios se lanzaron a degüello, como viene siendo habitual en Internet, con el hashtag #RIPTwitter que se hizo trending topic , y proclamaron la inminente muerte de la red social. No hay que olvidar que la decisión viene provocada por las numerosas pérdidas, económicas y de usuarios, debido a un modelo de negocio que no se revela rentable, y a pesar de su salida a bolsa, porque, a pesar de su éxito social, es complicado describir a día de hoy para qué sirve Twitter.

De hecho, es algo que me ocurre mucho cuando explico este tipo de nuevas tecnologías en mis clases. Facebook está plenamente aceptado, aunque muchos de sus mecanismos ocultos, como el propio algoritmo que enseña y esconde lo que aparece en nuestros muros, no se conoce ni comprende bien. Twitter no está tan generalizado. Se conoce y a veces se usa, pero el número de usuarios activos es bastante menor que en la red de Zuckerberg. La interacción entre las dos grandes redes sociales es visible: Facebook ha adoptado el uso de hashtags (aunque no ha cuajado mucho) y recientemente ha buscado integrar las noticias de los principales medios en los perfiles de sus usuarios; por otro lado, Twitter cambió el botón para marcar tuits favoritos por un “me gusta” facebookero. 

Sin embargo, el alma de Twitter es su inmediatez y su equidad, y con este cambio reciente se pierde la segunda característica. Twitter seguirá siendo una herramienta de información, usada por medios, influencers y tuiteros convencidos, pero si lo que busca es ampliar mercado, aunque pueda parecer una buena opción a corto plazo (dicen ellos que con el nuevo sistema la gente tuitea más), por lo que significa contra su propia esencia podría ser el golpe de gracia que entierre definitivamente a Twitter.