martes, 22 de diciembre de 2015

Google usará el Big Data para ayudarnos a vivir más tiempo

Todo el tiempo le estamos diciendo a internet cuáles son nuestros hábitos. Al dar un click a una página, al subir una foto, al opinar. Al buscar información, también.

Google, a través de su empresa Verily, la empresa que ocupará la letra V en el diccionario del nuevo conglomerado de empresas del buscador, Alphabet, se encargará de investigar la salud, o como ellos mismos dicen en la definición de la empresa, “las ciencias de la vida”.

La apuesta de Verily apunta claramente a los datos, a crear equipos que unan varias disciplinas para conseguir nuevos descubrimientos.

Químicos, médicos, ingenieros y científicos especializados en análisis de datos e informáticos, serán los perfiles más comunes de la nueva empresa.

Tecnología para la salud
La pregunta con la que presentan su página web lo deja claro: “¿Cómo podemos usar la tecnología para tener una imagen fiel de la salud humana?”. La ambición de Google por alargar la vida se centra en conocer mejor el cuerpo humano a través de sensores, análisis de los registros de los usuarios (no necesariamente pacientes), inteligencia artificial, así como dos recursos que atesora en abundancia: almacenamiento de datos y gran capacidad para el procesado.

La finalidad de Verily no consiste en solo estudiar las enfermedades, sino también en investigar la salud.

Uno de los últimos cambios en los relojes con Android Wear, su sistema operativo para aparatos de vestir, apunta en esa dirección. Desde hace más de un año, la compañía investiga junto a Novartis unas lentillas que miden los niveles de glucosa de los diabéticos.

Si a este potencial para conocer datos casi en tiempo real se le suma la capacidad de proceso, la posición de Verily es privilegiada. El último ingrediente es la inteligencia artificial, un componente que los de Mountain View están añadiendo a toda su gama de productos, desde Fotos a Gmail, para tomar patrones y predecir comportamientos.

El aspecto en el que más tienen que mejorar, y reconocen que todavía lo ven como un reto, es conocer mejor la reacción ante las enfermedades. Harán alianzas con sitios web de salud para conocer directamente estas sensaciones. Para eso, se harán alianzas con sitios web como PatientsLikeMe y PatientCrossRoads, que registra miles de historias médicas de todo el mundo.

Pulseras unidas
Verily pretende unir todo el conocimiento que se está acumulando a través de las pulseras que miden el ejercicio y los medidores de pulso, para tener mejor conocimiento del ser humano.

lunes, 21 de diciembre de 2015

¿Qué es una base de datos?

Entendemos a una base de datos como un almacén donde guardamos una colección o conjunto de informaciones (texto, imagen, sonido, video...) las cuales se encuentran relacionadas entre sí y pueden ser accesibles y consultadas en cualquier momento.

Existen programas para la creación, manejo y gestión de bases de datos digitales, en donde podemos almacenar enormes cantidades de información de cualquier tipo así como realizar cualquier consulta y obtener el dato en apenas unos segundos, todo ello ocupando un espacio de un disco duro. De esta forma es posible cruzar variables y obtener mejores resultados.

¿Qué es un asistente virtual?

Un asistente virtual es un programa informático capaz de reconocer el lenguaje natural utilizado por el usuario permitiendo establecer una conversación para responder preguntas, hacer recomendaciones o realizar acciones solicitadas, aprovechando la capacidad de almacenamiento y procesamiento que disponen las computadoras y múltiples dispositivos móviles. Con la finalidad de mejorar la experiencia de uso los programadores dotan al asistente virtual de una voz y aspecto humano.

Uno de los últimos asistentes lanzado al mercado es Cortana.

Cortana es el asistente personal virtual que incluyen diversos dispositivos. Cortana reconoce el lenguaje natural (sin necesidad de utilizar comandos concretos) y utiliza Bing, Yelp y Foursquare como bases de datos. Sustituye a la búsqueda integrada de Bing en Windows Phone 8.1 y se activa pulsando el botón de búsqueda.

Se diferencia de Google Now y de Siri en que es el primer asistente virtual que incluye una “Libreta”, donde Cortana guarda toda la información que tiene sobre el usuario, sus intereses, rutinas, etcétera. De esa manera la información que el sistema tiene del usuario es fácilmente controlable, pudiendo borrar todo rastro o introducir a propósito sus gustos y demás para mejorar el servicio. También es el primer asistente que permite a los desarrolladores integrarse con él, permitiendo utilizar sus aplicaciones mediante la voz.

Dos medios, a la vanguardia en el análisis y liberación de datos

Los Tiempos y La Pública son los primeros medios de comunicación que han iniciado una labor en periodismo de datos en el país. El primero comenzó su aventura en 2013 y el segundo un año después, en 2014.
"Los Tiempos ha sido el primer periódico que ha incorporado una unidad de periodismo de datos dentro de su portal web”, explica Fabiola Chambi, quien forma parte de esta unidad junto con el gerente de proyectos de ese medio, Mauricio Canelas, y el programador Raúl Vera .

Sobre esta experiencia, Chambi explica que conseguir datos en portales gubernamentales aún es una tarea complicada. "Por ejemplo, presentan informes de datos económicos en PDF y eso no nos sirve en periodismo de datos porque se requiere que estos sean reutilizables”, afirma.
De ahí que hacer este trabajo se convierte en una labor de paciencia, no sólo al gestionar y acceder a la información pública, sino en su transcripción y conversión a datos abiertos.

A escala mundial opera la Alianza para el Gobierno Abierto, a la cual más de 60 gobiernos se han suscrito para comenzar a liberar sus datos. "En la región, Bolivia, Ecuador y Venezuela son los únicos países que no forman parte de esta Alianza. Se ha consultado a gente del Gobierno por qué no se han suscrito y ellos dicen que no han visto necesario ingresar porque manejan una cultura de la transparencia. Pero, en los hechos, no es así, pues acceder a datos públicos es muy complicado”.

Desde 2013 hasta la fecha, Los Tiempos Data trabajó temas referidos al Censo Nacional, las elecciones, además de la popularidad del Presidente en redes sociales, entre otros. "No se ha podido hacer investigaciones profundas aún. Sin embargo, tenemos algunos proyectos que tienen que ver con la liberación de datos de declaraciones juradas y otros”.

La otra iniciativa llega junto a La Pública. Se trata de una plataforma de periodismo digital y de datos enfocada a temas de ciudadanía. Inició su trabajo en mayo de 2014. "Ha sido un trabajo duro, pues los periodistas que trabajamos en esta plataforma venimos de medios impresos tradicionales. Dar el salto para entender las lógicas del digital ha sido una tarea complicada e interesante”, explica Mabel Franco, coordinadora de la plataforma.

En periodismo de datos La Pública ha trabajado liberando los datos de los programas de gobierno de los alcaldes de los nueve departamentos. "Este trabajo lo llamamos el Promesodromo, la idea es que el ciudadano pueda acceder a esos datos con mayor facilidad y pueda hacer un seguimiento de los proyectos que sus alcaldes se han comprometido a liberar”.

Otro proyecto de esta plataforma llega con Cuántas Más, que busca recopilar data que se halla dispersa -en instancias públicas y organizaciones de la sociedad civil- para armar un mapa sobre los casos de feminicidio en Bolivia.

Comenzó en 2012
Hackathones Según Willmar Pimentel, coordinador del Bolivia Tech Hub, la semilla del periodismo de datos en Bolivia se sembró en 2012, cuando se llevo adelante la hackathon Desarrollando América Latina. "En este encuentro se buscó que periodistas y desarrolladores se acerquen y conozcan lo que eran los datos abiertos con el fin de hacer aplicaciones”.
Dinero Otro de los momentos importantes en el desarrollo del periodismo de datos en Bolivia ocurrió en 2014, cuando se desarrollo "La ruta del dinero”, una hackathon que se convertiría, junto a Los Tiempos Data, en una de las dos iniciativas fundamentales para implementar el periodismo de datos en Bolivia.

Punto de vista
JAVIER BADANIMediactivista
"Aún desconfían de las nuevas tecnologías”

Gran parte de los periodistas aún desconfían de las nuevas tecnologías y, más aún, de la idea de trabajar información con personas que no son periodistas en este caso, por ejemplo, los programadores.

Es por ello que las lógicas del periodismo de datos -trabajo multidisciplinario que une periodistas, desarrolladores informáticos, diseñadores pero, además, que implica el manejo de herramientas digitales para trabajar con la data- recién están comenzando a ser tímidamente conocidas por los periodistas y las direcciones de medios bolivianos.

Obviamente, se requiere de mayor inversión para contar con una unidad de periodismo de datos, pero Los Tiempos ha demostrado que sí es posible.

Por otro lado, hay una cosa clara: periodismo de datos es periodismo igual (la base del periodismo es la búsqueda de datos y su interpretación). Lo importante para mí -más que la posibilidad de conseguir data, interpretarla y presentar la información de manera atractiva gracias a nuevas herramientas digitales- es la lógica de apoyarte en el trabajo colaborativo.

De entender que la era del yo ha terminado y que se requiere de inteligencia colectiva para enfrentar los retos que nos plantea esta era de la vorágine de la información.

Además, esta nueva forma de abordar la cobertura periodística amplía las posibilidades de trabajar la información. Esto porque los datos no mienten. Una autoridad puede intentar "camuflar” un hecho, pero serán siempre los datos los que lo delaten.

Plataforma pone bajo la lupa los contratos “jugosos” del Estado

Los contratos millonarios del Estado y la oferta de universidades públicas y privadas del país son los ejes de dos de tres investigaciones de periodismo de datos que serán publicadas a principios de 2016. Todas éstas estarán disponibles en plataformas online para que el ciudadano acceda a los datos.

Las iniciativas son resultado del primer Acelerador de Datos #DataBO, que en mayo de este año reunió a periodistas y programadores para que diseñen proyectos de investigación en periodismo de datos. "Se presentarán oficialmente en febrero y se espera que sean adoptados como herramientas de información por los medios de prensa del país”, explica el mediactivista Javier Badani.
Esta experiencia ha permitido ver algunos aspectos que los periodistas deberán encarar a la hora de ejercer estos proyectos. "Hemos visto que los datos que publican las instancias estatales son dispersos, no son inteligibles y lo peor es que por lo general están en PDF”, expresa Jhenny Nava, del diario Opinión, quien participó del proyecto Contrato Abierto.

Esta iniciativa indaga en las contrataciones de publicidad, inversiones y proyectos del Estado más caros de los últimos cinco años, publicados en el Sistema de Contrataciones Estatales (Sicoes). "Lo que se ha hecho es procesar, analizar y liberar esa información”, dice Nava.

Para la periodista es importante que las redacciones apuesten por este tipo de investigación. "Detrás de los datos hay noticias reveladoras. Sin embargo, para mantener esta plataforma es importante tener el apoyo de los medios, pues de lo contrario sería muy difícil actualizarlas”.

Otro de los proyectos próximo a publicarse es ¡Que no te la charlen!, que plantea dos ejes de estudio. "Por un lado, la oferta universitaria, y por otro, la inversión del presupuesto de estos centros. A largo plazo también podríamos investigar la oferta laboral del país”, indica Fabiola Chambi, del diario Los Tiempos.

Chambi explica que para que este tipo de investigaciones alcance resultados óptimos se requiere de un equipo multidisciplinario que incluya, al menos, un periodista, un diseñador y un programador. "Sin este equipo es prácticamente imposible”.

Los datos abiertos responden a una filosofía que busca poner a disposición de la sociedad los datos que gestiona la administración pública en formatos fáciles de manipular, se lee en el sitio del DataBO.
El periodismo de datos pone a disposición de los lectores los "datos originales sobre los que se llegaron a conclusiones periodísticas, dando así un salto cualitativo en la búsqueda de mayor transparencia”, se lee en el sitio del diario La Nación, pionero en la región en esta práctica.

Contrato Abierto revela inversión en publicidad, adquisiciones y costo de obras
"A lo largo de la investigación hemos identificado que hidrocarburos, carreteras y transporte son los tres rubros que tienen los contratos más jugosos del país”, expresa la periodista Jhenny Nava, investigadora de la plataforma Contrato Abierto, donde se ha sistematizado información publicada en el Sistema de Contratación Estatal (Sicoes).

"Luego de la polémica entre el Gobierno y la periodista Amalia Pando, quien se vio obligada a dejar la red ERBOL por presiones gubernamentales, nos pusimos a investigar también sobre la inversión de publicidad estatal. Los datos que han saltado son realmente reveladores”, manifiesta.
Como adelanto, explica que red Uno, Bolivia TV e Illimani de Comunicaciones son las empresas con mayor facturación por publicidad estatal en los últimos cinco años.

"También se han analizado las compras más costosas. Se ha visto que Yacimientos Petrolíferos Fiscales Bolivianos (YPFB), por ejemplo, ha invertido en esta primera mitad de la década más de seis mil millones de bolivianos por compra de productos derivados de petróleo a refinerías”.

Pero Contrato Abierto no queda únicamente en el proceso y análisis de datos. "Tiene un segundo componente, pues también se van a publicar las licitaciones que salgan en el Sicoes, para que la gente acceda a información más detallada sobre esos procesos de contrataciones”, indica Nava.

¡Que no te la charlen! trae información sobre las universidades públicas y privadas

¡Que no te la charlen! es otra de las plataformas de periodismo de datos que ha reunido a periodistas de La Pública y del diario Los Tiempos, de Cochabamba. Juntos efectuaron una exhaustiva búsqueda y seguimiento de la oferta académica de las universidades públicas y privadas.

"Se trata de un proyecto sobre educación superior en Bolivia. Partimos de la premisa de que la información de las universidades está dispersa o no es accesible para el público que la necesita. Por tanto, se ha hecho un trabajo de hormiga para encontrar los datos, sistematizarlos, concentrarlos y liberarlos”, indica Mabel Franco, periodista que participa en el proyecto.

¡Que no te la charlen! ofrece información de universidades privadas y públicas sobre carreras, dónde se ofrecen o cuánto duran. De esta forma, identificaron que las carreras de Ingeniería de Sistemas, Administración y Contaduría se pueden encontrar en prácticamente todas las universidades del país. "Es importante mencionar que la mayor parte de la oferta es privada y se concentra en las capitales del eje troncal del país”.

Sobre la experiencia , Franco manifiesta que este proceso les mostró que las universidades no piensan en el ciudadano. "En temas de presupuesto, por ejemplo, cada casa de estudios superiores pública hace lo suyo. Nadie se ha ocupado de facilitar la información que te permita comparar”. "El proyecto nos ha mostrado que periodistas de un medio digital y uno impreso pueden trabajar juntos”.

martes, 15 de diciembre de 2015

Sandra Crucianelli, periodista argentina y experta en el tema “No es posible un Gobierno abierto sin modernización”

¿Qué son los datos abiertos y cuál su importancia?
Los datos abiertos son datos que pueden ser utilizados, reutilizados y redistribuidos libremente por cualquier persona. Están al requerimiento de atribución y de compartirse de la misma manera en que aparecen. Son importantes porque contribuyen en el aumento de los niveles de acceso a la información pública y porque permiten encontrar noticias en grandes volúmenes de datos.
¿Qué es el gobierno abierto?
Gobierno Abierto, Innovación y Modernización forman parte del mismo concepto global: una doctrina política que promueva desde el Estado la difusión de datos abiertos sobre cuestiones de interés público (como presupuesto o compras del Estado), promoviendo de ese modo el control social a través de la rendición de cuentas.
Los ciudadanos no están ajenos. Participan activamente usando la información pero también aportando nuevos datos o proponiendo ideas que les permitan mejor calidad de vida. No puede haber gobierno abierto posible sin innovación ni modernización.
¿Por qué es importante que los gobiernos consideren liberar sus datos?
Porque la información liberada se constituye en una herramienta para promover la transparencia, pero también el compromiso y la participación ciudadana.
¿Se podrán liberar todos los datos de las entidades estatales? ¿Cuáles son los criterios que se deben tomar en cuenta?
Cualquier conjunto de datos es susceptible de ser liberado, siempre que no esté sujeto a restricciones legales que atenten contra las leyes de seguridad, defensa o protección de datos personales.
Si bien los datos abiertos son una necesidad, ¿cuáles serán las áreas que indispensablemente tendrían que liberar sus datos para que el ciudadano se beneficie de ellos?
Son importantes los datos sobre ejecución de fondos públicos, compras del Estado, indicadores de salud, educación, justicia, obras públicas y seguridad, entre otros.
¿En qué medida el ciudadano puede incidir en la construcción de políticas de su ciudad o país a partir de los datos abiertos?
La base de incidencia es la participación. Es un proceso que no surge solo. Hay que promoverlo en dos vías, desde la sociedad civil hacia el Estado y desde el Estado hacia la sociedad civil.
¿En qué aspectos deben pensar los gobiernos al plantear la creación de una ley que permita la liberación de datos?
Las leyes de acceso a la información pública deberían contemplar la obligatoriedad de liberar los datos gubernamentales y aquellos de empresas que sean de interés social, como los generados por empresas de servicios públicos. La filosofía que plantea la Alianza de Gobierno Abierto, (OGP), es un marco de referencia importante.
¿Cuál es el panorama a nivel mundial sobre la liberación de datos a nivel gubernamental?
En 2011 comenzó a gestarse un movimiento interesante a nivel mundial, promovido por varios países. Así se creó la Alianza de Gobierno Abierto, que describe el estado de compromiso y desarrollo de cada país que se ha sumado a la iniciativa. Hay algunos que están más avanzados que otros, y ciertos países que directamente no se unieron porque no comparten la filosofía y obviamente, no tienen interés en abrir sus datos a los ciudadanos.

HOJA DE VIDA


Perfil Es periodista especializada en periodismo de investigación y de precisión, así como en varias de sus herramientas digitales.
Actividades Es docente del Programa de Educación Virtual del Centro Knight para el Periodismo en las Américas y miembro del consejo asesor de la Fundación para las Américas de la OEA.

Autonomías y el TSE liberaron datos al público

Este diciembre, las oficinas públicas bolivianas comenzarán a dar cuenta de sus gestiones. Serán rendiciones enfocadas a mostrar los resultados y la ejecución de los recursos a lo largo del año y con ello habrán cumplido en temas de transparencia, pero, ¿será ésta la forma ideal de transparentar la información pública?

Para el experto en nuevas Tecnologías de la Información y Comunicación (TIC) Pablo Andrés Rivero esta forma tradicional de dar cuenta de la gestión ya no es suficiente. "Hoy existe una tendencia mundial que promueve la liberación de datos a través de las nuevas tecnologías, con el fin de que el ciudadano realice un seguimiento y control social más efectivo de estos procesos”.
Los datos abiertos son accesibles y reutilizables, sin exigencia de permisos específicos. No obstante, los tipos de reutilización pueden estar controlados mediante algún tipo de licencia. El concepto datos abiertos responde a una "filosofía y práctica, que persigue que determinados tipos de datos estén disponibles de forma libre para todo el mundo, sin restricciones de derechos de autor, de patentes o de otros mecanismos de control”, se lee en el sitio Open Knowledge Foundation.

En la actualidad, explica Rivero, hay una alianza internacional de datos abiertos, promovida por organizaciones de la sociedad civil, a la que se han sumado más de 60 gobiernos que se han comprometido en convertirse en gobiernos abiertos, algunos de ellos de la región como México.
¿Cómo va Bolivia en este tema?
En el país se han dado algunas iniciativas aisladas en oficinas como el Servicio Estatal de Autonomías (SEA) y el Tribunal Supremo Electoral (TSE), que se animaron a liberar algunos de sus datos. Sin embargo, han sido iniciativas que se han logrado gracias a la voluntad de sus representantes, pues en Bolivia no se tiene una ley de gobierno abierto para la transparencia y tampoco se promueve la liberación de datos.
En el caso del TSE se "liberaron datos, antes de las elecciones subnacionales de 2015. Datos sobre el número de votantes (edad, sexo, municipio, macrodistritos y hasta número de inscritos por mesa)”, recuerda Rivero.
También se liberó datos sobre los resultados de anteriores elecciones. "Eso no quiere decir que hayan dado a conocer datos personales de los votantes”. La experiencia llamó al debate sobre la pertinencia de hacer pública esta información. "Hay quienes consideran que no se deberían abrir los datos del padrón electoral porque incluye información personal de los inscritos”. Otros consideran lo contrario, pues "el padrón es de dominio público y conocerlo serviría a las organizaciones para hacer un control sobre los resultados”.
En el caso del Servicio Estatal de Autonomías, en septiembre de este año se llevó adelante la primera hackathon (reunión de desarrolladores) en una oficina estatal para elaborar prototipos para la liberación de datos, como leyes y fichas autonómicas.

"Esta iniciativa nació de la directora ejecutiva del SEA. Coordinamos con el Observatorio de la Bolivia Autonómica, que maneja datos valiosos sobre la entidades territoriales autónomas referidos a su demografía, composición y otros”, cuenta Gabriela Bascopé, jefa de la unidad de comunicación de esa oficina.
Para esta hackathon se liberaron todas las leyes municipales que el Servicio Estatal de Autonomías maneja, además de las fichas autonómicas que dan cuenta de datos de los gobernantes y las características de cada municipio.
Se convocó a equipos de programadores y periodistas para que realicen un análisis de los datos y propongan prototipos que permitan al ciudadano conocer los procesos, legislatura y otros detalles de sus municipios.
Al evento, denominado #HackPúblico, se inscribieron tres equipos. El ganador, conformado por Williams Chorolque y Ariel Canaviri, propuso una plataforma que albergue las leyes municipales en formato de datos abiertos, es decir: no en pdf, ni en imagen, sino en un formato que permitirá al ciudadano acceder al texto y poder hacer búsquedas específicas. En esa oportunidad, los ganadores accedieron a un fondo para desarrollar el prototipo.

Transparencia y legislación

En el país se han dado tímidos pasos en la búsqueda de transparencia y acceso a la información. Se ha creado una Agencia de Gobierno Electrónico, con la que se busca mayor eficiencia en el servicio que las oficinas estatales brindan al ciudadano. Sin embargo, a decir de Rivero, aún no se tiene una legislación sobre gobierno abierto que impulse la transformación de la información a datos abiertos, en términos de transparencia, pese a que la Constitución Política del Estado promueve esto.

Por ejemplo, en el parágrafo II de la Sección IV de Ciencia, Tecnología e Investigación establece que : "el Estado asumirá como política la implementación de estrategias para incorporar el conocimiento y aplicación de nuevas tecnologías de información y comunicación”.
Mientras que, en su artículo 242 , apartado 4, la norma indica que el Estado debe generar un manejo transparente de la información y del uso de los recursos en todos los espacios de la gestión pública. "La información solicitada por el control social no podrá denegarse y será entregada de manera completa, veraz y oportuna”. ¿En qué medida se cumple esto?
A decir de Rivero, en el país se tiene una Ley de Transparencia y Control Social que establece que toda instancia pública debe presentar sus datos, pero éstas lo hacen en función de sus resultados. "Es un power point que no le servirá de mucho al ciudadano porque no podrá conocer el proceso”.

lunes, 14 de diciembre de 2015

Formatos de datos en la web

En la tesis de Chang y Villavicencio, escrita el año 2007 con el título “Análisis, diseño e implementación de un marco de trabajo para la generación rápida de aplicaciones Web multimedia interactivas”, los formatos estructurados son formatos descriptivos que permiten dar forma o estructura a un objeto cualquiera de manera estandarizada. Se los denomina estructurados, porque están orientados a ser interpretados por los lenguajes de programación, ahorrando caracteres al ser utilizados, es decir, minimizan el nivel de procesamiento en lo más posible. Dos de los formatos más utilizados para la Web son el lenguaje de marcado extensible y la notación objeto del lenguaje de programación Java,

Otero, en la tesis de grado escrita el año 2014 con el título “Estudio técnico de la factibilidad y propuesta tecnológica para sistemas de monitoreo en los sistemas de transporte público”, menciona que el lenguaje de marcas extensible ha experimentado lo que se podría considerar como un camino común dentro de las tecnologías de la información y la comunicación. Comenzó en los años 1990 como una solución a un problema particular que muy pocos utilizaban, después se fue extendiendo su uso conforme las computadoras aumentaban su capacidad de procesamiento y las herramientas para la traducción del lenguaje de marcas extensible fueron mejorando, eso generó que el lenguaje se volviese mucho más sofisticado y generalizado. Últimamente ha existido una disminución en el uso de este lenguaje debido a una cantidad de problemas y puntos débiles que tienen las herramientas de traducción y el nacimiento de nuevas alternativas, sin embargo sigue siendo un lenguaje ampliamente utilizado en sistemas de configuración y algunas interfaces de programación de aplicaciones alrededor del mundo. Este formato es en realidad una versión simplificada del lenguaje de marcas general estándar, que es un estándar de documentación internacional desde la década de los años 1980. Sin embargo, el lenguaje de marcas general estándar es demasiado complejo especialmente para la Web. Por ello Jon Bosak desarrolló un grupo en el “Consorcio de la Web” que permitiera crear un nuevo lenguaje derivado de este para su utilización en el internet. El lenguaje de marcas extensible puede ser visto como un metalenguaje que permite crear y expandir formatos propios. Esto lo diferencia de lenguajes como el lenguajes de marcas de hipertexto en donde ya existen etiquetas establecidas, por ello no es posible crear etiquetas propias y esperar que exista una comunicación correcta con el receptor. En el lenguaje de marcas extensible es permitido crear etiquetas con nombres propios y configurar las opciones de estas de manera propia.

En el artículo publicado por Crockford, el año 2006 con el título “Aplicación json, tipo de soporte para la notación objeto del lenguaje Java”, se menciona que la notación objeto del lenguaje de programación Java es un estándar abierto basado en texto que permite el intercambio de información. Es fácil de ser leído por los seres humanos, es independiente de la plataforma en la que se lea y es manejado por una gran cantidad de aplicaciones a nivel global. La codificación no aumenta mucho la cantidad de bytes a la información por lo que es conocido como un formato ligero. Inicialmente fue pensado para ser utilizado con el lenguaje Java, aunque su utilización se ha extendido a otros lenguajes que lo manejan para realizar operaciones, peticiones, respuestas, y otras, de manera síncrona o asíncrona. La sintaxis de notación objeto del lenguaje de programación Java fue creada a partir de lo que se conoce como objetos literales en Java, que son representaciones de objetos en la que los atributos y sus valores son escritos y separados por algún símbolo en común. A pesar de que Java tiene una gran flexibilidad con la representación de sus datos, el formato de la notación objeto del lenguaje de programación Java no es tan abierto para mantener compatibilidad entre lenguajes. El estándar establece que el nombre del atributo y el valor deben de estar contenido siempre entre comillas dobles mientras que Java permite omitir estas comillas o poner comillas simples en el nombre del atributo siempre y cuando no sea una palabra reservada. La ventaja de la notación objeto del lenguaje de programación Java se encuentra en su simplicidad. Un mensaje con éste formato está compuesto por un objeto en el más alto nivel. Los tipos de elementos guardados dentro de la estructura pueden ser objetos o arreglos.

Chang y Villavicencio, en la tesis de grado citada, mencionan que el lenguaje de marcas extensible es un formato de código Web muy parecido al lenguaje de marcas para hipertexto al ser descrito con etiquetas, pero en realidad el lenguaje de marcas para hipertexto es derivado del lenguaje de marcas extensible porque las etiquetas utilizadas son definidas, en cambio el lenguaje de marcas extensible simplemente permite la representación de datos en dicho formato. Es también descriptivo, jerárquico y comprensible por los navegadores, al detallar cada elemento con diferentes banderas y propiedades en lenguaje natural. Ajax, una tecnología para desarrollo Web, se basa mucho en el formato lenguaje de marcas extensible para crear componentes y muchos tipos de comportamiento en las aplicaciones Web. La notación objeto del lenguaje de programación Java es un formato de representación de contenidos u objetos, orientado a su fácil y rápida interpretación por una computadora, y para su ágil proceso de interpretar datos y aplicarles una gramática definida previamente para que el resultado final sean los mismos datos en otro formato. Es sencillo de entender, y a diferencia del lenguaje de marcas extensible, está orientado a ser interpretado por una computadora más rápidamente, pues se utilizan llaves para separar grupos de contenidos, y textos descriptivos para nombrarlos.

lunes, 7 de diciembre de 2015

Primera parte Formatos de datos en la web

En el documento titulado “Estándares de formato de archivos de ofimática” publicado por la Comisión Sectorial de Desarrollo Informático de la Universidad de la República en el año 2008, se menciona que en tecnología y en general, un estándar es una especificación que regula la realización de ciertos procesos o la fabricación de componentes para garantizar la interoperabilidad. En informática, un formato de almacenamiento es la estructura usada para grabar datos en un archivo. Un formato de documentos es una especificación que determina cómo debe almacenarse en un archivo la información contenida en un documento. Los formatos pueden ser propietarios ó abiertos. Un formato propietario es propiedad de su fabricante. Su uso por parte de terceros está condicionado a los permisos que el propietario otorgue. Estos permisos dependen generalmente de decisiones comerciales. Las especificaciones de formatos propietarios generalmente no son públicas. Esto restringe el acceso a archivos que han sido almacenados con formatos propietarios. Un formato abierto es de uso libre. Las especificaciones se encuentran disponibles en forma gratuita y no se requiere un permiso del fabricante para desarrollar software que las utilice para almacenar o abrir documentos.

Según Chang y Villavicencio, en la tesis de grado escrita el año 2007 titulada “Análisis, diseño e implementación de un marco de trabajo para la generación rápida de aplicaciones Web multimedia interactivas”, es necesario tener estándares en los cuales la información debe de ser presentada, de lo contrario el desarrollo de cualquier aplicación sería un caos, pero tampoco puede existir un formato único, ya que cada uno es creado con el fin de satisfacer ciertos requerimientos y necesidades, tanto para el desarrollador, como para la computadora. Los formatos de datos en la Web más importantes, se agrupan en dos grupos grandes: Formatos parcialmente estructurados y formatos estructurados. En primera instancia se presentaran los formatos parcialmente estructurados, o semi-estructurados, los cuales se encuentran orientados a ser leídos tanto por navegadores y lenguajes de programación, como por programadores, y llevan este nombre porque sus estructuras están separadas por encabezados o etiquetas legibles, es decir, la mayoría de estas etiquetas se encuentran en lenguaje natural, de manera organizada y jerárquica, siendo su representante visible el lenguaje de marcas para hipertexto.

En la tesis de grado de Bautista, escrita el año 2013 con el título “Sistemas de apoyo a los servicios académicos que ofrece el Programa de Atención Diferenciada para Alumnos”, se menciona que el lenguaje de marcas para hipertexto es el lenguaje de marcado predominante para la elaboración de aplicaciones Web que se utiliza para describir y traducir la estructura y la información en forma de texto, así como para complementar el texto con objetos tales como imágenes. El lenguaje de marcas para hipertexto se escribe en forma de “etiquetas”. Este lenguaje de marcado toma como base la sintaxis del lenguaje estándar generalizado de marcas. Esto quiere decir que los diferentes elementos, entre los cuales se cuentan los párrafos, encabezamientos, tablas, listas de un documento para la Web, se señalan intercalando etiquetas que indican al navegador cómo debe mostrarlo. El uso del hipertexto se ha convertido en una de las bases de Internet, lo que ha popularizado enormemente el lenguaje de marcas para hipertexto, hasta el punto de convertirlo en un verdadero estándar. Posteriormente, los navegadores son los encargados de leer este lenguaje y traducir los elementos que representan, mostrándolos directamente en pantalla. Su funcionamiento se basa en el uso de etiquetas o códigos, que permiten dotar de unas determinadas características y propiedades a los textos y elementos que engloban. La sintaxis del lenguaje de marcas para hipertexto contiene: (1) Una etiqueta inicial que señala el comienzo de un elemento. (2) Un número determinado de atributos y sus valores asociados. (3) Una cierta cantidad de contenido, entre los que se cuentan caracteres y otros elementos. (4) Una etiqueta que marca el final. El lenguaje de marcas para hipertexto no es más que una aplicación del lenguaje estándar generalizado de marcas, un sistema utilizado para definir tipos de documentos estructurados y lenguajes de marcas para representar esos mismos documentos. El término lenguaje de marcas para hipertexto se suele referir a ambas cosas, tanto al tipo de documento como al lenguaje de marcas.

Chang y Villavicencio, en la tesis de grado citada anteriormente, señalan que el lenguaje de marcas para hipertexto es el formato más general y común en la red. Este formato es el utilizado por todos los sitios Web y permite dar formato a las páginas que son visitadas por los navegadores. Una página Web está compuesta por lo general de una cabecera y un cuerpo, dentro de los cuales se introduce código de formato de marcas para hipertexto, para dar estructura al documento, para incorporar distintos medios y para proveer vínculos a otros sitios. Todo contenido debe estar dentro de etiquetas para ser reconocido por el navegador, caso contrario, éste lo interpretará como texto ordinario del contenido del sitio. En un sitio de marcas para hipertexto es posible incorporar etiquetas con lenguajes de programación para insertar funciones, y es posible además darle formato a un sitio por medio de hojas de estilo. Existen formatos estándares simplemente para definir el diseño de una página Web. El estándar más aceptado en este medio es la hoja de estilo en cascada, que consiste en un lenguaje simplificado, que utiliza medio de llaves para separar diferentes formatos, siendo éstos miembros de clases o poseen identificadores propios. De ésta forma, es posible cambiar todo el diseño de un sitio Web con tan solo alterar la sección de la hoja estilo en cascada de la página por otra. Este formato utiliza palabras en inglés para describir el formato a tener de cada sección de la página, y posee ciertos comandos para manipular algunos eventos básicos como cambios dinámicos en una sección, o efectos del ratón.

viernes, 11 de septiembre de 2015

Libros y manuales en acceso abierto sobre contenidos abiertos que pueden ser utilizados como materiales didácticos (datos, recursos y documentación)

En #condatos15 hemos hablado de datos abiertos y otros contenidos en abierto, y de la importancia que estos contenidos y recursos pueden tener en la formación de ciudadanos consientes con valores cívicos y con capacidades de comprender su entorno, por eso, decidí compilar una lista de libros y manuales en acceso abierto que pueden ayudar a construir modelos didácticos que incluyan datos, recursos o documentación en abiertos.
Nota mental: cuando tenga unos minutos libres debo actualizar esta lista en orden alfabético con la cita correcta en formato APA para que no me quiten el título de bibliotecóloga
Open Data Handbook – Español http://opendatahandbook.org/guide/es/
Open Data Handbook http://opendatahandbook.org/guide
Manual de Periodismo de Datos Iberoamericano http://manual.periodismodedatos.org
The data journalism handbook http://datajournalismhandbook.org
Manual de periodismo de datos internacional en español http://t.co/zTSZSEAzTS #CONDATOS15
Open Innovation – A Handbook for Researchers http://innovationskontorvast.se/ikv/wp-content/uploads/2013/08/IKV-Blue-Paper-Open-Innovation-1.0.pdf
Open Education Handbook http://education.okfn.org/handbook/
A basic guide to Open Educational Resources http://unesdoc.unesco.org/images/0021/002158/215804e.pdf
Directrices para Políticas de Desarrollo y Promoción del Acceso Abierto http://www.unesco.org/new/es/communication-and-information/resources/publications-and-communication-materials/publications/full-list/policy-guidelines-for-the-development-and-promotion-of-open-access/
Acceso abierto a la producción de ciencias sociales de América Latina y el Caribe: bibliotecas virtuales, redes de bibliotecas virtuales y portales http://bibliotecavirtual.clacso.org.ar/ar/libros/secret/babini/Babini.pdf
Datos abiertos y ciudades inteligentes en América Latina: Estudio de casos http://www.cepal.org/es/publicaciones/37089-datos-abiertos-y-ciudades-inteligentes-en-america-latina-estudio-de-casos
Datos abiertos: un nuevo desafío para los gobiernos de la región http://www.cepal.org/es/publicaciones/7331-datos-abiertos-un-nuevo-desafio-para-los-gobiernos-de-la-region
La información y el conocimiento abierto en el contexto de la cooperación multilateral http://www.unesco.org/new/fileadmin/MULTIMEDIA/FIELD/Montevideo/pdf/CDCI2-Aladi-ES.pdf 
Recursos Educacionais Abertos no Brazil http://www.cetic.br/media/docs/publicacoes/8/rea-andreia-inamorato.pdf
Open Government Data (The Book) https://opengovdata.io
Open Science and Research Handbook http://openscience.fi/handbook
Open access and the humanities http://ebooks.cambridge.org/ebook.jsf?bid=CBO9781316161012
Open education: A study in disruption https://curve.coventry.ac.uk/open/items/c04530ce-d16a-46ca-b359-a905195a76cb/1/.
Si conoces algún otro, me avisas por acá, o por Twitter @jatenas

sábado, 22 de agosto de 2015

EMPRESARIO José Antonio Conde: “Aplicamos big data en jugadores”

Fue una figura del tenis en España y hoy dirige una empresa de marketing que también busca aplicar los métodos del big data o minería de datos en los deportes.

No solo se trata de registrar la frecuencia cardiaca en los jugadores, sino de saber cómo se desplazan durante el juego, milímetro a milímetro.

_Equipos como el Barcelona o el Real Madrid tienen un departamento para hacer este tipo de estudios.
Los equipos de primera, de segunda y algunos de tercera tienen su departamento de lo que se llama scouting, que son los ojeadores. Graban en video y analizan lo que dicen los entrenadores de los equipos propios y contrarios.

Utilizan una herramienta como la nuestra, que es un software de videoanálisis que hace cortes de video de todas las jugadas que pide el míster o entrenador.

Por ejemplo: quiero saber las subidas por la banda de Messi y ellos hacen los cortes de video de todas las subidas a la banda de Messi (incluida su frecuencia cardiaca, su velocidad y la forma en que coloca el pie para patear. Toda esa información es el big data).

A lo mejor hay una o cincuenta, y hacen un video de esas 50 subidas a la banda y estudian cómo juega. Igual con los porteros. Analizan después de un partido cuántas veces se tiran a la derecha, al centro o se quedan quietos en los penales.

Hacen cortes de video para analizar la actitud del jugador. En el tenis se visualiza la manera de sacar de un jugador y de qué manera se posiciona en pista para saber si saca a un sitio o al otro.

Siempre hay una diferencia de posición de un pie, de una mano, de un gesto. Entonces sabiendo eso se puede saber dónde va a ir la bola.

_¿Cómo se llama el software que utilizan?
Nuestro software se llama Eric Sport. Tenemos clientes como el Barza, jugadores individualistas de tenis, como el Pamesa Valencia, la FIBA (Federación Internacional de Baloncesto), el Espagnol.

_¿En qué otras disciplinas se puede aplicar?
En balonmano. Hicimos el ‘scouting’ del Mundial sub 19 que se jugó en Uberlandia, Brasil. En baloncesto y waterpolo también lo utilizan.

La nadadora sincronizada Ana Tarrés (francesa que fundó el equipo español) usa el software, porque permite ver la posición de las nadadoras por fuera del agua y por dentro.

_¿Implica poner algún dispositivo al jugador?
Sí. Todos entrenan con GPS para saber la frecuencia cardiaca y los kilómetros que recorren en el entrenamiento. En fútbol no se puede jugar con GPS, porque la FIFA no lo deja, pero en entrenamientos sí.

_¿Y en la parte médica?
Toda la parte médica de la rehabilitación del jugador se introduce en el software. Los entrenadores quieren saber cuándo se lesionó un jugador y cuándo se recupera. Se ponen las ecografías cuando hay rotura de fibras y se ve la evolución de la lesión, porque hay jugadores que se recuperan antes. Los médicos quieren el big data y la parte médica v

jueves, 9 de julio de 2015

Evento "Herramientas automáticas para la investigación social y el data-periodismo"


Tema: Herramientas automáticas para la investigación social y el data-periodismo
Fecha: Viernes 10 de julio, 9:00 a 12:00
Lugar: Vicepresidencia del Estado, Calle Ayacucho, esq. Mercado
Público: periodistas e investigadores, y ciudadanía en general - Entrada libre

Gracias a Internet, las fuentes de información y datos son cada día más numerosas, accesibles y actualizadas, pero más complejas a la vez. Para poder recuperar, extraer y sintetizar cantidades tan grandes de textos, se desarrollaron herramientas especializadas para realizar, entre otras, las siguientes tareas de manera automática: recolectar artículos, mensajes y libros, traducir, extraer palabras-clave, nombres de personas y de lugares, y generar resúmenes, gráficos y mapas.

En este sentido, la Agencia para el Desarrollo de la Sociedad de la Información - ADSIB y GeoBolivia de la Vicepresidencia del Estado tienen el agrado de invitar a los periodistas e investigadores, y a la ciudadanía en general, a la presentación "Herramientas automáticas para la investigación social y el data-periodismo", el día viernes 10 de julio de 9:00 a 12:00 en la Vicepresidencia del Estado, Calle Ayacucho, esq. Mercado.

Los periodistas interesados en cruzar informaciones y recuperar noticias inéditas, y los investigadores que trabajan sobre corpus de textos o de datos voluminosos, descubrirán en esta presentación herramientas y metodologías que les ayudarán en su trabajo de día a día. En el marco de la soberanía tecnológica del Estado que promueven la ADSIB y GeoBolivia, se presentarán principalmente herramientas de software libre, así como algunos servicios web gratuitos.

La presentación será realizada por Philippe Rivière, experto francés en procesamiento y visualización de corpus de textos y datos, co-creador del CMS SPIP y de la red social seenthis.net, y será seguida por la demostración de un prototipo de software de procesamiento integral de bases de textos desarrollado en el curso-taller dado por Philippe Rivière entre el 29 de junio y el 9 de julio en la Vicepresidencia del Estado (ver http://geo.gob.bo/blog/spip.php?article236).

martes, 7 de julio de 2015

Proyecto de contrataciones públicas recibe premio de periodismo de datos

El Primer Acelerador de Periodismo de Datos de Bolivia premió tres proyectos impulsados por periodistas y desarrolladores que se convirtieron en los primeros profesionales en incursionar en esta nueva área de investigación periodística que va de la mano de la tecnología.

“Contrato Abierto” el proyecto que abrió datos del Sistema de Contrataciones Estatales obtuvo el segundo lugar del concurso.

A través del sitio www.contratoabierto.com cualquier ciudadano podrá acceder a la información de las contrataciones de distintos niveles gubernamentales de manera fácil y tendrá la opción de reutilizar la misma para ejercer su papel de control social y fiscalización.

La aplicación de noticias permitirá a periodistas utilizar la información para analizarla con el fin de transparentar la administración del dinero que se dispone en la compra de servicios, contrato de obras, entre otros.

El equipo de “Contrato Abierto” está compuesto por la periodista de OPINIÓN Jhenny Nava y los desarrolladores Álvaro Molina y Henry Tabi.

El primer premio fue para “Que no te la charlen”, proyecto que da a conocer las posibilidades de estudio universitario. El tercer premio lo ganó “El patrimonio del Gabinete de Evo”.

Los ganadores recibirán un fondo semilla para dar continuidad al trabajo que tiene el fin de impulsar la transparencia y evitar la corrupción. Fueron ocho los trabajos que participaron del acelerador organizado por Hivos, Oxfam y La Pública. Todos calificados por jurados internacionales.


lunes, 6 de julio de 2015

Proyecto de transparencia universitaria gana concurso de periodismo de datos

“Que no te la charlen” es el nombre del proyecto sobre educación superior y transparencia universitaria que ganó el primer Acelerador de Periodismo de Datos de Bolivia.

El evento convocó la participación de periodistas, programadores, diseñadores y activistas de todo el país que durante un mes desarrollaron sus propuestas asesorados por la experta argentina Sandra Crucianelli.

La actividad surgió como iniciativa del periódico digital La Pública y el apoyo de Hivos y Oxfam, con el objetivo de impulsar la cultura de la transparencia en el país a través de una simbiosis entre la comunicación y la tecnología.

El jurado estuvo compuesto por Florencia Coelho, de La Nación Data; Pablo Collada, de Ciudadano Inteligente y Juan Manuel Casanuevas, de SocialTic, expertos en la temática de gobierno abierto y periodismo de datos.

El equipo que obtuvo el primer lugar estuvo compuesto por la periodista de Los Tiempos, Fabiola Chambi; el encargado de IT de Editorial Canelas, Raúl Vera; los periodistas del diario digital La Pública Raisa Valda y Mabel Franco, además de Ida Peñaranda, Marcelo Lazarte, Cintia Mamani y Vladimir García.

El segundo lugar fue para el trabajo denominado “Contrato Abierto” que se enfoca en las contrataciones públicas, y el tercer lugar para “Patrimonio del Gabinete de Evo”, proyecto sobre las declaraciones juradas de servidores públicos.

El primer lugar representará a Bolivia en el evento “Media Party”, que se desarrollará en Argentina en los próximos meses.

Proyecto ganador

El proyecto ganador se concentra en dos ejes. El primero muestra una sistematización de datos de universidades públicas y privadas en todo el país, además de la identificación georreferenciada de cada una con información específica para comparar y definir ventajas para estudiantes y padres de familia.

El segundo eje se centra en el manejo del dinero dentro de las universidades públicas, la inversión que realiza el Estado, el origen y la administración.

Las cifras recopiladas desde 2012 hasta mayo de 2015 posibilitan analizar en profundidad el manejo presupuestario de cada universidad.

“Aunque el tema de las universidades ha sido con frecuencia motivo de agenda mediática, no se abordó una aproximación tan global como ésta y con información que realmente genere utilidad a los usuarios y contribuya a la transparencia de un sistema que aún se mantiene con cierto hermetismo respecto a la socialización de datos públicos, nuestro trabajo hará que esto sea posible”, explicó Chambi.

Búsquedas

La información sobre el proyecto ganador “Que no te la charlen” ya está disponible y al alcance de todo el público en el sitio web www.quenotelacharlen.com.

Allí figura toda la información sobre inquietudes universitarias descritas con referencias académicas y económicas.

También puede encontrarse la plataforma en Facebook con el mismo nombre.

miércoles, 10 de junio de 2015

ADSIB y GeoBolivia convocan al curso "web y datos"

La ADSIB y GeoBolivia convocan al curso "web y datos", Herramientas y técnicas para enriquecer automáticamente conjuntos de datos, dado por el experto internacional Philippe Rivière.

ACERCA DEL CURSO
El curso será orientado al procesamiento, enriquecimiento y visualización de conjuntos de datos

se presentarán herramientas para procesar información textual, indexar, extraer palabras clave, temas, lugares geográficos, hacer resúmenes automáticos, detectar el idioma y traducir, etc.
se mostrarán técnicas para producir aplicaciones web enriquecidas con un enfoque a las nuevas tendencias de visualización y estilización de datos.

El curso mezclará presentación magistral de los conceptos y de las herramientas con la aplicación práctica de las técnicas aprendidas en un taller multidisciplinario.

INSTRUCTOR Philippe Rivière
Informático y periodista francés
co-autor de SPIP y de seenthis.net
web: http://visionscarto.net/
twitter: @recifs

SESIONES
Del 29 de junio Al 9 de julio de 2015, Horas: 19:00 – 22:00
Lugar: Edificio de la Vicepresidencia del Estado Plurinacional de Bolivia

DIRIGIDO A
Geógrafos, informáticos, periodistas, artistas, diseñadores gráficos.

REQUERIMIENTOS PREVIOS
Conocimientos básicos en procesamiento de datos y su representación visual o manejo de tecnologías computacionales para la presentación y publicación de información.

INSCRIPCIÓN
El curso no tiene costo alguno y el cupo de participantes es de 30 personas.
Se entregarán certificados con previa presentación de un proyecto del curso.

REQUISITOS PARA POSTULAR
Enviar portafolio de producciones propias (con preferencia sitios web publicados) y currículum vítae no documentado hasta el 24 de junio a: jhuarachi@geo.gob.bo. Resultados comunicados por teléfono o correo electrónico. Para mayor información, llamar el número +591 2-2142013.

AFICHE DE LA CONVOCATORIA

martes, 2 de junio de 2015

Sandra Crucianelli: “Abrir datos contribuye al control social”

Entre su nombre y el periodismo de datos hay una simbiosis, están irremediablemente unidos. Sandra Crucianelli es una de las pioneras en la enseñanza y el ejercicio del periodismo de investigación y precisión que aboga por los gobiernos de datos abiertos.

¿Cómo está el periodismo de investigación en América Latina?
Lamentablemente bastante atrasado. Hay algunos medios de comunicación que están haciendo grandes esfuerzos en investigar, por ejemplo, a un Gobierno, pero hay que ver qué pasa cuando ese Gobierno cambia y sube otro, si tienen la misma conducta.

Aquí es cuando entramos en el terreno de la honestidad intelectual. Hay diarios que han sido perros guardianes de la sociedad durante décadas, luego han ido virando de oficialistas a opositores, y viceversa, eso es cuando no se comprende el rol de la prensa y se la considera un negocio.

Producir noticias no es lo mismo que producir tornillos, requiere de una fortaleza ética e intelectual y, sobre todo, de mucho trabajo.

¿Hablas de un periodismo cubrefuentes?
No sé en qué momento de la vida nos hemos convertido en eso, como si necesitáramos de las fuentes orales todo el tiempo para que nos reafirmen cosas. El periodismo es mucho más que entrevistar personas.

Representas un periodismo en el que los datos cuentan historias, ¿es posible en nuestra región?
En general, los datos hablan por sí solos, la mayor fortaleza de un periodista de investigación que trabaja sobre la base de datos es poder distinguir la paja del trigo.

En Latinoamérica hay toda una movida grande que te invita a abrir datos porque es innovador y contribuye al control social y a la transparencia de la información de los gobiernos.

¿Cómo está Latinoamérica frente a la Política de Gobierno Abierto?
Los países más avanzados son: Brasil, Chile, Uruguay, México y Paraguay, que se han sumado a la Alianza de Gobierno Abierto (OGP); los que ni siquiera han ingresado son Ecuador, Venezuela y Bolivia.

Pero si los gobiernos no lo hacen, lo pueden hacer los periodistas, las ONG, los blogueros o las universidades, a través de sus plataformas virtuales con catálogos de datos abiertos.

¿En qué le beneficia a la ciudadanía un Gobierno abierto?
Es un compromiso entre los gobernantes y la ciudadanía. A través de la plataforma del Gobierno abierto se transparenta la gestión pública, la información es de libre acceso para quien quiera consultarla, no solo para periodistas.

La población puede ejercer un control social y saber en qué se están invirtiendo los recursos

lunes, 25 de mayo de 2015

Una iniciativa pionera para lograr los datos abiertos en Bolivia

La irrupción de la era digital ha dejado claro que el periodista de investigación ya no es el llanero solitario en la búsqueda de datos. Prueba de ello es que, por cinco días, 65 periodistas, programadores, desarrolladores y activistas se reunieron en La Paz para trabajar en proyectos de investigación, que permitan a la ciudadanía el libre acceso a la información pública.

Al primer ‘Acelerador de Periodismo de Datos de Bolivia DataBO’, una iniciativa del periódico digital La Pública, se sumó el diario EL DEBER. El taller fue dirigido por la reconocida periodista argentina Sandra Crucianelli, una de las pioneras en la enseñanza y el ejercicio del periodismo de datos en español.

¿Su objetivo? Tender puentes entre la tecnología y la comunicación a través del periodismo de datos, una tendencia relativamente nueva en América Latina, que aboga por una ciudadanía mejor informada y por la transparencia de la información de las instancias gubernamentales.

Pablo Rivero, responsable de Campaña de Oxfam, explicó que los cinco días del taller dieron lugar al nacimiento de proyectos multidisciplinarios de investigación, cuyos resultados serán desarrollados en una plataforma digital y publicados en el lapso de un mes.

Se busca, aseguró Rivero, un periodismo más sólido y capaz de indagar, con mayores recursos, la noticia pública; procurar una interrelación con los actores de la sociedad civil y una ciudadanía activa, además de trabajar una norma de transparencia y acceso a la información pública, donde deberán jugar un rol decisivo el gobierno nacional, departamental y local.

El DataBO, además de los 65 periodistas, diseñadores, programadores y activistas, fue seguido vía online por profesionales de estas mismas áreas en Bolivia, Colombia, Ecuador, EEUU y México, que no pudieron asistir de forma presencial al evento patrocinado por Oxfam e Hivos

viernes, 22 de mayo de 2015

Video DataBO Día 1 - I Acelerador de Periodismo de Datos - Bolivia

Sandra Crucianelli nos introduce a: Periodismo de datos - Formatos abiertos y cerrados - Los productos de periodismo de datos - Nuevas herramientas digitales para los procesos de búsqueda de datos - Bases de datos.
DataBO, el I Acelerador de Periodismo de Datos - Bolivia, ha sido organizado por el periódico digital La Pública, gracias al apoyo de Hivos y Oxfam.

martes, 19 de mayo de 2015

Bolivia inicia el primer Acelerador de Periodismo de Datos

Desde hoy hasta el sábado 23, se congregan en La Paz, 65 personas entre connunicadores, programadores, activistas y diseñadores para participar del primer Acelerador de Periodismo de Datos de Bolivia bajo el asesoramiento de la experta argentina, Sandra Crucianelli.

Esta actividad, que surge como iniciativa del periódico digital La Pública y tiene el apoyo de Hivos y Oxfam, busca consolidar el proyecto DataBO con el objetivo de impulsar la cultura de la transparencia en el país a través de una simbiosis entre la comunicación y la tecnología.

Javier Badani, director de La Pública explicó que esto "no se trata solo de un taller sino de un proceso" donde se conformarán grupos para presentar luego proyectos de open data en Bolivia. Se prevé que las ideas se desarrollen por completo en un mes y tendrán el asesoramiento de Crucianelli hasta la publicación de sus trabajos en la web de DataBO.

Los datos deberán ser puestos a disposición en este website para que puedan ser reutilizados por la comunidad.

Los participantes tendrán la posibilidad de aprender a utilizar herramientas para buscar y extraer datos; limpiarlos, organizarlos y visualizarlos.

Como explica Badani en una publicación del BID, "Bolivia aún no cuenta con una ley de transparencia y de acceso a la información y las iniciativas enmarcadas en el periodismo de datos son pocas. A su vez, las instituciones públicas aún no han interiorizado por completo la cultura de apertura de información al ciudadano. A pesar de ello, el matutino Los Tiempos y el periódico digital La Pública han desarrollado proyectos de investigación periodística utilizando la filosofía de los datos abiertos".

El equipo de LT DATA también está presente en este Primer Acelerador de Periodismo de Datos.

Se puede seguir la transmisión en vivo por https://plus.google.com/u/0/events/c0foaptgvmeocghjk73hh9db0hc y también seguir la interacción en Twitter a través de #DataBO.

lunes, 18 de mayo de 2015

Ciencia de los datos

En diciembre del 2010 Michael E. Driscoll abrió un foro de discusión en torno a la siguiente pregunta ¿Qué es la ciencia de los datos?. En el foro de discusión almacenado en Quora.com, Driscoll aporta su propia definición sobre la ciencia de los datos: “Es la ingeniería civil de los datos. Sus acólitos poseen un conocimiento práctico de herramientas y materiales, junto con una comprensión teórica de lo que es posible”. Por otro lado, Giuseppe Paleologo define la Ciencia de los Datos como “el conjunto de prácticas sobre almacenamiento, gestión y análisis de conjuntos de datos lo suficientemente grandes que requieren de computación distribuida y de recursos de almacenamiento. En la actualidad la mayoría de las fuentes de datos están en Internet y relacionadas con las transacciones, pero no hay que ignorar las primeras aplicaciones de la física de alta energía, la meteorología, las simulaciones militares, así como las futuras aplicaciones en ciencias.”

Mike Loukides, en el libro publicado el año 2011 con el título “¿Qué es la ciencia de los datos?”, menciona que el problema no es encontrar datos sino saber qué hacer con ellos. “La cuestión a la que se enfrenta toda empresa es cómo usar los datos de forma efectiva. No sólo los datos propios sino de múltiples fuentes, todos los datos que están a disposición y son relevantes. Usar los datos de forma efectiva requiere algo diferente de las tradicionales estadísticas”. Lo que diferencia los datos grandes de la estadística es que la ciencia de los datos tiene un enfoque holístico. Cada día se generan más datos en la naturaleza y en la actividad social, espiritual y productiva del hombre. La ciencia de los datos tiene que ver con la recopilación de información, su conversión a un formato factible para su procesamiento y extracción del conocimiento. En un estudio realizado en los Estados Unidos del Instituto Global McKinsey, se plantea que un reto urgente e importante lo constituye la escasez del talento analítico y de gestión necesario para sacar el máximo provecho al análisis de datos grandes. En dicho reporte se expone que, tan solo en Estados Unidos, cinco millones de puestos de trabajo requerirán de habilidades en el análisis de datos para el año 2018. Además se necesitarán un millón y medio de directivos y analistas con profundas habilidades analíticas y técnicas que puedan realizar las preguntas correctas a los datos y utilizar los resultados que brinde dicho análisis de manera efectiva.

En el artículo publicado el año 2014 con el título “La ciencia de los datos y su impacto en la gestión universitaria, el investigador Giraldo León menciona que en estos momentos se vive una verdadera explosión en cuanto a la cantidad de datos a nivel mundial. La empresa IBM estima que el noventa por ciento de los datos existentes en la actualidad han sido creados tan solo en los últimos dos años. La capacidad de la humanidad para extraer el valor social y económico de los datos recientemente disponibles está limitada por su propia falta de experiencia. Se requiere de todo un conjunto de nuevas habilidades y herramientas con este fin. El volumen de datos puede llegar a ser tan grande que no cabe en una sola computadora, es imposible ser procesado por los sistemas de gestión de bases de datos, paquetes estadísticos o sistemas de representación gráfica tradicionales. Los textos digitalizados, el audio y contenido visual, al igual que los datos de sensores y Weblogs suelen estar desordenados, incompletos y no estructurados, muchas veces de origen y calidad dudosa. Además, durante el trabajo con datos provenientes de diversos y dispersos usuarios, se tocan temas relacionados con la privacidad, autenticidad y seguridad.

Loukides, en el libro citado, plantea que “la Web está llena de aplicaciones basadas en datos, siempre hay una base de datos detrás de un front-end,” tal es el caso de las aplicaciones de los bancos, de comercio electrónico o de enseñanza en línea en una universidad. Sin embargo, no siempre cuando se usan, e incluso analizan datos, se aplica la ciencia de los datos. Una aplicación basada en datos brinda su valor añadido a partir de sus propios datos, transformándose de una aplicación que usa datos a un producto de datos, o sea, el dato como producto resultante del procesamiento. Google es un líder mundial en la elaboración de productos de datos. Existen ejemplos tales como el algoritmo para establecer el ranking de una página Web. Dicho algoritmo fue el primero que utilizó información externa a la propia página, o sea, el número de enlaces o citas realizadas a dicha página. La empresa Amazon salva las búsquedas de productos o servicios de cada usuario y las correlaciona con las búsquedas de otros usuarios obteniendo como resultado impresionantes sugerencias. El hilo común que une la mayoría de estas aplicaciones lo constituye el hecho de que los datos recopilados a partir de la interacción con cada usuario aporta un valor añadido. Ya sean los datos con los términos de una búsqueda, una muestra de voz, o un comentario, todos los usuarios conforman un lazo de retroalimentación que tributa al completamiento y mejora de los productos de datos ofertados. Ese es el principio básico de la ciencia de datos.

Si se retoma lo planteado acerca de la explosión actual de los datos a nivel mundial en todo tipo de organizaciones productivas, de servicios tales como hospitales o universidades, puede observarse fácilmente que las organizaciones emplean no sólo sus propios datos o los datos que le brindan sus usuarios, sino también datos de otras fuentes como puede ser el empleo de mapas de zonas geográficas con vistas a analizar o visualizar los resultados de determinados indicadores. O sea, en cada caso pueden incluirse no solo los datos propios, sino todos aquellos que puedan ser relevantes ante determinado análisis o investigación. Lo que diferencia a la ciencia de datos de las estadística es que la ciencia de datos tiene un enfoque holístico. Cada día se encuentran más y más datos en la naturaleza y los científicos de datos están involucrados en su recopilación, su adecuado “acondicionamiento”, de forma tal que puedan ser manejados lo mejor posible y, de ese modo, dichos datos puedan contar su historia permitiendo posteriormente a estos especialistas presentar dichas historias a los demás.
TITULARES

lunes, 11 de mayo de 2015

Ciencia de los datos


En la era de los datos masivos, todo se vuelve dato, menciona Guzmán en la charla presentada en el día mundial de la estadística, el año 2014 con el título “El rol de la estadística en un mundo hiperconectado”, además señala que la producción de los datos aumenta exponencialmente. Cada vez el mundo está más lleno de datos, y cada vez se tiene más acceso a éstos, aunque aún la mayor parte de la información producida no está al alcance de las personas o no es útil. Cada una de las personas cercanas, en cualquier lugar que otra persona se encuentre, tiene un teléfono celular, el que aun sin usarlo está produciendo datos sobre su ubicación, sobre mensajes y llamadas recibidas. Cada vez que se navega en Internet se está produciendo datos sobre conductas, preferencias, etc. Cuando se pasa cerca de una cámara, o cuando se utiliza una cámara para tomar fotos, se está produciendo datos o se está ayudando a producirlos. Cuando se compra, cuando se pone un “me gusta” en Facebook, se está creando datos. Pero no se genera un dato aislado. Cada “me gusta” está asociado con las características de quien lo puso. De este modo, el dato se convierte en la covariable de otro dato. Datos que están concatenados a otros datos y que hablan de los gustos, ambiciones, temores, celebraciones, y otros aspectos de la vida de las personas, incluso algunos que pueden ser bastante íntimos.

Por su parte, en las noticias publicadas por el portal de universidades españolas “Universia”, específicamente la publicada en junio del año 2014 con el título “El científico de datos: Una novedosa y necesaria profesión”, se menciona que a diario en el mundo se generan dos trillones y medio de bytes de información. Esta información proviene de todos lados, sensores que recogen información climática, publicaciones en las redes sociales, imágenes y vídeos digitales, registros de compra y transacciones y señales de los sistemas de posicionamiento global de los dispositivos móviles, entre otros. Toda esta información se conoce como “datos grandes” y es a partir de esta fuente masiva de datos que es inminente el nacimiento de un profesional que conozca y genere un uso a esta información: el científico de datos.

El profesor Hal Varian de la Universidad de Berkeley en California, en la entrevista publicada el año 2009 por la compañía McKinsey, menciona que la profesión del futuro seria la que tuviera la habilidad de hacer posible que los datos fueran comprendidos, de ser procesados, de extraerles valor, de visualizarlos, de comunicarlos, todo lo cual será una tarea tremendamente importante en las décadas siguientes. Y no solamente para el profesional sino también para la educación en sus distintos niveles, desde la enseñanza primaria a la enseñanza universitaria. Y esto porque se dispone de datos libres y ubicuos. Añadió tambien que la consecuencia era entender el significado de los datos y extraer su valor. El profesor Varian, en la obra citada, siguió explicando que la ciencia de los datos era como una disciplina estadística, pero señalando que hay más que el puro numero aislado, que la tarea esencial es de visualización, comunicación y utilización de los datos. La estadística es parte de ello, pero solo una parte. También se desea ser capaz de visualizar los datos, comunicarlos, utilizarlos de manera efectiva. También opinaba que estas capacidades de acceder, entender y comunicar el conocimiento que se puede obtener del análisis de los datos, seria de extrema importancia para que los gestores y directivos de las organizaciones, de las empresas e instituciones, puedan acceder y comprender los datos directamente ellos mismos.

En el artículo publicado el año 2014 con el titulo “La ciencia de los datos y el conocimiento en la empresa”, Fernando Piera menciona que la capacidad de improvisar soluciones de integración de datos utilizando sistemas operativos, bases de datos y lenguajes de programación distingue claramente la ciencia de los datos de la tradicional investigación estadística. En el mismo artículo cita al bioestadístico Michael Elashoff, quien alude que el término “científico de datos” es realmente más que un reconocimiento a la gente de este campo que necesita múltiples tipos de conocimientos. Reconoce el hecho de que la observación de los datos requiere más que habilidades analíticas. La función del científico de los datos es hacer que los datos tengan sentido, facilitar una comprensión clara del universo de la organización a través del análisis de los datos, ayudando en la mejora del proceso de toma de decisiones y apoyando al liderazgo. Los mejores científicos de los datos también deben interesarse por el descubrimiento de nuevas visiones de los datos. Serán creativos en su aproximación a la identificación y resolución de problemas. La experiencia profesional de estos científicos se encuentra en los siguientes tres pilares: (1) Profundo conocimiento teórico de estadística y conmutabilidad; (2) Conocimiento práctico de variadas herramientas de ciencia de los datos y la capacidad de comunicar efectivamente cuando es necesario; (3) Una capacidad para comunicar de manera efectiva con la gente que no tenga conocimientos técnicos sobre temas técnicos muy complejos. Pueden utilizar un surtido variado de las herramientas existentes de análisis de datos y también tener el conocimiento estadístico y habilidades de programación necesarias para desarrollar sus propias herramientas. Muchos problemas de análisis pueden ser resueltos utilizando las herramientas existentes, pero el científico de los datos también debe estar en condiciones de desarrollar las herramientas que necesite para atacar nuevos problemas que se le puedan plantear.

lunes, 4 de mayo de 2015

Segunda parte Datos en correo electrónico

El correo electrónico es como dice Barón, en el libro publicado el año 2000 con el título “Del alfabeto al correo electrónico: Como ha evolucionado el inglés escrito y hacia dónde se dirige”, “un idioma centauro emergente, con una parte de escritura y una parte de habla” o como afirma Yus, en el libro publicado el año 2001 con el título “Ciberpragmática. El uso del lenguaje en Internet”, “un medio de comunicación híbrido entre la estabilidad del soporte escrito y la volatilidad de la palabra hablada.” Lo que se resalta es que los datos asociados al correo electrónico son dependientes del lenguaje en el que se escribe los diferentes mensajes que circulan cada fracción de segundo en la red de redes o Internet.

La investigadora Cristina Vela, en la tesis doctoral escrita el año 2006 titulada “El correo electrónico: El nacimiento de un nuevo género”, menciona que hay empresas que ofrecen cuentas de correo gratuitas a través de interfaces en páginas Web. El hecho de que para consultar el correo se requiera la visita a una página Web supone una ventaja para la empresa, ya que convierte el sitio en un lugar óptimo para albergar publicidad. También es posible contratar buzones de pago que ofrecen a sus usuarios ventajas alternativas, como una mayor capacidad de almacenamiento, filtrado de mensajes no deseados, etc. Un mensaje de correo electrónico no sólo permite el envío de secuencias de texto, sino que ofrece la posibilidad de incluir cualquier archivo adjunto y, por ello, la estructura básica de un mensaje consta de tres elementos: El texto del mensaje, los archivos adjuntos, cuando los hubiera, y el encabezado. Desde un punto de vista técnico el encabezado constituye un componente indispensable, ya que en él se contiene toda la información necesaria para el transporte del mensaje: Las direcciones de los buzones de los remitentes y destinatarios, quienes recibirán copia del mensaje, etc. El encabezado tiene una estructura estable que refleja su naturaleza codificada. Se divide en una serie de líneas, una por cada campo, codificadas en formato ASCII y, por tanto, legibles por los protocolos de intercambio de mensajes.

Albarran, De Pablos y Montero, en el artículo publicado el año 2008 con el título “Uso del correo electrónico: Un análisis empírico en la UCM”, indican que el correo electrónico permite el envío de mensajes por medios informáticos. Los mensajes se almacenan en un buzón personal. Cuando cada usuario consulta su correspondencia puede visualizar, almacenar o reenviar mensajes recibidos. Los mensajes enviados pueden estar en cualquier tipo de formato, texto, gráficos, imágenes, sonido, etc. El correo electrónico es un medio que permite la instantaneidad de comunicación entre receptor y emisor. Sáenz Vacas, mencionado en el artículo de Albarran y sus colegas, hace referencia al correo electrónico bajo las siglas EAUDI tratando destacar las características típicas que hacen a este medio idóneo para ciertos tipos de comunicación en las organizaciones: (1) Electrónico. Utiliza medios electrónicos de gestión y transporte. (2) Asíncrono. No necesita sincronía en envío y recepción. (3) Ubicuo. Permite su acceso en diferentes lugares. (4) Digital. Utiliza información digitalizada. (5) Informático. Está en relación con las tecnologías de la información. Algunas de las principales ventajas e inconvenientes del correo electrónico son: (1) Rapidez y fiabilidad en la recepción y envío de mensajes. (2) Incrementa el contacto personal. (3) No requiere simultaneidad del remitente y el receptor. (4) Permite una mejor transmisión de los mensajes complejos. (5) Facilidad de archivo, reenvío e integración. (6) Mejora la consistencia de los mensajes. (7) Bajo costo. (8) Incrementa la motivación y el ánimo. (9) Facilita la comprensión en algunos casos.

Vela, en la tesis citada, argumenta que desde un punto de vista técnico, el correo electrónico constituye una aplicación de la “comunicación mediatizada por la computadora” que permite el intercambio, el almacenamiento y la gestión de mensajes de texto, que ocasionalmente, pueden verse acompañados de otro tipo de archivos. Gracias a una conexión a Internet y mediante el empleo de una aplicación de gestión de correo adecuada, cualquier usuario que disponga de un buzón en un servidor de correo podrá disfrutar de este medio de comunicación. El correo electrónico se ha convertido en un espacio de producción lingüística novedoso al que se puede asociar la aparición de un nuevo género textual. Desde un enfoque lingüístico, el correo electrónico se define como un sistema de interacción mediatizada que soporta intercambios de tipo individual o colectivo, real o virtual y que se sustenta en la transacción de textos digitalizados con una forma, función, estructura, lengua y estilo propios. Tal y como sostiene López Alonso, en el libro publicado el año 2003 titulado “Nuevos géneros discursivos: Los textos electrónicos”, esta identidad textual implica, en primer lugar, un entorno específico de comunicación, en segundo, una relación abierta entre los coenunciadores y, finalmente, una modalidad revolucionaria en la manera de transmitir la correspondencia. Yus, en el libro publicado el año 2001 titulado “Ciberpragmática. El uso del lenguaje en Internet”, menciona que es posible afirmar que el correo electrónico manifiesta diversos usos y funcionalidades sociales. Su prototipo, sin embargo, se identifica con un modo de interacción interpersonal, sin copresencialidad de los interlocutores, de carácter mediado y temporalidad diferida, que implica el desarrollo de actos de comunicación ostensiva, es decir, que por definición portan su presunción de relevancia, mediante el intercambio de textos escritos digitalizados, producidos y enviados mediante el empleo de unos programas específicos creados para la gestión de correspondencia electrónica, a través de la red de redes o Internet.

jueves, 23 de abril de 2015

La región proveerá científicos de datos

América Latina logrará suplir en los próximos cinco años unas 300.000 vacantes de científicos de datos, que representan un 7,5% de la actual demanda mundial de estos profesionales, que desde ya son buscados por empresas como Netflix, Youtube, Twitter y Facebook, señalaron a EFE fuentes del sector.

"Latinoamérica se vislumbra como el principal promotor de esta profesión", explicó a EFE Juan Carlos Puentes, gerente para Colombia de la compañía de analítica empresarial SAS, que cifra en 4 millones las vacantes globales en 2015 del sector conocido como Big Data. Según los cálculos de esa consultora, que presta servicios de asesoría a 93 de las empresas enlistadas en el Fortune 100, Colombia, Brasil, México y Ecuador serán los principales centros regionales de creación de esos nuevos profesionales.

¿Cuál es su función?. Unos "escasos" empleados que, según Puentes, ejercen una serie de funciones que van desde facilitar la visualización de información en tiempo real, economizar el tiempo, ayudar a prevenir posibles fraudes, contribuir a mejorar la experiencia de los clientes y, "en general, gestionar el recurso empresarial más valioso: los datos". "Están asumiendo un rol fundamental para el crecimiento y la generación de estrategias que se anticipen a las necesidades del mercado (...), que generen ventajas empresariales", aseguró Puentes.

Puentes explicó que "más allá de la cifra" es importante que los países latinoamericanos se den cuenta que están "perdiendo la única oportunidad de ser los protagonistas en los grandes descubrimientos y tendencias en el ámbito de los negocios a nivel mundial por la falta de científicos de datos". Recordó que se necesita que más países y que "más instituciones educativas de primer nivel" apoyen la formación de científicos de datos.

lunes, 20 de abril de 2015

Cómo predecir en tiempo real enfermedades y cibersabotajes con el "Big Data"

Predecir enfermedades o cibersabotajes son algunas aplicaciones del "Big Data", un conjunto de tecnologías de análisis "inteligente" de datos en tiempo real, cuyo uso se ha disparado por el aumento de sensores conectados a internet, según debaten hoy expertos internacionales en "Teradata Universe".

Se trata de la vigésima edición de este congreso, iniciado hoy, que es referente en Europa por el nivel de las ponencias sobre "Big Data", y en donde participan empresas de la talla de Siemens, eBay, Vodafone o Tesco, además de entidades financieras, institutos internacionales y analistas de consultoras tecnológicas, como IDC y Forrester.

Sensores, chips, móviles y otros dispositivos conectados a internet han disparado la cantidad de información disponible en el mundo.

Actualmente, "existe tecnología integrada y altamente eficiente" capaz de analizar todos esos datos en tiempo real, y darles utilidades muy ambiciosas, más allá de aquéllas para las que fueron originariamente creados, explicó Hermann Wimmer, copresidente de Teradata, la multinacional tecnológica organizadora del congreso.

El "Big Data" es aplicable a todo en la vida: análisis de mercadotecnia, eficiencia energética, predicción de consumo, telecomunicaciones o valoraciones de riesgos en la banca.

Con la tecnología, lo que hace ahora el cliente es "preguntar" a los millones de datos disponibles, y que una vez estructurados y organizados por el software, le responden al instante, con información que le permite tomar decisiones más "inteligentes" para ser más eficiente en sus negocios o actividades, según los responsables de Teradata.

Actualmente, las empresas se enfrentan a una situación que les desborda, al verse vinculados de alguna manera con "el 80 por ciento de datos que hay en el mundo", y que quieren utilizar para ser más eficientes pero no saben muy bien cómo, explicó hoy a Efe la directora de investigación de la consultora tecnológica IDC, Alys Woodward.

A modo ilustrativo, indicó que la información existente en 2020 equivaldrá en memoria informática al volumen de datos de 6,6 columnas de tabletas electrónicas superpuestas ocupando la extensión de la distancia de la Tierra a la Luna, cada una de ellas.

En 2013, el volumen total de información en el mundo suponía en memoria informática colocar tabletas en hilera hasta llegar a una distancia de dos tercios de la ruta de la Tierra a la Luna.

"La capacidad de las tecnologías actuales para el análisis masivo de datos debería ser regulado por los gobiernos para proteger la intimidad de las personas", advirtió la experta.

"Debe evitarse que las tecnologías hagan públicos datos íntimos que la gente que no quiere que se conozcan" ya que, por ejemplo, las aseguradoras podrían rechazar a ciertas personas si supieran de antemano que desarrollarán enfermedades.

Además, el acceso indiscriminado a datos personales podría crear también problemas serios a víctimas de violencia o de conflictos, lo que exige garantizar un uso adecuado de todo este potencial del "Big Data", añadió.

La automoción y la sanidad son sectores que podrían experimentar pronto un uso muy generalizado del "Big Data", dada la previsible expansión de vehículos conectados, y el aumento de dispositivos "ponibles" para medir en tiempo real parámetros de salud, precisó por su parte a Efe el director general de Teradata España, José Andrés García.

De hecho, empresas como Volvo usan desde hace tiempo la analítica "inteligente" de datos en temas de seguridad de sus vehículos. Otro sector con gran implantación del "Big Data" es el energético, para mejorar la eficiencia y reducir cibersabotajes, con la llegada de los llamados "contadores inteligentes".

En el ámbito farmacéutico, el responsable de Roche en Biométrica y Análisis y Programación Estadística, Christian Müller, se refirió a la reciente inmersión del laboratorio en el "Big Data", un mundo en donde la frontera de lo accesible o no aún no está claramente definida, y varía dependiendo de las legislaciones, ha dicho.

En Europa, la normativa de acceso a los datos "suele ser más restrictiva", recordó, tras precisar algunos de los retos de Roche con el "Big Data", como una más eficiente segmentación y jerarquización de los procesos relacionados con ensayos clínicos.

Asimismo, mejorar la búsqueda de localizaciones para nuevos centros de investigación, más próximos a entornos con mayores volúmenes de pacientes que necesitan ciertos fármacos y médicos especialistas en trastornos específicos.

El responsable de analítica de cliente para Europa de eBay, Suresh Pillai, destacó los beneficios del "Big Data" a la hora de conocer mejor al usuario. Para ilustrar la enorme cantidad de datos que maneja su empresa indicó que cada 1,8 minutos se vende un televisor LCD.

Desde el Instituto Karolinska de Estocolmo, una institución universitaria médica sueca que es la encargada de elegir a los Premios Nobel de Medicina, se insiste en cómo el "Big Data" puede ayudar a reducir la ignorancia en el mundo.

Cinco claves para entender el "Big Data"

El "Big Data", que consiste en el uso de un abanico de tecnologías para el análisis "inteligente" de la inmensa cantidad de datos que han puesto en circulación las nuevas tecnologías, se está aplicando cada vez más para predecir problemas en los negocios y en la vida real, según expertos.

El Congreso Teradata Universe 2015, que comenzó el lunes en Ámsterdam, tiene previsto reunir hasta el miércoles a decenas de empresas, entre ellas, Siemens, Vodafone, eBay, Desigual, así como a analistas tecnológicos y responsables de administraciones públicas para hablar de "Big Data".

1. ¿Qué es el "Big Data"?
Se trata de un conjunto de herramientas, que se sirven de complejos algoritmos y estadística, incorporados en software de análisis de datos para hacer predicciones. El "Big Data" se ha visto impulsado en los últimos tiempos por la proliferación de teléfonos móviles, sensores y chips conectados a internet.

El llamado "internet de las cosas", un fenómeno de conexión de todo con todo, está disparando las cantidades de información accesibles. El análisis de tantos datos procedentes de coches conectados, hogares "inteligentes" o la tecnología "ponible" (pulseras, camisetas, relojes) requiere procesos mucho más complejos que los tradicionales, con la combinación de numerosas variables que pueden dar nuevas claves en la interpretación de la realidad.

2. ¿Es algo nuevo?
Cuando empresas como Amazon recomiendan qué libro leer, lo que hay detrás del proceso es "Big Data". Las compañías aplican algoritmos cuando combinan datos como los gustos de un usuario al que conoce por adquisiciones anteriores u otros que lo identifican como sus visitas a determinadas páginas web.

Lo mismo ocurre cuando Google ofrece publicidad en la pantalla del ordenador relacionada justamente con búsquedas previas del internauta. El análisis de datos se realiza desde hace mucho tiempo, pero la tecnología ha disparado su uso y las técnicas de aplicarlo son cada vez más avanzadas.

3. ¿Cómo ha afectado la capacidad tecnológica para comprender cualquier dato de forma automatizada?
El software permite ya la interpretación de datos inicialmente no estructurados (como los procedentes de sensores, fotografías, vídeos, la voz e incluso emociones), que es una de las claves del "Big Data". Al combinarlos con los tradicionales en soportes fáciles de analizar y jerarquizarlos se estudian de forma conjunta y automática para sacar conclusiones en tiempo real y vaticinar predicciones y tendencias.

Sólo una cuarta parte de la información disponible actualmente está estructurada, es decir, en un formato apto para ser analizado directamente por sistemas informáticos, según analistas.

4. ¿A qué fuentes recurre el "Big Data"?
La analítica "inteligente" de datos se sirve de información complementaria a la tradicional y navega asimismo en datos procedentes de sistemas de geolocalización (de móviles), redes sociales, información sobre salud del usuario de dispositivos "ponibles" (pulseras "inteligentes", relojes, etc).

5. ¿A quien beneficia?
El "Big Data" tiene ventajas en todas las áreas de actividad y sectores. Es aplicable a la analítica sanitaria, a la predicción de enfermedades, al mantenimiento de instalaciones de energía, detección de posibles fugas o sabotajes, al conocimiento de tendencias de compra, etc.

En su evolución han influido los avances informáticos y el desarrollo de ordenadores cada vez más potentes que permiten mayores capacidades de cálculo, requisitos necesarios para investigaciones extremadamente complejas, como en el mundo de la genómica o aeroespacial.

lunes, 23 de febrero de 2015

Gobierno Abierto y Datos Abiertos Asumamos el reto

El “Gobierno Abierto” es la doctrina política que sostiene que los temas de gobierno y administración pública deben ser abiertos a todos los niveles posibles para la transparencia, dinámica que requiere la creación y fortalecimiento constante de espacios efectivos de participación y colaboración ciudadana. Concepto que ha venido tomando fuerza en varios países y se ha consolidado como una oportunidad para cambiar la forma y sistema tradicional de gobernar y, que de hecho, hoy ha logrado la generación de la plataforma de “Estados por el Gobierno Abierto”, más conocida como el Open Government Partnership o OGP por sus siglas en inglés, plataforma de la cual muchos países del mundo ya forman parte y dentro de la cual ya vienen ejecutando su primer o en algunos casos su segundo plan de acción para el gobierno abierto, donde Bolivia es uno de los pocos países de la región que aún no forma parte de la plataforma.

Un Gobierno Abierto asume el compromiso de garantizar que la administración y operación de todas sus acciones estén abiertas al escrutinio de todas las personas, pudiendo la ciudadanía participar de las decisiones que se toma en su nombre, como también colaborar en la búsqueda de soluciones a los problemas públicos, siendo los pilares o componentes del Gobierno Abierto la transparencia (rendición de cuentas efectiva, acceso a la información pública, otros), la colaboración (el gobierno incorpora en la gestión la colaboración y apoyo de la ciudadanía haciéndola parte en la toma de decisiones), la participación ciudadana (espacios efectivos de participación como construcción de presupuestos participativos, observatorios ciudadanos de la gestión pública, auditorías sociales, etc.).

Si bien existe una serie de acciones que hacen al gobierno abierto, una de las fundamentales como el acceso a la información, rendición de cuentas y otras viene a ser los “Datos Abiertos”, ejercicio a través del cual la información que se produce se encuentra en formato abierto y disponible de forma libre, sin restricciones de derechos de autor, de patentes o de otros mecanismos de control o restricción de lectura o inclusive copia. Un ejemplo claro es aquél donde los documentos cargados en los portales web de instancias de Estado están en formatos abiertos como hojas de cálculo o de texto, contrario a lo que habitualmente sucede con información cargada en formato PDF o escaneado, el cual de esa forma restringe la revisión, análisis, uso y por último escrutinio público de la ciudadanía.

Con el avance de las tecnologías y nuevas aplicaciones muchas organizaciones de la sociedad civil, entre ONGs y fundaciones, en coordinación con desarrolladores, universidades y otros vienen construyendo nuevos mecanismos para fortalecer el uso de los Datos Abiertos a través de nuevas aplicaciones o herramientas web o móviles. En esa línea, el 21 de febrero por segundo año consecutivo en varios países del mundo y vecinos se celebró el “Open Data Day”, espacio en el que se desarrollan aplicaciones, liberan datos, se crea visualizaciones y se publica análisis de datos públicos abiertos que muestran y alientan la adopción de políticas de apertura de datos e información de los gobiernos locales, regionales y nacionales del mundo, información que trabajada de esa forma constituye insumo importante para la toma de decisiones y la generación de políticas públicas.

En ese sentido, es necesario en el país comenzar a impulsar este tipo de iniciativas desde el Estado, sociedad civil, universidades y demás actores de manera coordinada, para luego de dar el salto al Gobierno Abierto buscar uno siguiente al Gobierno Electrónico.

sábado, 21 de febrero de 2015

DATOS.ORG.PY Paraguay estrena plataforma web de datos abiertos

Una página web paraguaya presentada ayer en Asunción pretende convertirse en la referencia para investigadores, periodistas, funcionarios y ciudadanos en general que pretendan acceder a datos públicos y de organizaciones privadas que se animen a transparentar sus cuentas y actividades.

El estreno de la web “datos.org.py” se da en el marco de la primera Semana de los Datos Abiertos en Paraguay, que busca concienciar a la ciudadanía sobre la necesidad de reivindicar el derecho a acceder a la información pública, así como promover la cultura y el software libre.

El portal contiene un catálogo donde organizaciones privadas y públicas asociadas al proyecto ya han almacenado algunos datos en formato abierto que permite su uso libre.

jueves, 5 de febrero de 2015

El tráfico de datos en Latinoamérica crecerá 10 veces entre 2014 y 2019

El tráfico de datos en Latinoamérica crecerá 10 veces entre 2014 y 2019 debido al aumento de usuarios y al uso de teléfonos inteligentes, informó la compañía Cisco.

"Los principales factores, tanto a nivel global como de Latinoamérica, son el crecimiento de los usuarios móviles, de los dispositivos, de conexiones móviles disponibles y el aumento de las velocidades", señaló el ejecutivo de Cisco Chile, Carlos Soto.

En el estudio difundido este martes, Cisco pronostica que el tráfico de datos en el mundo habrá llegado en 2019 a 292 exabytes anualmente (equivalente a 292 billones de megabytes), que es lo mismo que si una persona en la tierra publicara 23 imágenes diarias en Instagram durante todo un año o si subiese dos videos en Youtube al día por un año.

Frente a esto, Soto afirmó que "en términos relativos de Latinoamérica respecto al mundo, tenemos tasas de crecimiento muy similares. En términos globales el mundo crecerá 10 veces hasta 2019 y Latinoamérica está en línea con esa cantidad de crecimiento".

Asimismo, a nivel mundial el tráfico móvil por persona alcanzará los 3.183 megabytes por mes en 2019, frente a los 348 megabytes por mes en 2014, mientras que en América Latina el tráfico móvil por mes será de 3.106 megabytes.

En la región, México y Brasil llevan la vanguardia en cuanto al tráfico de datos, el primero de ellos en 2019 alcanzará 415,2 petabytes por mes, mientras que Brasil tendrá 601,7 petabytes, que es lo mismo que si se produjeran más de 150 millones de DVDs cada mes.

Argentina, por su parte, tendrá una proyección de 148,2 petabytes, y en Chile, por mes, el tráfico será de 76,5 petabytes.

"Chile crece muy similar al resto de Latinoamérica y aumentará su tráfico nueve veces para el 2019, además este país representa alrededor de un 4 por ciento del número total de la región en relación al tráfico de datos", afirmó Soto.

El experto también explicó que la relación entre los países se debe a la cantidad de población de cada uno y "Chile al tener una cantidad mucho menor genera menos tráfico".

En el informe, que analiza las tendencias en materia de tráfico, también se explica la relevancia de las aplicaciones más utilizadas y que para el 2019 en Latinoamérica las liderará el "video".

"El tráfico de video móvil crecerá 13,8 veces desde 2014 hasta 2019 y será el 72 por ciento del total de tráfico de datos móviles de América Latina en 2019", detalló el informe de Cisco.