Euroalert y la licitación pública en la Unión Europea

 

 

A principios de Enero viajamos a Valladolid para reunirnos con José Luis Marín, fundador y CEO de Euroalert.net, un sitio web de información gratuita acerca de la Unión Europea con más de 10 años de presencia en internet. Euroalert es la marca comercial con la que la compañía “Gateway Strategic Consultancy Services S.L.” ofrece sus servicios e el campo de la licitación pública en la Unión Europea.

Euroalert.net tiene como objetivo proporcionar servicios innovadores añadiendo valor a la información del sector público en el ámbito de los asuntos europeos y de los concursos públicos internacionales, y desarrollando con ellos servicios escalables de base tecnológica y fuertemente orientados a PYMES. Euroalert.net está logrando una base de clientes cada vez mayor en toda Europa, que van desde gobiernos regionales a Cámaras de Comercio o asociaciones empresariales, además de empresas privadas.

Euroalert.net se define como una empresa “powered by Open Data” (impulsada por Datos Abiertos), y ha basado sus procesos en la reutilización de información pública, antes incluso de que el movimiento -ahora global- se identificara como tal. Su visión actual es muy ambiciosa: “Agregar toda la información sobre contratación pública de la Unión Europea (UE).”, que según las últimas estimaciones supone el 19% del PIB de la UE, más de 2.000 billones de euros.


Lista de empresas “Economía del dato 20+20”

Publicamos en este post 18 de los 20 nombres de empresas -a la espera de las últimas confirmaciones- que terminaran por configurar la lista definitiva de casos de estudio seleccionados. El proceso de selección ha sido realizado conjuntamente por el equipo de investigación y el comité de expertos a lo largo de las dos reuniones que se llevaron a cabo en Medialab Prado, Madrid.

Tras una primera puesta en común -flexible y muy abierta- en la que contemplamos en torno a 50 empresas, hemos ido abordando cada una de las candidatas en función de su tipología, intentando integrar en la lista definitiva distintos ámbitos dentro de la economía de los datos.

Lista de empresas (casos de estudio) “Economía del dato 20+20”:

BME Innova
http://www.bmeinnova.com/
BME integra a los sistemas de registro, compensación y liquidación de valores, los mercados secundarios de valores y los sistemas de negociación españoles, así como desarrolla una amplia gama de servicios complementarios y auxiliares, que abarcan, entre otras, las áreas de información, consultoría, informática, contingencia y continuidad de negocio y formación.

Reviewpro
http://www.reviewpro.com
ReviewPro ofrece una herramienta analítica online que permite a los hoteles agregar, organizar y gestionar de manera eficaz su reputación y presencia online en los principales sitios web de redes y medios sociales.

Neometrics
www.neo-metrics.com
Consultora en el área de la inteligencia analítica. Utilizan modelos cuantitativos para la óptima toma de decisiones en las empresas.

Minube
http://www.minube.com
Buscador de ofertas de viaje cuyo valor diferencial es que se basa en las recomendaciones de otros usuarios.

Datasalt
http://www.datasalt.es
Datasalt ofrece asistencia en la integración y el desarrollo de soluciones Big Data y Cloud Computing, posibilitando la extracción de valor de grandes volúmenes de datos y el desarrollo de sistemas escalables.

Ducksboard
http://ducksboard.com/
Ofrecen un panel para, a través del mismo, poder hacer seguimiento de los datos usados en las redes sociales.
Masterbranch
https://masterbranch.com/
Web que ofrece CV de programadores y lista de proyectos open source online, actualizada. MasterBranch procesa la actividad de distintos desarrolladores en proyectos Open Source y agrega información de diferentes fuentes, como sus blogs y sitios de preguntas y respuestas (Q&A), creando y manteniendo los CV siempre actualizados.

Idealista
http://www.idealista.com
Portal Immobiliario Online.

Flashmaps
http://www.flashmaps.com/
Plataforma que proporciona servicios de mapeo personalizados.

Elisa Group
http://www.elisa-interactive.com/
http://www.web-analytics.es/sobre-nosotros/

Empresa dedicada al marketing online. El Grupo de Elisa proporciona la medición del desarrollo digital, optimización de sitios web y soluciones digitales de optimización de marketing para empresas en Europa.

Urbiotica
http://www.urbiotica.com/

En Urbiotica hibridan el urbanismo sostenible con la tecnología más innovadora. Tecnología aplicada a los entornos urbanos, ya sea la propia ciudad, o alguno de sus espacios funcionales (puertos, centros comerciales, autopistas, etc.). Ofrecen servicios para una gestión eficiente de la ciudad disponiendo de datos masivos en tiempo real de lo que está pasando en el ámbito urbano para incrementar la eficiencia con la que se actúa sobre ellos.

Denodo
http://www.denodo.com
Denodo se dedica a la integración de grandes y diversas cantidades de datos para asesoría corporativa.

Bitcarrier
http://www.bitcarrier.com/

Bitcarrier es un proveedor de gestión del tráfico en tiempo real y sistema de información basado en redes inalámbricas.

Asomo
http://www.asomo.net

Empresa de Bilbao que ofrece servicios de comprensión de datos a través de análisis de los hábitos de navegación de los usuarios de internet para la optimización de campañas de marketing.

Bestiario
http://www.bestiario.org/
Bestiario es una empresa de visualización de información con sede en Barcelona. Se dedican a la representación dinámica de datos y a la creación de espacios para la creación colectiva de conocimiento.

Data Centric

http://www.datacentric.es/

Empresa miembro del Grupo PDM, dedicado al área del marketing y la publicidad directa desde hace más de cuarenta años. A raíz del trabajo con bases de datos cada vez más detalladas y complejas surge la necesidad, y la oportunidad de aprovechar su conocimiento del mercado y la tecnología de procesamiento de datos para ofrecer nuevos servicios basados en el análisis y modelado de grandes cantidades de datos.

Euroalert
http://euroalert.net/
Proyecto que se dedica a detectar noticias de actualidad de la Unión Europea: Eventos, Legislación comunitaria y Actividad de las Instituciones y ofrecérsala a sus clientes.

RB Prop Traders
http://www.rbproptraders.com/
Plataforma que agrupa a traders independientes con diferentes maneras de operar para ayudar, dar soporte y suministrar información y metodologías, así como una ventaja competitiva en términos de coste a sus clientes.

-Próximamente publicaremos el nombre de las dos empresas restantes, en vías de ser confirmadas-

 


Data Centric: De los datos al marketing digital

Datacentric – con sede en Madrid y conocida hasta hace unos meses como PDM Digital Marketing – es una empresa miembro del Grupo PDM, dedicado al área del marketing y la publicidad directa desde hace más de cuarenta años. A raíz del trabajo con bases de datos cada vez más detalladas y complejas surge la necesidad, y la oportunidad de aprovechar su conocimiento del mercado y la tecnología de procesamiento de datos para ofrecer nuevos servicios basados en el análisis y modelado de grandes cantidades de datos.

Datacentric ofrece servicios personalizados de consultoría y asesoría enfocados a la captación, fidelización y atención de clientes, basados todos ellos en un detallado conocimiento de la información geográfica española y el acceso a diversas fuentes de datos públicas, lo que le permite elaborar modelos predictivos de consumo o dirigir una campaña a un público determinado. Datacentric busca convertir los datos en información que pueda asistir en el proceso de toma de decisiones.

Nos reunimos con Antonio Romero de la Llana – Director de Operaciones, socio de Datacentric, e hijo de uno de los fundadores del Grupo PDM –, para que nos explicara como su empresa recoge, procesa y analiza los datos públicos.


Bestiario, visualización de datos para “hacer comprensible la complejidad”

Bestiario es una empresa dedicada a la visualización de datos con sede en Barcelona en conexión continua con otros contextos, como Portugal o Buenos Aires, donde trabajan algunos de sus componentes. Fundado en el 2006, el origen del proyecto se debe al encuentro entre perfiles muy heterogéneos como José Aguirre (gestor cultural), Santiago Ortiz (matemático), Carolina Vallejo (Editora) y Andrés Ortiz (arquitecto). En 2007 se sumó al grupo Raimon Mirada (economista) momento clave del proyecto ya que su presencia ha sido esencial a la hora de construir la arquitectura empresarial actual. En los inicios de Bestiario el mundo de la visualización estaba en una etapa primigenia y no había una referencia clara sobre cuáles eran las ventajas o el valor de las tareas que estaban desarrollando. Empezaron con servicios dedicados a visualizar los datos de empresas con el objetivo de ayudar a ordenar y comprender mejor bases de datos complejas.

Su cartera de clientes es amplia, trabajando para organismos como La Caixa, Telefónica, EOI, Ferrovial, Berkman Center, el periódico The Guardian o Iberdrola. Como ejemplo de sus proyectos de representación, Raimon y Andrés nos comentaron un servicio que Bestiario realizó para la residencia de estudiantes de Madrid. Para su desarrollo, contaban con una base de datos muy amplia con información relacionada de la red de colaboración intelectual de la residencia. En esta base de datos se vinculaban autores, artículos, obras e instituciones con los contenidos de la revista la Edad de Plata. Bestiario creó un sistema para recorrer y comunicar esa base de datos, herramienta que ha facilitado la conexión entre la acumulación de saberes de dicha red y el público.

La necesidad de generar valor con herramientas creadas por Bestiario más allá de los servicios de consultoría centrados en representación de datos les llevó a plantear un nuevo escenario. Actualmente están trabajando en el desarrollo de Quadrigam, una lenguaje de programación visual para que las propias organizaciones puedan trabajar con sus datos ya no por fases o servicios de consultoría puntuales sino de manera continuada.


Urbiótica, sistema operativo urbano para las ciudades

Os presentamos aquí Urbiótica, el primero de los 20 casos de estudio que iremos introduciendo en este blog y que conforman el núcleo de la investigación.

Tuvimos el placer de poder hablar con Antonio Brei, directo general de Urbiótica , empresa pionera dedicada a la venta e instalación de sensores urbanos adaptados al entorno ciudad para generar datos y recoger información de la actividad urbana. La filosofía de la empresa es sumamente clara,  sensorizar la ciudad permite la generación de un enorme volumen de datos que pueden ayudar a hacer más eficiente su gestión.

El primer estímulo para llevar a cabo el proyecto nace de una primera intuición: a diferencia de otros ámbitos como el doméstico, la ciudad es un contexto muy poco tecnificado. Entre los ámbitos de baja densidad de información, las ciudades son lugares privilegiados, ya que su continua actividad crea grandes cantidades de información pero que, sin la tecnología adecuada, permanece dispersa. Es justo en ese déficit donde Urbiótica ha querido actuar. Es así como detectaron la necesidad de instalar nuevas tecnologías en la ciudad que ayudaran a hacer más eficaz la gestión de aquellos servicios que facilitan la vida en los contextos urbanos. Urbiótica se ha centrado en trabajar para hacer más eficaz aquellas áreas que producen mayor gasto en la gestión urbana, tanto zonas verdes y alumbrado, aparcamiento, movilidad o recogida de residuos.

A partir de la información generada por sensores y su recogida a través de redes de comunicaciones, los datos se centralizan y analizan en un middleware para finalmente suministrarla a los diferentes usuarios. Tal y como nos señala Brei, la cadena de valor es extensa, ya que si buen el usuario final es el ciudadano/a a través de los servicios públicos que recibe –por ejemplo– de las diferentes administraciones locales, los clientes de Urbiótica son aquellas empresas públicas o privadas que gestionan dichos servicios. Son estas empresas especializadas las que crean nuevas aplicaciones en busca de hacer más eficiente y optimizar sus servicios.


La relevancia del data literacy

En esta metodología adoptada para el proyecto, nos hemos propuesto identificar los elementos que ayudan a caracterizar un ecosistema variable que se muestra como más o menos favorable para el desarrollo de este ámbito económico.

Uno de los factores de relevancia dentro de este ecosistema es el que hemos llamado “data literacy” (o alfabetización de datos). Este indicador hace referencia al grado de conocimiento del sector de la economía de datos que hay en contextos ajenos a la estructura formal que constituye sus empresas. Contextos que en mayor o menor medida participan del mismo en tanto que a su vez son generadores de datos.

Útil para hacer un análisis de contexto, este factor se desdobla en dos sub-indcadores:

a) comunidades de usuarios/ prosumers
La multitud de actividades que los ciudadanos generamos en cualquier espacio público, y especialmente en internet y la web 2.0, representan una de las principales fuentes de las que bebe este sector. La “conversación” online (webs, blogs, foros, redes sociales, etc…) genera cada día una ingente cantidad de datos de los que una serie de empresas se dedican a extraer valor.

Cada opinión compartida en un foro o una red social es susceptible de ser archivada e indexada en función de unos intereses determinados. A través de algunos casos de estudio, veremos como se desarrollan proyectos empresariales que se dedican a extraer valor del manejo de datos vertidos en internet a gran escala. ¿Hasta qué punto los productores de estas información son conscientes de su papel en la cadena de valor? ¿Qué roles juegan la cantidad y la calidad de los datos en el proceso de minería de los mismos?

b) Empresas que no se dedican a extraer valor directamente del uso de los datos pero que los manejan a gran escala (como por ejemplo, un banco o una compañía de seguros). Hablamos de empresas que pueden ver aumentadas sus capacidades en función del manejo inteligente de información extraída de sus grandes bases de datos. El conocimiento del sector y de sus servicios a terceros por parte de estas empresas puede representar en sí mismo un motor de crecimiento para el mismo.

¿Hasta qué punto puede verse potenciado el ámbito de la economía de los datos en función de su reconocimiento y comprensión? Esta será una de las líneas de análisis que desarrollaremos en la investigación con la intención de determinar si la alfabetización puede ser un motor de crecimiento que ayude a consolidar este sector.


Segundo encuentro con el comité de expertos: Metodología

El segundo encuentro con el comité de expertos tuvo lugar el pasado día 20 de enero, de nuevo en Medialab Prado. El propósito de esta reunión era doble: por un lado establecer la metodología que se va a seguir a lo largo de la investigación y por otro confeccionar la lista definitiva de los 20 casos de estudio.

Si en un primer encuentro abordamos la economía de los datos a partir de su cadena de valor y de algunos elementos que potencian su expansión, en esta segunda sesión adoptamos un marco metodológico para seleccionar y abordar cada uno de los 20 casos de estudio. Éste se estableció en torno a cinco variables, cada una constituida por una serie de indicadores que nos van a ayudar a extraer información de las empresas seleccionadas.

Variables
De esta manera, tanto la cadena de valor (#1 cadena de valor), como el ecosistema de la economía de datos (#2 abono) –ambos abordados en el post anterior– pasaban a ser variables de una metodología a la que se le sumaban: #3 dimensión (que mide los aspectos cuantitativos de la empresa), #4 prestigio (que evalúa la relevancia de la empresa en relación a los clientes con lo que trabaja) y #5 apertura (que ayuda a determinar qué grado de apertura tiene la empresa en relación con el contexto donde se desarrolla, como el uso de licencias libres, habilitación para que terceros tengan acceso a apis, data sets, etc…).

En esta presentación podéis seguir una visualización de esta metodología en la que se detallan los indicadores elegidos que aportan significado a cada una de las variables.

En el siguiente post haremos pública la lista final de los 20 casos de estudio seleccionados. Mientras tanto, os dejamos aquí  con un esquema que resume el marco general de la metodología.


Primer encuentro con el comité de expertos. Cadena de valor y ecosistema de los datos.

El martes 20 de diciembre arrancamos el proyecto con una reunión inicial en la que, por primera vez, nos veíamos las caras el equipo de trabajo. El encuentro lo realizamos en Medialab Prado -organización que acoge el proyecto-,  centro dedicado a la producción, investigación y difusión de la cultura digital.

Como mencionábamos en el primer post, la investigación analiza proyectos que basan su modelo de negocio en la extracción de valor mediante el uso de grandes cantidades de datos. Este manejo de datos a gran escala y la industria que deriva del mismo se nos presenta como un ámbito muy amplio y heterogéneo. Es por ello que los objetivos de esta primera reunión pasaban, en primer lugar, por definir el marco conceptual del proyecto y los ámbitos concretos a abordar en el desarrollo de la investigación.
Por lo tanto,  la primera de las tareas a realizar fue la de  encontrar y definir los elementos que nos iban a ayudar a fijar la relevancia tanto de los casos de estudio como de los contextos emergentes vinculados a la economía de los datos.

La Cadena de Valor de los Datos

Cualquier proceso de generación de valor a través de los datos sigue un proceso relativamente lineal e iterativo que es común a casi todos los agentes que trabajan en este ámbito. Identificarlos y comprenderlos es importante, porque ayudan a entender dónde se generan las oportunidades de negocio y qué necesidades de servicio, tecnologías y expertise hay que cubrir para dar soporte a esta economía.

Este proceso se construye a partir de los siguientes pasos:

1. Recoger

La generación de valor a partir de datos implica evidentemente como primer paso la disponibilidad de estos datos. Para esto son numerosas las tecnologías que se utilizan para construir Data Sets a partir de la automatización de procesos en el ámbito de la actividad de la empresa, codificando su actividad y convertiéndola en interoperable. También del despliegue de tecnologías que generan datos allí dónde no existían previamente, como las redes de sensores.

2. Almacenar

Tras la captura o generación de datos es necesaria su preservación en plataformas y servicios que la conserven y la hagan accesible y actuable. Esta necesidad ha facilitado e impulsado la emergencía de sectores estratégicos como la industria de los Data Centers, una infraestructura básica que además ha hecho posibles cambios de paradigma como el impulsado por el modelo Cloud Computing, que está transformando el sector TIC.

3. Minar

El Minado de Datos o Data Mining es la metodología central para generar valor a partir de los datos disponibles. A través de técnicas que comparan elementos, determinan relaciones y hacen emerger conexiones, el Minado de Datos permite encontrar patrones previamente desconocidos entre elementos de la base de datos, con el objetivo de identificar factores que permitan tomar decisiones o modificar otros aspectos de la actividad de la empresa. El valor añadido surge de la posibilidad de que el minado de datos se incorpore de manera central al proceso de toma de decisiones dentro de la empresa.

4. Representar

Para actuar sobre los datos es necesario que las relaciones y patrones identificados en el minado de datos puedan identificarse y explicarse de manera adecuada. Para ello, traducir estas relaciones a lenguajes que las hagan más comprensibles, a través de recursos visuales que amplifiquen nuestra capacidad cognitiva y hagan evidentes estas relaciones, es una de las áreas más relevantes, y en las que se encuentran numerosas oportunidades.

5. Actuar

Finalmente, es necesario identificar de qué manera el conocimiento generado a partir del minado de datos y comunicado a través de su representación puede transformarse en decisiones efectivas que aporten mejoras cualitativas. Areas completas como la llamada “Business Intelligence” se basan en aportar herramientas y cualificación que facilite estos procesos de toma de decisiones.

Ecosistema de la economía de datos

El proceso identificado en la sección anterior sólo es posible si existen unas condiciones que lo faciliten, y un marco de referencia que haga viable su implantación en empresas y organismos. Tan importante como facilitar el acceso a herramientas y plataformas son las condiciones que determinan el ecosistema general o particular que hacen viable un proyecto económico o social basado en la Economía de los Datos. Estos serían:

1-Infraestructuras
Tecnologías que faciliten la captura, disponibilidad y análisis de Data Sets dentro de la empresa, o en conjuntos de datos públicos que generan innovación en el sector privado

2-Plataformas
Herramientas que hacen posible actuar sobre los data sets disponibles, manipularlos y visualizarlos. Estas herramientas son las que permiten capturar el valor en los datos disponibles.

3-Políticas
Políticas activas que faciliten el uso de grandes Data Sets y estimulen la innovación a partir de su puesta a disposición, así como la liberación, facilitación al acceso y permiso de uso de data sets públicos a partir de los cuales se puede generar nuevo valor. Forma parte de esto de manera esencial las políticas open data, asi como la facilitación a través de APIs del acceso a datos de servicios comerciales.

4-Legislación
Reglamentación que facilite la liberación, el acceso y uso de Data Sets. Son fundamentales en este sentido las leyes de transparencia y acceso a la información pública, así como las normativas que determinen el precio de acceso y política de uso a datasets de propiedad publica.

5-Investigación
Actividad que desde organismos públicos, universidades y empresas privadas avancen el uso de las técnicas de captura, minado y representación de datos para la toma de decisiones, con el objetivo de que siga siendo un área clave de innovación.

6-Data Literacy
Grado de comprensión de la potencialidades que yacen en el uso de los propios datos. Tanto por parte de las comunidades de usuarios (que al mismo tiempo generan ingentes cantidades de datos) como por parte de empresas (cuyo ámbito no es el de extraer valor del uso de los datos pero que potencialmente son clientes de empresas de este sector).

En adelante veremos como estos elementos nos servirán de marco para desarrollar la investigación a través del análisis de los 20 casos de estudio.


Equipo y proyecto

El equipo del proyecto, dirigido por José Luis de Vicente (director de Visualizar y miembro de ZZZINC), está formado por los investigadores Rubén Martínez (miembro de ZZZINC) y David Cabo (Socio de Pro Bono Público y creador de dondevanmisimpuestos.es “Hacking ético: un impulso a la transparencia en las Administraciones”) y un comité de expertos cuyas trayectorias profesionales son representativas de algunos de los ámbitos más significativos del sector.

Dicho comité está constituido por Fabien Girardin (economía de datos y urbanismo), José Manuel Alonso (innovación tecnológica y consultor para administraciones públicas sobre los usos de la web y open data), José Cervera (periodismo digital y economía de la atención) y Roberto Theron (informática, robótica y e-learning).

El proyecto, que como decíamos en el post anterior está centrado en el análisis de la emergencia del sector de la economía de datos, se va a desarrollar a través del trabajo de campo de Rubén Martínez y David Cabo en torno casos de estudio (empresas relevantes del sector en España) y de las aportaciones (tanto en los distintos encuentros como a través de textos escritos para el proyecto) de los miembros del comité de expertos, vinculadas a sus trayectorias profesionales y ámbitos de interés.

El resultado final  proyecto será una publicación en la que se recojan  20 experiencias empresariales emergentes de éxito en este sector, una descripción conceptual y un análisis detallado en relación a la relevancia del mismo para la definición de un nuevo modelo productivo para España.

En este blog se podrá ir siguiendo el proceso del trabajo a lo largo de los tres meses que durará la investigación. Aquí iremos presentando -a medida que avance el proyecto- los casos de estudio que formarán parte de la investigación, los textos que aportarán los miembros del comité de expertos y distintos apuntes y noticias relevantes para el ámbito que nos ocupa.

 

Equipo de “Economía del dato 20+20”

 

1. Director:
José Luis de Vicente
investiga y desarrolla proyectos sobre cultura, tecnología, nuevos medios e innovación.
Ha sido subdirector del festival de Arte y Tecnología ArtFutura (2001-2008), comisario asociado del festival Sónar de musica avanzada y arte multimedia (2005-2008) y codirector artístico de OFFF (2005-2007). Ha comisariado exposiciones como Máquinas y Almas (Museo Reina Sofia, 2008), Arcadia y HABITAR (LABoral Centro de Arte y Creación Industrial, 2009-2010), entre otras.
Sus proyectos de investigación incluyen el programa VISUALIZAR en Medialab Prado, Madrid, del que es director, e iniciativas como el Atlas del Espacio Electrómagnético.
Como divulgador ha colaborado con medios de comunicación como El Mundo, ADN.es o Público, y ha impartido clases en instituciones como Elisava. Ha participado en múltiples eventos internacionales como Transmediale (Berlin), Ars Electronica (Linz), Vimeo Awards (Nueva York), PICNIC (Amsterdam) o Elektra (Montreal).
Es uno de los editores del blog de cultura digital Elastico.net.

2. Investigadores:
Rubén Martínez

Miembro de ZZZINC y del Free Culture Forum. Actualmente trabaja en la investigación colectiva ‘Empresas del procomún’ hospedada en el Laboratorio del Procomún (Medialab Prado) en colaboración con Colaborabora. Es profesor/consultor en el “Posgrado en Innovación cultural: artes, medios digitales y cultura popular” de la UOC y del módulo “Políticas Culturales” en el ‘Máster en Arte Actual: Análisis y Gestión” de IL3-UB. Ha trabajado como consultor y asesor para diferentes instituciones y colaborado en publicaciones como ‘Innovación en cultura: Una aproximación crítica a la genealogía y usos del concepto’ o Nuevas economías de la cultura en el proyecto YProductions (2002-2012).

David Cabo
David Cabo es vice-presidente de Pro Bono Publico – organizadores del Desafío AbreDatos – y creador de dondevanmisimpuestos.es,web para la visualización de los presupuestos oficiales de las administraciones públicas, realizada en colaboración con la Open Knowledge Foundation (OKFN). Ha trabajado junto a mySociety y
AccessInfo Europe en el lanzamiento del portal europeo para solicitudes de acceso a la información, AsktheEU.org. Ha promovido la iniciativa de transparencia #adoptaundiputado para facilitar el acceso a las declaraciones de bienes de los parlamentarios españoles y ha colaborado también con periodistas en la extracción y análisis de datos públicos (Looting the Seas, ICIJ).

Ingeniero Superior en Informática y Licenciado en Psicología. Antes de enfocarse en temas de transparencia y Open Data, trabajó como consultor/desarrollador/arquitecto durante doce años en proyectos para British Telecom, HM Revenues & Customs, Accenture, Ericsson o BBVA Global Markets.

3. Comité de expertos:
Roberto Therón
Roberto Therón cursó sus estudios de Informática en la Universidad de Salamanca (Diplomatura) y la Universidad de la Coruña (Licenciatura). Tras entrar a formar parte del Grupo de Investigación en Robótica de la Universidad de Salamanca, presentó su trabajo de Tesis, “Cálculo paralelo del espacio de las configuraciones para robots redundantes”, recibiendo el Premio Extraordinario de Doctorado. Posteriormente ha obtenido los tí­tulos de Licenciado en Comunicación Audiovisual (Universidad de Salamanca) y Licenciado en Humanidades (Universidad de Salamanca). En la misma Universidad de Salamanca continúa realizando su trabajo de investigador, como encargado del grupo VisUsal (dentro del Grupo de Investigación Reconocido MiDa) que se centra en la combinación de enfoques procedentes de la Informática, Estadística, Diseño Gráfico y Visualización de Información, para obtener una adecuada comprensión de conjuntos de datos complejos. En los últimos años, se ha dedicado al desarrollo de herramientas de visualización avanzada para datos multidimensionales, como por ejemplo datos genéticos o paeloclimáticos. En el área de Analítica Visual desarrolla productivas colaboraciones con grupos e instituciones de reconocido prestigio internacional, como el Laboratorio de Ciencias del Clima y del Medio Ambiente (París) o el Centro de Analítica Visual Avanzada de la ONU (Suiza). Es autor de más de 50 artículos en revistas y congresos internacionales.

Fabien Girardin
Fabien Girardin es un investigador e ingeniero activo en el ámbito de la experiencia de usuaro, la ciencia de datos y el estudio informacional de las ciudades. Su investigación combina la observación cualitativa con el análisis cuantitativo de datos para obtener conocimiento sobre la integración y apropiación de las tecnologías en los entornos urbanos. A partir de esto utiliza el conocimiento obtenido junto a técnicas de ingeniería para prototipar y evaluar conceptos y soluciones para los operadores de redes de móviles, proveedores de servicios de localización, planificadores urbanísticos y gestores. Es socio de  Near Future Laboratory, una agencia  de diseño que combina la investigación y el análisis para transformar ideas provocadoras en proyectos materiales.

José Cervera
Licenciado en CC Biológicas y Máster en Periodismo por la Escuela de Periodismo UAM/El País, trabajó 9 años en el Departamento de Paleontología de la Facultad de CC Geológicas de la Complutense de Madrid en el yacimiento arqueológico-paleontológico de Atapuerca, en Burgos. Publicó un libro sobre el yacimiento (Atapuerca, Un Millón de Años de Historia). En 1995 cursó el Máster de Periodismo de El País, tras el cual se incorporó al diario financiero Cinco Días, donde se ocupó de temas relacionados con Internet, informática y telecomunicaciones. Además colaboró en el programa Planeta C, del Canal C: en Canal Satélite Digital. En agosto de 1999 puso en marcha Baquía.com, un website dedicado a la Nueva Economía, donde ocupó los cargos de Presidente, Director General y después Editorial hasta noviembre de 2001. En junio de 2002 se incorpora al diario gratuito 20 minutos como Subdirector encargado de la página web; allí puso en  marcha la primera licencia ‘copyleft’ en un medio informativo comercial. Desde diciembre de 2003 publica Retiario, el primer blog dentro de la página web de un diario nacional, primero en El Mundo, más tarde en 20minutos.es y ahora en RTVE.es. Entre 2007 y 2008 fue adjunto a la dirección de 20 minutos y Director de su Escuela de Periodismo Digital. Colabora habitualmente en diarios (El Mundo, ABC, 20 minutos, Público), revistas (Generación XXI, Muy Interesante, Quo, Dinero, Ausbanc) y da cursos diversos de periodismo y sociedad digital. En abril de 2006 publicó el capítulo ‘Una teoría general del Blog’ dentro del volumen ‘La Blogosfera Hispana: Pioneros de la Cultura Digital’, editado por la Fundación France Telecom, y próximamente saldrá a la calle ‘El Robo del Milenio: Cómo la Humanidad le arrebató a empresas y estados el control del conocimiento, y por qué cambiará la Historia’ en editorial Edaf. Actualmente da clases en
la Facultad de Comunicación de la Universidad Rey Juan Carlos.

José Manuel Alonso
José Manuel Alonso es un pionero y defensor de Open Data que actualmente lleva la e-Administration y la Unidad de Gobierno Abierto de CTIC. También co-preside el World Wide Web Consortium (W3C) Interest Group y es miembro del Comité Asesor del W3C. Ha sido nombrado en varias ocasiones por “El País” y “El Mundo” como una de las personas más influyentes de Internet en España. Su papel en W3C se remonta a 2003, cuando comenzó a gestionar W3C Spain y, posteriormente, se convirtió en W3C World eGovernment Lead in 2007 para administrar el trabajo internacional para mejorar el acceso al gobierno mediante una mejor utilización de la Web. Anteriormente trabajó como analista de IT, consultor y formador, e incluso fundó su propia web en el año 1997.

Tiene una amplia experiencia en gestión de proyectos, integración de software, relaciones con los clientes, consultoría en relaciones públicas e informática, ha servido en varias conferencias internacionales como miembro de la comisión y presidencia y también es un ponente habitual en conferencias de alto nivel. José recibió el título de Licenciado en Ciencias de la Informática y un Postgrado en Integración de Aplicaciones Empresariales (EAI – Enterprise Aplication Integration), ambos por la Universidad de Oviedo, donde también trabajó en los departamentos de Investigación e Innovación como investigador, desarrollador y profesor. También es Diplomado en Administración Pública por la Open University de Cataluña (España).


Emergencia de la economía de datos

Arrancamos con este post el blog que va acompañar un nuevo proyecto de investigación dentro del programa de  “Nueva Economía 20+20” de la Escuela de Organización Industrial (EOI).

Esta investigación va a estar centrada en la economía de datos, un sector emergente  cuya definición a menudo puede resultar un tanto confusa.

Uno de los factores de innovación fundamentales surgido de la revolución de las TIC en los últimos 15 años ha sido la emergencia de tecnologías que permiten preservan información en volúmenes hasta hace poco impensables. A partir de la informatización de un numero cada vez mayor de sistemas e infraestructuras, los procesos científicos, económicos, industriales y sociales generan hoy, a partir de su simple existencia, inmensas estructuras de datos.

Preservar y proporcionar acceso a estas montañas de datos ha requerido un esfuerzo notable de la industria de las infraestructuras de la información. El sector de los data centers es hoy un agente estratégico de tal importancia que consume a nivel global la misma cantidad de energía que naciones como Suecia o Noruega.

A partir de una magnitud determinada, en la que la unidad de medida es ya el Petabyte (1000 terabytes), hablamos de Big Data. En esta escala, manipular la información, hacerla accesible, y extraer su significado presenta un conjunto nuevo de problemas, pero también de oportunidades.

No se trata tan solo sin embargo de una cuestión de volumen de datos; igualmente importante es que los grandes datasets operan a partir de flujos de información dinámicos y cambiantes.  Junto al tamaño de volumen de datos, es igualmente relevante  la variable de la  multiplicidad de funciones de los datos analizados.

La lógica del Big Data hará posible nuevas formas de investigación científica, de gestión organizativa, de administración política y social, y de expresión personal. Estamos sólo en el principio de esta era;  solamente una compañía como Google procesa un Petabyte de información cada hora.
Pero no son solo los procesos científicos o económicos los que generan información. A raiz del auge de la Web Social y la popularización de tecnologías personales como la telefonía móvil, todos los ciudadanos se han convertido en grandes productores de datos.Hoy en día, por el simple hecho de etiquetar fotos en internet, actualizar nuestro estado en facebook o twitter, utilizar una bicicleta en una red pública o puntuar un restaurante en una web de recomendaciones gastronómicas, estamos contribuyendo a la construcción colectiva de “datasets” que se convierten en una posible mina de conocimiento a explotar.

La economía de los datos surge al explorar estas estructuras de datos para detectar nuevas oportunidades para la generación de servicios y productos. Las industrias data-driven o industrias de los datos son aquellas que producen valor creando servicios y plataformas alrededor de la recogida, preservación, protección, puesta en uso y análisis de estas grandes estructuras de información.



Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.plugin cookies