WeTheCitizens InitiativeWeTheCitizens InitiativeWeTheCitizens InitiativeWeTheCitizens Initiative


WeTheCitizens initiative, nosotros los ciudadanos.

La expresión «ciudad inteligente» es la traducción y adaptación del término en idioma inglés «smart city». Es un concepto emergente, y por tanto sus acepciones en español y en otros idiomas, e incluso en el propio idioma inglés, están sujetas a constante revisión. Es también un término actual, que se está utilizando como un concepto de marketing (mercadotecnia) en el ámbito empresarial, en relación a políticas de desarrollo, y en lo concerniente a diversas especialidades y temáticas.

La «ciudad inteligente» a veces también llamada «ciudad eficiente» o «ciudad súper-eficiente», hace referencia a un tipo de desarrollo urbano basado en la sostenibilidad que es capaz de responder adecuadamente a las necesidades básicas de instituciones, empresas, y de los propios habitantes, tanto en el plano económico, como en los aspectos operativos, sociales y ambientales. Una ciudad o complejo urbano podrá ser calificado de inteligente en la medida que las inversiones que se realicen en capital humano (educación permanente, enseñanza inicial, enseñanza media y superior, educación de adultos…), en aspectos sociales, en infraestructuras de energía (electricidad, gas), tecnologías de comunicación (electrónica, Internet) e infraestructuras de transporte, contemplen y promuevan una calidad de vida elevada, un desarrollo económico-ambiental durable y sostenible, una gobernanza participativa, una gestión prudente y reflexiva de los recursos naturales, y un buen aprovechamiento del tiempo de los ciudadanos.

Las ciudades modernas, basadas en infraestructuras eficientes y sostenibles de agua, electricidad, telecomunicaciones, gas, transportes, servicios de urgencia y seguridad, equipamientos públicos, edificaciones inteligentes de oficinas y de residencias, etc., deben orientarse a mejorar el confort de los ciudadanos, siendo cada vez más eficaces y brindando nuevos servicios de calidad, mientras que se respetan al máximo los aspectos ambientales y el uso prudente de los recursos naturales no renovables.

Pero estas ciudades tan inteligentes necesitan de sensores, físicos y sociales, millones de datos que las hacen auténticos titanes del BIG DATA, auténticos generadores de basura digital. Ingentes cantidades de la basura digital requiere potentes sistema de almacenamiento y procesamiento en nube que no seremos capaces de manejar si no aplicamos tecnologías eficientes y por ende, inteligentes para su gestión.

En Knowdle con Crea Soluciones Inteligentes hemos arrancado una iniciativa capaz de aportar innovadoras y pioneras soluciones capaces de aplicar BIM, la bioinspiración, la nube inteligente y colectiva bajo los principios de arquitectura más avanzados para una verdadera gestión inteligente de las ciudades del futuro.

Un artículo muy bueno, breve y bueno, publicado por Ahmed Banafa, profesor del Heald College en San Francisco titulado “The future of big data and analytics”, Prof. Banafa da una definición sencilla y útil: ´La definición más simple de “big data” (grandes datos) hace referencia a ingentes cantidades de complejos datos no estructurados (imágenes publicadas en Facebook, correo electrónico, mensajes de texto, las señales GPS de los teléfonos móviles, mensajes de twitter y otras actualizaciones de redes sociales, etc) que no pueden ser procesados ​por las herramientas de bases de datos tradicionales. Por citar un ejemplo del volumen de estos datos, Walmart recoge más de 2,5 petabytes (10bytes) de datos cada hora a partir de las transacciones de los clientes.´

La mayor parte de las referencias sobre Big Data hacen referencia a las 5Vs, a saber: Volumen , Velocidad , Variedad, Veracidad y Valor. Muchos pensamos que si bien el fenómeno del “Big Data” como tal no será una moda pasajera que desaparecerá, todo lo contrario, la cantidad de datos que generamos los seres humanos con tanta tecnología irá exponencialmente en aumento. Igual que la cantidad de residuos, de todas clases, que generamos los seres humanos, la información no podía ser menos. Si bien, lo que si tiene que evolucionar es el hecho de recolectar datos y almacenarlos de forma casi enfermiza, motivo por el cuál destacamos la analogía del Síndrome de Diógenes, Diógenes Data, en nuestro caso.

Bernard MarrIn, en su artículo del 6 de marzo de 2014 “Big Data: The 5 Vs Everyone Must Know”, explica de forma sencilla las 5 “v”s:

El volumen se refiere a la enorme cantidad de datos generados cada segundo por nuestros sistemas. Tan sólo tienen que pensar en todos los mensajes de correo electrónico , tuits, fotos, videos, datos de sensores, etc que producimos y compartimos cada segundo. No estamos hablando de Terabytes, si no de Zettabytes o Brontobytes . Tan solo en Facebook enviamos 10 mil millones de mensajes por día , hacemos clic en el botón «me gusta » 4500000000 veces y subimos 350 millones de nuevas fotos cada día. Si tomamos todos los datos generados en el mundo entre el principio de los tiempos y de 2008, ¡la misma cantidad de datos pronto se genera cada minuto! Esto hace que cada vez generemos más y mas datos y que dicho volumen sea demasiado grande para almacenarlos y analizarlos mediante el uso de la tecnología de base de datos tradicional. Con la tecnología emergente de Big Data (BD), ahora ya podemos almacenar y utilizar estos conjuntos de datos con la ayuda de sistemas distribuidos, en los que las partes del los datos se almacenan en diferentes ubicaciones y son agrupados por programas específicos.

La velocidad hace referencia a la velocidad a la que se genera nuevos datos y la velocidad a la que los datos se mueve alrededor, incluso su capacidad de dispersión. Basta pensar en los mensajes de los medios sociales y su viralidad, cuestión de segundos, la velocidad a la que las transacciones de tarjetas de crédito se comprueban para actividades fraudulentas o los milisegundos que tarda sistemas de negociación para analizar las redes de medios sociales para captar las señales que activan las decisiones de compra o venta de acciones. La tecnología Big Data nos permite ahora analizar los datos mientras se está generando , sin tener que insertarlos en las bases de datos .

La mayor parte de las referencias sobre Big Data hacen referencia a las 5Vs, a saber: Volumen , Velocidad , Variedad, Veracidad y Valor. Muchos pensamos que si bien el fenómeno del “Big Data” como tal no será una moda pasajera que desaparecerá, todo lo contrario, la cantidad de datos que generamos los seres humanos con tanta tecnología irá exponencialmente en aumento. Igual que la cantidad de residuos, de todas clases, que generamos los seres humanos, la información no podía ser menos. Si bien, lo que si tiene que evolucionar es el hecho de recolectar datos y almacenarlos de forma casi enfermiza, motivo por el cuál destacamos la analogía del Síndrome de Diógenes, Diógenes Data, en nuestro caso.

Bernard MarrIn, Influencer, Best-Selling Author, Keynote Speaker and Consultant in Strategy, Performance Management, Analytics, KPIs and Big Data, en su artículo del 6 de marzo de 2014 “Big Data: The 5 Vs Everyone Must Know”, explica de forma sencilla las 5 “v”s:

El volumen se refiere a la enorme cantidad de datos generados cada segundo por nuestros sistemas. Tan sólo tienen que pensar en todos los mensajes de correo electrónico , tuits, fotos, videos, datos de sensores, etc que producimos y compartimos cada segundo. No estamos hablando de Terabytes, si no de Zettabytes o Brontobytes . Tan solo en Facebook enviamos 10 mil millones de mensajes por día , hacemos clic en el botón «me gusta » 4500000000 veces y subimos 350 millones de nuevas fotos cada día. Si tomamos todos los datos generados en el mundo entre el principio de los tiempos y de 2008, ¡la misma cantidad de datos pronto se genera cada minuto! Esto hace que cada vez generemos más y mas datos y que dicho volumen sea demasiado grande para almacenarlos y analizarlos mediante el uso de la tecnología de base de datos tradicional. Con la tecnología emergente de Big Data (BD), ahora ya podemos almacenar y utilizar estos conjuntos de datos con la ayuda de sistemas distribuidos, en los que las partes del los datos se almacenan en diferentes ubicaciones y son agrupados por programas específicos.

La velocidad hace referencia a la velocidad a la que se genera nuevos datos y la velocidad a la que los datos se mueve alrededor, incluso su capacidad de dispersión. Basta pensar en los mensajes de los medios sociales y su viralidad, cuestión de segundos, la velocidad a la que las transacciones de tarjetas de crédito se comprueban para actividades fraudulentas o los milisegundos que tarda sistemas de negociación para analizar las redes de medios sociales para captar las señales que activan las decisiones de compra o venta de acciones. La tecnología Big Data nos permite ahora analizar los datos mientras se está generando , sin tener que insertarlos en las bases de datos .

La variedad se refiere a los diferentes tipos de datos que ahora podemos utilizar. En el pasado nos hemos centrado en datos estructurados, que encajan perfectamente en tablas o bases de datos relacionales, como datos financieros (por ejemplo, ventas por producto o región). Pero de hecho, el 80 % de los datos del mundo ahora son desestructurados , y por lo tanto no puede ser fácilmente incluido en tablas (piénsese en las fotos , secuencias de vídeo o actualizaciones de redes sociales ) . Con la tecnología BD, ahora podemos aprovechar tipos diferentes de datos (estructurados y no estructurados), incluyendo mensajes , conversaciones de medios sociales , fotos, datos de los sensores , video o grabaciones de voz y tratarlos junto con los datos más tradicionales y estructurados.

La veracidad se refiere al desorden o la fiabilidad de los datos. Con muchas formas de datos, la calidad y la precisión son menos controlables (basta pensar en mensajes de Twitter con etiquetas de hash , abreviaturas, los errores tipográficos y el habla coloquial , así como la fiabilidad y la precisión de los contenidos), pero la actual tecnología de análisis nos permite trabajar con este tipo de datos. Los volúmenes a menudo compensan la falta de calidad o exactitud.

El valor: hay otra V a tener en cuenta cuando se mira en Big Data, la más relevante: ¡el valor! Y es aquí donde nos encontramos ante el verdadero “nudo gordiano” del Big Data. Tener acceso a grandes volúmenes de datos puede estar bien, pero a menos que podamos convertirlo en valor es un gasto inútil . Así que podemos argüir con certeza que el «valor» es la más importante de la cinco Vs del Big Data . Es importante que las empresas conviertan en negocio cualquier intento de recolectar, almacenar y aprovechar esa grandes cantidades de datos. Es tan fácil caer en la trampa de moda y embarcarse en iniciativas y proyectos de BD sin una comprensión clara de los costos y, especialmente, de los beneficios.

Es aquí dónde todo el esfuerzo de más de dos años de I+D+i en KNOWDLE nos proporciona una visión diferencial y unos resultados mucho mas que relevantes.

En un artículo de 1958, el investigador de IBM Hans Peter Luhn utiliza por primera vez el término inteligencia de negocio. Define la inteligencia como: «La capacidad de comprender las interrelaciones de los hechos presentados en tal forma como para orientar la acción hacia una meta deseada».

La inteligencia de negocio, tal como se entiende, hoy en día se dice que ha evolucionado desde los sistemas de apoyo a las decisiones que se inició en la década de 1960 y desarrollado a lo largo de mediados de los años 80’s. Los SSD Sistemas de Soporte a las Decisiones (DSS, Decition Support Systems) se originaron en los modelos por computadora, creados para ayudar en la toma de decisiones y la planificación.

Desde los DSS, data warehouses, sistemas de información ejecutiva, OLAP e inteligencia de negocios se centraron en principio a finales de los años 80’s mediante las herramientas y técnicas ELT (extraer, cargar y transformar), o actualmente ETL (extraer, transformar y cargar) se extraen los datos de distintas fuentes, se depuran y preparan (homogeneización de los datos) para luego cargarlos en un almacén de datos.

En 1989, Howard Dresner (más tarde, analista de Gartner Group) propuso la «inteligencia de negocios» como un término general para describir «los conceptos y métodos para mejorar la toma de decisiones empresariales mediante el uso de sistemas basados ​en hechos de apoyo». No fue hasta finales de 1990 que este uso estaba muy extendido.

Así denominamos inteligencia empresarial, inteligencia de negocios o BI (del inglés business intelligence) al conjunto de estrategias y llaves enfocadas a la administración y creación de conocimiento sobre el medio, a través del análisis de los datos existentes en una organización o empresa.

Es posible diferenciar datos, informaciones y conocimientos, conceptos en los que se centra la inteligencia empresarial, ya que como sabemos, un dato es algo vago, por ejemplo «10 000», la información es algo más preciso, por ejemplo «Las ventas del mes de mayo fueron de 10 000», y el conocimiento se obtiene mediante el análisis de la información, por ejemplo «Las ventas del mes de mayo fueron 10 000. Mayo es el mes más bajo en ventas». Aquí es donde la BI entra en juego, ya que al obtener conocimiento del negocio una vez capturada la información de todas las áreas en la empresa, es posible establecer

Aquí se iniciaron las primeras técnicas de Minería de Datos, tan relevantes hoy en día en combinación con las arañas semánticas. La minería de datos o exploración de datos (es la etapa de análisis de «Knowledge Discovery in Databases» o KDD) es un campo de las ciencias de la computación referido al proceso que intenta descubrir patrones en grandes volúmenes de conjuntos de datos. Utiliza los métodos de la inteligencia artificial, aprendizaje automático, estadística y sistemas de bases de datos.

El objetivo general del proceso de minería de datos consiste en extraer información de un conjunto de datos y transformarla en una estructura comprensible para su uso posterior. Además de la etapa de análisis en bruto, que involucra aspectos de bases de datos y gestión de datos, procesamiento de datos, el modelo y las consideraciones de inferencia, métricas de Intereses, consideraciones de la Teoría de la complejidad computacional, post-procesamiento de las estructuras descubiertas, la visualización y actualización en línea.

El Análisis de negocios (BA) se refiere a las habilidades, tecnologías, aplicaciones y prácticas para la exploración iterativa continua y la investigación de los resultados empresariales pasado para comprender mejor y manejar la planificación empresarial. El análisis empresarial se centra en el desarrollo de nuevos conocimientos y la comprensión de los resultados empresariales basados ​​en datos y métodos estadísticos . Por el contrario, la inteligencia de negocios tradicionalmente se centra en el uso de un conjunto coherente de indicadores de rendimiento pasados, que guía tanto la medida y la planificación de negocios que también se basa en los datos y métodos estadísticos.

El análisis de negocio hace uso extensivo de datos, estadística cualitativa y cuantitativa de análisis, explicación y modelado predictivo, y la gestión basada en los hechos para conducir la toma de decisiones. Esto está estrechamente relacionado con la ciencia de la administración. Las técnicas de Business Analytics (denominación en inglés) se pueden utilizar como base para las decisiones humanas o pueden proporcionar decisiones totalmente automatizadas.

En otras palabras, consultas, informes, OLAP y herramientas de alerta pueden responder a preguntas como ¿qué pasó¿, ¿cuántos?, ¿con qué frecuencia?, ¿dónde está el problema? y ¿qué medidas son necesarias?. El análisis de negocios pueden responder a preguntas como ¿por qué está pasando esto?, ¿qué pasa si estas tendencias continúan?, ¿qué sucederá después? (es decir, predecir), ¿qué es lo mejor que le puede pasar? (es decir, optimizar).

Business Analytics se han utilizado en los negocios ya que los ejercicios de gestión del tiempo que se iniciaron por Frederick Winslow Taylor a finales del siglo XIX. Henry Ford mide el ritmo de la cadena de montaje.

Pero análisis comenzaron a exigir más atención a finales de 1960 cuando se utilizaron las computadoras en los sistemas de soporte de decisiones . Desde entonces, los análisis han evolucionado con el desarrollo de la planificación de recursos empresariales (ERP), almacenes de datos , y una amplia variedad de otras herramientas y aplicaciones de hardware y software.

Es posible diferenciar datos, informaciones y conocimientos, conceptos en los que se centra la inteligencia empresarial, ya que como sabemos, un dato es algo vago, por ejemplo «10 000», la información es algo más preciso, por ejemplo «Las
ventas del mes de mayo fueron de 10 000», y el conocimiento se obtiene mediante el análisis de la información, por ejemplo «Las ventas del mes de mayo fueron 10 000. Mayo es el mes más bajo en ventas». Aquí es donde la BI entra en juego, ya que al obtener conocimiento del negocio una vez capturada la información de todas las áreas en la empresa, es posible establecer estrategias y determinar cuáles son las fortalezas y las debilidades.

Así, si tenemos el conocimiento de que «Las ventas del mes de mayo fueron 10. 000. Mayo es el mes más bajo en ventas”. Deberíamos ser capaces de inferir reglas inteligentes como “Si en Mayo, hacemos una campaña especial ´Día de la Madre´ con una promoción del 5% de descuento incrementaremos las ventas manteniendo el margen anual”.

Sin embargo nuestro objetivo es más ambicioso, ser capaces de conocer los perfiles de nuestros compradores y analizando las diferentes campañas y su impacto de forma segmentada, poder inferir “sabiamente”, es decir, “predecir” que “podremos incrementar los márgenes en un 2% y las ventas un 1% el próximo año por la incorporación de una APP de ´guía televisiva´ que recomienda nuestros productos a los clientes en función de sus gustos televisivos”. Es es, sin lugar a dudas, nuestro objetivo.

  • Javier García
  • Elías Cardenes
  • Felipe García
Contacto texto.
Algunos artíclulos escritos sobre Smartcities e Inteligencia Colectiva:

WeTheCiticens (I): Inteligencia colectiva bioinspirada y conocimiento abierto como apoyo a los ciudadanos para ciudades sostenibles y eficientes.
WeTheCIticens (II): Inteligencia colectiva bioinspirada para ciudades sostenibles. ¿Podemos medir la inteligencia colectiva de las ciudades?.

© 2012, 2013, 2014, 2015, 2016 Knowdle