Datawarehouse
Un Datawarehouse es una base de datos corporativa que se caracteriza por integrar y depurar información de una o más fuentes distintas, para luego procesarla permitiendo su análisis desde infinidad de pespectivas y con grandes velocidades de respuesta. La creación de un datawarehouse representa en la mayoría de las ocasiones el primer paso, desde el punto de vista técnico, para implantar una solución completa y fiable de Business Intelligence. La ventaja principal de este tipo de bases de datos radica en las estructuras en las que se almacena la información (modelos de tablas en estrella, en copo de nieve, cubos relacionales... etc). Este tipo de persistencia de la información es homogénea y fiable, y permite la consulta y el tratamiento jerarquizado de la misma (siempre en un entorno diferente a los sistemas operacionales). El término Datawarehouse fue acuñado por primera vez por Bill Inmon, y se traduce literalmente como almacén de datos. Principales aportaciones de un datawarehouse
Moneyball (2011)
El Big Data y la próxima revolución del modelo conceptual | Funiber Blogs – FUNIBER
El modelado conceptual, o si se quiere el modelado semántico, es una zona nebulosa en la gestión de datos. Parece que tenemos un acuerdo que indica que es necesario un cierto desacuerdo sobre lo que es, y un poco de comprensión de cómo hacerlo. Sin embargo, creo que ahora estamos en un punto en el que nos veremos obligados a tratar con modelado conceptual de una manera mucho más seria que en el pasado.Problemas de definición Yo defino un modelo conceptual como “un modelo de información empresarial únicamente como información sin ningún tipo de concepto asociado a la forma en cómo se pueden almacenar esos datos.” Para mí, un modelo conceptual no es un modelo de datos en ningún sentido, porque no es parte de ningún esfuerzo para diseñar una solución de almacenamiento de datos. Existen otras definiciones de “modelo conceptual”. Yo creo que un modelo conceptual de datos tiene un lugar en la gestión de datos, como paso previo a un modelo de datos lógico.
¿Qué es Big Data?
Todos formamos parte de ese gran crecimiento de datos Ricardo Barranco FragosoPublicado en 18-06-2012 1. Introducción El primer cuestionamiento que posiblemente llegue a su mente en este momento es ¿Qué es Big Data y porqué se ha vuelto tan importante? Gigabyte = 109 = 1,000,000,000 Terabyte = 1012 = 1,000,000,000,000 Petabyte = 1015 = 1,000,000,000,000,000 Exabyte = 1018 = 1,000,000,000,000,000,000 Es importante entender que las bases de datos convencionales son una parte importante y relevante para una solución analítica. 2. Los seres humanos estamos creando y almacenando información constantemente y cada vez más en cantidades astronómicas. Esta contribución a la acumulación masiva de datos la podemos encontrar en diversas industrias, las compañías mantienen grandes cantidades de datos transaccionales, reuniendo información acerca de sus clientes, proveedores, operaciones, etc., de la misma manera sucede con el sector público. 3. Figura 1. Haga clic para ampliar la imagen 4. Figura 2. 5.
Curso/capacitación Chile 2014 - www.stratebi.com
Profesionales de las tecnologías de información, gestores de TI, CEOs, consultores en Business Intelligence, profesionales de Marketing, Control de Gestión, analistas de sistemas, arquitectos Java, arquitectos y desarrolladores de sistemas, administradores de bases de datos, desarrolladores y profesionales con relación a el área de tecnología. Tras el éxito de los recientes Cursos realizados en Brasil, Colombia y México en donde completamos todo el aforo, se convoca en Santiago de Chile, el Curso más completo de Business Intelligence Open Source. Conocimientos en bases de datos ya que se distribuirán entre los alumnos diferentes scripts de carga de datos de ejemplo. El objetivo es enseñar al alumno a construir una solución de Business Intelligence (BI) para hacer el análisis de datos procedentes de diversas fuentes y sistemas, utilizando herramientas de software libre como Pentaho. Además, se realizará una Introducción al Social Intelligence y a Big Data Fecha: 3,4, 5 y 6 de Marzo 2014 a.
inteligencia de negociosbig datadata warehousedata...
¿Qué es el Web Mining?
El Web Mining es una rama del Data Mining que busca toda aquella información que se puede extraer del procesamiento de los datos de la web. En ella se pueden minar los contenidos (que es lo que hay en la web), la estructura (como esta hecha la web) y el uso (de que forma usan la web). Si bien no es un elemento muy común en las conversaciones, el webmining en un ambiente web 1.0 es muy util pues presupone que dentro de un sitio web con cierto contenido y estructura los usuarios tendrán un comportamiento que marcaran una tendencia y, que desde esta misma información, se podrá reestructrurar el contenido y la estructura nuevamente para optimizar, clusterizar y rediseñar el sitio web.
¿Para qué sirve el Big Data?
Ya hace algún tiempo que escuché aquella frase de que el “Big data” es como el tema del sexo en el colegio: todos hablan de él pero pocos saben qué es. También leo repetidamente que el concepto de “Big data” es indisoluble al “nuevo mundo hiperconectado” de personas-dispositivos que utilizan, generan y publican datos/contenidos a través de infinidad de aplicaciones y medios sociales. Unos datos que podemos caracterizar con la triple “V”: 1) mucho más Volumen 2) mucha más Variedad según su origen y su naturaleza (estructurados y no estructurados) 3) mucha más Velocidad en su actualización. A partir de aquí, podemos concebir “Big data” como la capacidad para agregar esas colosales, variadas y velozmente cambiantes cantidades de datos, estructurarlos y tratarlos para su análisis. Si hablamos de relaciones con nuestros clientes, el ámbito de aplicación de esas decisiones serían las estrategias, políticas y acciones de captación, fidelización y retención de los clientes. No lo negaré.