Proyecto de Business Intelligence para la Universidad de La Serena: Sistema de Apoyo a la Gestión Institucional 2.0

Share Embed


Descripción

Universidad Técnica Federico Santa María Departamento de Informática Programa de Magíster en Tecnologías de la Información

|

Proyecto de Business Intelligence para la Universidad de La Serena: Sistema de Apoyo a la Gestión Institucional 2.0 Autor: Ing. Mauricio Flores Galarce. Ingeniero y Profesor Guía co-referente: René Felipe Viancos S. Profesor Guía: Danilo González Asensio. Resumen. El presente trabajo tiene como fin mostrar las ventajas que tiene aplicar herramientas de Inteligencia de Negocios en instituciones chilenas, tomando como caso en particular La Universidad de La Serena, la cual pretende desarrollar un sistema informático de Inteligencia Empresarial, mediante la utilización de herramientas técnicas y tecnologías de Business Intelligence (BI) de última generación, a través de su Centro de Informática. De esta forma se proveerán herramientas avanzadas de análisis y correlación multidimensional de datos tales como cubos OLAP, mejorando ostensiblemente la provisión de los datos de información a la alta administración de la Institución, apoyados fuertemente en tecnología, obteniendo así una segunda versión más avanzada y moderna al actual Sistema de Apoyo a la Gestión Institucional (SAGI).

1. Introducción. La Universidad de La Serena está próxima a finalizar un exitoso Proyecto de Renovación Global de Tecnologías de Información y Comunicaciones (Proyecto Phoenix.ULS), con la mayor parte de los procesos de gestión institucional sistematizados informáticamente, los cuales, mediante la provisión de interfaces y aplicaciones basadas en tecnología web, han permitido centralizar los datos y los hitos más importantes en el quehacer universitario, en las macro áreas: Académica, Estudiantil, Financiera y Administrativa. Esto ha generado como consecuencia una gran cantidad de datos e información totalmente centralizados, sobre una base de datos unificada, a la cual acceden las diferentes aplicaciones que apoyan los procesos en las macro áreas ya mencionadas. Es importante señalar que la Universidad de La Serena posee actualmente un sistema centralizado con la información necesaria para hacer gestión al interior de la Institución, denominado SAGI (Sistema de Apoyo a la Gestión Institucional) [ref. web 01], donde se muestra información académica/financiera relevante, como por ejemplo, informes estadísticos de postulación desde 1990-2012; información para indicadores relacionados con la calidad, rendimientos académico o curriculares; estadísticas para completar informes de acreditación institucional y de carreras, entre otros.

Seminario de Graduación 2011/2012

1

|

Universidad Técnica Federico Santa María Departamento de Informática Programa de Magíster en Tecnologías de la Información

Los nuevos requerimientos para representar y analizar los datos, así como la aparición de nuevas correlaciones que demandan la confección de nuevos indicadores y su necesaria representación gráfica/temporal para poder analizar sus comportamientos en una línea de tiempo definida, hace que los tiempos de respuesta del Centro de Informática dedicados a proveer estos complejos componentes de análisis dinámico de datos e información, sean superiores a lo esperado por los usuarios requirentes, debiendo desarrollar una aplicación para cada caso particular, e incluso, reprogramar un subsistema completo para que la representación de los datos sea suficientemente dinámica para los analistas de nuestra institución. El problema anterior requiere de una solución de software y metodología de desarrollo que entregue una mayor flexibilidad tecnológica en el manejo de la Fig. 1-1 Sistema de Apoyo a la Gestión Institucional información orientada a la gestión de la Universidad de La Serena. El SAGI actual, si bien permite ver y hacer gestión con los indicadores base sancionados por la institución, presenta poca flexibilidad, lo que alarga muchas veces los tiempos de entrega en los productos de software asociados a los datos de información institucional, frente a nuevas necesidades de información de gestión. Es por esta razón que hoy en día es indispensable contar con una herramienta de Inteligencia Empresarial que optimice los tiempos en la construcción de aplicaciones de análisis, reportes y gráficos que realicen la gestión de una forma más flexible, eficiente e intuitiva y cuya integración (como componente de software) a otras aplicaciones al interior de la Institución, sea de bajo impacto y fácil mantención. A causa de lo expuesto anteriormente, la Dirección del Centro de Informática ha planteado a Rectoría y a la Dirección de Planificación la necesidad de ejecutar un proyecto de Inteligencia Empresarial apoyado fuertemente en Tecnología de última generación, para construir la versión 2.0 del Sistema de Apoyo a la Gestión Institucional (SAGI) cuya primera versión fue desarrollada de forma autónoma, como apoyo al proceso de acreditación institucional del año 2006. La nueva versión estará basada en alguna solución de Software orientada a la Inteligencia Empresarial o de Negocios. Otra razón de peso que justifica la implementación de una solución de Inteligencia Empresarial para la gestión centralizada de los datos en información de la Universidad es poder acceder a herramientas avanzadas de correlación de datos en información, específicamente herramientas ETL, para elaborar análisis de información multidimensionales, como por ejemplo la construcción cubos OLAP.

Seminario de Graduación 2011/2012

2

Universidad Técnica Federico Santa María Departamento de Informática Programa de Magíster en Tecnologías de la Información

|

1.1. Objetivos Generales. Hipótesis: La incorporación de herramientas de Bussiness Intelligence (BI) que se usan hoy en el mundo de los negocios ha beneficiado cualitativa y cuantitativamente la forma y cantidad de información requerida en la toma de decisiones, a las instituciones universitarias chilenas y extranjeras que lo han implementado; por lo que el desarrollo de una nueva herramienta informática de apoyo a la gestión institucional basada en tecnología BI, traerá mayor flexibilidad y mejores tiempos de respuesta a los requerimientos institucionales, mediante la sistematización de nuevos indicadores de gestión estratégicos, que permitan dar operatividad a los lineamientos objetivos del Plan Estratégico de Desarrollo 2010-2014[ref-web 12] de la Universidad de La Serena, desde la perspectiva de los resultados académicos. 1.2. Objetivos Específicos. Conocer el estado del arte sobre la aplicación de inteligencia de negocios en instituciones universitarias. Aplicar principios de inteligencia de negocios para la Universidad de La Serena, recopilando un conjunto de necesidades y objetivos para hacer gestión estratégica institucional. Elaborar indicadores estratégicos institucionales, representados a través de cubos de gestión que permitan mejorar los tiempos de entrega de la información solicitada, entregando reportes con una presentación de más fácil comprensión y mayor flexibilidad a los usuarios requirentes.

1.3. Metodología. La metodología de trabajo para el desarrollo de la tesina se compone de las siguientes etapas: Desarrollo del marco teórico de la tesina. Construcción de marco conceptual asociado a la aplicación de inteligencia empresarial en instituciones universitarias chilenas y extranjeras. Desarrollo de la Herramienta BI, según el modelo propuesto por Larissa T. Moss [Moss, 2003] el cual se detalla en el marco teórico de la tesina. Implementación de los indicadores de gestión institucional y elaboración de cuadros comparativos entre los procedimientos de entrega de información anteriores y los desarrollados en esta tesina. Conclusiones.

Seminario de Graduación 2011/2012

3

Universidad Técnica Federico Santa María Departamento de Informática Programa de Magíster en Tecnologías de la Información

|

1.4. Organización de Informe. Sin considerar esta sección introductoria, el presente informe se ha estructurado en cuatro partes: La primera de ellas corresponde a la definición del marco teórico, en donde se presentarán algunos de los conceptos más importantes que permitan comprender el contexto de este trabajo. En la segunda parte: - Se expondrá el desarrollo central del caso de estudio y los aspectos más importantes abordados dentro de él, presentando el estado del arte en instituciones universitarias, tanto a nivel mundial como nacional. - Se presentarán las necesidades institucionales respecto a la gestión de información, y cómo las herramientas BI entregan el apoyo necesario para la toma de decisiones. - Se elaborarán indicadores de gestión institucional mediante reportes y gráficos a través de la implementación de la herramienta BI, que facilite la labor de análisis de información a las diferentes unidades de la institución. La tercera parte entregará las conclusiones de esta tesina, en cual estará centrado en la evaluación del trabajo realizado. En la cuarta y última parte se indicarán las referencias a otros trabajos o documentos que han sido relevantes para especificar el contexto de este trabajo en particular.

2. Marco Teórico. 2.1. Inteligencia de Negocios. La inteligencia de negocios o Business Intelligence (BI) se puede definir como el proceso de analizar los bienes o datos acumulados en la empresa y extraer una cierta inteligencia o conocimiento de ellos. Dentro de la categoría de bienes se incluyen las bases de datos de clientes, información de la cadena de suministro, ventas personales y cualquier actividad de marketing o fuente de información relevante para la empresa. Según Larissa T. Moss [Moss, 2003] “BI no es ni un producto ni un sistema. Se trata de una arquitectura y una colección de operacionales integrados, así como apoyo a las decisiones de aplicaciones y bases de datos que proporcionan el acceso de la comunidad de negocios fácil de los datos empresariales“. En toda organización existen tres tipos de necesidades de información: Operacional, Táctica y Estratégica. Los sistemas de BI toman los datos registrados en toda transacción del día a día en el nivel Operacional, para que de una manera ordenada, integrada y homogénea los convierta en información valiosa para la gestión en los niveles Táctico y Estratégico. De aquí la importancia de que las empresas cuenten con un ambiente operacional estable y de acuerdo a sus necesidades. [ref. web 02]

Seminario de Graduación 2011/2012

4

|

Universidad Técnica Federico Santa María Departamento de Informática Programa de Magíster en Tecnologías de la Información La Inteligencia de Negocios a Nivel Operativo permite que los empleados que trabajan con información operativa puedan recibir la misma de una manera oportuna, exacta y adecuada y se componen básicamente de herramientas de reportes u hojas de cálculo con un formato fijo cuya información se actualiza frecuentemente. La Inteligencia de Negocios a Nivel Táctico permite que los analistas de datos y la gerencia Fig.2.1-1. Niveles de Inteligencia de Negocios media de la empresa utilicen herramientas de análisis y consulta con el propósito de tener acceso a la información sin intervención de terceros. La Inteligencia de Negocios a Nivel Estratégico permite que la alta dirección de las empresas pueda analizar y monitorear tendencias, patrones, metas y objetivos estratégicos de la organización. Un ejemplo de Inteligencia de Negocios a nivel estratégico lo constituye el Cuadro de Mando Integral o Balanced Scorecard concepto introducido por Robert Kaplan y David Norton el cual definen como: "Un esquema de trabajo multidimensional para describir, implementar y administrar estrategia a todo nivel dentro de una empresa, a través de la vinculación de objetivos, iniciativas y mediciones a la estrategia de la organización" [ref. web 03]. Con la implementación de un Cuadro de Mando Integral se obtienen los siguientes beneficios: Promueve la alineación estratégica de toda la organización a partir de la transformación de la Visión y Estrategia en planes concretos de acción. Fomenta el trabajo en equipo y por consiguiente la colaboración y la coordinación al conducir a toda la organización hacia la consecución de la estrategia definida. Facilita la comunicación de los planes estratégicos a toda la empresa. Integra y sintetiza un gran volumen de datos e indicadores que surgen de la gestión diaria de las operaciones. Desarrolla el conocimiento y el capital humano, bases fundamentales para alcanzar los objetivos estratégicos. La capacidad para tomar decisiones de negocio precisas y de forma rápida se ha convertido en una de las claves para que una empresa llegue al éxito. Sin embargo, los sistemas de información tradicionales (como la mayoría de los programas de gestión, las aplicaciones a medida, e incluso los ERP más sofisticados), suelen presentar una estructura muy inflexible para este fin. Aunque su diseño se adapta con mayor o menor medida para manejar los datos de la empresa, no permite obtener la información de los mismos, y mucho menos extrapolar el conocimiento almacenado en el día a día de las bases de datos [ref. web 03].

Seminario de Graduación 2011/2012

5

Universidad Técnica Federico Santa María Departamento de Informática Programa de Magíster en Tecnologías de la Información

|

2.2. Componentes de BI. Para que la organización se desarrolle exitosamente en todo el ciclo de BI, es necesaria una arquitectura de aplicaciones que la apoyen. Dentro de esa arquitectura es posible encontrar: El hardware: Los cálculos (al vuelo, o pre-calculados) para mostrar la información consolidada, mostrar tendencias y encontrar patrones de comportamiento, requieren de una capacidad enorme en un equipo de cómputo, tanto de almacenamiento como de memoria. Los orígenes de datos (Data Sources): Es cada medio donde guardamos los datos transaccionales de la organización, y puede ser casi cualquier cosa, archivos de texto, hojas de Excel, páginas web, correos electrónicos, bases de datos de ERP, CRM, MRP, MRP II, etc. Procesos de transformación: Formalmente ETL (extracción, transformación y carga de datos). es un software que se conecta a los orígenes de datos, y, de acuerdo a los objetivos perseguidos por el proyecto, aplica reglas de negocio para leer los datos necesarios y transformarlos en estructuras adecuadas a un modelo analítico. Área de almacenamiento temporal: También conocido como Staging Area, es un componente muy importante pues aquí se almacena en primera instancia un volumen importante de datos ya homogenizados, ordenados y limpiados, se gestionan los catálogos o datos maestros del BI y se prepara todo para cargarse al data warehouse. Data Warehouse: Aquí se comienzan a definir los modelos analíticos, comúnmente utilizando tablas relacionales. El modelo comienza definiendo una (o varias) tablas de hechos (Fact Table), donde se tienen todas las métricas por analizar, y una serie de claves o llaves, para definir como único a un registro. Partiendo de esta tabla de hechos, y utilizando dichas llaves, se definen las relaciones con las tablas de dimensiones. Almacén de Metadatos: Contiene la definición total de los componentes del Data Warehouse, es decir, se debe detallar el significado de cada tabla y cada campo que lo conforman, cómo fueron creados, qué cambios han sufrido, así como sus restricciones, de posibles valores, de seguridad, etc. Almacén multi-dimensional: Utilizando nuevamente una herramienta de ETL, los datos del data warehouse se transforman en miembros de Dimensiones y en valores para las métricas de los Cubos de Información. La ventaja de un almacén multi-dimensional es que está previamente definida la manera en que se realizarán las consolidaciones de datos, tanto por la propia estructura del cubo, como por la existencia de niveles jerárquicos en las dimensiones. Front-End: Es la herramienta disponible para el usuario final. Con ella podrá explotar la información del BI de distintas maneras: o

Con reportes pre-definidos, de acuerdo a cada nivel de la organización.

o

Con análisis en línea, también llamado reportes Ad-hoc, utilizando directamente los cubos, e interactuando con las dimensiones ubicándolas en el eje de análisis más adecuado.

o

Con Cuadros de Mando y Tableros de Control (dashdoard), para monitorear el desempeño de un área específica o la totalidad de la empresa, con una visión operativa, táctica y estratégica.

Seminario de Graduación 2011/2012

6

|

Universidad Técnica Federico Santa María Departamento de Informática Programa de Magíster en Tecnologías de la Información 2.3. Enfoques de desarrollo. Todo proyecto BI implica el desarrollo o la compra de software que implemente la iniciativa de BI, es decir, que permita dar apoyo a procesos nuevos o existentes, políticas, descubrimiento de nuevos nichos de mercado, mejoras de ventas, ahorros en gastos, entre otros. Para el desarrollo de este tipo de proyectos, existen básicamente dos enfoques, el llamado modelo de desarrollo en cascada y el interdepartamental (cross-organizational). El primero de ellos se considera un enfoque tradicional y ya superado, donde se llevan a cabo reuniones iniciales con los futuros usuarios del software para determinar sus necesidades y se trabaja en conjunto en algunas actividades iniciales de la etapa de análisis, pero posterior a eso no hay un acercamiento real con los usuarios, sino que generalmente los desarrolladores del software trabajan en forma aislada durante las fases de diseño, desarrollo y parte de la fase de prueba del software, para tener contacto nuevamente con el usuario en la fase de implantación, que es cuando se pone en uso el sistema. El modelo interdepartamental por su parte, es un modelo altamente integrador, no sólo de sistemas de software, sino también de las diferentes partes involucradas e interesadas en el proyecto de BI. Sin embargo, implica también mayores esfuerzos de las partes para colaborar, dedicarle tiempo al proyecto y compartir información, aspectos que pueden representar grandes cambios en la cultura organizacional de la empresa. Dos de las metodologías más importantes para el desarrollo BI son las presentadas por Bill Inmon y Ralph Kimbal [ref-web 17]. Bill Inmon ve la necesidad de transferir la información de los diferentes OLTP (Sistemas Transaccionales) de las organizaciones a un lugar centralizado donde los datos puedan ser utilizados para el análisis (sería el CIF o Corporate Information Factory). Insiste además en que ha de tener las siguientes características: Orientado a temas: Los datos en la base de datos están organizados de manera que todos los elementos de datos relativos al mismo evento u objeto del mundo real queden unidos entre sí. Integrado: La base de datos contiene los datos de todos los sistemas operacionales de la organización, y dichos datos deben ser consistentes. No volátil: La información no se modifica ni se elimina, una vez almacenado un dato, éste se convierte en información de sólo lectura, y se mantiene para futuras consultas. Variante en el tiempo: Los cambios producidos en los datos a lo largo del tiempo quedan registrados para que los informes que se puedan generar reflejen esas variaciones. El enfoque Inmon también se referencia normalmente como Top-down. Los datos son extraidos de los sistemas operacionales por los procesos ETL y cargados en las areas de stage, donde son validados y consolidados en el DW corporativo, donde ademas existen los llamados metadatos que documentan de una forma clara y precisa el contenido del DW. Una vez realizado este proceso, los procesos de refresco de los Data Mart departamentales obtienen la información de el, y con las consiguientes transformaciones, organizan los datos en las estructuras particulares requeridas por cada uno de ellos, refrescando su contenido. Por otro lado, en enfoque de Kimball sostiene que el data warehouse es un conglomerado de todos los datamarts dentro de una empresa, siendo una copia de los datos transaccionales estructurados de una forma especial para el analisis, de acuerdo al Modelo Dimensional (no normalizado), que incluye, como ya vimos, las dimensiones de análisis y sus atributos, su organización jerarquica, asi como los diferentes hechos de negocio que se quieren analizar. Los diferentes datamarts están conectados entre si por la llamada bus structure, que contiene los elementos anteriormente citados a través de las dimensiones conformadas (que permiten que los usuarios puedan realizar querys conjuntos sobre los diferentes data marts, pues este bus contiene los Seminario de Graduación 2011/2012

7

Universidad Técnica Federico Santa María Departamento de Informática Programa de Magíster en Tecnologías de la Información

|

elementos en común que los comunican). Este enfoque también se referencia como Bottom-up, pues al final el Datawarehouse Corporativo no es mas que la unión de los diferentes datamarts, que estan estructurados de una forma común a través de la bus structure. Basado en los enfoques expuestos, Larissa T. Moss [Moss, 2003], propone un modelo basado en las mejores prácticas para el desarrollo de proyectos de BI, el cual consta de dieciséis pasos distribuidos en seis etapas. A continuación se describe brevemente cada uno de los pasos de acuerdo con la etapa a la que pertenecen: a.

Etapa de justificación. (paso 1) En ella se lleva a cabo el primer paso que es la evaluación del negocio, esto consiste en definir claramente el problema o la oportunidad de negocios, así como la solución de BI propuesta.

b.

Etapa de planificación. Durante esta etapa se llevan a cabo los siguientes pasos: Evaluación de la infraestructura empresarial (paso 2): Consiste en determinar con qué infraestructura técnica y no técnica cuenta la organización. Por ejemplo: bases de datos, hardware, software, redes, guías, estándares, procedimientos, metodologías etc. Planificación del proyecto (paso3): Se debe determinar el ámbito del proyecto y las necesidades del personal, presupuesto, tecnología, patrocinadores del proyecto a nivel interno, requeridos en cada etapa del proyecto.

c.

Etapa de análisis del negocio. En esta etapa se desarrollan los siguientes pasos: Definición de los requerimientos del proyecto (paso 4) Análisis de datos (paso 5): Se evalúa la calidad de los datos existentes así como sus fuentes. Prototipo de la aplicación (paso 6): Se desarrolla un prototipo no funcional de la aplicación que se desea implementar. Análisis del repositorio del metadata (paso 7): Se debe analizar todo el metadata técnico y hacerlo corresponder con el metadata de negocios. Se debe determinar cuál metadata capturar y almacenar.

d.

Etapa de diseño. Los siguientes pasos son desarrollados durante la etapa de diseño del proyecto de BI: Diseño de la base de datos (paso 8): De acuerdo con las necesidades de información establecidas en los requerimientos, se deben diseñar los esquemas de la base de datos multidimensional. Diseño del ETL (Extract-Transform-Load) (paso 9): Se diseña con sumo cuidado el proceso de extracción, transformación y carga de datos de sus distintas fuentes hacia la base de datos multidimensional.

Seminario de Graduación 2011/2012

8

Universidad Técnica Federico Santa María Departamento de Informática Programa de Magíster en Tecnologías de la Información

|

Diseño del repositorio del metadata (paso 10): Se determina si el repositorio del metadata se construye o se utiliza una licencia. e.

Etapa de construcción. Durante la etapa de construcción se lleva a cabo, entre otras cosas, la implementación de la aplicación de BI. Los pasos que se desarrollan en esta etapa son: Desarrollo del ETL (paso 11): Según las necesidades de transformación de datos que se determinen en el paso de análisis de datos (paso 5) y el diseño del ETL, se debe determinar en este paso si será necesario adquirir una herramienta de ETL. Desarrollo de la aplicación (paso 12): Después de que el prototipo diseñado inicialmente satisfaga los requerimientos establecidos, se procede al desarrollo de la aplicación en sus aspectos de acceso y análisis de los datos. Minería de datos (paso 13): implica la construcción de una aplicación de minería de datos utilizando una herramienta apropiada. Desarrollo del repositorio de la metadata (paso 14): Si se decide construir un repositorio para la metadata, entonces debe integrarse un equipo de desarrolladores que se encargue de este paso, que en caso de darse, puede verse como un subproyecto.

f.

Etapa de despliegue. Aquí se realizan los dos últimos pasos del enfoque propuesto por Larissa T. Moss, y que son: Implantación (paso 15): Se establece un cronograma de capacitación, con el fin de que todos los usuarios de la aplicación desarrollada aprendan a utilizarla. Inician en este punto labores de soporte y mantenimiento, tanto de la aplicación como de las bases de datos y el repositorio de la metadata. Evaluación de la aplicación entregada (paso 16): Se evalúan las herramientas, técnicas y guías utilizadas, para determinar si realmente fueron útiles o si deben ser descartadas para futuros proyectos. Igualmente, se analizan los retrasos en las distintas fases del proyecto, si se sobrepasó el presupuesto inicial, las disputas presentadas y como se resolvieron, etc.

3. Desarrollo del Caso de Estudio. 3.1. Marco conceptual asociado a la aplicación de BI en instituciones universitarias. La importancia estratégica de la educación en un país se ve directamente relacionada con las razones de aumento de la productividad, desarrollo económico -basado en el conocimiento- y mayor competitividad. Tanto la educación pública como la privada se sitúan en este contexto. La gestión de la educación, conseguir la mayor eficacia, emplear los recursos eficientemente, mejorar la rentabilidad educativa y medir el impacto en el mercado laboral son algunos de los retos a los que se enfrentan las instituciones educativas. Haciendo uso de metodologías, herramientas gerenciales y técnicas de BI, las universidades pueden contar con un recurso que si es adecuadamente utilizado, les puede ayudar en su esfuerzo Seminario de Graduación 2011/2012

9

|

Universidad Técnica Federico Santa María Departamento de Informática Programa de Magíster en Tecnologías de la Información por ser cada vez más competitivas: la información provista por las tecnologías de información y comunicaciones, específicamente aquellas relacionadas con el análisis multidimensional de datos. Entre las ventajas que aportan las herramientas BI en la educación podemos destacar: Control y reducción de gastos (seguimiento presupuestario, analítica). Mayor competitividad y posicionamiento (gestión y retención del talento). Mejor gestión educativa (evaluaciones, seguimiento alumnos, profesores, calidad de la enseñanza, comparativas y benchmarking). Mayor capacidad de reacción ante cambios (escenarios de simulación para regulaciones, subvenciones, becas). Mayor eficiencia (visión global, modelos causa-efecto, BalancedScorecard). En cuanto a la aplicación de BI en universidades extranjeras, podemos destacar el caso de la Universidad de Illinois, Estados Unidos [ref-web 02]: Cada año se inscriben más de 70,000 estudiantes a la Universidad de Illinois, que ofrece más de 150 campos de estudio en 30 colegios, escuelas independientes e institutos repartidos en 3 campus: Chicago, Springfield y Urbana-Campaign. Al expandir una iniciativa que se creó en el 2001 en toda la universidad para reemplazar los sistemas de los cursos, surgió el problema de cómo acceder a los datos y crear reportes sobre ellos usando el nuevo sistema de planificación de los recursos de la empresa (ERP). La universidad planeaba implementar el sistema ERP en etapas para poder desarrollar un sistema de forma gradual y diseñar, en etapas también, la información saliente requerida para cubrir las necesidades de los usuarios. El problema relacionado con la implementación nueva era decidir si se usaría el sistema ERP para generar reportes o se aprovecharían las características y las funciones de un sistema creado a la medida que ofreciera estas funciones. Se conformó un grupo de soporte a la toma de decisiones, el cual realizó un estudio para definir qué tipo de software cubriría las necesidades de creación de reportes y análisis de la universidad. La decisión de crear una arquitectura de almacenamiento de datos al que se agregara una capa de Business Intelligence (BI) parecía ser la solución que mejor respondía a los requisitos del negocio de la organización. Se desarrolló un ambiente de almacenamiento de datos y creación de reportes que diera a los usuarios acceso a la información que necesitaban para la creación de reportes y el análisis. Al identificar las necesidades de creación de reportes y análisis de forma paralela con el sistema ERP, el grupo de soporte a la toma de decisiones pudo identificar los requisitos que posteriormente serían transferidos para ayudar a la selección del proveedor. Si bien se estaba creando el almacén de datos al mismo tiempo, el desarrollo de la capa de aplicación exigía el uso de herramientas de un tercero. Una vez que se estableció esta estructura, la selección de un proveedor de BI se convirtió en un factor clave. La Universidad de Illinois decidió enfocarse en los usuarios para identificar la herramienta de BI correcta. Se entrevistaron a más de 200 personas pertenecientes a diferentes comunidades de usuarios e identificar los requisitos. La evaluación de las necesidades tenía dos propósitos: en primer lugar, identificaría los requisitos de reportes estáticos y, en segundo, evaluaría la funcionalidad de creación de reportes ad hoc que permitieran que los usuarios crearan sus propios reportes.

Seminario de Graduación 2011/2012

10

|

Universidad Técnica Federico Santa María Departamento de Informática Programa de Magíster en Tecnologías de la Información Una vez que se capturaron los resultados, el grupo de soporte a la toma de decisiones creó una lista de cinco vendedores y les pidió que realizaran presentaciones usando un subconjunto de los datos de la universidad. Los factores críticos de éxito que ayudaron en la selección del proveedor de la herramienta BI son los siguientes: Acuerdos de niveles de servicio ventajosos con los proveedores. Enfoque en los usuarios (y no en TI). Arquitectura flexible. Investigación y desarrollo sólidos del lado del proveedor. Satisfacción de las necesidades de acuerdo a la solicitud de propuesta. Uno de los factores de éxito de este proyecto fue que los usuarios estuvieron muy involucrados en el proceso de selección, la universidad se apegó a las políticas de encargos del estado de Illinois. Desde el principio, los directores comprendieron el razonamiento detrás de la selección de software. Las políticas de encargo dan a los directores la comprensión que necesitan para ver el valor inmediato de la decisión. Además de enviar la solicitud de propuesta, se apegaron a los procesos técnicos y políticos, y debido a que la iniciativa estaba relacionada directamente con la implementación general de ERP, ya se había asignado unpresupuesto general al proyecto.

3.2. Estado del arte de proyectos BI en universidades chilenas. A continuación, se presentan los proyectos o iniciativas que están disponibles en la web sobre proyectos de BI en Universidades Chilenas. Universidad de Concepción: La Universidad de Concepción está en el proceso de implementación de una solución de Business Intelligence para la institución. Dentro de este contexto, ha contratado los servicios de Kr. Consulting para las definiciones y un primer diseño para esta implementación, utilizando la tecnología con la cual actualmente dispone [ref-web 03]. Universidad del Desarrollo: Adquiere licencias corporativas de Cubix Olap Analyzer 3.1 + Data Mining y Cubix Web Edition, implementando un sistema de Control de Gestión Financiero, Presupuestario y Académico. De esta forma, la auditoría interna de sistemas y procesos, y la generación de Informes de gestión se realiza usando la más nueva tecnología existente en sistemas de "apoyo a la toma de decisiones" [ref-web 04]. Universidad Católica del Norte: Nace como una iniciativa de un grupo de académicos, ingenieros adscritos al Departamento de Ingeniería de Sistemas y Computación de la Universidad Católica del Norte (UCN), que han desarrollado competencias y capacidades profesionales en la formulación de proyectos de I+D+i e investigación en las áreas de modelamiento, análisis computacional de datos y minería de datos, computación de altas prestaciones y desarrollo de software avanzado [ref-web 05]. Pontificia Universidad Católica de Chile: Sistema de seguimiento presupuestario para la VREG. Un sistema que permite comparar los ingresos y egresos reales de cada unidad académica o administrativa de la Universidad con su presupuesto, ha sido desarrollado por la Subdirección de Sistemas para la Gestión de la DI. Este sistema de BI, fue desarrollado sobre la plataforma Micro Strategy, la cual ya ha sido usada por la DI para otros desarrollos, asociados a la entrega de información de académicos y estudiantes. Seminario de Graduación 2011/2012

11

|

Universidad Técnica Federico Santa María Departamento de Informática Programa de Magíster en Tecnologías de la Información Universidad de Tarapacá: Incorporación de elementos de inteligencia de negocios en el proceso de admisión y matricula, ocupando la suite de herramientas Pentaho. Se implementó un datamart centrado en el área de Admisión y Matrícula de la Vicerrectoría Académica. Su desarrollo requirió de la realización de actividades tales como la obtención de los requerimientos del negocio, la investigación del indicador clave de rendimiento del área, el análisis de las distintas fuentes de información interna y el desarrollo de un modelado dimensional basado en el esquema estrella de Kimball. [ref web 06]. Universidad Técnica Federico Santa María: La institución ha mejorado enormemente la provisión centralizada de la información relevante para hacer gestión institucional, publicada el 31 de mayo de 2010. María Alicia García, directora del Proyecto "Fortalecimiento de las Capacidades de Gestión de la UTFSM" y coordinadora de la Dirección General de Planificación y Desarrollo, explica que entre las ventajas y beneficios de contar con esta herramienta, está la pronta disponibilidad de los datos en un repositorio centralizado, creado específicamente para los requerimientos de la universidad. "…Con esto, la unidad de análisis puede responder con mayor rapidez, ya que disminuyen los tiempos asociados a la recopilación y consolidación de la información requerida por las distintas instancias tanto a nivel interno de la Universidad como a los provenientes del medio externo como son el Ministerio de Educación, y otras entidades vinculadas al quehacer de la Educación Superior" [ref web 07].

3.3. Desarrollo de la herramienta BI. Para el desarrollo de la herramienta BI, se aplicará el modelo propuesto por Larissa T. Moss [Moss, 2003], ya que esta es una guía basada en las mejores prácticas para el desarrollo de proyectos BI, cubriendo todos los aspectos del ciclo de vida del mismo, presentando una organización de las actividades del proyecto; adecuándolas a las características específicas y contexto de la organización, sea cual sea el enfoque aplicado para el desarrollo de la herramienta. Además, dado que este modelo nos entrega en forma clara y ordenada cada uno de los pasos a seguir para el desarrollo de un proyecto BI, resulta es ideal para ilustrar cada una de las etapas del desarrollo de un proyecto BI dentro de esta tesina. El modelo propuesto por Moss consta de dieciséis pasos distribuidos en seis etapas. Dado lo extenso del desarrollo de este modelo, solo se describirán las etapas más relevantes, dejando el desarrollo completo en el documento “Anexo 01 – Desarrollo de la Herramienta BI”. 3.3.1. Etapa de análisis del negocio. 3.3.1.1. Definición de los requerimientos del proyecto. La Universidad de la Serena ha formalizado sus metas y objetivos en su Plan Estratégico de Desarrollo 2010-2014[ref-web 12]. Por esta razón cualquier esfuerzo en términos de desarrollar indicadores Institucionales (traducidos en requerimientos del proyecto) debe reflejar los factores de éxito definidos en el PED, entendiendo que el “negocio” de la Institución es la Educación. Los indicadores que sean seleccionados deberán dar operatividad a los lineamientos objetivos del PED, desde la perspectiva de los resultados académicos. Esto lo podemos evidenciar en los siguientes lineamientos: L1: Desarrollo de un sistema eficiente de gestión Institucional. L2: Logro de niveles de calidad y cobertura en la enseñanza de pregrado, con procedimientos sistemáticos de mejoramiento y aseguramiento de la calidad de los servicios.

Seminario de Graduación 2011/2012

12

Universidad Técnica Federico Santa María Departamento de Informática Programa de Magíster en Tecnologías de la Información

|

Con esto podemos concluir que para medir el logro de estos lineamientos estratégicos, es una necesidad Institucional generar indicadores de gestión transversales, integradores y cuantificables. Además de la necesidad interna de requerimientos de información explicitada en los párrafos anteriores, existe por la naturaleza intrínseca del financiamiento público de nuestra Institución, requerimientos de datos tales como SIES, INDICE, Memoria del CRUCH [ref-web 14] y otros tantos que sólo requieren el llenado de bases de datos enviadas por estas organizaciones. Si bien, como se ha dicho, estos son requerimientos de datos duros, la Universidad sabe que sobre estos se obtendrán métricas como: Tasa de titulación, tasa de retención (en especial de primer año), titulación efectiva, tiempo efectivo de titulación y otros como empleabilidad que se han agregado en los últimos periodos. Todos requerimientos son de datos académicos, más información demográfica. Pero existe también una tendencia a enlazar esta información, en especial por el Fondo de Revitalización de las Universidades Estatales [ref-web 15], a los denominados quintiles [ref-web 16], y en particular a los quintiles 1 y 2 de la población. Es aquí donde el concepto de “transversalidad” toma relevancia al definir un indicador y posteriormente seleccionar las herramientas que se usarán para dar operatividad a este indicador, pues es un aspecto relevante el considerar que el indicador tendrá más de una fuente de información. Actualmente no existe ningún indicador oficial de la Institución, la Dirección de Planificación y Estudios Institucionales, en conjunto con la Dirección de Docencia están trabajando en la formulación de estos en función de propuestas de las Direcciones responsables de los datos. Bajo esta premisa se han propuesto los siguientes indicadores: Tasa de retención en un Corresponde a la proporción de alumnos de la Cohorte m que no ha dejado sus estudios incompletos de manera anticipada antes del inicio del año . Esto incluyendo alumnos suspendidos y postergados. Tasa de deserción en un Corresponde al total de alumnos de la cohorte n que no han continuado sus actividades académicas al momento de informar esta tasa. Tasa de reprobación Corresponde al valor porcentual entre todos de alumnos inscritos en determinada asignatura y que presentan notas al final semestre, contra los alumnos que reprobaron dicha asignatura.

Tasa de aprobación Corresponde al valor porcentual entre todos de alumnos inscritos en determinada asignatura y que presentan notas al final semestre, contra los alumnos que aprobaron dicha asignatura. Tasa de titulación de la cohorte

)

Corresponde a la proporción entre los titulados de la

Seminario de Graduación 2011/2012

en un

y la

.

13

|

Universidad Técnica Federico Santa María Departamento de Informática Programa de Magíster en Tecnologías de la Información Tasa de egreso de la cohorte

)

Corresponde a la proporción entre los egresados de la

en un

y la

.

3.3.2. Etapa de diseño 3.3.2.1. Diseño de la base de datos. Para cumplir con los requerimientos de información, traducidos en indicadores de gestión, se diseñaron dos esquemas de datos que darán como resultado dos datamart de información: Datamart de Matrículas: Este datamart contendrá la información de matrícula de los alumnos, en donde se podrá obtener la información de todos los semestres en los que el alumno realizó una actividad académica, indicando el estado del alumno en ese semestre (Alumno Regular, Suspendido, Postergado, Renunciado, Egresado, Titulado, etc.). Con toda esta información, se podrá calcular los indicadores de Tasa de retención, Tasa de deserción, Tasa de titulación y Tasa de egreso. Datamart de Rendimientos: Este datamart contendrá la información de los rendimientos de alumnos, en donde se podrá obtener el avance curricular del mismo, indicando las notas finales por cada asignatura que el alumno haya realizado y el estado de la misma (Aprobado, Reprobado, Homologado etc.). Con toda esta información, se podrá calcular los indicadores de Tasa de Aprobación y Tasa de Reprobación. 3.3.2.2. Diseño del ETL. Para el Proceso de ETL se realizaron los siguientes pasos: Extracción de la información (extract): Se recopilará la información de las tablas señaladas en el punto anterior mediante consultas SQL, para obtener las siguientes estructuras de datos que servirán como base para el datamart de rendimientos y el datamart de matrículas: Transformación de la información (Transform): Se tomará la estructura de datos base para extraer los campos que conformarán cada una de las tablas de dimensiones de los datamart de rendimiento y matrícula. A cada uno de los registros de cada dimensión se le asignará un campo identificador clave, para luego construir la tabla de hechos en base a los campos claves de cada tabla de dimensión quedando como resultado la base de datos multidimensional descrita en el punto anterior. Carga de la información (Load): Una vez definido el proceso de transformación, se procederá a la carga de los datos a los esquemas construidos para el datamart de rendimiento y de matrícula.

Seminario de Graduación 2011/2012

14

Universidad Técnica Federico Santa María Departamento de Informática Programa de Magíster en Tecnologías de la Información

|

3.3.2.3. Diseño del repositorio del metadata. En esta etapa se seleccionará la herramienta BI a utilizar para este proyecto, evaluando las fortalezas, debilidades y otros aspectos propios de las distintas herramientas de Business Intelligence del mercado. Las herramientas a evaluar son las siguientes: Pentaho es una suite de Herramientas de código abierto comercial para Inteligencia de Negocios que cuenta con todas las herramientas necesarias para cubrir el espectro completo de Inteligencia de Negocios dentro de una organización: Análisis interactivo (OLAP), Reportes, Integración de datos (ETL), Tableros de Control y Minería de datos. SpagoBI es una plataforma integrada para la Inteligencia de negocios desarrollada enteramente de acuerdo con la filosofía del software libre y de código abierto. Es una plataforma ya que cubre y satisface todos los requisitos de BI, tanto en términos de análisis y de gestión de datos, administración y seguridad. En el mundo analítico ofrece soluciones para la presentación de informes, análisis multidimensional (OLAP), minería de datos, tableros de mando (Dashboard) y consultas ad-hoc. Añade módulos originales para la gestión de procesos de colaboración a través de análisis dossiers y el análisis de geo-referencia. Oracle Business Intelligence Suite Enterprise Edition Plus (EE) es una suite completa de productos de BI para la empresa, entrega de toda la gama de funcionalidades de BI incluyendo Dashboard interactivos, inteligencia proactiva y alertas, reportes financieros y empresariales en tiempo real, inteligencia predictiva, análisis desconectados, y mucho más. Además de proporcionar la gama completa de funcionalidad de BI, Oracle Business Intelligence Suite EE Plus plataforma se basa en una plataforma probada, una arquitectura web orientada a servicios que ofrece la siguiente generación de funcionalidades para el BI.

Cada una de estas herramientas fue evaluada con los siguientes criterios de selección: a.

Cálculo del costo estimado de instalación, mediante métricas definidas a continuación:

Meta 1. Tiempo y costo de configuración del SO e Instalación de la aplicación Métrica 1.1.1. Tiempo en minutos que tardo para configurar la el OS

Pregunta 1.1. ¿Cuánto tiempo dedica a preparar el ambiente de producción?

Métrica 1.1.2. Tiempo total de Instalación de los Pre-requisitos (minutos) Métrica 1.1.3. M1.1.1/M1.1.2 Relación tiempo para el ajuste personalizado del OS. Métrica 1.1.4. Número de personas dedicadas a configurar el OS para la aplicación Métrica 1.2.1. Tiempo en minutos que tardo para configurar la aplicación

Pregunta 1.2. ¿Cuánto tiempo se necesita para dejar la aplicación en correcto funcionamiento?

Métrica 1.2.2. Tiempo total de Instalación (minutos) Métrica 1.2.3. M1.1.1/M1.1.2 Relación tiempo para el ajuste personalizado de un total de tiempo de instalación Métrica 1.2.4. Número de personas dedicadas a configurar la aplicación Métrica 1.3.1. Demora en el tiempo de instalación por haber fallado o no tener alguna característica necesaria

Pregunta 1.3. ¿Cuántos defectos son encontrados durante su instalación?

Métrica 1.3.2. Retraso debido a errores o características faltantes vs tiempo total de instalación

Meta 2. Facilidad de Instalación Pregunta 2.1 ¿Cuál es / era la "madurez" nivel de la organización en el momento de la instalación?

Métrica 2.1.1. Estimación subjetiva de la experiencia del grupo este de los instaladores en el momento de la instalación (1 a 5). Métrica 2.1.2. Estimación subjetiva de la dificultad de instalación (1 a 5).

El resultado de este avaluación es el siguiente:

Seminario de Graduación 2011/2012

15

Universidad Técnica Federico Santa María Departamento de Informática Programa de Magíster en Tecnologías de la Información

|

Pentaho Configuración del ambiente del producto($) Instalación del producto($) errores en el proceso de instalación($)

$1750 $1750 $1166 $4666 Este costo está calculado a un costo hora hombre de $3500.-

SpeagoBI

OBIEE

$2333 $2917 $3500 $8750

$5250 $18666 $17500 $41416

b.

Fortalezas y debilidades presentadas en Cuadrante Mágico de Gartner para Plataformas de BusinessIntelligence1.

c.

Experiencia de otras universidades chilenas sobre la implementación de estas herramientas BI.

El análisis completo de las ventajas y desventajas de cada una de las suites se encuentran descritas en el documento “Anexo 01 – Desarrollo de la Herramienta BI”. Como conclusión a todo este análisis para la selección de la herramienta BI, se concluye que la suite seleccionada para la implementación de la Herramienta BI en la Universidad de La Serena es Pentaho. Cabe destacar que La Universidad ha adquirido una licencia de Pentaho BI Suite Enterprise Edition, por lo que se ocupará esta versión de la herramienta en los siguientes puntos a abordar. 3.3.3. Etapa de construcción. 3.3.3.1. Desarrollo del ETL. Extracción de la información (extract): Se realizan las consultas SQL definidas anteriormente, obteniendo los datos necesarios para cargar la tabla base de los datamart de rendimientos y matrícula como se aprecia en la siguiente figura:

Fig. 3.3.3.1-1: Datos base para datamart de rendimiento.

Fig. 3.3.3.1-2: Datos base para datamart de matrícula. 1

[ref-web 16]: http://www.gartner.com

Seminario de Graduación 2011/2012

16

|

Universidad Técnica Federico Santa María Departamento de Informática Programa de Magíster en Tecnologías de la Información Transformación de la información (Transform): En este proceso se ocupa la herramienta de integración de datos de Pentaho llamada Spoon, el cual permite hacer el proceso ETL de manera automatizada. El proceso de transformación es el siguiente: Para el datamart de rendimiento, se toma la tabla base llamada BASE_RENDIMIENTO, y se aplican una serie de transformaciones para obtener las tablas de dimensiones. Por ejemplo, para obtener la tabla de dimensión llamada DIM_CARERA, primero se realiza un ordenamiento de la información, por el código y resolución de la carrera, con el fin de facilitar la labor de clasificación que realiza la herramienta. Luego se define el conjunto de campos que generan un registro único para cada carrera, para luego asignarle una clave primaria secuencial por cada registro distinto encontrado. Por último se asignan los campos definitivos que alimentaran a la tabla DIM_CARRERA. Este proceso se repite para cada una de las dimensiones del datamart, dando como resultado el modelo de transformación siguiente:

Fig. 3.3.3.1-3: Modelo de transformación de las tablas de dimensiones del datamart de rendimiento.

Para obtener la tabla de hechos de rendimiento, se enlaza cada uno de los ID de las tablas de dimensiones con los registros de la tabla base, para luego traspasar el registro convertido con dichos ID a la tabla de hechos. El modelo de transformación resultante es el siguiente:

Seminario de Graduación 2011/2012

17

|

Universidad Técnica Federico Santa María Departamento de Informática Programa de Magíster en Tecnologías de la Información

Fig. 3.3.3.1-4: Modelo de transformación de la tabla de hechos del datamart de rendimiento.

Para el datamart de Matricula, el proceso es exactamente el mismo y está descrito en el documento “Anexo 01 – Desarrollo de la Herramienta BI”. Carga de la información (Load): Para la carga de la información a los datamart de rendimiento y matricula, simplemente se ejecutó el modelo construido en Spoon de Pentaho, y éste cargó automáticamente toda la información en las tablas definitivas de la Herramienta BI. 3.3.3.2. Desarrollo de la aplicación. Para el desarrollo de la herramienta BI primero utilizará la herramienta de Pentaho, Schema Workbench, con el cual construiremos los cubos de gestión del datamart de rendimientos y de matrículas y poder, después, construir los reportes, análisis y dashboards necesarios para satisfacer los indicadores de gestión propuestos anteriormente. Para el caso del Datamart de Rendimientos, la estructura del cubos de gestión se puede apreciar en las siguiente figura:

Fig. 3.3.3.2-1: Cubo de gestión de datamart de rendimiento.

Seminario de Graduación 2011/2012

18

|

Universidad Técnica Federico Santa María Departamento de Informática Programa de Magíster en Tecnologías de la Información A continuación ingresamos a la consola de usuario de Pentaho, en donde podemos crear los reportes, análisis o dashboards que serán mostrados a las diferentes unidades requirentes.

Fig. 3.3.3.2-2: Consola de usuario – Creación de reporte de datos.

Algunos reportes resultantes para este proceso son los siguientes:

Fig. 3.3.3.2-3: Tasa de retención.

Fig. 3.3.3.2-4: Tasa de deserción.

Seminario de Graduación 2011/2012

19

|

Universidad Técnica Federico Santa María Departamento de Informática Programa de Magíster en Tecnologías de la Información En cuanto al acceso a la información por parte de los usuarios requirentes (stakeholders definicionales e instrumentales), se utiliza la consola de administración de Pentaho, con el que se crean perfiles de usuario en la herramienta, con los cuales contienen los reportes por rol definido para así controlar el acceso de los usuarios a la información y facilitar el uso a la información precisa que necesita el usuario requirente.

3.3.3.3. Minería de datos. Pentaho BI Suite Enterprise Edition, incorpora la herramienta Data Mining el cual servirá para descubrir significantes patrones de comportamiento y correlaciones que pueden estar escondidos. Para los propósitos de este documento, esta herramienta no será utilizada.

3.3.3.4. Desarrollo del repositorio de la metadata Pentaho BI Suite Enterprise Edition, incorpora la herramienta Pentaho Metadata Editor, con el cual se podrá definir fácilmente el metadata, dando una descripción de los campos de las tablas el cual permitirá la construcción de reportes de forma más sencilla, sin necesidad de conocer la estructura física de las tablas, dando flexibilidad e independencia del esquema físico. Para los propósitos de este documento, la definición de los metadata se realizará una vez que la herramienta implementada logre un mayor grado de madurez, y se logren establecer mejores definiciones de la información que toda la comunidad universitaria requiere.

3.3.4. Etapa de Despliegue. 3.3.4.1. Implantación. Para el proceso de implantación, de definirá un cronograma de capacitación a los diferentes stakeholders definicionales para instruirlos sobre el uso y construcción de reportes y análisis. Además se agendarán capacitaciones para los stakeholders instrumentales, con el fin de mostrarles los diferentes reportes y análisis a los que pueden tener acceso.

3.3.4.2. Evaluación de la aplicación entregada. Durante el proceso de desarrollo de la aplicación, se diseñaron reportes y análisis que necesarios satisfacer varios de los indicadores de gestión definidos en la etapa de análisis de negocio. Por ejemplo para la construcción de la tasa de retención los analistas institucionales deben solicitar al Centro de informática los listados de alumnos por cohorte indicando su carrera y año de ingreso. Luego se solicita por cada uno de ellos su avance curricular y el estado de matrícula de cada semestre (por ejemplo “alumno regular”, “suspendido”, “eliminado”, etc) desde el año de ingreso del alumno hasta el año actual, para luego cruzar esta información y construir una matriz con cantidad de alumnos por carrera para cada cohorte solicitada, con la que posteriormente se construye el indicador de la tasa de retención. Todo este proceso demora aproximadamente una semana, entre la solicitud de información, el cruce y validación dela misma. Con la nueva herramienta BI se tomó el datamart de matrículas, el cual ya está normalizado y validado y se construyó el indicador de tasa de retención con la herramienta de análisis de información solo una vez, y con eso se obtuvo el reporte del indicador en cuestión en menos de un Seminario de Graduación 2011/2012

20

Universidad Técnica Federico Santa María Departamento de Informática Programa de Magíster en Tecnologías de la Información

|

día. Además se pudo obtener reportes más específicos manipulando los datos de entrada, de manera mucho más fácil y rápida, sin necesidad de procesar nuevamente toda la información. La siguiente gráfica presenta el tiempo de generación de cada uno de los indicadores de gestión sin la herramienta BI, versus una estimación de los nuevos tiempos de generación de los indicadores con la nueva herramienta BI desarrollada: 6 5 4 3 2

Sin herramienta BI

1

Con herramienta BI

0

Fig. 3.3.4.2-1: Comparacion de tiempos de generación de indicadores de gestión

Como se puede ver en la gráfica, los tiempos de generación de los indicadores se mejoran considerablemente haciendo mucho más rápida y eficiente la entrega de la información a los usuarios requirentes, dando la flexibilidad necesaria para entregar reportes personalizados a cada unidad que lo necesite mejorando cuantitativamente la información entregada y con un mínimo de esfuerzo para lograrlo (ver figuras 3.3.4.2-2 y 3.3.4.2-3). Esto trae como consecuencia que el usuario no necesitará manipular dicha información para adaptarlo a sus necesidades específicas, lo cual tiene como riesgo una mala manipulación de los datos, provocando una entrega errada de informes a las autoridades que lo necesiten; por lo que el desarrollo de la herramienta BI traerá consigo una mejora cualitativa de la información final que será utilizada para la toma de decisiones de la institución. El desarrollo de la herramienta BI permitirá la construcción de todos los indicadores de gestión propuestos en el punto 3.1, por lo que se podrá cumplir con los lineamientos objetivos del Plan Estratégico de Desarrollo 2010-2014, cumpliendo con los requerimientos del proyecto BI Un factor de éxito de este proyecto son los antecedentes previos de proyectos de desarrollo de herramientas BI en otras universidades, evidenciados en esta tesina, con objetivos muy similares a los propuestos en la Universidad de La Serena, cuyos resultados han sido exitosos, por lo que el finalizar completamente el proyecto BI es altamente recomendable, basado en las experiencias de las otras instituciones universitarias. Con el uso de la herramienta BI, se podrá identificar nuevos indicadores de gestión que satisfagan las necesidades de la Institución y se podrá definir de mejor manera la metadata de información, para entregar de forma más precisa a cada unidad requirente la información puntual que necesiten.

Seminario de Graduación 2011/2012

21

|

Universidad Técnica Federico Santa María Departamento de Informática Programa de Magíster en Tecnologías de la Información Los datamarts construidos permiten entregar otro tipo de reportes necesarios para los stakeholders instrumentales, como son los rendimientos académicos, informes curriculares por alumno, informes que se entregan al SIES, INDICE y CRUH, Reportes de alumnos que suspenden, postergan y renuncian a la Universidad etc.

Fig. 3.3.4.2-2: Dashboard rendimiento académico

Fig. 3.3.4.2-3: otra version de Dashboard de rendimiento académico

Con todos estos antecedentes podemos concluir que se han logrado los objetivos de esta tesina, validando la hipótesis propuesta, ya que se ha evidenciado la mejora en tiempos de entrega y flexibilidad en la manipulación de informes entregados a los usuarios requirentes en particular con los que tienen que ver con los indicadores de gestión estratégicos.

Seminario de Graduación 2011/2012

22

Universidad Técnica Federico Santa María Departamento de Informática Programa de Magíster en Tecnologías de la Información

|

4. Conclusiones. Durante el desarrollo de este proyecto se han obtenido las siguientes conclusiones y lecciones aprendidas: Haciendo uso de metodologías, herramientas gerenciales y técnicas de BI, las instituciones universitarias podrían organizarse mejor, analizar más efectivamente la información que ya poseen, con miras a aprovechar las oportunidades de innovar y responder adecuadamente a los requerimientos del quehacer universitario que permitan dar cumplimiento a las metas

institucionales establecidas. Las instituciones universitarias están optando por incorporar aplicaciones que abarquen todas las actividades asociadas a BI, específicamente aquellas que apoyan el análisis del negocio. Las universidades chilenas son un claro ejemplo de esta necesidad. Su continuo crecimiento y complejidad ha generado nuevas necesidades a satisfacer, desde la perspectiva de la gestión tanto a nivel docente como estratégico y gracias a las herramientas BI han logrado cumplir con estas necesidades mejorando significativamente sus indicadores de gestión. Son varias las universidades chilenas que están desarrollando proyectos BI, con resultados exitosos, por ejemplo la Universidad Técnica Federico Santa María, el cual, entre las ventajas y beneficios de que obtuvieron al contar con esta herramienta, está la pronta disponibilidad de los datos en un repositorio centralizado, creado específicamente para los requerimientos de la universidad. Otro ejemplo es la Universidad de Tarapacá que luego de desarrollar la herramienta BI, estableció una fuente única de información para el análisis de las actividades correspondientes al área de admisión y matrícula. Toda esta experiencia previa de proyectos BI en universidades chilenas, cuyos resultados han sido beneficiosos para estas instituciones, da pie para iniciar un proyecto de BI en la Universidad de La Serena. Gracias al exitoso Proyecto de Renovación Global de Tecnologías de Información y Comunicaciones (Proyecto Phoenix.ULS), La Universidad de la Serena cuenta hoy con una gran cantidad de datos e información totalmente centralizados, sobre una base de datos unificada, a la cual acceden las diferentes aplicaciones que apoyan los procesos en las macro áreas ya mencionadas. El SAGI actual, presenta poca flexibilidad a la hora de entregar reportes, haciéndose indispensable hoy en día contar con una herramienta de Inteligencia Empresarial, que permita mayor dinamismo y menores tiempos en la construcción de aplicaciones de análisis, reportes y gráficos y cuya integración a otras aplicaciones al interior de la Institución, sea de bajo impacto y fácil mantención. Con toda esta información ya normalizada y centralizada, se hace factible la construcción, de una herramienta BI, cuyo resultado permita generar lineamientos con el Plan Estratégico de Desarrollo (PED) de la Universidad de La Serena. La alta Dirección de la Universidad de La Serena, está consciente de la importancia de contar con una herramienta BI para la gestión estratégica de la Universidad, Invirtiendo en una licencia de Pentaho BI Suite Enterprise Edition, para aprovechar al máximo todas las características de esta herramienta, además del acceso al soporte técnico necesario sobre todo en las primeras etapas de este proyecto. La Dirección de Planificación en Conjunto con la Dirección de Docencia han definido una serie de indicadores que permitirán dar operatividad a los lineamientos del Plan Estratégico de Desarrollo apoyados fuertemente con las herramientas BI desarrolladas. Seminario de Graduación 2011/2012

23

Universidad Técnica Federico Santa María Departamento de Informática Programa de Magíster en Tecnologías de la Información

|

Durante el proceso de ETL se pudo comprobar la integridad y limpieza de los datos producto del proceso de centralización de información del Proyecto Phoenix.ULS, facilitando mucho las labores de extracción y transformación de los datamarts construidos durante este proyecto. Con los datamarts de rendimientos y matrículas construidos, se podrá satisfacer a cabalidad los indicadores de gestión iniciales elaborados por la Dirección de Planificación y la dirección de Docencia. Todo esto da pie para la construcción de nuevos datamarts focalizados en otros aspectos de gestión de la Universidad, como son los niveles socioeconómicos de alumnos, tasa de empleabilidad del egresado etc. Se deben efectuar reuniones de coordinación con todos los stakeholders involucrados, con el fin de enriquecer esta herramienta con nuevos reportes y análisis de información. Es altamente recomendable planificar un proceso de minería de datos para descubrir información valiosa que puede contener los repositorios de datos como por ejemplo: patrones de comportamiento de estudiantes según su avance curricular o situación académica, y así mejorar la gestión institucional.

5. Agradecimientos. Quiero agradecer a René Felipe Viancos, Director del Centro de Informática y Computación de la Universidad de la Serena, quién hizo posible que pudiera realizar el MTI, y además desempeñó el rol de profesor guía co-referente en la confección de este documento, dándome la responsabilidad y el tema a desarrollar, las pautas de enfoque del proyecto y la estrategia de desarrollo de la tesina, la que en sí es una continuación de su tesina de este mismo programa de postgrado titulada “Proyecto de Renovación Global de Tecnologías de Información y Comunicaciones para la Universidad de La Serena, Proyecto Phoenix.ULS”, dado el ámbito en el que están desarrolladas, por lo que su apoyo constante y proyecto de tesina fue fundamental para realización de este trabajo.

6. Referencias. [ref. web 01] : http://www.userena.cl/sagi [ref. web 02] : La información como arma competitiva. Paper extraído desde http://www.edsa.com.ar/Esp/EDbis/indexedbis.html [Moss 2003] : Larissa T. Moss, Shaku Atre (2003) “Business Intelligence Roadmap: The Complete Project Life cycle for Decision-Support Applications” .Addison Wesley ISBN 0-201-78420-3 [ref. web 03] : http://www.krconsulting.cl [ref. web 04] : http://www.datamart.cl/ [ref. web 05] : http://www.seginus.cl/pages/show/1 [ref. web 06] : http://www.scielo.cl/scielo.php?pid=S0718-33052010000300012&script=sci_arttext [ref web 07] : http://tiny.cc/casu_bi_usm Seminario de Graduación 2011/2012

24

|

Universidad Técnica Federico Santa María Departamento de Informática Programa de Magíster en Tecnologías de la Información

[ref-web 08] : INDICES: estadísticas y base de datos. Consejo nacional de educación - http://www.cned.cl [ref-web 09] : Servicio de Información de Educación Superior (SIES). http://www.sies.cl/ [ref-web 10] : Plataforma Tecnológica Docente Integrada - http://phoenix.cic.userena.cl [ref-web 11]: http://bi.abast.es/dashboards.shtml [ref-web 12] : Plan Estratégico de Desarrollo ULS 2010-2014 http://userena.cl/archivos/45403_Plan_Estrategico_de_Desarrollo_ULS_2010_-_2014.pdf [ref-web 13] : http://www.computerworld.com/s/article/88349/Business_Intelligence_One_Version_of_ the_Truth [Peterson-Ferell 2005]: Robert Allen Peterson, O. C. Ferrell (2005) Business Ethics: New Challenges for Business Schools and Corporate Leaders. M.E. Sharpe. ISBN 0765614588, 9780765614582 [ref-web 14]: Anuario Estadístico del CRUCH – http://www.consejoderectores.cl/site/publicaciones_anuario.php

[ref-web 15]: Fondo de revitalización del CRUCH – http://www.superior.mineduc.cl/index2.php?id_portal=38&id_seccion=3063&id_contenid o=18979 [ref-web 16]: Distribución del Ingreso por decil (quintil) de Ingreso Autónomo per cápita del Hogar: http://www.ministeriodesarrollosocial.gob.cl/casen/definiciones/ingresos.html [ref-web 17]: Kimball vs Inmon. Ampliación de conceptos del Modelado Dimensional http://churriwifi.wordpress.com/2010/04/19/15-2-ampliacion-conceptos-del-modelado-dimensional

Seminario de Graduación 2011/2012

25

|

Universidad Técnica Federico Santa María Departamento de Informática Programa de Magíster en Tecnologías de la Información

Anexo 01 – Desarrollo de la Herramienta BI 7. Etapa de Justificación. En la actualidad, tanto la Dirección de Planificación, como la Dirección de Docencia de la Universidad de La Serena, se ven continuamente requeridas a provisionar información para completar indicadores, ya sea para el uso interno en procesos como autoevaluación de carreras, proceso de acreditación, tasas de aprobación, evolución de las cohortes, etc., así como también a entregar información para responder a requerimientos externos como son INDICE[ref-web 08], SIES[ref-web 09], listado de alumnos renovantes de beneficios estudiantiles al MINEDUC entre otros. La Universidad dispone, a consecuencia del proyecto Phoenix.ULS, de la Plataforma Tecnológica Docente Integrada [ref-web 10] que automatiza y centraliza los procesos académicos de la Institución, logrando que los input de datos al sistema estén normalizados y controlados. De lo indicado se puede proyectar que se dispone de bases de datos confiables y centralizadas, sin redundancia de datos entre subsistemas Institucionales, que permitirían realizar no solo tareas administrativas sobre estos datos si no también realizar procedimientos de mayor complejidad y preparación, con el fin de generar información relevante y pertinente sobre estos datos orientada a apoyar los proceso de mejora continua y de calidad de nuestra Institución Además, en la Universidad existe el Sistema de Apoyo a la Gestión Institucional SAGI, que es un Datamart de datos presentados en forma de métricas y herramientas básica de BI en un entorno web. Este sistema cumple con los objetivos de presentación de estas métricas de apoyo a la gestión Institucional, pero carece de herramientas para el análisis dinámico de los datos y generación de reportes, no pudiendo integrar estas herramientas en dashboards[ref-web 11] orientados a facilitar la publicación de la información, etc. Por lo anterior la Universidad adolece de un sistema orientado al análisis en línea de la información. A consecuencia de lo anterior surge la necesidad de implementar una solución de software orientada a la gestión integral de los datos que permita a la Dirección de Planificación y a la Dirección de Docencia sistematizar y consolidar estos en modelos orientados al análisis en línea, provisión de reportes además de la presentación de métricas e indicadores visualizados en dashboards, con el fin de transformar estos datos en información relevante para La Universidad. Esta solución deberá disponer de interfaces con una fuerte inclinación hacia la usabilidad, que permita a las autoridades visualizar la información relevante para apoyar sus decisiones y estudios. Es por esto que se proyecta la implantación de una solución de Business Intelligence (BI), que permita la interoperabilidad con los sistemas institucionales, mediante herramientas y procesos de ETL, sobre los datos en las BBDD académicas Institucionales, con el fin de ofrecer una herramienta que pueda automatizar la provisión de datos solicitados a esta dirección. L2: “Logro de niveles de calidad y cobertura en la enseñanza de pregrado, con procedimientos sistemáticos de mejoramiento y aseguramiento de la calidad de los servicios” [ref-web 12] La cita anterior es parte de los lineamientos estratégicos del Plan Estratégico de Desarrollo (PED) de la Universidad de la Serena, y como podemos observar existe en él una prerrogativa de calidad y mejora continua de los procesos formativos y de los resultados académicos. Ahora con un proyecto de BI, que a través de herramientas tales como reportes, consultas y análisis de datos, permitirá a la Institución sistematizar la información relevante de los servicios, aportando al mejoramiento de estos. Además se proyecta la generación de conocimiento no disponible actualmente sobre los procesos de enseñanza de pregrado, con el fin de dar soporte a la toma de decisiones orientadas al aseguramiento de la calidad de estos.

Seminario de Graduación 2011/2012

26

|

Universidad Técnica Federico Santa María Departamento de Informática Programa de Magíster en Tecnologías de la Información El párrafo anterior se enmarca dentro del marco teórico de un proyecto BI, entendiendo que éste no tiene una relación con el “negocio” de la organización, sí no que se enfoca en sus datos y en generar información valiosa que aporte al conocimiento de la Organización de su propio quehacer y esto se resumen en una frase inspiradora de todo proyecto BI: “Lo que no se define no se puede medir. Lo que no se mide, no se puede mejorar. Lo que no se mejora, se degrada siempre.” [2] De esta cita podemos proyectar la necesidad estratégica de la Universidad de la Serena de definir sus Indicadores claves de sus procesos y, a continuación, automatizar estos en un sistema integral de apoyo a la gestión, que presente estos indicadores en formatos accesibles y en tiempo real tales como gráficos, métricas o herramientas de presentación de datos. Hasta ahora se ha presentado la necesidad de disponer de una herramienta de gestión que provea funcionalidades dinámicas que apoyen la elaboración de reportes y análisis en línea de los datos. Pero otra de las necesidades que también es resuelta con BI, es obtener o descubrir nuevos conocimientos en base a información presentada en forma de indicadores claves de la Institución y su evaluación histórica. Además de proveer herramientas a los analistas institucionales, para realizar nuevas correlaciones de los datos institucionales.

8. Etapa de Planificación. 8.1. Evaluación de la Estructura empresarial. A través del proyecto Phoenix.ULS, se pudo renovar toda la infraestructura informática de la Universidad de La Serena, administrada por el Centro de Informática y Computación, adquiriendo servidores de última generación, tanto para la BBDD, como para los diferentes servicios que presta en Centro de Informática. Además se cuenta con un firewall que permite dar los niveles de la seguridad necesarios para mantener toda la información que generan las aplicaciones académicas, administrativas y financieras.

Fig. 2.1-1: Infraestructura del Centro de Informática.

Toda esta renovación permitió organizar de mejor manera la infraestructura del flujo de información e interrelación de los distintos sistemas informáticos, permitiendo concentrar la información en una base de datos centralizada.

2

William Thomson, Primer barón de Kelvin.

Seminario de Graduación 2011/2012

27

|

Universidad Técnica Federico Santa María Departamento de Informática Programa de Magíster en Tecnologías de la Información

Fig. 2.1-2: Esquema general de interrelación de sistemas informáticos.

En conclusión, La Universidad de La Serena cuenta con la infraestructura necesaria para llevar a cabo el desarrollo de la Herramienta BI que se propone. 8.2. Planificación del proyecto. En cuanto al ámbito del proyecto, este buscará consolidar los actuales esfuerzos de automatización de generación de información institucional, en base a herramientas de acceso a los datos que sigan los siguientes principios: Información en línea (Reportes, análisis y dashboards). Información primaria o sin procesar (Reportes) Información Procesada (Indicadores claves de rendimiento KPI, Métricas Institucionales, dashboards) Acceso a la información en base a los perfiles de usuario. Consolidado de históricos de la información. Bajo la premisa de “One Version of the truth”[ref-web 13] Finalmente se busca dotar a las unidades requirentes de un set de herramientas, procesos y definiciones necesarias para cumplir cabalmente la necesidad de un sistema de apoyo a la gestión docente y mejora continua de los proceso académicos que requieran análisis y correlación de datos, partiendo por documentar y formalizar la realidad actual de los proceso (histórica y reciente), y así disponer de herramientas en tiempo real para que los usuarios puedan realizar análisis sobre estos datos con el fin de generar información relevante para el proceso, además de formalizar indicadores necesarios para monitorear Fig. 2.2-1: Herramientas Business Intelligence el comportamiento de los procesos docentes de la Institución y, finalmente, con esta información apuntar a generar real conocimiento sobre estos procesos que permita realizar análisis estadísticos orientados a realizar acciones remediales de forma proactiva. Respecto a los principales actores de este proyecto podemos decir: “Los Stakeholders son aquellos grupos que pueden afectar o ser afectados por el logro de los propósitos de la organización”.[Peterson-Ferrel 2005]

Seminario de Graduación 2011/2012

28

Universidad Técnica Federico Santa María Departamento de Informática Programa de Magíster en Tecnologías de la Información

|

En esta definición se señala a la relación de interés mutuo entre una organización y sus stakeholders, en términos que los éxitos y fracasos afectan de ambas partes afectan el proceso o sistema que comparte. Esto según los autores no sólo se aplican a las macro organización, sino también en la relación de los departamentos o unidades que la conforman, llamaremos a estos el enfoque bottom-up de esta definición de los stakeholders. Acercando estas definiciones a este proyecto en particular, podemos indicar las siguientes definiciones para estas categorías: Stakeholders definicionales: Corresponden a todos los cargos directivos que establecen criterios para los datos e información que debe provisionar la herramienta. Stakeholders instrumentales: Corresponden a todas las macro unidades, direcciones y unidades, que son solicitantes de información y fuentes de datos. Como podemos observar es clara la división entre los grupos de stakeholders, unos establecen qué y cómo provisionar los datos de información y otros son los que solicitan o son fuentes de datos no académicos. Ahora, lo que no resulta claro del todo es quiénes pertenecen a cada grupo. De esto se puede concluir que no hay pertenencias absolutas, por lo que podemos hablar de roles, en términos que en un determinado proceso una unidad puede ser la que formaliza algún criterio y en otro proceso es un requirente de información. Con la última caracterización podemos indicar las siguientes definiciones: StakeholdersDefinicionales Stakeholders

Reglamentaciones

Consejo de asuntos académicos

Reglamento de régimen de estudio

Directora de Docencia

Diccionario de datos Institucional

Consejo académico

Decreto de carrera

Dirección general de asuntos estudiantiles.

Informa por Oficio

Departamentos académicos

Contratos

Criterios - Modalidades de alumnos (regulares, suspendidos, postergados, renunciados). - Nivel del alumno. - Escala de calificaciones. - Retención y tasa de retención. - Deserción y tasa de deserción. - Cohorte. - Alumnosmatriculados. - Tasa de aprobación. - Egresado - Titulado - Licenciado - Becas. - FCSU - Quintil. - Modalidad académicos (de planta, por hora.)

Lo anteriores miembros de la comunidad universitaria son los responsables de formalizar criterios que son aplicados toda información académica que se provisiona. Ahora los stakeholders que son requirentes o fuentes de datos:

Seminario de Graduación 2011/2012

29

Universidad Técnica Federico Santa María Departamento de Informática Programa de Magíster en Tecnologías de la Información

|

Stakeholders Instrumentales Stakeholders

Fuente de Datos

Dirección de Planificación y estudios Institucionales

- Acceso a la red de oficina de estudios institucionales. - Estudios de elaboración propia

Dirección general de Asuntos Estudiantiles.

- Toda información socioeconómica de los alumnos.

Escuelas

- Plataformas Tecnológicas

Departamentos académicos

- Plataformas Tecnológicas

MINEDUC

- Datos P.S.U. - Procedencia de los alumnos. - Datos de colegio de procedencia

Solicita Datos - SIES. - INDICE. - Datos de egresados y titulados. - Informes CRUCH. - Datos para estudios propios - Confirmaciones académicas. - Rendimientos Académicos. - Reportes de alumnos que suspenden, postergan y renuncian a la Universidad. - Reportes de académicos. - Uso de espacios físicos. - Datos de la oferta Académica. - Reportes de académicos. - Uso de espacios físicos. - Datos de la oferta Académica. - La entrega de información académica al MINEDUC, es coordinada por la Dirección de Planificación.

El objetivo de este apartado es caracterizar a los principales stakeholders del proyecto, en términos de su influencia en el flujo de la información que debe provisionar y sobre qué debe provisionar. Con este insumo en etapas posteriores se podrá caracterizar los roles de los usuarios en el sistema, así como también la construcciones de los primeras herramientas BI orientadas a satisfacer, como base de este proyecto, las actuales necesidades de información de los stakeholders instrumentales.

9. Etapa de análisis del negocio. 9.1. Definición de los requerimientos del proyecto. La Universidad de la Serena ha formalizado sus metas y objetivos en su Plan Estratégico de Desarrollo (PED) 2010-2014[ref-web 12]. Por esta razón cualquier esfuerzo en términos de desarrollar indicadores Institucionales (traducidos en requerimientos del proyecto) debe reflejar los factores de éxito definidos en el PED, entendiendo que el “negocio” de la Institución es la Educación. Los indicadores que sean seleccionados deberán dar operatividad a los lineamientos objetivos del PED, desde la perspectiva de los resultados académicos. Esto lo podemos evidenciar en los siguientes lineamientos: L1: Desarrollo de un sistema eficiente de gestión Institucional. L2: Logro de niveles de calidad y cobertura en la enseñanza de pregrado, con procedimientos sistemáticos de mejoramiento y aseguramiento de la calidad de los servicios. Con esto podemos concluir que para medir el logro de estos lineamientos estratégicos, es una necesidad Institucional generar indicadores de gestión transversales, integradores y cuantificables. Además de la necesidad interna de requerimientos de información explicitada en los párrafos anteriores, existe por la naturaleza intrínseca del financiamiento público de nuestra Institución, requerimientos de datos tales como SIES, INDICE, Memoria del CRUCH[ref-web 14] y otros tantos Seminario de Graduación 2011/2012

30

Universidad Técnica Federico Santa María Departamento de Informática Programa de Magíster en Tecnologías de la Información

|

que sólo requieren el llenado de bases de datos enviadas por estas organizaciones. Si bien, como se ha dicho, estos son requerimientos de datos duros, la Universidad sabe que sobre estos se obtendrán métricas como: Tasa de titulación, tasa de retención (en especial de primer año), titulación efectiva, tiempo efectivo de titulación y otros como empleabilidad que se han agregado en los últimos periodos. Todos requerimientos son de datos académicos, más información demográfica. Pero existe también una tendencia a enlazar esta información, en especial por el Fondo de Revitalización de las Universidades Estatales [ref-web 15], a los denominados quintiles[ref-web 16], y en particular a los quintiles 1 y 2 de la población. Es aquí donde el concepto de “transversalidad” toma relevancia al definir un indicador y posteriormente seleccionar las herramientas que se usarán para dar operatividad a este indicador, pues es un aspecto relevante el considerar que el indicador tendrá más de una fuente de información. Actualmente no existe ningún indicador oficial de la Institución, la Dirección de Planificación y Estudios Institucionales, en conjunto con la Dirección de Docencia están trabajando en la formulación de estos en función de propuestas de las Direcciones responsables de los datos. Bajo esta premisa se han propuesto los siguientes indicadores: Tasa de retención en un Corresponde a la proporción de alumnos de la Cohorte m que no ha dejado sus estudios incompletos de manera anticipada antes del inicio del año . Esto incluyendo alumnos suspendidos y postergados. Tasa de deserción en un Corresponde al total de alumnos de la cohorte n que no han continuado sus actividades académicas al momento de informar esta tasa. Tasa de reprobación Corresponde al valor porcentual entre todos de alumnos inscritos en determinada asignatura y que presentan notas al final semestre, contra los alumnos que reprobaron dicha asignatura. Tasa de aprobación Corresponde al valor porcentual entre todos de alumnos inscritos en determinada asignatura y que presentan notas al final semestre, contra los alumnos que aprobaron dicha asignatura. Tasa de titulación de la cohorte

)

Corresponde a la proporción entre los titulados de la Tasa de egreso de la cohorte

en un

y la

.

)

Corresponde a la proporción entre los egresados de la

Seminario de Graduación 2011/2012

en un

y la

.

31

|

Universidad Técnica Federico Santa María Departamento de Informática Programa de Magíster en Tecnologías de la Información 9.1.1. Análisis de datos. Una de las tareas más importantes realizadas durante el desarrollo del Proyecto Phoenix.ULS, fue el de la consolidación y centralización de toda la información distribuida en los diferentes sistemas informáticos con los que contaba la Universidad de la Serena. En ella se realizaron diferentes procesos de normalización, y validación de datos logrando obtener una base de datos unificada, conservando la integridad y fiabilidad de la misma. Expuesto lo anterior, podemos decir que el nivel de calidad de la información de las bases de datos de la Universidad es alto, por lo que el proceso de ETL del proyecto requerirá de procesamientos mínimos de normalización de datos. 9.1.2. Prototipo de la aplicación. Para este proyecto en particular, no se desarrolló un prototipo de la herramienta BI, ya que en la actualidad la Universidad de La Serena cuenta con el SAGI, por el cual nos estamos basando para el desarrollo de este proyecto 9.1.3. Análisis del repositorio del metadata. Actualmente las bases de datos de la Universidad de La Serena contienen información de todo el quehacer universitario, los cuales incluyen ámbitos académicos, financieros y administrativos. Para el desarrollo de la herramienta BI propuesta nos enfocaremos principalmente en el metadata académico, concentrándonos particularmente en la información de matrícula de los alumnos, así como de su avance curricular. En la siguiente figura se muestra el modelo de datos resumidos se información de matrícula y avance curricular de los alumnos.

Fig. 3.1.3-1: Modelo de datos de matrícula y avance curricular

Seminario de Graduación 2011/2012

32

|

Universidad Técnica Federico Santa María Departamento de Informática Programa de Magíster en Tecnologías de la Información 9.2. Etapa de diseño. 9.2.1. Diseño de la base de datos. Para cumplir con los requerimientos de información, traducidos en indicadores de gestión, se diseñaron dos esquemas de datos que darán como resultado dos datamart de información: Datamart de Matrículas: Este datamart contendrá la información de matrícula de los alumnos, en donde se podrá obtener la información de todos los semestres en los que el alumno realizó una actividad académica, indicando el estado del alumno en ese semestre (Alumno Regular, Suspendido, Postergado, Renunciado, Egresado, Titulado, etc.). Con toda esta información, se podrá calcular los indicadores de Tasa de retención, Tasa de deserción, Tasa de titulación y Tasa de egreso. Datamart de Rendimientos: Este datamart contendrá la información de los rendimientos de alumnos, en donde se podrá obtener el avance curricular del mismo, indicando las notas finales por cada asignatura que el alumno haya realizado y el estado de la misma (Aprobado, Reprobado, Homologado etc.). Con toda esta información, se podrá calcular los indicadores de Tasa de Aprobación y Tasa de Reprobación.

Seminario de Graduación 2011/2012

33

|

Universidad Técnica Federico Santa María Departamento de Informática Programa de Magíster en Tecnologías de la Información

Modelo de Datos Datamart Matrículas

Seminario de Graduación 2011/2012

34

|

Universidad Técnica Federico Santa María Departamento de Informática Programa de Magíster en Tecnologías de la Información

Modelo de Datos Datamart Rendimientos

Seminario de Graduación 2011/2012

35

Universidad Técnica Federico Santa María Departamento de Informática Programa de Magíster en Tecnologías de la Información

|

9.2.2. Diseño del ETL. Para el Proceso de ETL se realizaron los siguientes pasos: Extracción de la información (extract): Se recopilará la información de las tablas señaladas en el punto anterior mediante consultas SQL, para obtener las siguientes estructuras de datos que servirán como base para el datamart de rendimientos y el datamart de matrículas:

Fig. 3.2.2-1: Esructuras de datos base.

Transformación de la información (Transform): Se tomará la estructura de datos base para extraer los campos que conformarán cada una de las tablas de dimensiones de los datamart de rendimiento y matrícula. A cada uno de los registros de cada dimensión se le asignará un campo identificador clave, para luego construir la tabla de hechos en base a los campos claves de cada tabla de dimensión quedando como resultado la base de datos multidimensional descrita en el punto anterior. Carga de la información (Load): Una vez definido el proceso de transformación, se procederá a la carga de los datos a los esquemas construidos para el datamart de rendimiento y de matrícula.

Seminario de Graduación 2011/2012

36

Universidad Técnica Federico Santa María Departamento de Informática Programa de Magíster en Tecnologías de la Información

|

9.2.3. Diseño del repositorio del metadata. En esta etapa se seleccionará la herramienta BI a utilizar para este proyecto, evaluando las fortalezas, debilidades y otros aspectos propios de las distintas herramientas de Business Intelligence del mercado. Las herramientas a evaluar son las siguientes: Pentaho es una suite de Herramientas de código abierto comercial para Inteligencia de Negocios que cuenta con todas las herramientas necesarias para cubrir el espectro completo de Inteligencia de Negocios dentro de una organización: Análisis interactivo (OLAP), Reportes, Integración de datos (ETL), Tableros de Control y Minería de datos. SpagoBI es una plataforma integrada para la Inteligencia de negocios desarrollada enteramente de acuerdo con la filosofía del software libre y de código abierto. Es una plataforma ya que cubre y satisface todos los requisitos de BI, tanto en términos de análisis y de gestión de datos, administración y seguridad. En el mundo analítico ofrece soluciones para la presentación de informes, análisis multidimensional (OLAP), minería de datos, tableros de mando (Dashboard) y consultas ad-hoc. Añade módulos originales para la gestión de procesos de colaboración a través de análisis dossiers y el análisis de geo-referencia. Oracle Business Intelligence Suite Enterprise Edition Plus (EE) es una suite completa de productos de BI para la empresa, entrega de toda la gama de funcionalidades de BI incluyendo Dashboard interactivos, inteligencia proactiva y alertas, reportes financieros y empresariales en tiempo real, inteligencia predictiva, análisis desconectados, y mucho más. Además de proporcionar la gama completa de funcionalidad de BI, Oracle Business Intelligence Suite EE Plus plataforma se basa en una plataforma probada, una arquitectura web orientada a servicios que ofrece la siguiente generación de funcionalidades para el BI.

Cada una de estas herramientas fue evaluada con los siguientes criterios de selección: d.

Cálculo del costo estimado de instalación, mediante métricas definidas a continuación:

Meta 1. Tiempo y costo de configuración del SO e Instalación de la aplicación Métrica 1.1.1. Tiempo en minutos que tardo para configurar la el OS

Pregunta 1.1. ¿Cuánto tiempo dedica a preparar el ambiente de producción?

Métrica 1.1.2. Tiempo total de Instalación de los Pre-requisitos (minutos) Métrica 1.1.3. M1.1.1/M1.1.2 Relación tiempo para el ajuste personalizado del OS. Métrica 1.1.4. Número de personas dedicadas a configurar el OS para la aplicación Métrica 1.2.1. Tiempo en minutos que tardo para configurar la aplicación

Pregunta 1.2. ¿Cuánto tiempo se necesita para dejar la aplicación en correcto funcionamiento?

Métrica 1.2.2. Tiempo total de Instalación (minutos) Métrica 1.2.3. M1.1.1/M1.1.2 Relación tiempo para el ajuste personalizado de un total de tiempo de instalación Métrica 1.2.4. Número de personas dedicadas a configurar la aplicación Métrica 1.3.1. Demora en el tiempo de instalación por haber fallado o no tener alguna característica necesaria

Pregunta 1.3. ¿Cuántos defectos son encontrados durante su instalación?

Métrica 1.3.2. Retraso debido a errores o características faltantes vs tiempo total de instalación

Meta 2. Facilidad de Instalación Pregunta 2.1 ¿Cuál es / era la "madurez" nivel de la organización en el momento de la instalación?

Métrica 2.1.1. Estimación subjetiva de la experiencia del grupo este de los instaladores en el momento de la instalación (1 a 5). Métrica 2.1.2. Estimación subjetiva de la dificultad de instalación (1 a 5).

El resultado de este avaluación es el siguiente:

Seminario de Graduación 2011/2012

37

Universidad Técnica Federico Santa María Departamento de Informática Programa de Magíster en Tecnologías de la Información

|

Configuración del ambiente del producto($) Instalación del producto($) errores en el proceso de instalación($)

Pentaho

SpeagoBI

OBIEE

$1750 $1750 $1166 $4666

$2333 $2917 $3500 $8750

$5250 $18666 $17500 $41416

Este costo está calculado a un costo hora hombre de $3500.e.

Fortalezas y debilidades presentadas en Cuadrante Mágico de Gartner para Plataformas de BusinessIntelligence3.

f.

Experiencia de otras universidades chilenas sobre la implementación de estas herramientas BI.

Como conclusión a todo este análisis para la selección de la herramienta BI, se obtiene lo siguiente: Sobre SpeagoBI Ventajas generales. Posibilidad de una fase de prueba con un caso real de uso (SAGI) sin que esto implique un compromiso económico y legal de la institución con algún proveedor de software. Desventajas generales. No disponer de soporte técnico especializado asociado a no disponer del personal capacitado aumenta el riesgo del proyecto. Sobre Pentaho Ventajas generales. Solución de BI usada en 2 universidades del CRUCH como son la Universidad de Tarapacá (con una matrícula de composición de alumnos similar a la de la Universidad de La Serena) y la Universidad Católica del Norte (institución con unas organización administrativa de mayor complejidad que nuestra institución, pues ésta, por ejemplo, cuenta con sedes). El caso de la Universidad Católica del Norte es aún más significativo en términos que se puede apreciar el éxito de la implantación de esta herramienta en la generación de una empresa spinoff de prestación de asesoría BI enfocada en Pentaho. Desventajas generales. No existe en la versión Open Source (CE) soporte técnico, sólo está disponible en el caso que la Universidad comprara la licencia Enterprise.

3

[ref-web 16]: http://www.gartner.com

Seminario de Graduación 2011/2012

38

Universidad Técnica Federico Santa María Departamento de Informática Programa de Magíster en Tecnologías de la Información

|

Sobre OBIEE Ventajas generales. Solución respaldada por la empresa de mayor prestigio en las bases de datos con centros de formación y capacitación presentes en chile. La Universidad de la Serena cuenta con profesionales capacitados en la administración de bases de datos Oracle. Desventajas generales. Dependencia absoluta del motor de base de datos Oracle. No existe según lo investigado, casos de uso real en las universidades chilenas. Curva de aprendizaje inabordable sin capacitación formal. Usabilidad en el dashboard del usuario, esto es un factor de riesgo importante a considerar contemplando que la información será destinada a usuarios no necesariamente habilitados en el uso de herramientas de software de esta complejidad. Por lo tanto la suite seleccionada para la implementación de la Herramienta BI en la Universidad de La Serena es Pentaho. Cabe destacar que La Universidad ha adquirido una licencia de Pentaho BI Suite Enterprise Edition, por lo que se ocupará esta versión de la herramienta en los siguientes puntos a abordar. 9.3. Etapa de construcción. 9.3.1. Desarrollo del ETL. Extracción de la información (extract): Se realizan las consultas SQL definidas anteriormente, obteniendo los datos necesarios para cargar la tabla base de los datamart de rendimientos y matrícula como se aprecia en la siguiente figura:

Fig. 3.3.1-1: Datos base para datamart de rendimiento.

Seminario de Graduación 2011/2012

39

|

Universidad Técnica Federico Santa María Departamento de Informática Programa de Magíster en Tecnologías de la Información

Fig. 3.3.1-2: Datos base para datamart de matrícula.

Transformación de la información (Transform): En este proceso se ocupa la herramienta de integración de datos de Pentaho llamada Spoon, el cual permite hacer el proceso ETL de manera automatizada. El proceso de transformación es el siguiente: Para el datamart de rendimiento, se toma la tabla base llamada BASE_RENDIMIENTO, y se aplican una serie de transformaciones para obtener las tablas de dimensiones. Por ejemplo, para obtener la tabla de dimensión llamada DIM_CARERA, primero se realiza un ordenamiento de la información, por el código y resolución de la carrera, con el fin de facilitar la labor de clasificación que realiza la herramienta. Luego se define el conjunto de campos que generan un registro único para cada carrera, para luego asignarle una clave primaria secuencial por cada registro distinto encontrado. Por último se asignan los campos definitivos que alimentaran a la tabla DIM_CARRERA. Este proceso se repite para cada una de las dimensiones del datamart, dando como resultado el modelo de transformación siguiente:

Seminario de Graduación 2011/2012

40

|

Universidad Técnica Federico Santa María Departamento de Informática Programa de Magíster en Tecnologías de la Información

Fig. 3.3.1-3: Modelo de transformación de las tablas de dimensiones del datamart de rendimiento.

Para obtener la tabla de hechos de rendimiento, se enlaza cada uno de los ID de las tablas de dimensiones con los registros de la tabla base, para luego traspasar el registro convertido con dichos ID a la tabla de hechos. El modelo de transformación resultante es el siguiente:

Seminario de Graduación 2011/2012

41

|

Universidad Técnica Federico Santa María Departamento de Informática Programa de Magíster en Tecnologías de la Información

Fig. 3.3.1-4: Modelo de transformación de la tabla de hechos del datamart de rendimiento.

Para el datamart de Matricula, el proceso es exactamente el mismo por lo que los modelos de transformación de las dimensiones y tabla de hechos son las siguientes:

Fig. 3.3.1-5: Modelo de transformación de la tabla de hechos del datamart de matrícula.

Seminario de Graduación 2011/2012

42

|

Universidad Técnica Federico Santa María Departamento de Informática Programa de Magíster en Tecnologías de la Información

Fig. 3.3.1-6: Modelo de transformación de las tablas de dimensiones del datamart de matrícula.

Carga de la información (Load): Para la carga de la información a los datamart de rendimiento y matricula, simplemente se ejecutó el modelo construido en Spoon de Pentaho, y éste cargó automáticamente toda la información en las tablas definitivas de la Herramienta BI.

9.3.2. Desarrollo de la aplicación. Para el desarrollo de la herramienta BI primero utilizará la herramienta de Pentaho, Schema Workbench, con el cual construiremos los cubos de gestión del datamart de rendimientos y de matrículas y poder, después, construir los reportes, análisis y dashboards necesarios para satisfacer los indicadores de gestión propuestos anteriormente.

Seminario de Graduación 2011/2012

43

|

Universidad Técnica Federico Santa María Departamento de Informática Programa de Magíster en Tecnologías de la Información La estructura de los cubos de gestión se puede apreciar en las siguientes figuras:

Fig. 3.3.2-1: Cubo de gestión de datamart de rendimiento.

Fig. 3.3.2-2: Cubo de gestión de datamart de matricula.

Seminario de Graduación 2011/2012

44

|

Universidad Técnica Federico Santa María Departamento de Informática Programa de Magíster en Tecnologías de la Información A continuación ingresamos a la consola de usuario de Pentaho, en donde podemos crear los reportes, análisis o dashboards que serán mostrados a las diferentes unidades requirentes.

Fig. 3.3.2-3: Consola de usuario – Creación de reporte de datos.

Fig. 3.3.2-4: Consola de usuario – Creación de reporte de análisis de datos.

Seminario de Graduación 2011/2012

45

|

Universidad Técnica Federico Santa María Departamento de Informática Programa de Magíster en Tecnologías de la Información Algunos reportes resultantes para este proceso son los siguientes:

Fig. 3.3.2-5: Tasa de retención.

Fig. 3.3.2-6: Tasa de deserción.

Seminario de Graduación 2011/2012

46

|

Universidad Técnica Federico Santa María Departamento de Informática Programa de Magíster en Tecnologías de la Información

Fig. 3.3.2-7: Tasa de aprobación.

Fig. 3.3.2-8: Rendimiento académico.

Fig. 3.3.2-9: Dashboard rendimiento académico.

Seminario de Graduación 2011/2012

47

|

Universidad Técnica Federico Santa María Departamento de Informática Programa de Magíster en Tecnologías de la Información En cuanto al acceso a la información por parte de los usuarios requirentes (stakeholders definicionales e instrumentales), se utiliza la consola de administración de Pentaho, con el que se crean perfiles de usuario en la herramienta, con los cuales contienen los reportes por rol definido para así controlar el acceso de los usuarios a la información y facilitar el uso a la información precisa que necesita el usuario requirente.

Fig. 3.3.2-10: Consola de administración – Creación de usuarios y roles.

9.3.3. Minería de datos. Pentaho BI Suite Enterprise Edition, incorpora la herramienta Data Mining el cual servirá para descubrir significantes patrones de comportamiento y correlaciones que pueden estar escondidos. Para los propósitos de este documento, esta herramienta no será utilizada. 9.3.4. Desarrollo del repositorio de la metadata Pentaho BI Suite Enterprise Edition, incorpora la herramienta Pentaho Metadata Editor, con el cual se podrá definir fácilmente el metadata, dando una descripción de los campos de las tablas el cual permitirá la construcción de reportes de forma más sencilla, sin necesidad de conocer la estructura física de las tablas, dando flexibilidad e independencia del esquema físico. Para los propósitos de este documento, la definición de los metadata se realizará una vez que la herramienta implementada logre un mayor grado de madurez, y se logren establecer mejores definiciones de la información que toda la comunidad universitaria requiere.

Seminario de Graduación 2011/2012

48

Universidad Técnica Federico Santa María Departamento de Informática Programa de Magíster en Tecnologías de la Información

|

9.4. Etapa de Despliegue. 9.4.1. Implantación. Para el proceso de implantación, de definirá un cronograma de capacitación a los diferentes stakeholders definicionales para instruirlos sobre el uso y construcción de reportes y análisis. Además se agendarán capacitaciones para los stakeholders instrumentales, con el fin de mostrarles los diferentes reportes y análisis a los que pueden tener acceso.

9.4.2. Evaluación de la aplicación entregada. Durante el proceso de desarrollo de la aplicación, se diseñaron reportes y análisis que necesarios satisfacer los indicadores de gestión definidos en la etapa de análisis de negocio, por lo que se puede concluir que el proceso de construcción de la herramienta se realizó en forma exitosa, logrando los objetivos iniciales propuestos para esta tesina. Además, los datamarts construidos permiten entregar otro tipo de reportes necesarios para los stakeholders instrumentales, como son los rendimientos académicos, informes curriculares por alumno, informes que se entregan al SIES, INDICE y CRUH, Reportes de alumnos que suspenden, postergan y renuncian a la Universidad etc. Con el uso de esta herramienta, se podrán definir nuevos indicadores que satisfagan las necesidades de la Institución y se podrá definir de mejor manera la metadata de información, para entregar de forma más precisa a cada unidad requirente la información puntual que necesiten. Todo este desarrollo permitirá reemplazar el actual SAGI, con esta nueva herramienta BI, el cual será la nueva Versión del Sistema de Apoyo a la Gestión Institucional.

Seminario de Graduación 2011/2012

49

Lihat lebih banyak...

Comentarios

Copyright © 2017 DATOSPDF Inc.