En un comuncicado, la UPO detalla que se trata de un estudio que servirá como base para futuros análisis y que se ha llevado a cabo en un hospital gestionado por esta empresa multinacional. El grupo de investigación 'TIC254-Data Science & Big Data Lab' de la Universidad Pablo de Olavide fue seleccionado por Ferrovial Servicios, tras un proceso de concurrencia competitiva, para llevar a cabo el reto 'Soluciones basadas en Inteligencia Artificial para la gestión óptima de datos energéticos'.
Se trata de la segunda convocatoria de retos de innovación impulsada desde la asociación de empresas e instituciones Sevilla Futura, con el objetivo de promover nuevas iniciativas innovadoras que se desarrollen en la ciudad dirigidas a solucionar problemas a los que se enfrentan en la actualidad sus empresas asociadas. En esta ocasión, el reto, organizado desde el área de innovación de Ferrovial Servicios, busca incrementar la eficiencia energética mediante soluciones basadas en inteligencia artificial para la gestión óptima de datos.
"El diseño de este sistema de gestión de eficiencia energética de edificios hace uso de los datos recogidos por contadores inteligentes y sensores. Posteriormente, estos datos son procesados mediante un módulo que incorpora inteligencia artificial y que es capaz de aprender los patrones subyacentes en los datos y obtener un modelo de predicción con el que hacer estimaciones de la energía a futuro en tiempo real", explica Alicia Troncoso Lora, catedrática de Lenguajes y Sistemas Informáticos de la UPO e investigadora principal del proyecto.
El diseño de este sistema de gestión óptima de eficiencia energética para edificios podrá integrarse con diferentes sistemas técnicos, protocolos, y soluciones de captura y medición como plataformas IoT, Scada, contadores inteligentes o estándar, entre otros, gracias a su naturaleza abierta y modular.
Las técnicas fundamentales que se utilizan en esta solución de inteligencia artificial son aprendizaje profundo (deep learning) y aprendizaje automático (machine learning), además de hardware específico para la computación de grandes volúmenes de datos (big data). Los algoritmos de deep learning y de machine learning son capaces de aprender dependencias temporales en los datos históricos, obteniendo un modelo predictivo capaz de estimar con gran exactitud los consumos futuros a un horizonte vista de un día. Además, este modelo predictivo inicial evoluciona en el tiempo a través de un aprendizaje incremental, incorporando los cambios de tendencias que se producen en los datos en el modelo y detectando las anomalías en tiempo real.
En cuanto a recursos de computación, para el coste computacional asociado al entrenamiento de estos modelos big data, el equipo de investigación ha usado tarjetas GPU -del inglés Graphics Processing Unit- que el grupo tiene actualmente desplegadas en el Data Science & Big Data Lab.
"La posibilidad de dar respuestas óptimas en forma de recomendaciones o actuaciones autónomas en las fórmulas de gestión de consumos y activos a partir del tratamiento inteligente de los datos bajo control derivan en un mantenimiento predictivo eficiente y en un uso sostenible de los recursos energéticos como principales beneficios del uso de estas técnicas", explica la investigadora Alicia Troncoso.
El grupo de investigación Data Science & Big Data Lab tiene una amplia experiencia en proyectos y publicaciones relacionadas con machine learning. Además de la citada investigadora principal, participan en este proyecto Francisco Martínez Álvarez, Federico Divina, Miguel García Torres, Gualberto Asencio Cortés, David Gutiérrez Avilés, José F. Torres Maldonado y Laura Melgar García.
Post a Comment